Zed pro
Sist vurdert: 2026-03-11 Verktøyansvarlig: Tormod Hellen Verktøyansvarlig (epost): tormod.hellen@dig.oslo.kommune.no Kostnad: $10 per bruker for pro-lisens. Bedriftslisens er "contact us". Se priser
Status
Godkjent
Beskrivelse
Zed er en kodeeditor. Den har innebygget funksjonalitet for AI, deriblant mulighet til å bruke modeller gjennom et abonnement på Zed pro, eller ved bruk av tredjeparts APIer. Dette dokumentet handler om AI-funksjonaliteten man får gjennom Zed pro. Dette kan deles opp i to deler: Edit Predictions og Agentic AI. Edit Predictions er autocomplete basert på AI. Zed tilbyr sin egen selvhostede modell for slik autocomplete: Zed Zeta. Denne tilbys til fastpris. For agentisk AI videreselger Zed tredjeparts modeller mot et mellomlegg. Zeds agentiske modeller er lite attraktive for utviklere hos Oslo kommune, ettersom kommunen tilbyr modeller via bedriftsabonnement på Copilot og AWS Bedrock.
Zed pro har generelt gode privacy-vilkår. Et betydelig unntak er deres agentiske modeller, der feedback-knapper vil sende den anmeldte samtalen samt relevant kontekst til Zed for å forbedre deres prompter. Det er derfor viktig at brukere av Zed pro skrur av feedback-knappene for agentisk AI slik at disse ikke kan bli trykket på ved forsømmelse eller uhell.
Leverandør
Leverandør
Navn: Zed Nettside: zed.dev Hovedkontor: USA
Hvor er leverandøren basert?
Datasenterlokasjoner
USA. Se også Subprocessor List.
Vurdering
Godkjente land: USA
Databehandlingsgarantier
Databehandlingsgarantier
Dokumentasjon:
Deling av data
Garanterer ingen deling
Lagring av data
Lagres ikke, med følgende unntak: - Ved opt-in og (ikke eller) detektert open source-lisens - Dersom bruker anmelder agentiske AI-responser
Trening av modeller
Brukes ikke til trening (unntak ved opt-in og (ikke eller) detektert open source-lisens)
Datakilder
Datakilder
Rammeverket for vurdering av KI verktøy har lagt til grunn følgende datakilder som inneholder bedriftsdata:
- Github
- AWS
- Datadog
Persondata:
- Ansatte E-post
- Ansatte brukernavn
Verktøyet kan også bruke offentlig tilgjengelig informasjon fra Internett. Når du bruker data fra usikre kilder er det en risiko for at dataene kan inneholde innhold som får modellen til å oppføre seg på uønskede måter. Du skal være oppmerksom på dette og vurdere risikoen før du bruker slike data med agenter som har bred tilgang.
Dersom verktøyet skal ha tilgang til andre datakilder eller persondata må du kontakte din jurist.
Vurdering
Ingen andre datakilder
Risikovurdering
Risikovurdering
Rammeverket for vurdering av KI verktøy har lagt til grunn følgende risikoer:
- Data på avveie
- KI agenten utfører uønskede handlinger
Vi har tatt utgangspunkt i at verktøyet ikke har tilgang til andre datakilder enn de som er listet opp i forrige seksjon. Vi har lagt til grunn at avtaleverket ikke tillater leverandør å bruke data til annet enn kun å levere tjenesten (ingen trening, lagring eller deling).
Det er gjort en vurdering av at verktøyet kan forårsake tap av data på utvikler-pc, tap av data i Github eller tap av data i AWS. For å unngå dette må bruker av verktøyet implementere tilstrekkelig tiltak til at vi kan ha tillit til at verktøyet ikke forårsaker skade. Det er opp til deg som bruker verktøyet å forsikre deg om at nødvendige sikkerhetstiltak er på plass. Ved utprøving av et nytt verktøy anbefales det å starte smått og bygge tillit til verktøyet over tid.
Vi har valgt å ikke stille konkrete krav til at verktøyet skal ha begrensede tilganger innenfor de rammene som er gitt i forhold til datakilder og valg av verktøy. Dette er fordi verdien av verktøyet blir mindre dersom det ikke har tilstrekkelig tilganger og vi velger derfor å la det være opp til bruker av verktøyet å vurdere hva som er et fornuftig tilgangsnivå. Vi anbefaler at dersom man skal bruke fullstendig autonome moduser så bør dette gjøres i en kontrollert kontekst.
Er dette dekkende for verktøyet du vurderer?
Vurdering
Ja
Brukeransvar
Brukeransvar
Når du tar i bruk verktøyet går du god for følgende:
- Du som tar i bruk verktøyet er ansvarlig for handlingene som utføres av verktøyet.
- Du må være klar over at KI-verktøy kan gjøre feil og at du må følge med på hva som skjer.
- Du må også være klar over at verktøyet kan utføre handlinger som du ikke ønsker.
- Dersom noe skulle gå galt, følg avviksrutinen til Oslo Origo.
- Du skrur av feedback-knappene for agentisk AI.
Bekreftelse
Ja, jeg forstår og godtar brukeransvaret