Skip to content

Zed pro

Sist vurdert: 2026-03-11 Verktøyansvarlig: Tormod Hellen Verktøyansvarlig (epost): tormod.hellen@dig.oslo.kommune.no Kostnad: $10 per bruker for pro-lisens. Bedriftslisens er "contact us". Se priser

Status

Godkjent

Beskrivelse

Zed er en kodeeditor. Den har innebygget funksjonalitet for AI, deriblant mulighet til å bruke modeller gjennom et abonnement på Zed pro, eller ved bruk av tredjeparts APIer. Dette dokumentet handler om AI-funksjonaliteten man får gjennom Zed pro. Dette kan deles opp i to deler: Edit Predictions og Agentic AI. Edit Predictions er autocomplete basert på AI. Zed tilbyr sin egen selvhostede modell for slik autocomplete: Zed Zeta. Denne tilbys til fastpris. For agentisk AI videreselger Zed tredjeparts modeller mot et mellomlegg. Zeds agentiske modeller er lite attraktive for utviklere hos Oslo kommune, ettersom kommunen tilbyr modeller via bedriftsabonnement på Copilot og AWS Bedrock.

Zed pro har generelt gode privacy-vilkår. Et betydelig unntak er deres agentiske modeller, der feedback-knapper vil sende den anmeldte samtalen samt relevant kontekst til Zed for å forbedre deres prompter. Det er derfor viktig at brukere av Zed pro skrur av feedback-knappene for agentisk AI slik at disse ikke kan bli trykket på ved forsømmelse eller uhell.

Leverandør

Leverandør

Navn: Zed Nettside: zed.dev Hovedkontor: USA

Hvor er leverandøren basert?

Datasenterlokasjoner

USA. Se også Subprocessor List.

Vurdering

Godkjente land: USA

Databehandlingsgarantier

Databehandlingsgarantier

Dokumentasjon:

Privacy policy:

Deling av data

Garanterer ingen deling

Lagring av data

Lagres ikke, med følgende unntak: - Ved opt-in og (ikke eller) detektert open source-lisens - Dersom bruker anmelder agentiske AI-responser

Trening av modeller

Brukes ikke til trening (unntak ved opt-in og (ikke eller) detektert open source-lisens)

Datakilder

Datakilder

Rammeverket for vurdering av KI verktøy har lagt til grunn følgende datakilder som inneholder bedriftsdata:

  1. Github
  2. AWS
  3. Datadog

Persondata:

  1. Ansatte E-post
  2. Ansatte brukernavn

Verktøyet kan også bruke offentlig tilgjengelig informasjon fra Internett. Når du bruker data fra usikre kilder er det en risiko for at dataene kan inneholde innhold som får modellen til å oppføre seg på uønskede måter. Du skal være oppmerksom på dette og vurdere risikoen før du bruker slike data med agenter som har bred tilgang.

Dersom verktøyet skal ha tilgang til andre datakilder eller persondata må du kontakte din jurist.

Vurdering

Ingen andre datakilder

Risikovurdering

Risikovurdering

Rammeverket for vurdering av KI verktøy har lagt til grunn følgende risikoer:

  1. Data på avveie
  2. KI agenten utfører uønskede handlinger

Vi har tatt utgangspunkt i at verktøyet ikke har tilgang til andre datakilder enn de som er listet opp i forrige seksjon. Vi har lagt til grunn at avtaleverket ikke tillater leverandør å bruke data til annet enn kun å levere tjenesten (ingen trening, lagring eller deling).

Det er gjort en vurdering av at verktøyet kan forårsake tap av data på utvikler-pc, tap av data i Github eller tap av data i AWS. For å unngå dette må bruker av verktøyet implementere tilstrekkelig tiltak til at vi kan ha tillit til at verktøyet ikke forårsaker skade. Det er opp til deg som bruker verktøyet å forsikre deg om at nødvendige sikkerhetstiltak er på plass. Ved utprøving av et nytt verktøy anbefales det å starte smått og bygge tillit til verktøyet over tid.

Vi har valgt å ikke stille konkrete krav til at verktøyet skal ha begrensede tilganger innenfor de rammene som er gitt i forhold til datakilder og valg av verktøy. Dette er fordi verdien av verktøyet blir mindre dersom det ikke har tilstrekkelig tilganger og vi velger derfor å la det være opp til bruker av verktøyet å vurdere hva som er et fornuftig tilgangsnivå. Vi anbefaler at dersom man skal bruke fullstendig autonome moduser så bør dette gjøres i en kontrollert kontekst.

Er dette dekkende for verktøyet du vurderer?

Vurdering

Ja

Brukeransvar

Brukeransvar

Når du tar i bruk verktøyet går du god for følgende:

  • Du som tar i bruk verktøyet er ansvarlig for handlingene som utføres av verktøyet.
  • Du må være klar over at KI-verktøy kan gjøre feil og at du må følge med på hva som skjer.
  • Du må også være klar over at verktøyet kan utføre handlinger som du ikke ønsker.
  • Dersom noe skulle gå galt, følg avviksrutinen til Oslo Origo.
  • Du skrur av feedback-knappene for agentisk AI.

Bekreftelse

Ja, jeg forstår og godtar brukeransvaret