Skip to content

OpenAI Codex og API

Sist vurdert: 2025-09-23
Verktøyansvarlig: Sondre Engebråten
Verktøyansvarlig (epost): sondre.engebraten@origo.oslo.kommune.no
Kostnad: Abonnement og pay-as-you-go

Status

Godkjent

Beskrivelse

OpenAI Codex er et AI‑verktøy for koding. Codex kan bruke som CLI/IDE‑utvidelser eller som skyagent direkte i et ChatGPT Business‑arbeidsområde for å løse kodeoppgaver.

OpenAI API er et bruksbasert API (pay as you go): du betaler per token for input/output, API‑bruk faktureres separat fra ChatGPT‑abonnementer (inkludert Business), og du kan sette månedlige budsjetter/grenser i faktureringspanelet.

Leverandør

Leverandør

Navn: OpenAI

Nettside: https://openai.com/

Hovedkontor: USA

Hvor er leverandøren basert?

Datasenterlokasjoner

USA

Vurdering

Godkjente land

Databehandlingsgarantier

Databehandlingsgarantier

Dokumentasjon:

  • https://openai.com/policies/privacy-policy/
  • https://openai.com/policies/service-terms/

Privacy policy: https://openai.com/policies/privacy-policy/

Deling av data

Garanterer ingen deling

Lagring av data

Data slettes ved forespørsel

Trening av modeller

Brukes ikke til trening

Datakilder

Datakilder

Rammeverket for vurdering av KI verktøy har lagt til grunn følgende datakilder som inneholder bedriftsdata:

  1. Github
  2. AWS
  3. Datadog

Persondata:

  1. Ansatte E-post
  2. Ansatte brukernavn

Verktøyet kan også bruke offentlig tilgjenglig informasjon fra Internett. Når du bruker data fra usikre kilder er det en risiko for at dataene kan inneholde innhold som får modellen til å oppføre seg på uønskede måter. Du skal være oppmerksom på dette og vurdere risikoen før du bruker slike data med agenter som har bred tilgang.

Dersom verktøyet skal ha tilgang til andre datakilder eller persondata må du kontakte din jurist.

Vurdering

Ingen andre datakilder

Risikovurdering

Risikovurdering

Rammeverket for vurdering av KI verktøy har lagt til grunn følgende risikoer:

  1. Data på avveie
  2. KI agenten utfører uønskede handlinger

Vi har tatt utgangspunkt i at verktøyet ikke har tilgang til andre datakilder enn de som er listet opp i forrige seksjon. Vi har lagt til grunn at avtaleverket ikke tillater leverandør å bruke data til annet enn kun å levere tjenesten (ingen trening, lagring eller deling).

Det er gjort en vurdering av at verktøyet kan forårsake tap av data på utvikler-pc, tap av data i Github eller tap av data i AWS. For å unngå dette må bruker av verktøyet implementere tilstrekkelig tiltak til at vi kan ha tillit til at verktøyet ikke forårsaker skade. Det er opp til deg som bruker verktøyet å forsikre deg om at nødvendige sikkerhetstiltak er på plass. Ved utprøving av et nytt verktøy anbefales det å starte smått og bygge tillitt til verktøyet over tid.

Vi har valgt å ikke stille konkrete krav til at verktøyet skal ha begrensede tilganger innenfor de rammene som er gitt i forhold til datakilder og valg av verktøy. Dette er fordi verdien av verktøyet blir mindre dersom det ikke har tilstrekkelig tilganger og vi velger derfor å la det være opp til bruker av verktøyet å vurdere hva som er et fornuftig tilgangsnivå. Vi anbefaler at dersom man skal bruke fullstendig autonome moduser så bør dette gjøres i en kontrollert kontekst.

Er dette dekkende for verktøyet du vurderer?

Vurdering

Ja, men OpenAI tar ikke på seg ansvaret for at kode ikke bryter opphavsrettigheter.

Brukeransvar

Brukeransvar

Når du tar i bruk verktøyet går du god for følgende:

  • Du som tar i bruk verktøyet er ansvarlig for handlingene som utføres av verktøyet.
  • Du må være klar over at KI-verktøy kan gjøre feil og at du må følge med på hva som skjer.
  • Du må også være klar over at verktøyet kan utføre handlinger som du ikke ønsker.
  • Dersom noe skulle gå galt, følg avviksrutinen til Oslo Origo.

Bekreftelse

Ja, jeg forstår og godtar brukeransvaret