OpenAI Codex og API
Sist vurdert: 2025-09-23
Verktøyansvarlig: Sondre Engebråten
Verktøyansvarlig (epost): sondre.engebraten@origo.oslo.kommune.no
Kostnad: Abonnement og pay-as-you-go
Status
Godkjent
Beskrivelse
OpenAI Codex er et AI‑verktøy for koding. Codex kan bruke som CLI/IDE‑utvidelser eller som skyagent direkte i et ChatGPT Business‑arbeidsområde for å løse kodeoppgaver.
OpenAI API er et bruksbasert API (pay as you go): du betaler per token for input/output, API‑bruk faktureres separat fra ChatGPT‑abonnementer (inkludert Business), og du kan sette månedlige budsjetter/grenser i faktureringspanelet.
Leverandør
Leverandør
Navn: OpenAI
Nettside: https://openai.com/
Hovedkontor: USA
Hvor er leverandøren basert?
Datasenterlokasjoner
USA
Vurdering
Godkjente land
Databehandlingsgarantier
Databehandlingsgarantier
Dokumentasjon:
- https://openai.com/policies/privacy-policy/
- https://openai.com/policies/service-terms/
Privacy policy: https://openai.com/policies/privacy-policy/
Deling av data
Garanterer ingen deling
Lagring av data
Data slettes ved forespørsel
Trening av modeller
Brukes ikke til trening
Datakilder
Datakilder
Rammeverket for vurdering av KI verktøy har lagt til grunn følgende datakilder som inneholder bedriftsdata:
- Github
- AWS
- Datadog
Persondata:
- Ansatte E-post
- Ansatte brukernavn
Verktøyet kan også bruke offentlig tilgjenglig informasjon fra Internett. Når du bruker data fra usikre kilder er det en risiko for at dataene kan inneholde innhold som får modellen til å oppføre seg på uønskede måter. Du skal være oppmerksom på dette og vurdere risikoen før du bruker slike data med agenter som har bred tilgang.
Dersom verktøyet skal ha tilgang til andre datakilder eller persondata må du kontakte din jurist.
Vurdering
Ingen andre datakilder
Risikovurdering
Risikovurdering
Rammeverket for vurdering av KI verktøy har lagt til grunn følgende risikoer:
- Data på avveie
- KI agenten utfører uønskede handlinger
Vi har tatt utgangspunkt i at verktøyet ikke har tilgang til andre datakilder enn de som er listet opp i forrige seksjon. Vi har lagt til grunn at avtaleverket ikke tillater leverandør å bruke data til annet enn kun å levere tjenesten (ingen trening, lagring eller deling).
Det er gjort en vurdering av at verktøyet kan forårsake tap av data på utvikler-pc, tap av data i Github eller tap av data i AWS. For å unngå dette må bruker av verktøyet implementere tilstrekkelig tiltak til at vi kan ha tillit til at verktøyet ikke forårsaker skade. Det er opp til deg som bruker verktøyet å forsikre deg om at nødvendige sikkerhetstiltak er på plass. Ved utprøving av et nytt verktøy anbefales det å starte smått og bygge tillitt til verktøyet over tid.
Vi har valgt å ikke stille konkrete krav til at verktøyet skal ha begrensede tilganger innenfor de rammene som er gitt i forhold til datakilder og valg av verktøy. Dette er fordi verdien av verktøyet blir mindre dersom det ikke har tilstrekkelig tilganger og vi velger derfor å la det være opp til bruker av verktøyet å vurdere hva som er et fornuftig tilgangsnivå. Vi anbefaler at dersom man skal bruke fullstendig autonome moduser så bør dette gjøres i en kontrollert kontekst.
Er dette dekkende for verktøyet du vurderer?
Vurdering
Ja, men OpenAI tar ikke på seg ansvaret for at kode ikke bryter opphavsrettigheter.
Brukeransvar
Brukeransvar
Når du tar i bruk verktøyet går du god for følgende:
- Du som tar i bruk verktøyet er ansvarlig for handlingene som utføres av verktøyet.
- Du må være klar over at KI-verktøy kan gjøre feil og at du må følge med på hva som skjer.
- Du må også være klar over at verktøyet kan utføre handlinger som du ikke ønsker.
- Dersom noe skulle gå galt, følg avviksrutinen til Oslo Origo.
Bekreftelse
Ja, jeg forstår og godtar brukeransvaret