Skip to content

Claude Code

Sist vurdert: 2025-09-23
Verktøyansvarlig: Sondre Engebråten
Verktøyansvarlig (epost): sondre.engebraten@origo.oslo.kommune.no
Kostnad: Betalt etter bruk av AWS Bedrock

Status

Godkjent

Beskrivelse

Claude Code er Anthropic's KI verktøy for utvikling av kode. Dette er et agentisk kodeverktøy som gir intelligent kodeassistanse, automatisering og problemløsning direkte i kommandolinjen. Vi bruker Claude Code via AWS Bedrock som gjør at vi får ekstra garantier for hvordan våre data behandles. Brukerne skal opprettes på Team- eller Enterprise-plan.

Leverandør

Leverandør

Navn: Anthropic
Nettside: https://www.anthropic.com
Hovedkontor: USA

Hvor er leverandøren basert?

Datasenterlokasjoner

AWS Frankfurt (eu-central-1), Stockholm (eu-north-1), Milan (eu-south-1), Spain (eu-south-2), Ireland (eu-west-1), Paris (eu-west-3)

Vurdering

Godkjente land

Databehandlingsgarantier

Databehandlingsgarantier

Dokumentasjon:

Amazon Bedrock doesn't store or log your prompts and completions. Amazon Bedrock doesn't use your prompts and completions to train any AWS models and doesn't distribute them to third parties.

Privacy policy: https://www.anthropic.com/privacy

Deling av data

Garanterer ingen deling

Lagring av data

Lagres ikke

Trening av modeller

Brukes ikke til trening

Datakilder

Datakilder

Rammeverket for vurdering av KI verktøy har lagt til grunn følgende datakilder som inneholder bedriftsdata:

  1. Github
  2. AWS
  3. Datadog

Persondata:

  1. Ansatte E-post
  2. Ansatte brukernavn

Verktøyet kan også bruke offentlig tilgjenglig informasjon fra Internett. Når du bruker data fra usikre kilder er det en risiko for at dataene kan inneholde innhold som får modellen til å oppføre seg på uønskede måter. Du skal være oppmerksom på dette og vurdere risikoen før du bruker slike data med agenter som har bred tilgang.

Dersom verktøyet skal ha tilgang til andre datakilder eller persondata må du kontakte din jurist.

Vurdering

Ingen andre datakilder

Risikovurdering

Risikovurdering

Rammeverket for vurdering av KI verktøy har lagt til grunn følgende risikoer:

  1. Data på avveie
  2. KI agenten utfører uønskede handlinger

Vi har tatt utgangspunkt i at verktøyet ikke har tilgang til andre datakilder enn de som er listet opp i forrige seksjon. Vi har lagt til grunn at avtaleverket ikke tillater leverandør å bruke data til annet enn kun å levere tjenesten (ingen trening, lagring eller deling).

Det er gjort en vurdering av at verktøyet kan forårsake tap av data på utvikler-pc, tap av data i Github eller tap av data i AWS. For å unngå dette må bruker av verktøyet implementere tilstrekkelig tiltak til at vi kan ha tillit til at verktøyet ikke forårsaker skade. Det er opp til deg som bruker verktøyet å forsikre deg om at nødvendige sikkerhetstiltak er på plass. Ved utprøving av et nytt verktøy anbefales det å starte smått og bygge tillitt til verktøyet over tid.

Vi har valgt å ikke stille konkrete krav til at verktøyet skal ha begrensede tilganger innenfor de rammene som er gitt i forhold til datakilder og valg av verktøy. Dette er fordi verdien av verktøyet blir mindre dersom det ikke har tilstrekkelig tilganger og vi velger derfor å la det være opp til bruker av verktøyet å vurdere hva som er et fornuftig tilgangsnivå. Vi anbefaler at dersom man skal bruke fullstendig autonome moduser så bør dette gjøres i en kontrollert kontekst.

Er dette dekkende for verktøyet du vurderer?

Vurdering

Ja

Brukeransvar

Brukeransvar

Når du tar i bruk verktøyet går du god for følgende:

  • Du som tar i bruk verktøyet er ansvarlig for handlingene som utføres av verktøyet.
  • Du må være klar over at KI-verktøy kan gjøre feil og at du må følge med på hva som skjer.
  • Du må også være klar over at verktøyet kan utføre handlinger som du ikke ønsker.
  • Dersom noe skulle gå galt, følg avviksrutinen til Oslo Origo.

Bekreftelse

Ja, jeg forstår og godtar brukeransvaret