Når AI spiser dataene dine – hva du egentlig sier ja til

Visste du at det du deler på Snapchat kan brukes til å trene kunstig intelligens uten at du aktivt har sagt ja? Eller at Microsofts Copilot kan få tilgang til dokumenter, e-poster og skjermbilder hvis du ikke passer på innstillingene?

Vi er inne i en tid der apper og programvare kobles på AI i rekordfart. Samtidig gjemmer mange selskaper bort viktige valg under lange, tekniske personvernerklæringer. Som bruker blir du sittende igjen med et stille samtykke, ofte uten å egentlig ha samtykket.

Når standardinnstillingen er “ja”

Forbrukerrådet i Norge har nylig kritisert Snapchat for å bruke brukernes innhold til AI-trening. Tillatelsen er som standard aktivert, og den ligger godt skjult i innstillingene. Det betyr at bilder, videoer og historier du deler offentlig – for eksempel på SnapMap eller i Spotlight – kan havne i datasett som trener Snapchats AI.

Problemet er at de færreste faktisk vet dette. Og når informasjonen er vanskelig å finne, kan man spørre: er dette virkelig et reelt samtykke?

Microsoft Copilot – kraftig verktøy eller overvåkningsmareritt?

Også Microsoft har fått kritikk, særlig for funksjonen Recall. Den tar skjermbilder i bakgrunnen slik at du senere kan søke tilbake i alt du har gjort. Microsoft sier at dette er valgfritt, men i starten ble funksjonen rullet ut på en måte som skapte usikkerhet om hva som var på eller av.

I tillegg logges alle interaksjoner du har med Copilot – spørsmålene du stiller, svarene du får, og eventuelle kilder som brukes. Microsoft forsikrer at data fra bedriftskunder ikke brukes til å trene grunnmodellene, men at grensen mellom analyse, lagring og trening er uklar, bekymrer mange.

Fellesnevneren er den samme som hos Snapchat: informasjonen finnes, men den er vanskelig tilgjengelig. Du må vite hvor du skal lete, og du må bruke tid på å forstå hva du egentlig sier ja til.

Opt-in vs. opt-out – hva GDPR egentlig sier

Under GDPR kan ikke selskaper lene seg på stilltiende samtykke. Reglene er klare: samtykke skal være frivillig, informert, spesifikt og gitt gjennom en aktiv handling.

  • Opt-in betyr at brukeren selv krysser av for å delta.
  • Opt-out betyr at du deltar automatisk og må skru deg ut.

Det siste er i utgangspunktet ikke lovlig under GDPR når det gjelder bruk av personopplysninger. Likevel ser vi at mange teknologiselskaper prøver å dytte grensene gjennom såkalte dark patterns – designgrep som gjør det lett å si ja og vanskelig å si nei.

Kort fortalt: Hvis du må grave deg inn i menyene for å skru noe av, er sjansen stor for at selskapet bryter intensjonen – og kanskje loven.

Hva er egentlig risikoen?

At AI trener på innholdet ditt, høres kanskje uskyldig ut. Men konsekvensene kan være store:

  • Personlige data på avveie: Selv om selskaper sier de anonymiserer, er det ingen garanti for at innholdet ikke kan kobles tilbake til deg.
  • Profilering: Jo mer AI vet om deg, jo mer målrettede – og manipulerende – kan annonsene bli.
  • Manglende kontroll: Når data først er brukt i trening, kan du ikke trekke det tilbake. Det er som å helle vann i havet.
  • Sikkerhetshull: Jo mer data som samles, jo større er konsekvensene hvis noe lekker.

5 ting du kan gjøre for å beskytte deg selv

  1. Sjekk innstillingene dine
    Gå til Innstillinger → Personvern i appene du bruker. Se spesielt etter valg som handler om AI-trening eller datadeling, og skru dem av hvis du ikke vil bidra.
  2. Vær obs på standardvalg
    Husk at “på” ofte er standard. Ikke anta at du er beskyttet – gå inn og dobbeltsjekk.
  3. Se etter nøkkelord i personvernerklæringer
    Ord som “kan brukes til å forbedre tjenesten” eller “kan deles med partnere” betyr ofte at dataene dine brukes bredere enn du tror.
  4. Skill mellom jobb og privat
    Bruk separate kontoer. Bedriftskontoer har som regel strengere sikkerhetsregler enn gratis privatkontoer.
  5. Still krav
    Opplever du at funksjoner er uklare eller skjult? Gi beskjed. Både direkte til selskapet og via Forbrukerrådet. Jo flere som klager, jo mer press på endring.

Hvorfor dette angår oss alle

Det handler ikke bare om hva du deler. Når nok mennesker aksepterer skjulte samtykker, flyttes hele grensen for hva som er “normalt”. Da blir det lettere for selskaper å samle inn mer og mer data, uten at vi egentlig har sagt ja.

Derfor er dette ikke bare et juridisk spørsmål, men også et demokratisk og etisk spørsmål. Vil vi ha et digitalt samfunn der vi aktivt velger – eller et der valgene våre gjemmes bak uleselige policies?

Konklusjon

AI i apper og programvare er kommet for å bli. Potensialet er enormt – men det samme er risikoen. Spørsmålet er ikke bare hva teknologien kan gjøre, men hvilke rettigheter og valg du som bruker faktisk har.

Så neste gang du laster ned en app eller tester et nytt AI-verktøy: stopp opp et øyeblikk, sjekk innstillingene, og spør deg selv – er dette et ja jeg faktisk har gitt?

Utfordringen er at utviklingen skjer så raskt at selv lover, forskrifter og forordninger knapt klarer å henge med. Selv mange selskaper sliter med å holde oversikt over hva deres egne utviklingsavdelinger lanserer, og konsekvensene av det.

Vi kan ikke lenger forvente at myndigheter, regelverk eller selskaper passer på for oss. Nå må vi ta større ansvar selv. Ofte handler det om bevisste valg – men like ofte om manglende ettertanke. Noen ganger er det fordi selskaper tjener penger på dataene våre, andre ganger fordi ingen egentlig tenkte over hva funksjonen kunne føre til.

Jeg skrev mer om dette i artikkelen Den internasjonale personverndagen 2025, hvor jeg så nærmere på hvordan nye lover prøver å holde tritt med teknologien – og hvorfor det er viktigere enn noen gang å følge med selv.