For noen dager siden kom den igjen – e-posten fra Meta som minner oss på at vi nå er treningsverktøy for deres kunstige intelligens. Som før har jeg også denne gangen reservert meg. Det begynner å bli en slags årlig våraktivitet, som å skifte dekk, bare litt mer digitalt og litt mindre frivillig. Meta skriver at de bruker “offentlig informasjon, som innlegg og kommentarer, fra kontoer som tilhører personer over 18 år” for å forbedre KI-tjenestene sine. De understreker at dette skjer med “legitime interesser som rettsgrunnlag”. Og du kan protestere – hvis du vet hvordan.
Men er det egentlig greit?
Ifølge GDPR skal behandling av personopplysninger som hovedregel skje med aktivt samtykke – spesielt når det gjelder bruk som ikke er nødvendig for tjenesten du har meldt deg på. Å bruke offentlig delte innlegg til å trene kunstig intelligens faller i en gråsone, og det er omdiskutert om det faktisk er lov å gjøre dette uten å be om forhåndsgodkjenning. Meta viser til “berettiget interesse”, men da kreves det at interessene deres veier tyngre enn individets rett til personvern – og at brukeren med rimelighet kunne forvente slik bruk. Det er neppe tilfelle for gamle innlegg eller for kontoer som tilhører avdøde. Likevel må man selv finne frem, forstå og aktivt protestere – noe som strider mot både ånden og praksisen i GDPR, der utgangspunktet er at man skal gi samtykke, ikke måtte reservere seg.
Men det var ikke det som traff meg denne gangen. Det som slo meg, var noe helt annet.
Hva med de som ikke kan reservere seg?
Min mor døde for noen år siden. Hun hadde en Facebook-konto, som jeg – som mange andre – gjorde om til en minneside. Et digitalt sted for familie og venner å minnes, dele historier og ta et siste farvel.
Men i Metas system lever kontoen hennes fortsatt. Bildene hennes, tekstene hennes, kommentarene hennes – alt er der. Og Meta gir ingen mulighet for meg, som pårørende og ansvarlig for kontoen, å reservere henne mot å bli brukt i treningen av deres kunstige intelligens. Hun kan ikke samtykke. Jeg kan ikke protestere. Likevel er dataene tilgjengelige, og Meta har – så vidt jeg vet – ingen systematisk unntaksmekanisme for minnesider.
Det betyr i praksis at også de døde blir brukt som KI-drivstoff.
Hva sier Meta egentlig om minnekontoer?
Når en Facebook-konto blir gjort om til en minneside, bevares alt innholdet – det slettes ikke. Det forblir synlig for den opprinnelige målgruppen det ble delt med, som «venner» eller «offentlig». Etter kritikk i 2019 innførte Meta tiltak for å hindre at slike kontoer dukket opp i ubehagelige sammenhenger, som bursdagsvarsler og venneforslag. Dette ble løst ved hjelp av kunstig intelligens som identifiserer og filtrerer ut minnesider fra visse funksjoner. Men utover dette finnes det ingen informasjon som tyder på at minnesider behandles annerledes i bakgrunnen.
Offentlig innhold fra minnekontoer ser ut til å omfattes av de samme retningslinjene som alt annet offentlig innhold – og dermed kan det, så langt vi vet, inngå i datagrunnlaget Meta bruker til å trene sine kunstige intelligensmodeller. Det finnes ingen eksplisitte unntak for avdødes kontoer, og ingen mekanismer som lar pårørende reservere en minneside mot slik bruk.
En digital etisk blindsone
Dette handler ikke bare om personvern. Det handler om respekt. Det handler om noens sine siste ord, kanskje ment for en liten krets av venner, nå blir en del av et datasett som brukes til å lære opp modeller som skal generere nye tekster, bilder og svar – uten at avsenderen har noen kontroll. Eller livstegn.
Og hvor mange gjelder dette egentlig? Hvor mange tusen – eller millioner Facebook-kontoer er blitt gjort om til minnesider? Hvor mange har delt dikt, livsvisdom, bilder fra familieliv og refleksjoner fra sykesengen? Alt dette er offentlig, hvis det var offentlig da det ble delt. Og dermed gyldig treningsmateriale – med mindre noen sier nei. Men døde sier ikke nei.
Et hull i systemet
Jeg forsøkte å løfte dette til Meta da jeg sendte inn min protest. Jeg skrev:
“Jeg administrerer min avdøde mors Facebook-konto, som nå er en minneside. Hun kan naturlig nok ikke gi samtykke – og som pårørende har jeg heller ikke mulighet til å protestere mot bruken av innholdet hennes i KI-trening. Dette betyr i praksis at Meta fritt kan bruke hennes bilder, tekster og interaksjoner som treningsdata for KI, uten noen form for innsyn eller kontroll fra pårørende. Det oppleves uetisk og respektløst, og det finnes i dag ingen fungerende løsning for å beskytte avdødes data i denne sammenhengen.”
Responsen jeg fikk var en standardtekst. Ingen svar på spørsmålet. Ingen kommentar til minnesider. Ingen innsikt. Bare en påminnelse om at jeg ikke kan svare på e-posten deres.
Og dette var ikke første gang jeg tok det opp. Jeg løftet det samme spørsmålet sist gang Meta sendte ut en lignende e-post – og den gangen kontaktet jeg både Datatilsynet og tipset media. Men ingen bet på. Ingen kunne si noe konkret om hvordan Meta behandler data fra minnesider, og ingen ville løfte saken videre. Stillheten vedvarer.
Hva kan gjøres?
Dette bør diskuteres offentlig. Meta må få spørsmål de ikke kan ignorere. Kanskje trenger vi nye regler for hvordan selskaper får bruke data fra avdøde. Kanskje må det inn et krav om at når en konto gjøres om til en minneside, så skal den automatisk unntas fra KI-trening. Eller at pårørende får retten til å reservere – ikke bare for levende personer, men også på vegne av de som ikke lenger kan snakke for seg.
For hvis vi ikke setter grenser, er det ikke bare minnene vi gir fra oss.
Det er stemmen.
Er dette noe du har tenkt på før? Jeg vil gjerne høre dine tanker. Har vi som samfunn mistet kontrollen over det digitale etterlivet vårt? Legg igjen en kommentar nedenfor – kanskje stillheten ikke varer evig, om vi snakker høyt nok.