There’s no such thing as gratis KI
Om reklame i språkmodeller, å gråte hos psykologen og å tjene penger på personopplysninger
Jeg bruker kunstig intelligens hver dag. Jeg krangler med den, jeg bytter språkmodell når den ene blir for smiskende i stilen, for påståelig eller begynner å gå i ring, og jeg vet at jeg ikke kan stole på alt de skriver. Jeg synes KI ofte er som den litt slitsomme, men veldig kunnskapsrike lillebroren, han som aldri vil innrømme at han tar feil, og bare prøver å finne på noe annet som høres veldig overbevisende ut, i stedet for å si «jeg vet faktisk ikke». Men lillebrødre kan også være gull verdt, og jeg er ikke redd for KI. Men jeg er redd for det som skjer hvis noen begynner å betale for å være til stede i chatten min.
For det er det som skjer nå. I februar 2026 begynte OpenAI, firmaet som står bak ChatGPT, å teste reklame. Foreløpig bare i USA, og foreløpig bare for gratisbrukere. Annonsene dukker opp under svarene, basert på det du snakker om i chatten. Sam Altman, sjefen for OpenAI, kalte så sent som i mai 2024 reklame i KI for «uniquely unsettling», spesielt urovekkende. Han sa det var en «siste utvei» som forretningsmodell. Nå er allerede den siste utveien her, og den er forkledd i fagre ord om å gjøre KI tilgjengelig for alle.
Drømmebassenget og bookingsiden
Tenk deg at du sitter og planlegger en skikkelig fin ferie. Du drømmer deg bort, du vil ha et sted med kort vei til stranda kanskje, tilgang på sjømat og noe god vin, og ikke alt for dyrt. Du ber KI idémyldre med deg, finne forslag, spennende reiseruter, søke og sammenlikne alternativer. Det er akkurat den typen oppgave det er skikkelig gøy å bruke KI til. Og midt i denne chatten, i denne tidlige drømmen om en ferie, dukker det opp en annonse for booking.com under svaret. Eller for et flyselskap, eller et fancy strandhotell, som har betalt for å være akkurat der.
OpenAI lover at reklamen ikke påvirker selve svaret du får av chatGPT. Men påvirker reklamen deg? Klart den gjør det. Du sitter midt i en chat som kan føles både personlig og fortrolig, du har lagt ut om drømmer og feriebudsjett, og så er det plutselig en tredjepart i rommet. En som har betalt for å være der, og som vil ha deg til å kjøpe noe fordi du har skrevet det du har skrevet. Det er som å sitte og snakke fortrolig med en venninne, og så penser hun samtalen inn på noe hun kan selge deg, fordi hun får prosenter av salget. Du visste ikke det da samtalen startet, men nå lurer du: var dette et godt råd, eller var det bare reklame? Og burde hun ikke da hatt en lapp med «kan frembringe sponset innhold» eller noe sånt i panna, i hvert fall?
Psykologen og tørkepapiret
Jurist og personvernekspert Ida Thorsrud har pekt på at du som bruker gratisversjonen av ChatGPT nå produserer råmaterialet som OpenAI skal leve av. Samtalene dine, også de mest personlige, kan brukes til å gjøre reklamen mer presis for annonsørene. Hun stiller et ubehagelig spørsmål: Hva skjer den dagen du «snakker» med ChatGPT-psykologen din, og den anbefaler deg et bestemt kosttilskudd, for eksempel, som vil løse alle dine problemer? Ikke fordi det er det beste svaret, men fordi noen har betalt for det.
Tenk deg at du sitter hos den ekte menneske-psykologen din og gråter, og midt i samtalen spør psykologen: Vil du ha en Kleenex? Og du ikke vet om psykologen får prosenter av Kleenex-salget, og om han har fått deg til å gråte litt ekstra nettopp for å selge mer tørkepapir? Kanskje ville du heller hatt Lambi. Men du fikk ikke velge, for Kleenex betalte for å være der akkurat da du gråt og skulle pusse nesen.
Eksempelet er absurd, men poenget er det ikke. For dette er noe av det som er annerledes med reklame i en språkmodell sammenliknet med en bannerannonse på en nettside. En chat med en språkmodell føles som en samtale. Den svarer deg personlig, med ditt navn, basert på det du har sagt og alt den vet om deg. Og jo mer du har fortalt, jo flinkere blir den til å tilpasse svaret til deg, men jo mer verdifull blir samtalen også for annonsøren.
Vi har sett dette før
Meta og Google startet også med å lage digitale produkter. Facebook var et sted for å holde kontakt med venner, Google var en søkemotor. Nå er begge i all hovedsak annonseteknologiselskaper som i mange år har samlet personopplysninger om deg, og som lever av å selge tilgang til oppmerksomheten din gjennom målrettet reklame. Hvem er det som styrer feeden din i sosiale medier? Det er algoritmene som er optimalisert for å holde deg der så lenge som mulig, slik at du ser flest mulig annonser.
OpenAI lover at de skal være annerledes. De lover at reklamen aldri vil påvirke svarene språkmodellen gir, at samtalene dine er private, at annonsørene aldri får se hva du skriver. Men begrensningene OpenAI har satt for seg selv, kan de også fjerne selv. Og når forretningsmodellen først er snudd, endrer insentivene seg. Det er ren business. Har man først personopplysninger man kan tjene penger på, er det veldig fristende å gjøre nettopp det.
Personvernet ditt er innsatsen
For spørsmålet er ikke bare hvem som betaler for å få se svarene dine. Spørsmålet er hva du betaler. Vi vet allerede at opplysningene vi gir språkmodeller brukes til å trene dem videre, til å gjøre dem bedre. Det er jo litt av poenget. Når språkmodellen husker det du fortalte om i går, får du jo et mye bedre svar i dag. Når de samme opplysningene også brukes til å målrette reklame, blir grensen mellom trening og kommersiell utnyttelse uklar. Kan vi stole på at et selskap som bruker samtalene dine til det ene, ikke bruker dem til det andre?
Datatilsynets undersøkelse fra 2024 viser at nesten syv av ti nordmenn mener kunstig intelligens vil utfordre personvernet ved at informasjon om dem samles inn og brukes på måter de ikke er enige i. Vi har i Norge et sterkt personvernregelverk og et bevisst forhold til disse spørsmålene. Men i møte med gigantaktører som Meta og Google har selv europeiske personvernregler ofte kommet til kort. Nå står KI-selskapene klare til å samle inn enda mer intime opplysninger, for vi forteller mer til en chatbot enn vi noen gang har delt i et Google-søk.
Det er én ting å søke etter «hotell Kreta billig» i en søkemotor. Det er noe helt annet å fortelle en språkmodell at du er sliten etter et vanskelig år, at du trenger å komme bort, at du har akkurat dette budsjettet og disse drømmene. Det første er et søkeord. Det andre er en fortrolig samtale. Og det er den fortrolige samtalen annonsørene nå får være til stede i.
Hva bør vi kreve?
Jeg tror ikke løsningen er å slutte å bruke KI, jeg vet ikke heller om jeg tror helt på å boikotte chatGPT, for jeg vet ikke om den ene aktøren er så veldig mye verre enn de andre. Men vi bør kreve mer av selskapene som lager disse verktøyene. Vi bør kreve at det finnes et tydelig og ufravikelig skille mellom data som brukes til å trene modellene og data som brukes til å selge reklame. Vi bør kreve at disse skillene ikke er selvpålagte løfter som kan fjernes når forretningsmodellen endrer seg, men reelle, regulerte grenser. Og vi bør kreve at når vi «snakker» med en maskin, det vil si mater den med opplysninger om oss selv, så er disse opplysningene faktisk fortrolige.
Når noe er gratis, er det alltid noen andre som betaler. Vi vet det fra sosiale medier. Meta-ansatte har i interne dokumenter sammenliknet sine egne produkter med narkotika, og Medietilsynets ferske rapport viser at norske ungdommer mister råderetten over egen tid fordi appene er designet for å holde på dem. Det startet også med et gratis produkt og noen selvpålagte løfter.
Nå åpner KI-selskapene den samme døren, bare med enda mer intime opplysninger. For det du deler med en chatbot — drømmene dine, bekymringene dine, planene dine — er mer personlig enn noe du noen gang har skrevet i et Google-søk eller i en Facebook-oppdatering. Det er opplysninger som kan brukes til å påvirke valgene dine, uten at du vet at du blir påvirket.
Du betaler med muligheten til å tenke fritt, uten å vite at noen allerede har lagt premissene.