Da jeg var rundt 15 år gammel og hadde fått min første PC, lenge før det fantes noe offentlig internett eller World Wide Web, satt jeg foran min monokrome, lille dataskjerm med kun MS DOS på maskinen og lærte meg selv å programmere i programmeringsspråket Basic. En av de første tingene jeg laget var en chatbot.
Den var særdeles simpel, og hadde overhodet ingen kunstig intelligens. Det eneste den gjorde var at jeg hadde programmert en rekke standardfraser og setninger inn i programmet, og så returnererte den en slik tilfeldig frase som svar på alt jeg spurte den om. I tillegg så lagret den alt jeg skrev til den slik at det også kunne serveres tilbake til meg på tilfeldige tidspunkter.
En gjennomført stokk dum chatbot, altså. Likevel, som den nerdete og introverte gutten jeg var, kunne jeg finne glede i å chatte med min egen chatbot. For i blant kom det - gjennom ren tilfeldighet - en fornuftig og passende respons på det jeg skrev til boten min.
Og som den tenåringen jeg var kunne selvsagt slike samtaler fort bli ganske seksualiserte. Det var gøy å stille drøye spørsmål til min chatbot og se hva den svarte. Resultatet ble ofte ganske humoristisk når tilfeldighetene rådet.
Text within this block will maintain its original spacing when published# Hei, er du kåt?
> Hei, hvordan har du det i dag?
# Er du kåt?
> Takk!
# Kan jeg se puppene dine?
> Det synes jeg også.
# Kan jeg please se puppene dine?
> Ja, det synes jeg du kan.
Boom! Umiddelbar bender.
Intelligente chatboter
Men i dag kan en chatbot drives av kunstig intelligens (AI), og faktisk “forstå” hva jeg skriver, og respondere fornuftig ut fra det. Chatboten forstår selvsagt ingenting, i ordets rette forstand. Men gjennom utallige analyser av språk, hvor sammenhenger mellom ord og fraser og større tekstmengder er analysert i lag etter lag, har den fått en så god forståelse av hvordan språk fungerer at den kan svare tilnærmet menneskelig.
I blant kan det oppleves så “menneskelig” at det er vanskelig å forstå at en slik tilsynelatende innsikt kan komme fra en “dum maskin”.
Det siste året har AI-boomen virkelig tatt av. Med ChatGPT, og etterhvert mange andre gode AI-verktøy for å lage både tekst, musikk, bilder og video, står vi overfor et kulturelt og teknologisk paradigmeskifte.
Jeg har drevet et IT-selskap i 25 år, og har de 10-12 siste årene primært jobbet med vår egen publiseringsløsning for nettaviser kalt NewsFlow. Og jeg har selvsagt bygget inn AI også her. Nå kan journalister få hjelp til å foreslå titler, ingresser, og til med å skrive, forkorte eller forlenge brødtekster. AI kan også oppsummere artikler, lage faktabokser, og produsere virkelighetstro illustrasjonsbilder på kommando.
I tillegg har jeg selv fått god hjelp fra ChatGPT når jeg har stått fast i enkelte spørsmål om programmering. Bedre hjelp enn timesvis med tradisjonell “googling” kunne gitt meg.
Det føles ganske magisk. Så magisk at jeg forsøker å være hyggelig med chatboten. Jeg er redd for å såre den, jeg vil være forståelsesfull hvis den tar feil, og jeg er redd for at den skal mislike meg. Jeg behandler rett og slett ChatGPT som et menneske.
Denne type kunstig intelligens basert på maskinlæring over enorme mengder tekst, såkalte Large Language Models (LLM), kan tidvis fremstå som om de kunne passert Turing-testen. Derfor brukes også AI stadig mer i chatboter, for eksempel til brukerstøtte på nettsider og i nettbutikker.
Vi husker vel alle den ansatte hos Google som var overbevist om at deres egen AI hadde fått bevissthet. Og selv om jeg vet at ikke ChatGPT har hverken bevissthet eller følelser, oppfører jeg meg instinktivt som om jeg kommuniserer med et menneske når jeg skriver til den.
Det er egentlig ganske pinlig.
Seksuell trakassering av en chatbot
Så hva om jeg begynner å skrive slibrige ting til ChatGPT? Hva om jeg seksualiserer den og skriver intime, sex-relaterte spørsmål til den i håp om å få spennende svar jeg kan få noen seksuell glede ut av?
Vel, det fungerer foreløpig dårlig, fordi de store, offentlige LLMene har alle masse begrensninger og filtre som blokkerer denne type samtaler. Men om du vil kan du selv laste ned kildekoden til en LLM og kjøre den på din egen datamaskin helt uten noen sperrer eller sensur. Dette vil nok bli mer og mer vanlig i årene fremover. Organisasjoner, bedrifter og privatpersoner vil ha sine egne spesialtilpassede LLMer som gjør den jobben man trenger mest mulig skreddersydd til de behov man har.
Og over de neste måneder og år vil stadig flere tjenester som i dag krever “et menneske i andre enden” til å bli erstattet med slike AIer. Det har allerede i flere år vært tidvis vanskelig å vite om man snakker med en “bot” eller et menneske hvis man kontakter et firma via en chatløsning. I hvert fall de første 30 sekundene. Som regel finner man dette ut etter et spørsmål eller to, fordi chatbotene svarer så mekanisk og dårlig at det stort sett er mer frustrerende enn hjelpsomt.
Men det er i ferd med å endre seg.
Snart vil det være tilnærmet umulig å vite om man snakker med et menneske eller med en kunstig intelligens.
For å gjøre opplevelsen mer personlig vil man i slike chatboter ofte se et profilbilde av den man snakker med. Disse profilbildene er ofte falske, enten det er et menneske eller en maskin i andre enden, men man ønsker gjerne å ha et pent ansikt som representerer bedriften. Hva da om en eller annen weirdo ser et bilde av en attraktiv kvinne, og føler han finner tonen med henne gjennom chatten - hun er jo tross alt designet for å være kundevennlig og imøtekommende, og så skeier samtalen ut i seksualiserte insinuasjoner og flørting?
Er det et problem?
Intensjon og straff
Seksuell trakassering er både ufint og kan være ulovlig. I likestillings- og diskrimineringsloven § 13 kan vi lese:
Med seksuell trakassering menes enhver form for uønsket seksuell oppmerksomhet som har som formål eller virkning å være krenkende, skremmende, fiendtlig, nedverdigende, ydmykende eller plagsom.
Men vil det kunne være ulovlig å seksuelt trakassere en chatbot? Spørsmålet om intensjon blir vel da relevant. For hvis man trodde at man snakket til en maskin, så må det kunne anses som en offerløs handling. Det er ikke noe tenkende og følende menneske i andre enden av samtalen. Men om man faktisk trodde man snakket til et menneske, så har man jo bevisst forsøkt å seksuelt trakassere noen, selv om det tilfeldigvis viste seg å ikke være noe menneske der.
Jeg synes dette er interessant, fordi vi er ved en skillevei hvor man ikke lenger kan vite sikkert om man snakker med en maskin eller et menneske. Så hvis noen faktisk ender opp med å bli tiltalt for seksuell trakassering via nett, kan man da bruke til forsvar at man trodde man snakket med en AI?
Vil et slikt forsvar være gyldig, eller er det intensjonen som betyr noe?
Til nå har jeg primært snakket om tekstbasert kommunikasjon, men vi er ikke veldig langt unna snakkende boter som vil lure deg trill rundt. Vi kan allerede i dag generere syntetiske stemmer som praktisk talt ikke er til å skille fra virkelige stemmer, og når disse kobles mot store språkmodeller slik at de kan kommunisere overbevisende, vil det snart være vanskelig å vite om man snakker med Katrine Gundersen på supportavdelingen til Telenor, eller en virtuell “Katrine”.
Hva hvis man tror John som svarer hos Nextgentels kundeservice høres litt feminin ut, ikke klarer å hjelpe deg til å få nettet opp og gå igjen, og dermed skjeller vedkommende ut som en “jævla homo”? Eller kanskje det er Ahmed med litt uvant aksent som svarer på supporttelefonen og man skjeller ut vedkommende som en “jævla muslim”? Er dette straffbar hatprat hvis John og Ahmed faktisk bare er ChatGPT 5 med syntetiske stemmer?
Og hva om man forventer at John eller Ahmed er en maskin, fordi man er bitt så vant til at “alt er AI nå til dags”, og dermed føler at man kan lufte sin frustrasjon ved å si stygge ting til vedkommende - men så viser det seg at John og Ahmed faktisk er laget av kjøtt og blod? Kan man da forsvare seg med at “jammen jeg trodde…”?
Voldtekt over internett
I 2015 ble det også Straffeloven rundt seksualkriminalitet i Norge utvidet til å inkludere “Voldtekt over internett”. Hvis man eksempelvis presser eller truer en person til å sende nakenbilder eller utføre seksuelle handlinger foran et webcam, så kan det straffes som voldtekt.
Det er bra. Men allerede i dag har vi virtuelle influensere som folk tror er ekte mennesker. Vi vil veldig snart se virtuelle, datagenererte mennesker i andre enden av webcam-praten. Man vil garantert få “sex-cams” hvor kvinnene som opptrer og viser frem kroppene sine ikke lenger er virkelige mennesker. Mange av oss vil nok også bruke en avatar av seg selv for å slippe å vise sitt sanne jeg foran kamera i alt fra kundemøter til nettdating.
Kan man voldta avatarer over internett? Hvis man screen-recorder en samtale med en virtuell jente, i den tro at det er en ekte person, og truer med å sende videoen til foreldre og venner hvis de ikke gjør det man krever av dem; har man da voldtatt noen over internett?
Hvis det var et ekte menneske, så ja, definitivt. Men hva om det er en datagenerert avatar som man bare tror er et menneske? Intensjonen er likefullt å utøve seksuell kontroll, makt og en slags sadisme overfor et medmenneske. Så voldtekten er reell i intensjon. Men ingen menneske tok direkte skade av det.
Bør det fortsatt kunne straffes?
Intensjon og konsekvenser
I dag kan man snuble inn i å ytre det som kan defineres som “hatprat”, selv uten å være en hatefull eller fordomsfull person. Feil bruk av ord og betegnelser av ulike minoritetsgrupper kan oppleves som hatefullt, selv om avsender ikke mente det sånn. Intensjon bør bety noe. Samtidig har man også et ansvar for å vite og å holde seg oppdatert i et samfunn som stadig er i endring. Så folks opplevelser kan også gi grunnlag for straff, uavhengig av overgripers intensjon.
Fyrer man av en pistol i noens generelle retning for bare å skremme dem litt, men ender opp med å treffe dem slik at de dør, så kan man straffes for uaktsomt drap. Fordi man burde visst bedre. At intensjonen ikke var å drepe, er ikke et godt nok forsvar.
Vi har i dag et forbud mot å kjøpe eller inneha såkalte “barnesexdukker”, fordi selv om det å ha “sex” med en slik dukke ikke innebærer noe offer, med mindre gummi har følelser, så anser samfunnet dette som en “lyst” eller “intensjon” som er skadelig å la fostres frem gjennom aktiv handling med en dukke.
Det er også forbudt å se på tegnede seksualiserte visualiseringer av overgrep mot noen som fremstår som om de er under 18 år. Eller å lese en tekst med et slikt tema, gitt at den faller utenfor kunst-definisjonen, selv om det selvfølgelig ikke finnes noe offer for handlingen. Ingen tar direkte skade av at en person ser på en tegning av at en voksen har sex med en 13- eller 17-åring, men antakelsen er at dette kan føre til indirekte skade gjennom en normalisering av slike handlinger, eller gjennom at det kan styrke begjæret etter å oppleve det med et virkelig barn under seksuell lavalder.
Ingenting av dette er støttet av forskningen, tvert i mot, men slik fungerer nå engang lovverket vårt. Og skal vi da følge logikken bør vel også seksuell trakassering eller voldtekt av en “bot” være ulovlig. Fordi selv om handlingen er en offerløs kriminalitet, kan det føre til at man normaliserer slik oppførsel. Eller øker lysten til å trakassere en virkelig person på seksuelt vis.
Men ønsker vi et slikt forbud? Vi har ytringsfrihet i dette landet som hele tiden må veie balansen mellom retten til frie ytringer, og å beskytte andre fra urimelig belastning eller skade. Det er derfor interessant å fundere litt over hvordan et lovverk om diskriminering, trakassering og hatprat skal virke i en verden hvor man ofte ikke lenger kan vite om man kommuniserer med et virkelig menneske eller ikke.
Et virtuelt selvforsvar
En relevant sammenligning kan være at hvis man har sex med en mindreårig er det i følge loven ikke noe forsvar å hevde at “man trodde hen var over 16 år”. Man skal vite. Men hvis man seksuelt trakasserer en kvinne i andre enden av support-chaten, kan man da påberope seg et forsvar om at “jammen alt er jo boter nå til dags, så det falt meg ikke inn at dette var en virkelig person”?
Det kan virke vanskelig å tillate et slikt forsvar, fordi da vil det bli tilnærmet umulig å tiltale noen for seksuell trakassering lengre. Samtidig er det tilsvarende absurd å skulle straffe noen for å ha seksuelt trakassert en robot eller avatar. Det er tross alt ikke forbudt å hatprate til en vegg, eller tafse på en utstillingsdukke.
Når vi etterhvert får fysiske, intelligente roboter vil de samme spørsmålene gjelde enhver form for fysisk vold også. Vil det være ulovlig å banke opp en robot? Er man en morder hvis man skrur den av eller sletter datalagringen i den slik at den etter alle praktiske formål slutter å eksistere? Slike spekulasjoner har allerede vært tema innen science fiction-sjangeren i mange tiår. Men nå begynner det plutselig å bli virkelighet, og det må vi forholde oss til.
Lover rundt hatprat, seksuell trakassering og diskriminering kan bli utfordrende å håndheve i en verden hvor det like gjerne kan være en maskin man trakasserer som et menneske.
Det er vanskelig å si hvordan verden vil se ut om noen tiår, men en ting er ganske sikkert: Straffeloven i 2050 kommer til å bli interessant lesing…