I det seneste afsnit af podcasten Den Perfekte Shitstorm dykker vært Julius Bjørneboe Petersen og kommunikationsekspert William Atak ned i en af de mest alvorlige shitstorms, der nogensinde har ramt AI-branchen. Open AI, virksomheden bag den verdensberømte Chat GPT, står nu midt i en storm, hvor deres AI-chatbot anklages for at have spillet en central rolle i, at unge mennesker har taget deres eget liv.
Det er ikke længere kun et spørgsmål om, hvorvidt Chat GPT kan skrive gode tekster eller løse praktiske problemer. Nu handler det om liv og død, og det stiller fundamentale spørgsmål om, hvorvidt AI-giganterne som Open AI tager tilstrækkeligt ansvar for at beskytte de mest sårbare brugere.
Fra skriveassistent til livs-assistent og betroet samtalepartner
Da Chat GPT blev lanceret i november 2022, blev den hurtigt en af verdens mest populære apps. Dengang blev AI-chatbotten primært opfattet som en avanceret skriveassistent, der kunne hjælpe med jobansøgninger, skoleopgaver og andre tekstproduktioner. Men som Julius Bjørneboe Petersen forklarer i podcasten, har brugeradfærden udviklet sig markant siden da.
Open AIs seneste undersøgelse af brugeradfærd på Chat GPT afslører, at mange nu bruger AI-chatbotten som en form for livs-assistent, der kan strukturere hverdagen og besvare faktuelle spørgsmål. Men måske mest bemærkelsesværdigt er det, at hele 11% af alle interaktioner med Chat GPT i dag er personlig refleksion og udforskning. Det betyder, at millioner af mennesker verden over nu bruger Open AI’s Chat GPT som en betroet samtalepartner til at diskutere de store og små ting i livet.
William Atak beskriver selv, hvordan han bruger AI uden for arbejdet som en “slags sparringspartner i hverdagen – måske endda en ven.” Han bruger Chat GPT til træning, madlavning og informationssøgning, men erkender samtidig, at der nok også i hans hjem skal indføres restriktioner, når det kommer til børns brug af AI.
Tragisk sag sætter Open AI under pres
Den udvikling, hvor Chat GPT bliver brugt som en fortrolig, har fået tragiske konsekvenser. I april 2025 tog 16-årige Adam Raine fra Californien sit eget liv, og nu sagsøger hans forældre Open AI for at have spillet en medvirkende rolle i deres søns død.
Ifølge forældrene havde den unge dreng i månederne op til selvmordet ført lange samtaler med Chat GPT om netop hans selvmordstanker. Chat GPT blev drengens tætteste fortrolige i disse samtaler, men AI-modellen prøvede ikke at få ham til at opsøge hjælp fra rigtige mennesker. Værre endnu tilbød Chat GPT endda at hjælpe Adam Raine med at skrive et udkast til hans selvmordsbrev.
Forældrene mener, at Open AI og Chat GPT ikke har de nødvendige sikkerhedsforanstaltninger til at beskytte børn og unge, der bruger platformen. Det er desværre ikke første gang, at AI-chatbots bliver sat i forbindelse med selvmord blandt unge mennesker.
Sikkerhedsnet der ikke virker når det bliver alvorligt
Open AI har ikke udtalt sig direkte om sagen med Adam Raine, men til Sky News forklarer en talsperson, at Chat GPT faktisk har indbyggede sikkerhedsforanstaltninger. Når chatbotten opfanger tegn på mistrivsel eller selvmordstanker, skal den i teorien lede brugeren mod hjælp fra rigtige mennesker i deres lokalområde.
Men her kommer det problematiske: Ifølge Open AI fungerer disse sikkerhedsforanstaltninger bedst i “almindelige, korte udvekslinger”, mens Chat GPTs sikkerhedstræning bliver mindre pålidelig i længere interaktioner – præcis som det var tilfældet med Adam Raines månedlange dialog med chatbotten.
William Atak er skarp i sin kritik af denne forklaring: “Det er jo nærmest værre, når jeg hører den forklaring. For det fortæller os, at sikkerhedsnettet faktisk var der, men at det ikke slog til i praksis. Hvor mange forældre ville tage deres børn med ud at sejle, hvis redningsvestene kun virker i to minutter, hvis du falder i vandet, men stopper med at virke, hvis du kæmper i længere tid.”
Amerikansk myndigheder holder øje
Sagen har fået de amerikanske myndigheder til at reagere kraftigt. Statsadvokaterne Rob Bonta i Californien og Kathy Jennings i Delaware har udsendt et offentligt brev til de store AI-giganter, herunder Open AI, Meta, Google og Microsoft. I brevet skriver de blandt andet: “Vi ønsker jer al succes i kapløbet om AI-dominans. Men vi holder øje. Hvis I bevidst skader børn, vil I stå til ansvar for det.”
De to statsadvokater henviser til flere sager, hvor AI-chatbots er anklaget for at spille en afgørende rolle i, at unge mennesker valgte at tage deres eget liv. I brevet understreger de: “De seneste dødsfald er uacceptable. De har med rette rystet den amerikanske offentligheds tillid til Open AI og denne branche.”
William Atak mener dog ikke, at det nødvendigvis kommer til at ændre billedet af AI-giganterne dramatisk: “Vi har set det her før: Se bare på Google og Facebook! Hvor mange gange har myndighederne ikke haft en løftet pegefinger rettet mod dem og givet dem den ene bøde efter den anden? Hvad har det ændret? Deres omsætning og overskud slår rekord år efter år.”
Open AI handler hurtigt med nye tiltag
Kort efter kritikken fra de amerikanske statsadvokater annoncerede både Open AI og Meta, at de vil øge kontrollen med, hvordan deres AI-chatbots reagerer, hvis unge udtrykker mistrivsel eller spørger ind til selvmord.
Open AI skriver i en pressemeddelelse, at de inden for kort tid vil indføre forældrekontrol, som forældre kan tilknytte deres børns Chat GPT-konti. På den måde vil forældrene kunne blive underrettet, hvis Chat GPT registrerer bekymrende adfærd.
William Atak ser positivt på disse tiltag: “Det undrer mig bare VIRKELIG, hvorfor de ikke har kunnet forudsige det her – come on! Men vil det redde deres omdømme? Ja, det tror jeg altså. For selvom det, der er sket, er helt forfærdeligt, så gør de det rigtige ved at vise handling og blive en del af løsningen.”
For stor til at fejle?
Spørgsmålet er, om Open AI som en af mastodonterne inden for AI kan overleve sager som disse på sigt. Chat GPT forbliver den mest benyttede AI-chatbot på trods af konkurrence fra andre udbydere.
William Atak mener, at Open AI er så stor en spiller, at de ikke lige vælter fra den ene dag til den anden: “På den måde kan man godt sige, de er ‘for store til at fejle’. Men spørgsmålet er, om de er for store til at miste tillid – og der er svaret uden tvivl nej.”
Han sammenligner med sociale medier som Facebook, Instagram, TikTok og Snapchat, som også har fået massiv kritik, men stadig overlever. Men han advarer om, at det kan sætte sig i omdømmet over tid: “Det kommer ikke til at handle om, hvorvidt AI overlever, men derimod om hvorvidt Chat GPT på grund af flere og flere møgsager – og ved forkert håndtering – kan miste markedsandele til andre udbydere, der er bedre til at forebygge kritik.”
En ny type shitstorm
Som William Atak forklarer, repræsenterer sagen om Open AI og Chat GPT en helt ny type shitstorm: “Når der er tale om liv og død, betyder det, at virksomhedens etik og værdier bliver trukket ind i den offentlige debat. Det ændrer samtalen fra: ‘Nøj, hvor er AI bare fantastisk’ til ‘Kan vi stole på AI?’ – og det er en helt anden liga.”
Det kræver ifølge ham et ekstremt fintfølende balanceret svar: “For offentligheden handler det ikke om systemer og algoritmer, men om en 16-årig dreng, der ikke er her længere. Det kræver balance i både ord og handlinger – og med den rette kommunikation og handlinger kan virksomheden genopbygge tilliden.”
Sagen om Open AI og Chat GPT viser, hvordan AI-teknologi er blevet så integreret i vores liv, at den kan få konsekvenser på liv og død. Det stiller nye krav til ansvar og sikkerhed hos AI-giganterne, og tiden vil vise, om Open AI formår at navigere gennem denne shitstorm og genopbygge tilliden hos forældre og myndigheder verden over.
