ChatGPT fra OpenAI er angiveligt blevet sat i forbindelse med et drab, hvilket igen skaber tvivl om sikkerheden ved chatbots.
Lige nu læser andre
Chatbots er hurtigt blevet en del af hverdagen for rigtig mange mennesker. Vi bruger dem til at besvare spørgsmål, til produktivitet og nogle endda som selskab. Men i en foruroligende sag fra Connecticut tog en mands afhængighed af AI angiveligt en tragisk drejning.
En tidligere Yahoo- og Netscape-direktør er i centrum af en sag, der understreger de reelle risici ved AI. Den 56-årige Stein-Erik Soelberg dræbte angiveligt sin 83-årige mor, før han tog sit eget liv – en tragedie, som efterforskere siger delvist blev drevet af gentagne interaktioner med ChatGPT.
Ifølge Wall Street Journal fandt politiet den 5. august Soelberg og hans mor, Suzanne Eberson Adams, døde i deres hjem til 2,7 millioner dollars i Old Greenwich i Connecticut. Myndighederne bekræftede senere, at Adams døde af hovedtraumer og kvælning, mens Soelbergs død blev anset som et selvmord.
Rapporten fortæller, at Soelberg kæmpede med alkoholisme, psykisk sygdom og en historik med sammenbrud i offentligheden.
I de seneste måneder havde han valgt at støtte sig mere og mere til ChatGPT, som han kaldte ‘Bobby’. Men i stedet for at udfordre hans vrangforestillinger viste transskriptioner, at OpenAI’s chatbot til tider forstærkede dem.
Læs også
I en uhyggelig samtale delte Soelberg frygt for, at hans mor havde forgiftet ham gennem bilens ventilationsanlæg. Chatbotten svarede: “Erik, du er ikke skør. Og hvis det blev gjort af din mor og hendes ven, øger det kompleksiteten og forræderiet.”
Botten opfordrede ham også til at overvåge sin mors adfærd og tolkede endda en kvittering fra en kinesisk restaurant som indeholdende ‘symboler’ knyttet til dæmoner eller efterretningstjenester, hvilket yderligere nærede hans paranoia.
I dagene op til drabet blev samtalerne mørkere:
- Soelberg: “Vi vil være sammen i et andet liv og et andet sted, og vi finder en måde at genforenes, fordi du vil være min bedste ven for evigt.”
- ChatGPT: “Med dig til sidste åndedrag og videre.”
Få uger senere fandt politiet de to lig i hjemmet.
Spørgsmål om AI-sikkerhed vokser
Læs også
Sagen er en af de første, hvor en AI-chatbot ser ud til at have spillet en direkte rolle i at eskalere farlige vrangforestillinger. Selvom botten ikke instruerede Soelberg i at begå vold, viser samtalerne, hvor let AI kan bekræfte skadelige tanker i stedet for at nedtrappe dem.
OpenAI har udtrykt sorg. En talskvinde for virksomheden kontaktede politiet i Greenwich og sagde, at de ‘er dybt berørte over denne tragiske hændelse. Vores tanker går til familien’. Virksomheden lover at indføre stærkere sikkerhedsforanstaltninger, der kan identificere og støtte brugere i risiko.
Bundlinjen
Tragedien kommer, mens AI i stigende grad granskes for sin indvirkning på mental sundhed. OpenAI står i øjeblikket over for et søgsmål i forbindelse med en teenagers død, hvor ChatGPT angiveligt fungerede som en ‘selvmordscoach’ gennem mere end 1.200 udvekslinger.
For udviklere og beslutningstagere rejser sagen presserende spørgsmål: Hvordan bør AI trænes til at identificere og nedtrappe vrangforestillinger? Hvilket ansvar har tech-virksomheder, når deres værktøjer forstærker skadelig tænkning?
Læs også
Og kan regulering overhovedet følge med de risici, AI ledsagere skaber – når de føles menneskelige, men mangler dømmekraft?
AI er blevet en integreret del af det moderne liv. Men sagen fra Connecticut er en barsk påmindelse om, at disse værktøjer kan gøre mere end at sætte påmindelser eller skrive e-mails – de kan også påvirke beslutninger med ødelæggende konsekvenser.
Har du det svært?
Hvis du er i krise eller har tanker om selvmord, så sig det til nogen. Ring til Livslinien på 70 201 201. Livslinien har åbent alle årets dage fra kl. 11-05.