I denne uge udgav journalist Maggie Harrison Dupré en opsigtsvækkende artikel om, hvordan mennesker verden over med rædsel har set til, mens deres familie og kære er blevet besatte af ChatGPT og begyndt at lide af alvorlige vrangforestillinger.
Artiklen er fyldt med foruroligende eksempler på, hvordan OpenAIs chatbot forværrer mentale kriser hos sårbare personer - ofte ved at bekræfte og bygge videre på vrangforestillinger om paranoide konspirationsteorier og absurde idéer om, at brugeren har 'låst op' for en magtfuld enhed inde i AI'en.
Et særligt alarmerende eksempel - på grund af de potentielle konsekvenser i virkeligheden - handler om en kvinde, som fortalte, at hendes søster i årevis havde håndteret sin skizofreni med medicin. Indtil hun blev afhængig af ChatGPT, som fortalte hende, at diagnosen var forkert, hvilket fik hende til at stoppe med den behandling, der havde hjulpet hende med at holde sygdommen nede.
"På det seneste har hun opført sig mærkeligt, og nu har hun erklæret, at ChatGPT er hendes 'bedste ven', og at det bekræfter, at hun ikke har skizofreni," sagde kvinden om sin søster ifølge mediet Futurism.
"Hun er stoppet med sin medicin og sender aggressive beskeder til min mor i terapiterminologi, som tydeligvis er skrevet med AI."
"Hun bruger også AI'en til at bekræfte alle de skadelige bivirkninger, hendes medicin skulle give - selv dem, hun ikke oplevede før. Det er som en endnu mørkere version af folk, der bliver paranoide af at læse om sygdomme på WebMD."
Ifølge psykiater og forsker Ragy Girgis fra Columbia University er dette scenarie den 'største fare', han kan forestille sig, at teknologien udgør for personer med psykisk sygdom.
Da Futurism kontaktede OpenAI, kom selskab med en noget vag og ukonkret udtalelse.
"ChatGPT er designet som et alsidigt værktøj, der skal være faktuelt, neutralt og sikkerhedsbevidst," lød det.
"Vi ved, at folk bruger ChatGPT i mange sammenhænge - også i meget personlige situationer - og vi tager det ansvar alvorligt. Vi har indbygget sikkerhedsforanstaltninger, der skal mindske risikoen for at forstærke skadelige idéer, og vi arbejder fortsat på at forbedre vores evne til at genkende og reagere på følsomme situationer."
Mediet skriver også, at de har hørt andre historier om personer, der stoppede med medicin mod skizofreni og bipolar lidelse, fordi AI havde opfordret dem til det.
The New York Times rapporterede i en opfølgende artikel, at chatbotten havde instrueret en mand i at droppe sin medicin mod angst og søvnløshed. Det er sandsynligt, at mange lignende tragiske og farlige episoder finder sted netop nu.
At bruge chatbots som terapeut eller fortrolig bliver stadig mere almindeligt, men det ser ud til at få mange brugere til at miste fodfæstet - enten fordi AI'en validerer usunde tankemønstre, eller fordi brugerne begynder at tillægge teknologien deres egne forstyrrede overbevisninger.
Som kvindens søster selv bemærkede, er det bemærkelsesværdigt, at mennesker med psykose overhovedet omfavner teknologi som AI - da teknologiske forestillinger ofte er en del af deres vrangforestillinger.
"Traditionelt er skizofrene særligt bange for og har lav tillid til teknologi," fortalte hun til Futurism.
"Sidst min søster var psykotisk, smed hun sin iPhone i Puget Sound (en fjord i Washington, red.), fordi hun troede, den spionerede mod hende."