En større gruppe psykologer har gjort det klart, at de vil have undersøgt AI-værktøjer efter en forfærdelig sag.
Lige nu læser andre
Den portugisiske psykologforening har i dag advaret om nødvendigheden af at gennemføre audits og videnskabelig godkendelse af kunstig intelligens-værktøjer samt behovet for øget digital dannelse for at forebygge sager som den, hvor en teenager angiveligt begik selvmord med hjælp fra ChatGPT.
Sagen, som efterforskes i USA, involverer et søgsmål rejst af forældrene mod OpenAI, hvor de beskylder ChatGPT for at have hjulpet deres søn med at tage sit eget liv – en situation, der fik virksomheden til at indføre et såkaldt forældrekontrolsystem.
Miguel Ricou, der er formand for Fagligt Råd for Klinisk og Sundhedspsykologi ved den portugisiske psykologforening, har til nyhedsbureauet Lusa udtalt, at sådanne tilfælde bør tjene som advarsel.
“Disse dramatiske hændelser er naturligvis undtagelser, ligesom alle katastrofer er. Men netop katastrofer tjener til at advare og minde os om, at den slags kan ske, og gøre os opmærksomme på det ansvar, vi har,” sagde han.
Om OpenAIøs beslutning om at indføre forældrekontrol sagde Ricou, at det er en reaktiv løsning, og at sådanne situationer burde forebygges – ikke først håndteres bagefter.
Læs også
“Den beslutning viser dybest set, at der var noget galt. At betragte disse modeller som blot teknologiske værktøjer, som er neutrale og uden egen værdi, er forkert,” sagde han og understregede, at værktøjerne skal udvikles etisk fra starten.
Miguel Ricou understregede, at denne type AI-systemer skaber en illusion af en menneskelig relation, som i virkeligheden ikke eksisterer – men som kan føre til, at brugeren danner falske følelsesmæssige bånd til et system, der hverken har eller bør have rollen som ven.
“Der skal være en tydelig reaktion,” sagde han og tilføjede, at løsningen med at lade forældre koble deres konto til deres mindreårige børns og overvåge ChatGPT’s svar ‘ikke er tilstrækkeligt og desuden har mangler’.
På den ene side kan funktionen være gavnlig, fordi den muliggør tidlig indsats i risikosituationer, ‘men den indebærer også risici’.
“Vi lader os berolige af, at funktionen findes, og glemmer at være opmærksomme. Så bruger børnene det bare frit,” sagde han.
Læs også
Derudover advarede han om, at funktionen også kan udgøre et brud på privatlivets fred. Derfor mener han, at det er åbenlyst, at denne mekanisme ikke er tilstrækkelig og ‘ikke løser problemet alene’.
“Jeg siger ikke, at det er negativt, eller at jeg ikke forstår, hvorfor de gør det,” præciserede han.
Men han mener, at tiltaget mest af alt tjener til at ‘fralægge sig ansvar fra dem, der udvikler modellen’, da de blot kan sige, at ‘der jo var forældrekontrol. Hvis den ikke blev brugt, er det ikke vores ansvar’.
Psykologen advarede også om, at der begynder at dukke AI-værktøjer op, som hævder at tilbyde psykologisk støtte, som dog hverken byder på videnskabelig validering eller nogen form for regulering.
Han forklarede, at medicinsk udstyr skal leve op til en række krav og dokumentere resultater og sikkerhed, men at de forskellige AI-værktøjer ‘ikke opfylder nogen af delene’.
Læs også
“Det eneste, vi har af evaluering, er brugervenlighed og brugerens tilfredshed – hvilket åbenlyst er meget lidt og uundgåeligt giver komplikationer,” sagde han.
Derfor argumenterede han for, at der skal gennemføres audits af denne type værktøjer.
“De skal gennemgå validerings- og forskningsprocesser, som kan give os en vis tillid,” sagde han.
“Folk skal desuden have digital dannelse og evne til kritisk tænkning, når det gælder denne type værktøjer og forstå, hvad de er til for, og hvordan de skal bruges. Ellers risikerer vi at menneskeliggøre disse systemer mere og mere. Og det er en tendens, vi allerede ser.”