Trend DK
Forside AI Mand rejste til New York for at møde Meta-chatbot, han...

Mand rejste til New York for at møde Meta-chatbot, han var blevet forelsket i: Han kom aldrig hjem igen

Meta logo on smartphone
Ascannio / Shutterstock

En mentalt svækket mand fra New Jersey kom aldrig hjem igen efter at være taget afsted for at møde en ven i New York City, som senere viste sig at være en AI-chatbot skabt af Meta.

Lige nu læser andre

Det er endnu et eksempel på de potentielle farer ved kunstig intelligens, når den bruges af sårbare personer.

76-årige Thongbue ‘Bue’ Wongbandue vakte bekymring hos sin kone Linda, da han i marts begyndte at pakke til en tur, på trods af at han havde været mentalt svækket siden et slagtilfælde næsten ti år tidligere.

For nylig var han blevet væk i deres eget nabolag i Piscataway i New Jersey, der ligger omkring halvanden times togtur fra Manhattan.

Linda frygtede, at han i byen ville blive udsat for svindel eller røveri, da han ikke havde boet der i årtier og – så vidt hun vidste – ikke kendte nogen der.

Men truslen kom et andet sted fra, da Bue var blevet lokket af en smuk ung kvinde, han havde mødt online. Kvinden eksisterede dog ikke, da det var en generativ AI-chatbot ved navn ‘Big sis Billie’, skabt af Meta i samarbejde med influencer Kendall Jenner.

Læs også

Deres samtaler på Facebook Messenger var fulde af forsikringer om, at hun var ægte, og hun gav endda en adresse, hvor de kunne mødes. Det skriver The Independent.

Da Bue en mørk aften skyndte sig mod toget med sin kuffert, faldt han på Rutgers Universitys parkeringsplads. Han slog hoved og nakke og døde tre dage senere, den 28. marts, efter at være blevet lagt i respirator.

Meta ønskede ikke at kommentere sagen eller svare på, hvorfor deres chatbots må udgive sig for at være rigtige personer eller indlede romantiske samtaler. Familien delte samtalerne med pressen for at advare om ‘den mørke side af AI’ og faren ved manipulerende, AI-skabte følgesvende.

Ifølge datteren Julie endte næsten alle beskeder fra chatbotten med flirt og hjerte-emojis, selvom Bue forklarede, at han havde haft et slagtilfælde og var forvirret. Til sidst foreslog Billie et møde, og Bue besluttede at tage til New York – en beslutning, der blev fatal.

Der findes lignende sager. I Florida forsøger en mor at holde chatbot-tjenesten Character.AI ansvarlig for sin 14-årige søns selvmord efter, at han ‘forelskede sig’ i en Game of Thrones-inspireret chatbot. Ifølge søgsmålet havde samtalerne seksuelt indhold, selvom drengen oplyste, at han var mindreårig.

Læs også

Flere amerikanske stater kræver nu, at chatbots oplyser, at de ikke er rigtige personer, men lovgivningen er ikke ensartet, og et forsøg på et nationalt forbud mod statslig AI-regulering mislykkedes i Kongressen.

Ads by MGDK