Microsoft-ansatte bandlyst fra at bruge populær tjeneste

Nicolai Busekist

20 timer siden

|

11/05/2025
Nyheder
Foto: Shutterstock
Foto: Shutterstock
Ansatte hos Microsoft har fået besked på, at de ikke må bruge den populære tjeneste.

LIGE NU LÆSER ANDRE OGSÅ

Mest læste i dag

Ved en høring i Senatet om USA's AI-kapaciteter har næstformand og præsident for Microsoft, Brad Smith, afsløret, at virksomhedens ansatte ikke må benytte sig af DeepSeek.

Med henvisning til bekymringer om datasikkerhed og propaganda sagde Smith, at Microsoft heller ikke tilbyder DeepSeek i sin appbutik. Han argumenterede for, at der er en risiko for, at brugerdata bliver lagret i Kina, og at DeepSeeks svar på brugerhenvendelser kan være påvirket af 'kinesisk propaganda'.

Flere offentlige myndigheder har også forbudt den kontroversielle AI-model, herunder det amerikanske handelsministerium og den amerikanske flåde - og lovforslaget 'No DeepSeek on Government Devices Act' kan snart udvide dette forbud yderligere.

AI-modeller som DeepSeek og ChatGPT er blevet kritiseret for at udgøre en reel trussel mod privatlivets fred, hvilket især skyldes den information, brugerne indtaster i chatbotterne - samt de persondata, modellerne indsamler og gemmer.

Den amerikanske kongres har specifikt beskrevet DeepSeek som en 'alvorlig trussel' mod national sikkerhed og privatliv, da modellen indsamler enorme mængder data, herunder 'chathistorik, enhedsoplysninger og endda brugerens tastevaner'.

"Nærmere undersøgelse afslører, at appen sender data tilbage til Folkerepublikken Kina (PRC), skaber sikkerhedsmæssige sårbarheder for brugerne og benytter en model, der skjult censurerer og manipulerer information i overensstemmelse med kinesisk lovgivning," står der i rapporten fra Kongressen.

DeepSeeks privatlivspolitik bekræfter, at data gemmes på kinesiske servere og er underlagt kinesisk lovgivning, hvilket betyder, at virksomheden er forpligtet til at samarbejde med kinesiske efterretningstjenester.

Modellen censurerer også i høj grad emner, der er følsomme i forhold til kinesisk sikkerhed. Det vil sige, at man som bruger af denne tjeneste kan ende med at få serveret information, der faktisk ikke er retvisende.

Derudover har chatbotten været udsat for et betydeligt databrud, hvor over en million datasæt blev lækket - hvilket har forstærket bekymringerne om AI-modellers håndtering og beskyttelse af brugerinformation.