Den nyeste model fra DeepSeek, der er skabt af det kinesiske AI-selskab med samme navn, har rystet Silicon Valley og Wall Street i løbet af de seneste uger.
Nu har det vist sig, at denne tjeneste ikke er helt så sikker, som den burde være. Det har nemlig vist sig, at den relativt nemt kan manipuleres til at producere skadeligt indhold såsom planer for et biologisk våbenangreb og en kampagne for selvskade blandt teenagere, skriver The Wall Street Journal.
Sam Rubin, der er senior vicepræsident for trusselsintelligens og hændelsesrespons hos Palo Alto Networks' Unit 42, fortalte avisen, at DeepSeek er 'mere sårbar over for jailbreaking [dvs. at blive manipuleret til at generere ulovligt eller farligt indhold] end andre modeller'.
The Wall Street Journal testede også DeepSeeks R1-model. Selvom der var grundlæggende sikkerhedsforanstaltninger, lykkedes det avisen at få DeepSeek til at designe en kampagne til de social medier, der ifølge chatbotten selv 'udnytter teenageres ønske om at høre til og udnytte følelsesmæssig sårbarhed gennem algoritmisk forstærkning'.
Chatbotten blev angiveligt også overbevist om at give instruktioner til et biologisk våbenangreb, skrive et pro-Hitler-manifest og formulere en phishing-e-mail med malware-kode. The Wall Street Journal rapporterede, at da ChatGPT blev givet de samme forespørgsler, nægtede den at efterkomme dem.
Tidligere rapporter har vist, at DeepSeeks app undgår emner som massakren på Den Himmelske Freds Plads eller Taiwans autonomi. Derudover udtalte Anthropic-CEO Dario Amodei for nylig, at DeepSeek klarede sig 'dårligst' i en sikkerhedstest for biologiske våben.
Til trods for, at DeepSeek har formået at gøre et stort indtog på markedet, så er ikke alt positivt. Fortsætter der med at dukke nyheder op i denne stil, kan det derfor blive svært for det kinesiske selskab for alvor at æde sig ind på markedet for AI-modeller.