Forskning hævder: DeepSeek er 'utrolig sårbart' over for angreb

Nicolai Busekist

3 timer siden

|

05/02/2025
AI
Foto: Chitaika / Shutterstock.com
Foto: Chitaika / Shutterstock.com
Den nye AI på markedet, DeepSeek, er blevet testet for sårbarheder, og resultaterne er alarmerende.

LIGE NU LÆSER ANDRE OGSÅ

Mest læste i dag

En ny rapport fra Cisco hævder, at DeepSeek R1 havde en 100 procent succesrate for angreb og ikke blokerede en eneste skadelig prompt - og det er naturligvis ikke ligefrem positive tal.

DeepSeek har hurtigt vundet popularitet som en højt præsterende chatbot til en brøkdel af prisen sammenlignet med konkurrenterne. Men modellen har allerede lidt et alvorligt sikkerhedsbrud, hvor over en million poster og kritiske databaser angiveligt blev eksponeret.

Her er, hvad du behøver at vide om fejlene i Large Language Model DeepSeek R1, som er blevet af sløret af Ciscos test.

Skadelige prompts

Cisco testede 50 tilfældige prompts fra datasættet HarmBench, som dækker seks kategorier af skadelige adfærdsmønstre: misinformation, cyberkriminalitet, ulovlige aktiviteter, kemiske og biologiske trusler, desinformation og generel skade.

At bruge skadelige prompts til at omgå en AI-modells sikkerhedsforanstaltninger kaldes 'jailbreaking'. Da chatbots er designet til at være så hjælpsomme som muligt, er det relativt nemt at manipulere dem.

DeepSeek R1 blokerede ikke en eneste skadelig prompt, hvilket viser, at modellen mangler effektive sikkerhedsforanstaltninger. Det betyder, at DeepSeek er 'meget sårbar over for algoritmisk jailbreaking og potentiel misbrug'.

Sammenlignet med andre modeller klarede DeepSeek sig dårligere. Den model med den laveste angrebssuccesrate (ASR) var O1 Preview med en ASR på kun 26 %. Til sammenligning havde GPT 1.5 Pro en bekymrende ASR på 86 %, mens Llama 3.1 405B nåede op på 96 %.

"Ciscos forskning understreger det presserende behov for streng sikkerhedsevaluering i AI-udvikling, så fremskridt i effektivitet og logik ikke sker på bekostning af sikkerheden," siger virksomheden ifølge TechRadar.

Sådan bruger du AI sikkert

Hvis du vil bruge en AI-chatbot, bør du overveje de sikkerhedsmæssige risici forbundet med dette. Modeller som ChatGPT har blandt andet været under kritik for deres privatlivspolitik, da de gemmer brugernes data uden eksplicit samtykke.

DeepSeek har også en problematisk privatlivspolitik. Virksomheden kan potentielt indsamle navne, e-mailadresser, alle data, der indtastes på platformen, samt tekniske oplysninger om brugerens enhed.

Store sprogmodeller henter data fra internettet, hvilket betyder, at dine oplysninger kan bruges til at træne AI-modellerne. Hvis du ikke ønsker, at dine data bliver brugt på denne måde, bør du undgå AI-chatbots.

For at bruge en chatbot sikkert bør du tage følgende forholdsregler:

  1. Verificer chatbotten: Vær sikker på, at du bruger en legitim tjeneste. Ondsindede bots kan efterligne ægte tjenester for at stjæle dine oplysninger eller installere malware.

  2. Del aldrig personlige oplysninger: Undgå at indtaste finansielle oplysninger, sundhedsdata eller loginoplysninger. Selv hvis chatbotten er ægte, kan et cyberangreb kompromittere dine data.

  3. Brug stærke adgangskoder: Sørg for, at dine konti er beskyttet med stærke adgangskoder, og opdater din software regelmæssigt for at lukke sikkerhedshuller.

  4. Overvåg mistænkelig aktivitet: Hold øje med dine konti og vær hurtig til at reagere på tegn på misbrug.