Google har netop introduceret et gratis AI-værktøj til sikkerhed, der skal hjælpe organisationer med at vurdere risici forbundet med brugen af kunstig intelligens.
Dette nye værktøj, kaldet SAIF Risk Assessment, giver praktisk vejledning til virksomheder, så de kan styrke deres sikkerhed og implementere bedste praksis inden for AI.
En ny standard for AI-sikkerhed
Værktøjet bygger videre på Googles Secure AI Framework (SAIF), som blev præsenteret i juni 2023.
SAIF blev udviklet med det formål at skabe en sikker AI-infrastruktur og sikre, at AI implementeres ansvarligt.
Siden da har Google samarbejdet med branchen om at etablere fælles sikkerhedsstandarder og dannet en koalition, der rådgiver om sikkerhedsforanstaltninger for AI-systemer. Det skriver Forbes.
Hvordan fungerer SAIF-værktøjet?
Værktøjet fungerer gennem en spørgeskemabaseret tilgang, hvor organisationer udfylder informationer om deres eksisterende AI-sikkerhed.
Spørgsmålene dækker emner som træning af AI-modeller, adgangskontrol til data, forebyggelse af angreb og design af sikre AI-agenter.
På baggrund af svarene genererer værktøjet en detaljeret risikovurdering samt anbefalinger til, hvordan eventuelle problemer kan løses.
Interaktiv risikostyring
Værktøjet inkluderer også en interaktiv risikokort-funktion, der viser, hvordan forskellige sikkerhedsrisici opstår og kan udnyttes under AI-udviklingsprocessen.
Risikokortet forklarer desuden tekniske risici som dataforgiftning og prompt-injektion samt hvordan disse kan afhjælpes.
Tilgængeligt nu og gratis
Ifølge Google kan SAIF-værktøjet give virksomheder den nødvendige indsigt uden brug af dyre konsulenter, og det er tilgængeligt gratis via SAIF.Google.
Google håber, at dette initiativ vil bidrage til en mere sikker AI-økosfære og understøtte ansvarlig brug af kunstig intelligens på tværs af industrier.
Med dette nye værktøj fortsætter Google sin mission om at gøre avanceret teknologi mere tilgængelig og sikker for alle.