DeepSeek-R1, il modello linguistico di grandi dimensioni (LLM) recentemente rilasciato dalla startup cinese DeepSeek, è stato testato da Qualys contro 18 tipi di jailbreak attraverso 885 attacchi fallendo nel 58% dei tentativi, dimostrando così una significativa suscettibilità alla manipolazione avversaria. Il team di Qualys ha condotto un’analisi di sicurezza della variante DeepSeek-R1 LLaMA 8B distillata utilizzando la piattaforma di sicurezza AI lanciata di recente, Qualys TotalAI.
ANALISI
DeepSeek: sottoposto a test di jailbreak ne fallisce oltre la metà
L’analisi di sicurezza del modello di ragionamento di punta, DeepSeek-R1 LLaMA 8B, condotta da Qualys TotalAI, rivela problemi significativi per un’adozione sicura da parte delle aziende. Ecco tutti i dettagli

Continua a leggere questo articolo
Argomenti
Canali




