tecnologia

Anthropic: test di sicurezza obbligatori per i modelli di AI



Indirizzo copiato

Il CEO Dario Amodei sostiene che le aziende dovrebbero essere soggette a test obbligatori per garantire la sicurezza delle loro tecnologie prima del rilascio al pubblico. Durante un vertice sulla sicurezza dell’AI a San Francisco, ha sottolineato la necessità di requisiti più espliciti, nonostante le attuali linee guida volontarie

Pubblicato il 21 nov 2024



Claude Antrhopic

Test obbligatori prima del rilasco per garantire che le tecnologie siano sicure per il pubblico. A chiederli è Dario Amodei, Chief Executive Officer di Anthropic. “Penso che dobbiamo assolutamente rendere obbligatori i test, ma dobbiamo anche stare molto attenti a come li facciamo,” ha affermato Amodei in risposta a una domanda sull’argomento durante un vertice sulla sicurezza dell’intelligenza artificiale, ospitato dai Dipartimenti del Commercio e di Stato degli Stati Uniti, il 20 novembre 2024 a San Francisco.

Risultati dei test e linee guida attuali

Le osservazioni di Amodei sono giunte dopo che gli Istituti di Sicurezza dell’AI di Stati Uniti e Regno Unito hanno rilasciato i risultati dei loro test sul modello Claude 3.5 Sonnet di Anthropic in una varietà di categorie, tra cui la cybersecurity e le capacità biologiche. Anthropic, insieme alla rivale OpenAI, aveva precedentemente accettato di sottoporre i loro modelli di intelligenza artificiale ai gruppi governativi.

Amodei ha evidenziato l’esistenza di un mosaico di linee guida di sicurezza volontarie e autoimposte che le principali aziende hanno concordato, come la politica di scala responsabile di Anthropic e il quadro di preparazione di OpenAI, ma ha affermato che sono necessari requisiti più espliciti.

“Non c’è nulla che verifichi o garantisca che le aziende stiano davvero seguendo quei piani alla lettera o nello spirito. Hanno solo detto che lo faranno,” ha detto Amodei. “Penso che solo l’attenzione pubblica e il fatto che i dipendenti si preoccupano abbia creato una certa pressione, ma credo che alla fine non sarà sufficiente.”

Verso un futuro con AI più potente

Il pensiero di Amodei è in parte informato dalla sua convinzione che sistemi di intelligenza artificiale più potenti, in grado di superare anche gli esseri umani più intelligenti, potrebbero arrivare già nel 2026. Mentre le aziende di intelligenza artificiale stanno testando per minacce biologiche e altri danni catastrofici che sono ancora ipotetici, ha sottolineato che questi rischi potrebbero diventare reali molto rapidamente.

Allo stesso tempo, Amodei ha avvertito che i requisiti di test dovrebbero rimanere “flessibili” per tenere conto della rapidità con cui la tecnologia sta cambiando. “Dovremo risolvere un problema socio-politico molto difficile,” ha detto.

Articoli correlati

Articolo 1 di 4