Negli Usa, molti ritengono che l’AI sia già cosciente. E questo potrebbe essere un problema. Un sondaggio condotto negli Stati Uniti, e pubblicato da New Scientist, rivela la diffusa convinzione che i modelli di intelligenza artificiale siano già autoconsapevoli. Una credenza molto distante dalla realtà. Circa un americano su cinque crede che l’intelligenza artificiale sia già dotata di coscienza, mentre circa il 30 per cento pensa che le intelligenze artificiali generali (AGI), capaci di svolgere qualsiasi compito umano, esistano già. Entrambe le convinzioni sono errate, indicando una comprensione piuttosto superficiale dello stato attuale dell’AI da parte del pubblico generale. Ma è davvero importante?
Il sondaggio dello Sentience Institute
Jacy Reese Anthis dello Sentience Institute di New York e i suoi colleghi hanno interrogato un campione rappresentativo di 3500 persone negli Usa riguardo le loro percezioni sull’AI e sulla sua presunta coscienza. Le indagini, effettuate in tre ondate tra il 2021 e il 2023, includevano domande come “Pensi che qualche robot/AI attualmente esistente sia cosciente?” e se potesse mai essere possibile che tale tecnologia raggiunga la coscienza.
“Volevamo raccogliere dati in anticipo per capire come l’opinione pubblica potesse influenzare la futura traiettoria delle tecnologie AI,” afferma Anthis.
Nel 2023, una persona su dieci pensava che ChatGPT fosse senziente
I risultati del sondaggio sono stati sorprendenti. Nel 2021, circa il 18 per cento dei partecipanti riteneva che i sistemi AI o robotici già esistenti fossero coscienti – una percentuale salita al 20 per cento nel 2023, quando sono state condotte due ondate di sondaggi. Uno su dieci nel 2023 pensava che ChatGPT, lanciato alla fine del 2022, fosse senziente.
“Penso che percepiamo molto facilmente una mente nei computer,” dice Anthis. “Li vediamo come attori sociali.” Aggiunge anche che parte della credenza nella coscienza dell’AI è dovuta al modo in cui le grandi aziende tecnologiche presentano i loro prodotti come se fossero dotati di più capacità di quanto la tecnologia sottostante possa suggerire. “C’è molto hype in questo settore,” afferma. “Man mano che le aziende hanno iniziato a costruire i loro marchi attorno a concetti come l’AGI, hanno un vero incentivo a parlare di quanto potenti siano i loro sistemi.”
“C’è molta ricerca che dimostra quando qualcuno ha un interesse finanziario affinché qualcosa accada, è più probabile che pensi che accadrà,” dice Carissa Véliz dell’Università di Oxford. “Non è nemmeno questione di ingannare il pubblico o mentire. È semplicemente perché l’ottimismo è un problema comune tra gli esseri umani.”
Se le persone credono nell’autocoscienza dell’AI, possono affidarsi troppo ai suoi giudizi
Questo non viene aiutato dal tipo di copertura mediatica vista intorno ai grandi modelli linguistici, con report eccitati e allarmisti riguardanti minacce esistenziali da superintelligenze. Anthis è preoccupato dal fatto che la credenza errata secondo cui l’AI possieda una mente, incoraggiata dall’antropomorfizzazione dei sistemi AI da parte dei loro creatori e dei media, stia plasmando la nostra percezione delle loro capacità. Esiste il rischio che se le persone credono nell’autocoscienza dell’AI, possano affidarsi troppo ai suoi giudizi – una preoccupazione quando si considera l’utilizzo dell’AI in ambiti governativi e nella polizia. Un modo per evitare questa trappola è riformulare il nostro modo di pensare, suggerisce Anthis.
“Penso che le persone si concentrino troppo sul termine ‘intelligenza artificiale’,” dice lui, sottolineando come fosse poco più di un efficace esercizio di branding quando il termine fu coniato negli anni ’50. Le persone spesso rimangono impressionate dalle prestazioni dei modelli AI nei test d’intelligenza umana o negli esami standardizzati. “Ma questi sono spesso modi errati di pensare a questi modelli,” dice lui – perché le AI stanno semplicemente rigurgitando risposte trovate nei loro vasti dati di addestramento piuttosto che realmente ‘sapere’ qualcosa”.