ANALISI

I maggiori “fiaschi” dell’AI nel 2024



Indirizzo copiato

Dai chatbot che danno consigli illegali o inverosimili ai risultati di ricerca generati dall’AI, ripercorriamo i principali fallimenti dell’intelligenza artificiale generativa dell’anno appena trascorso

Pubblicato il 13 gen 2025



AI

Il 2024 è stato un anno innegabilmente importante per chi lavora nell’AI. Ci sono stati più lanci di prodotti di successo di quanti se ne possano contare, e sono arrivati persino i premi Nobel. Ma non è sempre filato tutto liscio.

L’AI è una tecnologia imprevedibile e la crescente disponibilità di modelli generativi ha portato le persone a testare i loro limiti in modi nuovi, strani e talvolta dannosi.

Ecco alcuni dei più grandi “fiaschi” dell’AI del 2024.

1. La Gen AI ha invaso ogni angolo di Internet

L’intelligenza artificiale generativa rende facile la creazione di testi, immagini, video e altri tipi di materiale. Poiché il modello scelto impiega solo pochi secondi per produrre un risultato una volta inserito un prompt, questi modelli sono diventati un modo semplice e veloce per produrre contenuti su larga scala, generalmente di scarsa qualità.

Questo modo di creare contenuti di bassa qualità significa che ora si possono trovare praticamente in ogni angolo di Internet, dalle newsletter nella casella di posta e dai libri venduti su Amazon, agli annunci e agli articoli sul web e alle immagini scadenti sui feed di social media. Più queste immagini sono emotivamente evocative (veterani feriti, bambini che piangono, un segnale di sostegno nel conflitto israelo-palestinese), più è probabile che vengano condivise, con conseguente aumento del coinvolgimento e dei ricavi pubblicitari per i loro abili creatori.

Summer Vibes via Facebook (immagine generata dall’AI)

L’intelligenza artificiale non è solo fastidiosa: il suo aumento rappresenta un vero e proprio problema per il futuro dei modelli stessi che hanno contribuito a produrla. Poiché questi modelli sono addestrati su dati raccolti da Internet, il numero crescente di siti web spazzatura contenenti rifiuti dell’AI significa che c’è il rischio concreto che i risultati e le prestazioni dei modelli peggiorino costantemente.

2. L’arte dell’AI sta deformando le nostre aspettative sugli eventi reali

Questo è stato anche l’anno in cui gli effetti delle immagini surreali dell’AI hanno iniziato a penetrare nella vita reale. La Willy’s Chocolate Experience, un evento immersivo non ufficiale ispirato al romanzo Charlie e la fabbrica di cioccolato di Roald Dahl, ha fatto notizia in tutto il mondo, a febbraio, dopo che i suoi fantastici materiali di marketing generati dall’intelligenza artificiale hanno dato ai visitatori l’impressione che fosse molto più grande del magazzino scarsamente decorato creato dai suoi produttori.


Allo stesso modo, centinaia di persone si sono allineate per le strade di Dublino per una parata di Halloween che non esisteva.

Un sito web pakistano ha utilizzato l’intelligenza artificiale per creare un elenco di eventi in città, che è stato ampiamente condiviso sui social media prima del 31 ottobre. Sebbene il sito di SEO-baiting (myspirithalloween.com) sia stato successivamente rimosso, entrambi gli eventi illustrano come la fiducia mal riposta del pubblico nel materiale generato dall’intelligenza artificiale online possa tornare a perseguitarci.

3. Grok permette agli utenti di creare immagini quasi senza censura

La stragrande maggioranza dei principali generatori di immagini generate dall’intelligenza artificiale ha dei limiti di sicurezza – regole che stabiliscono cosa i modelli dell’intelligenza artificiale possono o non possono fare – per evitare che gli utenti creino contenuti violenti, espliciti, illegali e altrimenti dannosi. A volte questi guardrail servono solo a garantire che nessuno faccia un uso palese della proprietà intellettuale altrui. Ma Grok, un assistente realizzato dall’azienda di Elon Musk, chiamata xAI, ignora quasi tutti questi principi, in linea con il rifiuto di Musk di quella che lui chiama “woke AI”.

Mentre altri modelli di immagini generalmente si rifiutano di creare immagini di celebrità, materiale protetto da copyright, violenza o terrorismo – a meno che non vengano ingannati per ignorare queste regole – Grok genererà volentieri immagini di Donald Trump che spara con un bazooka o di Topolino che tiene in mano una bomba. Sebbene si limiti a generare immagini di nudo, il suo rifiuto di rispettare le regole mina gli sforzi di altre aziende per evitare di creare materiale problematico.

Immagine generata con Grok

4. Circolano online deepfakes sessualmente espliciti di Taylor Swift

A gennaio, alcuni deepfake non consensuali della cantante Taylor Swift hanno iniziato a circolare sui social media, tra cui X e Facebook. Una comunità di Telegram ha ingannato Designer, il generatore di immagini AI di Microsoft, per creare le immagini esplicite, dimostrando come le barriere di sicurezza possano essere aggirate anche quando sono in vigore.

Sebbene Microsoft abbia rapidamente chiuso le falle del sistema, l’incidente ha messo in luce le scarse politiche di moderazione dei contenuti delle piattaforme, dopo che i post contenenti le immagini sono circolati ampiamente e sono rimasti attivi per giorni. Ma l’aspetto più agghiacciante è quanto siamo ancora impotenti a combattere il deepfake porn non consensuale. Gli strumenti di watermarking e di avvelenamento dei dati possono essere utili, ma dovranno essere adottati in modo molto più diffuso per fare la differenza.

5. I chatbot aziendali sono andati in tilt

Con la diffusione dell’intelligenza artificiale, le aziende si affrettano ad adottare strumenti generativi per risparmiare tempo e denaro e massimizzare l’efficienza. Il problema è che i chatbot inventano e non si può fare affidamento su informazioni accurate.

Air Canada l’ha scoperto a caro prezzo dopo che il suo chatbot ha consigliato a un cliente di seguire una politica di rimborso per lutto che non esisteva. A febbraio, un tribunale canadese per le controversie di modesta entità ha accolto il reclamo legale del cliente, nonostante la compagnia aerea avesse affermato che il chatbot era un “soggetto giuridico separato, responsabile delle proprie azioni”.

In altri esempi di alto profilo di come i chatbot possano fare più male che bene, il bot dell’azienda di consegne DPD ha allegramente imprecato e si è definito inutile con poche richieste, mentre un altro bot creato per fornire ai newyorkesi informazioni accurate sul governo della città ha finito per dispensare indicazioni su come infrangere la legge.

6. I gadget AI non stanno esattamente infiammando il mercato

Gli assistenti hardware sono qualcosa che l’industria dell’AI ha tentato, senza riuscirci, di decifrare nel 2024. Humane ha cercato di convincere i clienti con la promessa dell’AI Pin, un computer da bavero indossabile, ma anche la riduzione del prezzo non è riuscita a risollevare le deboli vendite. Il Rabbit R1, un dispositivo di assistenza personale basato su ChatGPT, ha subito un destino simile, dopo una serie di recensioni critiche e segnalazioni di lentezza e bug. Entrambi i prodotti sembravano cercare di risolvere un problema che in realtà non esisteva.

7. I riassunti delle ricerche dell’intelligenza artificiale sono andati a rotoli

Aggiungere della colla a una pizza o mangiare un sassolino: questi sono solo alcuni dei suggerimenti stravaganti che la funzione AI Overviews di Google ha dato agli utenti del web a maggio, dopo che il gigante della ricerca ha aggiunto risposte generate in cima ai risultati di ricerca. Il problema era che i sistemi di intelligenza artificiale non sono in grado di distinguere tra una notizia corretta e un post scherzoso su Reddit. Gli utenti hanno fatto a gara per trovare le risposte più strane che l’intelligenza artificiale potesse generare.

Questi fallimenti sono stati divertenti, ma i riassunti dell’AI possono anche avere conseguenze serie. Una nuova funzione dell’iPhone che raggruppa le notifiche delle app e crea riassunti dei loro contenuti ha recentemente generato un falso titolo di BBC News. Il riassunto affermava falsamente che Luigi Mangione, accusato dell’omicidio dell’amministratore delegato dell’assicurazione sanitaria Brian Thompson, si era sparato. La stessa funzione aveva precedentemente creato un titolo che affermava che il primo ministro israeliano Benjamin Netanyahu era stato arrestato, anch’esso falso. Questo tipo di errori può, involontariamente, diffondere disinformazione e minare la fiducia nelle organizzazioni giornalistiche.

Articoli correlati

Articolo 1 di 4