Qual è il confine tra AI e Fake-AI? Quali sono i parametri che rendono una macchina intelligente? Per rispondere a queste domande, e comprendere come distinguere le Fake-AI, facciamo chiarezza sui significati tecnici e filosofici dei termini e delle definizioni.
Un’AI dai confini troppo ampi
Si discute concretamente di AI dal 1955, quando al Project on Artificial Intelligence esperti visionari segnarono la nascita di questo nuovo campo di ricerca e sviluppo. Già allora, i temi principali per definire l’intelligenza artificiale ruotavano intorno a tre concetti cardine:
- Reti Neurali, ossia sistemi che simulano il comportamento dei neuroni e del cervello umano;
- Creatività, quindi macchine con la capacità di generare idee originali e di trovare nuove soluzioni a problemi di varia natura;
- Natural language processing (NLP), cioè le abilità di comprensione del linguaggio simbolico umano.
Dopo 68 anni, comunque, la definizione di intelligenza artificiale resta ancora troppo ampia. La ragione di queste difficoltà è da ricercare nella versatilità dell’intelligenza artificiale, che può assumere forme diverse, come il machine learning, la computer vision, la robotica, etc. La stessa evoluzione continua dell’IA contribuisce a complicare le definizioni teoretiche: nuove applicazioni e tecnologie emergenti rendono difficile stabilire confini semantici precisi e duraturi.
Da alcuni mesi, la popolarità ottenuta dagli strumenti di OpenAI, come ChatGPT, hanno trasformato questo dibattito altamente specialistico in un popolare strumento di marketing usato da tante aziende del settore IT per ribattezzare i loro prodotti software e renderli più appetibili al mercato. Nella realtà, non sempre questi prodotti sono realmente AI-Powered.
In che misura l’AI differisce dall’intelligenza umana
L’intelligenza artificiale continua a stupirci per la velocità della sua evoluzione, dal momento che ha superato rapidamente le passate aspettative riguardo a ciò che si pensava questi sistemi potessero fare. Probabilmente, non è ancora nemmeno vicina alle coscienze e alle menti sintetiche dei film di fantascienza, ma i ricercatori che lavorano con le AI di nuova generazione, come il progetto LaMDA di Google, sono preoccupati dalle questioni etiche riguardanti il plagio, lo sfruttamento e la manipolazione delle informazioni. L’interrogativo principale riguarda se e in che misura l’AI differisca dall’intelligenza umana.
I confini dell’intelligenza sono complessi da cogliere: anche il comportamento più complesso degli insetti, non viene considerato un’indicazione di intelligenza, mentre il comportamento più semplice degli esseri umani viene quasi sempre attribuito a quest’ultima. Gli psicologi considerano l’intelligenza umana come la combinazione di molte abilità estremamente diverse tra loro, mentre la ricerca sull’intelligenza artificiale si concentra sull’apprendimento per la risoluzione di problemi verticali di comprensione, percezione e decisione.
Quando si tratta di macchine, molte decisioni che all’apparenza sembrano molto intelligenti, in realtà sono il frutto di un algoritmo in grado di effettuare milioni di tentativi in pochi secondi. Ad esempio, un semplice programma per computer, per risolvere il problema di dover fare scacco matto in una mossa, potrebbe provare a caso tutte le mosse disponibili finché non viene trovato il matto. Il programma potrebbe, quindi, memorizzare le posizioni e la soluzione in modo che la prossima volta che si ripresenteranno le stesse posizioni, richiamerà immediatamente la soluzione corretta. Questa semplice memorizzazione di singoli elementi e procedure, nota come apprendimento meccanico, è relativamente facile da implementare su un computer.
La generalizzazione, invece, implica l’applicazione dell’esperienza passata a situazioni analoghe ma non identiche. Generalizzare significa applicare una conoscenza, un’esperienza o una conclusione a un’ampia varietà di situazioni o contesti, oltre a quelli specifici in cui è stata acquisita. In altre parole, si tratta di estrapolare un principio o una regola da una situazione specifica per poi applicarla a contesti complementari. La generalizzazione è un processo importante che consente alle macchine di fare previsioni su situazioni future e di adattarsi a nuove circostanze in modo efficiente. Tuttavia, la generalizzazione è complessa da ottenere e può portare a errori di giudizio e stereotipi, se non viene controllata adeguatamente.
Fake-AI e apprendimento automatico
Gli algoritmi di apprendimento automatico sono noti da molti anni, in alcuni casi centinaia. L’intelligenza artificiale, invece, ha subito una forte accelerazione solo all’inizio degli anni 10 di questo secolo. I fattori principali che hanno causato questo ritardo sono fondamentalmente due: l’acceso ai dati e la potenza di calcolo.
Oggi il web ha reso possibile raccogliere enormi volumi di dati, e la ricerca hardware ha dato vita a processori per il calcolo parallelo estremamente efficienti. Se oggi abbiamo a disposizione strumenti generativi come Dall-E o ChatGPT, il merito non è di scoperte tecniche di base, ma è dovuto alla possibilità di sfruttare efficacemente concetti antichi addestrando i modelli in tempi ragionevoli su titaniche sorgenti dati.
Le AI reali, che sfruttano i principi di apprendimento del machine learning, si suddividono in supervisionate e non supervisionate. Nel caso dei sistemi supervisionati, l’AI utilizza un set di dati di addestramento pre-etichettati per sviluppare un modello che possa predire l’etichetta corretta per nuovi dati. Nel caso dei sistemi non supervisionati, l’intelligenza artificiale cerca di identificare i modelli nei dati senza l’ausilio di etichette predefinite.
Le Fake-AI consentono di automatizzare alcune attività o di migliorare l’efficienza dei processi, ma seguono regole codificate. Questi algoritmi non apprendono e non generalizzano a partire da dati ed esempi, di conseguenza non sono in grado di comprendere in modo autonomo la struttura dei dati. Aggiungere nuove funzionalità o ampliare le capacità delle Fake-AI è impossibile senza l’intervento di uno sviluppatore che ne modifichi l’algoritmo.
Per qualificarsi come AI, un sistema deve mostrare un certo livello di apprendimento e adattamento. Per questo motivo, i sistemi decisionali, l’automazione e le statistiche non sono AI.
Limiti e orizzonti dell’intelligenza artificiale
L’intelligenza artificiale viene classificata in due categorie: intelligenza artificiale ristretta (ANI) e intelligenza artificiale generale (AGI). Ad oggi, l’AGI non esiste. Molto di ciò che ora viene propinato come AI in realtà è un’applicazione avanzata di algoritmi tradizionali. Le AI reali hanno comunque un’intelligenza ristretta: un particolare sistema risolve, con buona approssimazione, un particolare problema. A differenza dell’intelligenza umana, un’intelligenza artificiale così ristretta è efficace solo nell’area in cui è stata addestrata.
Nonostante i continui progressi nella velocità di elaborazione dei computer e nella capacità di memoria, non esistono ancora programmi in grado di eguagliare la flessibilità umana su domini più vasti o in compiti che richiedono un’ampia conoscenza quotidiana. Comunque, alcuni programmi hanno raggiunto i livelli di prestazioni di esperti e professionisti umani nell’esecuzione di determinati compiti specifici, cosicché l’intelligenza artificiale, in questo senso limitato, si trova in applicazioni molto diverse come la diagnosi medica, la ricerca di informazioni online o la generazione di testi, immagini e video.
le reti neurali non sono l’unico approccio all’AI. Un altro campo di spicco nella ricerca sull’intelligenza artificiale è l’AI simbolica: invece di digerire enormi set di dati, questi modelli si basano su regole e conoscenze simili al processo umano di formazione di rappresentazioni simboliche interne di particolari fenomeni. Ma l’equilibrio è ancora completamente sbilanciato verso gli approcci basati sui big data.
Conclusioni
Le reti neurali, i dati, e la statistica costituiscono le fondamenta attuali ma, probabilmente, anche il futuro dell’AI. Lo sviluppo dell’intelligenza artificiale sarà sempre accompagnato dai software tradizionali che continueranno ad avere un ruolo di rilievo, quelli che potremmo chiamare Fake-AI, anche se ben distinto da quello che sono e da quello che saranno le macchine intelligenti.