ANALISI

Se ChatGPT è soltanto un attrezzo



Indirizzo copiato

Il rischio di un utilizzo incontrollato e abusato dell’intelligenza artificiale generativa è quello di una banalità sistemica a valore decrescente, con ricadute importanti sull’utilità stessa del prodotto, che sia un articolo, una serie tv, una lezione online, e di tutti i prodotti concorrenti frutto di approcci analoghi

Pubblicato il 17 gen 2024

Sergio Fumagalli

Senior Partner P4I



Ai generativa immagini
Immagine creata con Midjourney

Quando si parla dei rischi dall’AI, sembra impossibile evitare di ritrovarsi a discutere della competizione fra intelligenza artificiale e intelligenza umana e del rischio che la prima prenda il sopravvento sulla seconda. I rischi derivanti dall’avvento dell’AI non sono questi ed è quanto mai necessario evitare questo equivoco per non sottovalutare i rischi che effettivamente ci sono.

A questo proposito, riporto qui sotto un estratto dell’articolo “ChatGPT? Solo un attrezzo.” di Maurizio Ferraris, pubblicato sul Corriere della Sera del 7 dicembre 2023, sperando di non far torto all’autore e, comunque, invitando i lettori a una lettura completa dello stesso.

[…] proprio questo costituisce la vera differenza tra l’Intelligenza artificiale e quella naturale, il fatto cioè che quest’ultima sia in un corpo. Questo […] costituisce, per noi, il motivo per cui l’Intelligenza artificiale non supererà mai quella naturale, non nel senso che la prima non possa essere infinitamente più performante della seconda, ma nel senso che solo l’intelligenza naturale, in quanto dotata di un corpo (che Platone considerava la tomba dell’anima) può effettivamente avere un’anima, ossia disporre di intenzioni, direzioni, paure, attese, volontà e sentimenti. Quello che, in altri termini, fa sì che siamo noi a interrogare ChatGPT e non l’inverso. […].la mente umana, essendo situata in un organismo capace di usare sistematicamente degli apparati tecnici, è una mente attrezzata, ossia si apre a modalità d’uso che, come tali, sono precluse all’Intelligenza artificiale, che è un attrezzo, mentre la mente umana è capace di usare attrezzi.

Dunque, l’AI è (solo) un attrezzo. Però è un attrezzo sofisticato che consente di condizionare, in modo trasparente o surrettizio, le persone che se ne avvalgono, fino a influenzarne i comportamenti.

L’AI alla sfida della regolamentazione

Questa potenza dell’attrezzo apre nuovi spazi di mercato non regolati di cui, in molti casi, gli utilizzatori finali non sospettano neppure l’esistenza, essendo spesso inconsapevoli perfino di utilizzare servizi basati sull’AI. Spazi di mercato che hanno un effetto moltiplicatore rispetto a quelli già affermati e tuttora liberi da una adeguata regolamentazione, come i social media e il grande mercato dei dati e dei servizi digitali.

Ne deriva un potenziale, questo sì, certamente inquietante perché in grado di incidere non solo su diritti individuali come la privacy ma anche su conquiste collettive come il processo di formazione delle idee, della cultura collettiva, della conoscenza dei fatti, come la democrazia con i suoi processi elettorali.

Le aziende che utilizzano ChatGPT e i suoi fratelli o fratellini per confezionare nuovi servizi e nuovi prodotti o per esplorare nuove modalità di marketing si trovano nel mezzo, fra i detentori della tecnologia e gli utilizzatori finali dei loro servizi/prodotti, e svolgono un ruolo cruciale nell’affermazione di questa tecnologia.

Progressivamente si troveranno a far fronte a obblighi di compliance impegnativi, visto che l’EU – che, per fortuna, esiste, visto che nessuno dei 27 stati che la compongono avrebbe individualmente la forza di imporre vincoli credibili ai mercati di cui sopra – ha varato o sta per varare diversi provvedimenti che hanno l’obiettivo di regolare i diversi aspetti del mercato coinvolti (Digital service act, AI Act, Data Governance Act).

La domanda è se la mera soddisfazione di un obbligo di compliance, certamente necessaria viste le sanzioni potenzialmente in gioco, sia anche sufficiente per indirizzare i rischi ulteriori che la combinazione di AI, big data, social media e e-commerce comportano.

Rischi di contenziosi e di immagine, certamente, ma anche di distruzione affrettata e immotivata di asset importantissimi, costruiti nel tempo che rischiano di diventare poi impossibili da ricostruire.

Il rischio, criterio di approccio per l’AI Act

Tra tutte le imprese, un ruolo cruciale, in questo processo di adozione e di valorizzazione delle nuove tecnologie, lo svolgono le grandi organizzazioni, private e pubbliche, che hanno i mezzi, l’organizzazione e la forza contrattuale per introdurre e richiedere l’introduzione di presidi adeguati a monte e a valle, cioè ai fornitori della tecnologia da un lato, e a distributori e consumatori dall’altro. Presidi che, nel contrastare i rischi, facciano emergere i costi reali di un utilizzo corretto dell’attrezzo (o degli attrezzi) e consentano di confrontare in modo equo opzioni diverse da tutti punti di vista (inclusi, ad esempio, compliance e fiscalità).

Per farlo, i processi interni che governano l’introduzione di nuove tecnologie devono essere rivisti e arricchiti per poter considerare adeguatamente la ricchezza e la complessità di tali tecnologie, mitigandone propriamente i rischi.

L’AI Act sotto questo profilo, adottando un approccio basato sul rischio, costituisce non solo un obbligo di conformità ma anche un modello culturale che può e deve essere applicato pure in ambiti che non rientrano in quelli presidiati dalla norma.

Non si tratta di una indicazione generica ma di prescrizioni precise: “[…] 1. A risk management system shall be established, implemented, documented and maintained in relation to high-risk AI systems, throughout the entire lifecycle of the AI system.[…]” E poi prosegue così: “2. The risk management system shall consist of a continuous iterative process run throughout the entire lifecycle of a high-risk AI system, requiring regular review and updating of the risk management process, to ensure its continuing effectiveness, and documentation of any significant decisions and actions taken subject to this article”.

D’altra parte, un’applicazione acritica che non consideri attentamente i rischi dell’attrezzo AI può portare ad un appiattimento culturale dalle conseguenze devastanti e all’assunzione inconsapevole di rischi rilevanti per la sostenibilità stessa del business aziendale.

I rischi dell’AI generativa

L’innamoramento per l’AI generativa renderà apparentemente inutili – o meno utili – professioni intellettuali che oggi svolgono un ruolo fondamentale: giornalisti, insegnanti, sceneggiatori, analisti… Questo comporterà la sostituzione di persone che, per dirla con Ferraris, hanno un’anima e dispongono quindi di intenzioni, direzioni, paure, attese, volontà e sentimenti con un attrezzo che è in grado, al più, di mimarle sulla base di correlazioni statisticamente attendibili ma sostanzialmente arbitrarie (e talvolta interessate).

Il risultato rischia di essere una banalità sistemica a valore decrescente, ripetuta ossessivamente, con ricadute importanti sull’utilità stessa del prodotto, che sia un articolo, una serie tv, una lezione online, e di tutti i prodotti concorrenti frutto di approcci analoghi.

Si dirà che una supervisione umana sarà comunque mantenuta. Ma quale supervisione?

I limiti della supervisione umana dell’AI

Ci serve una ricerca per la produzione di un documento? Ci affidiamo a ChatGPT o a un suo fratello. Costa poco, è veloce. Naturalmente siamo scrupolosi e professionali e quindi non ci fidiamo del tutto dell’output ricevuto: lo rielaboriamo, lo integriamo, lo correggiamo. In ogni caso, però, da quell’output partiamo. Un primo condizionamento è già lì. Non sappiamo, con precisione, da quale base informativa l’algoritmo sia partito né quali criteri abbia applicato né come li abbia applicati. Il risultato è verosimile, in generale accettabile, migliore di quello che avremmo potuto fare noi stessi, con il poco tempo a disposizione e questo, alla fine, statisticamente basterà.

Progressivamente impareremo a fare affidamento su questi strumenti e abbasseremo la guardia delle verifiche e dei controlli. Alla fine, tutti i documenti che nasceranno da quelle ricerche, o da iniziative analoghe effettuate dai concorrenti, avranno lo stesso sapore, come i cibi fatti col dado.

Quale medico si prenderà la responsabilità (con tutte le conseguenze legali prevedibili in caso di errore o di fatalità imprevedibile) di contraddire l’analisi di una TAC esaminata da un attrezzo, che l’ha confrontata con miliardi di referti simili e che ha un tasso d’errore dello 0,1%, sulla banale base della conoscenza del corpo e della storia clinica di quello specifico paziente? Chi pagherà il tempo necessario per nutrire e far emergere la creatività di uno sceneggiatore quando l’alternativa, seppur un po’ ripetitiva, è già pronta a costo quasi zero?

Quale sarà il valore di un giornale che pubblica articoli che ogni lettore può costruirsi da sé, senza alcuna riflessione o stimolo realmente innovativi?

Il rischio per le imprese è dunque di distruggere asset, di disperdere competenze, di rinunciare a capacità costruite faticosamente per inseguire un profitto facile che finirà per fagocitare sé stesso. Per gli utenti finali dei prodotti/servizi il rischio è l’uniformità indifferenziata dell’offerta del mercato, unita all’appiattimento culturale che ne potrà derivare.

Come mitigare i rischi dell’AI generativa

Per mitigare questi rischi non basta un intervento occasionale o superficiale. Serve un approccio strutturato, specifico e mirato, che intervenga già nella fase di progettazione concettuale del servizio o del prodotto e prosegua lungo tutto il ciclo di sviluppo; condizioni l’eventuale processo di scelta del motore di AI da utilizzare, verificando i dataset su cui è stato addestrato, in relazione alla finalità del prodotto/servizio, dettando le clausole contrattuali necessarie per trasferire al fornitore, per quanto di competenza, la gestione dei rischi; guidi la composizione del gruppo di progetto e preveda momenti di verifica durante il ciclo di sviluppo e test e, infine, istituisca dei presidi durante il ciclo di vita del servizio o del prodotto per intercettare l’eventuale emergere di anomalie sistematiche rispetto alle attese.

Le posate, il cacciavite sono attrezzi disponibili a tutti e che ciascuno impara a usare da bambino, ma il bisturi richiede ai chirurghi anni di formazione, addestramento e pratica: l’AI è un attrezzo più complesso del bisturi che richiederà alla società, complessivamente e nelle sue diverse articolazioni, anni di formazione addestramento e pratica, con il rischio, nel frattempo, di tagliarsi e fare del male a sé stessi o ad altri.

Conclusioni

Formazione, addestramento e pratica dei chirurghi hanno valorizzato il bisturi come attrezzo, non ne hanno negato l’utilità. Il codice della strada, i cartelli stradali, le scuole guida non hanno compromesso l’affermazione dell’auto come mezzo di trasporto ma semmai l’hanno agevolata. Affrontare questi aspetti non pregiudicherà l’utilizzo delle nuove tecnologie ma, al più, limiterà quel far west senza regole (e gli straordinari profitti connessi) che inevitabilmente accompagna l’apparire di tecnologie innovative a beneficio di valori che non possiamo – né i cittadini né le imprese – rischiare di compromettere. In fin dei conti, è una questione di sostenibilità dell’innovazione digitale.

Articoli correlati

Articolo 1 di 3