Possiamo dare alle macchine la responsabilità di fare scelte umane?

Esistono due avvisi da tenere bene a mente: una cosa è un sistema di AI, un’altra una proof by demo; attenzione alle conseguenze della dissimetria uomo-macchina

Pubblicato il 01 Dic 2021

Sandro Marco Incerti

Ai expert&pioneer; Managing Director Roma Capitale Investments Foundation; Author of ‘K-Economy’

RDA

Joseph Weizembaum in un suo famoso libro, “Computer Power and Human Reason”, ha sollevato interrogativi sul ruolo dell’intelligenza artificiale e ha stimolato il dibattito sul ruolo dei sistemi informatici nel processo decisionale.

La diffidenza iniziale di Weizenbaum nei confronti dei computer – e la dipendenza dell’umanità da essi – si è poi evoluta in un profondo risentimento. All’inizio degli anni ’80, egli si scagliava contro il concetto di analfabetismo informatico, affermando che si trattava di una forma di “isteria di massa” inventata dai produttori di computer per vendere più prodotti. Il vero obiettivo, diceva, non dovrebbe essere l’alfabetizzazione informatica, ma l’alfabetizzazione stessa.

Joseph Weizembaum (foto Wikipedia)

In un’intervista del 1985 per la rivista New Age, Weizenbaum ha descritto sé stesso come un eretico della tecnologia. “La dipendenza dai computer è semplicemente l’esempio più recente – e il più estremo – di come l’uomo si affidi alla tecnologia per sfuggire al peso di agire come un agente indipendente”, ha detto Weizenbaum. “Lo aiuta a evitare il compito di dare un senso alla sua vita, di decidere e perseguire ciò che è veramente prezioso”.

Sempre in Computer Power and Human Reason: From Judgment to Calculation, Weizenbaum mette in guardia dal dare alle macchine la responsabilità di fare scelte veramente umane. Nello specifico, egli sostiene che non era solo sbagliato ma pericoloso e, in alcuni casi, è immorale presumere che i computer sarebbero in grado di fare qualsiasi cosa data una potenza di elaborazione sufficiente e una programmazione intelligente.

“Nessun altro organismo, e certamente nessun computer, è in grado di affrontare problemi umani autentici in termini umani”, concludeva.

Eppure, era l’autore di un programma supersmart: Eliza! Sentite cosa diceva sui trucchi abili:

“Due programmi [MACSYMA e DENDRAL] si distinguono dalla maggior parte degli altri programmi di intelligenza artificiale proprio per il fatto che si basano saldamente su teorie ben fondate. I loro programmi si basano sulla teoria del controllo matematico e su teorie fisiche consolidate. Tali programmi basati sulla teoria godono del vantaggio enormemente importante che, quando si comportano male, una loro analisi rileva che le loro prestazioni non corrispondono ai dettami della loro teoria e possono diagnosticare il fallimento della teoria. Ma la maggior parte dei programmi esistenti.non sono basati sulla teoria… sono euristici… stratagemmi che sembrano funzionare nelle circostanze più previste. Il mio programma, Eliza, era esattamente di questo tipo. Così è il sistema di Winograd di comprensione del linguaggio e il GPS di Newell e Simon. Weizenbaum continua sostenendo che i programmi dovrebbero essere comprensibili e dovrebbero essere basati su solide basi teoriche”.

Primo warning: le approssimazioni sono approssimazioni e hanno limiti. Una cosa è un sistema di AI, un’altra una proof by demo

Vediamo cosa si intende con un esempio. Kenneth Church, “A pendulum swung too far”, sottolinea il tema della differenza dell’intelligenza artificiale dalla pattern recognition nel settore della linguistica e della traduzione automatica e dello speech recognition. Fa lo stato dell’arte sul natural language. Egli ribadisce la differenza tra comprensione del linguaggio naturale ed elaborazione linguistica, passando in rassegna i grandi avanzamenti prodotti da due approcci completamente differenti: quello razionalistico e quello empiristico.

Come esempi dei risultati apportati dall’approccio razionalistico riepiloga la potente classificazione di Chomsky:

Type           Grammars                      Automata

3                   Regular                                Finite-StateMachines

2                   Context-Free                      Push-DownAutomata

1                   Context-Sensitive              LinearBoundedAutomata

0                 RecursivelyEnumerable    Turing Machines

Come esempi degli apporti dell’approccio empiristico, riporta metodi popolari come: il confronto di modelli, l’apprendimento automatico (separatori lineari), il recupero delle informazioni (modulo spazio vettoriale), la modellazione linguistica (n-grammi) e il riconoscimento vocale (modelli di hidden Markov (HFMM)).

Fa una grande raccomandazione agli studenti che devono imparare a usare l’approssimazione in modo selettivo. La maggior parte delle approssimazioni fa ipotesi semplificative che possono essere utili in molti casi, ma non in tutti.

John R. Pierce (foto Wikipedia)

Riprende la posizione di John R. Pierce, lunga esperienza di professore e manager della ricerca, che nel celebre rapporto Alpac del 1964 poneva sul tavolo la differenza di programmi che poggiano su solide basi di teorie fisiche o matematiche (ovvero solidi fondamenti teorici) vs Proof-by-demos che usano engineering heuristic – stratagemmi, “artful deception” (“l’artificioso inganno”) che sembrano funzionare nella maggior parte delle circostanze previste ma non in tutte.

Pierce raccomandava di non vendere la scienza come qualcosa di diverso da quello che è (ad esempio, come applicazioni). Il lavoro applicato dovrebbe essere valutato come lavoro applicato (basato su casi aziendali ad esempio) e la scienza dovrebbe essere valutata come scienza (basata su una revisione peer to peer).

Le due aree sono distinte:

1) la ricerca accademica di base, a lungo termine, la linguistica,

2) quella del lavoro pratico, la linguistica computazionale, a breve termine ad es. applicato per migliorare la traduzione automatica.

Le proposte nella prima area dovrebbero essere valutate da un’analisi approfondita sulla base del merito scientifico, mentre le applicazioni nella seconda area dovrebbero essere valutate in termini di altre metriche: velocità, costi, ricavi…

Se Pierce fosse vivo oggi sarebbe profondamente infastidito dallo stato attuale della scienza, che investe molto in tecniche di valutazioni numeriche che distraggono il campo da quelle che considererebbe le domande scientifiche fondamentali.

Le dimostrazioni dimostrative, sic!, (demo by proof) in intelligenza artificiale, così come il riconoscimento vocale, la linguistica computazionale e l’area più ampia di pattern recognition (e gran parte del moderno machine learning) rendono possibile fare progressi nelle applicazioni ponendo molte domande scientifiche difficili. Ma questo punto di forza è anche un punto debole.

In generale, mentre gli approcci pragmatici hanno maggiori probabilità di produrre risultati migliori a breve termine, c’è una notevole simpatia per l’approccio più ambizioso. Detto questo, se si è nel business della costruzione di prodotti di sintesi elettronica, si dovrebbe fare tutto ciò che è necessario per ottenere un prodotto di qualità…

Pierce si oppone ai tentativi di vendere la scienza come qualcosa di diverso da quello che è (ad esempio, applicazioni), così come i tentativi di rappresentare in modo errato i progressi con dimostrazioni errate e/o metriche insensate. D’altra parte, c’è anche un lato pratico di Pierce, come dimostrato dalle sue impressionanti realizzazioni in materia (echo ding, tubi a vuoto, transistor e satelliti di comunicazione). È un forte sostenitore del lavoro applicato, ma con regole molto diverse, ad esempio in termini di business case. Il lavoro applicato dovrebbe essere valutato come lavoro applicato (basato su un caso aziendale) e la scienza dovrebbe essere valutata come scienza (basata su una revisione paritaria).

Su una nota più positiva, il Pierce manager sarebbe impressionato dal successo commerciale di Google, specialmente nella ricerca indicizzata. Detto questo, il successo è meno chiaro per le attività secondarie di Google, in particolare la traduzione automatica. Mentre ci sono alcuni motivi per rimanere fiduciosi; uno scettico come Pierce non farebbe fatica a sollevare una critica. Per gli investimenti effettuati, la comunità del riconoscimento vocale e della traduzione automatica avrebbe già dovuto produrre una killer application, qualcosa che quasi tutti userebbero tutti i giorni come il telefono di AT&T, o Microsoft Windows o Google Search.

L’attività principale di Google nella ricerca ha raggiunto alti livelli, e un giorno anche le loro attività secondarie nel campo della traduzione potrebbero farlo. Che cosa direbbe oggi Pierce? In tempi buoni, quando ci sono molte scelte facili, dovremmo approfittare delle opportunità. Ma se queste opportunità dovessero esaurirsi, faremmo meglio ad affrontare le sfide scientifiche fondamentali piuttosto che continuare a cercare facili guadagni che non ci sono più.

Secondo warning: attenzione alle conseguenze della dissimetria uomo-macchina

Allo stato delle cose, pare eccessivamente ambizioso pretendere di trasferire nella macchina abilità talmente universali da coprire la totale eterogeneità e varietà dei modi di presentarsi del ragionamento umano. A queste va aggiunta, principalmente, l’inclinazione tuttora misteriosa della mente umana a scoprire problemi, prima ancora che a risolverli. L’incapacità della macchina a trattare o capire fattori umani quali la curiosità, il sospetto, il dubbio o l’intuizione (accompagnata dalla sua potenza in altri settori) finirebbe per far perdere rilevanza a queste e altre nostre singolari attitudini anche nell’interazione fra uomini. Una volta messo a punto un sistema di aiuto alle decisioni fondato su modelli logico-matematici e basi di conoscenza collaudati, chi presterebbe attenzione alla saggezza di un anziano membro del consiglio di amministrazione di un’azienda che sta per decidere innovazioni strategiche? Come è stato osservato, anche solo per questioni legate alla brevità del tempo a disposizione, oltre che di fiducia nella rigorosità collaudata della macchina, la decisione finirebbe per uniformarsi costantemente alle prescrizioni del calcolatore.

Lo squilibrio in questione, in ogni caso, ha come conseguenza lo sviluppo di dispositivi che ne portano il segno e che, come si diceva, offriranno, e in alcuni casi già offrono, all’utente una notevole potenza di prestazione nei settori congruenti con la loro natura e un penoso silenzio nei riguardi degli altri. D’altra parte, l’efficacia della macchina nel primo ambito potrebbe avere, come risultato culturale, quello di spingere ai margini della legittimità o del prestigio proprio le facoltà umane che non mostrassero compatibilità con la macchina, ossia con le sue attitudini per le quali più realisticamente ci si può aspettare un maggior sviluppo.

Emerge il tema fondamentale per quanto concerne la nuova impresa di integrazione fra uomo e macchina: quello di una formazione che non si limiti all’addestramento strettamente tecnico­-operativo, ma che, in considerazione delle facoltà mentali surrogate dalla macchina, fornisca almeno parte di quel nuovo alfabetismo indispensabile per fare un uso corretto consapevole della macchina e per non cadere nuovamente in fenomeni di spreco di risorse tecnologiche o di pericoli di varia natura. Anche per garantire quel sinergismo fra cultura e tecnica che, finora, i due alfabetismi tradizionali hanno quasi sempre consentito, ma solo o prevalentemente in sede professionale.

Conclusioni

Alla domanda: possiamo dare alle macchine responsabilità di fare scelte umane? Allo stato dell’arte dobbiamo rispondere con un netto: no! Le macchine devono seguire le decisioni umane non i dati relativi agli umani. Ma allora che fare? Alfabetizzazione per tutti.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati