approfondimento

Cos’è l’inferenza AI e perché è fondamentale per il progresso della tecnologia



Indirizzo copiato

Si tratta di un processo grazie al quale un modello di intelligenza artificiale applica ciò che ha imparato durante la fase di addestramento. È l’inferenza a rendere possibile l’analisi dei dati e la generazione di output ed è uno degli aspetti più interessanti dei modelli AI

Pubblicato il 11 mar 2025



inferenza AI

Nell’ambito delle intelligenze artificiali, l’inferenza AI (inference) è il processo che permette ai modelli di apprendimento automatico di applicare le conoscenze acquisite durante la fase di addestramento.

È un processo affascinante e, cedendo al fascino delle interpretazioni olistiche, l’inferenza AI, è centrale nel dibattito sulle intelligenze artificiali perché richiama le doti tipiche del cervello umano. Un argomento che tratteremo più avanti ma soltanto di sponda, perché amplissimo.

Per rispondere alle esigenze di un pubblico non esperto – seppure procedendo in modo perfettibile – possiamo paragonare l’addestramento delle IA al momento in cui si studiano le tabelline e l’inferenza AI al momento in cui si usano le tabelline per fare calcoli in qualsiasi momento e contesto durante la vita quotidiana.

Che cos’è un processo di inferenza AI

inferenza AI training

Un processo di inferenza AI è il procedimento grazie al quale un modello già addestrato usa le conoscenze che ha acquisito per classificare informazioni, prendere decisioni o per fare previsioni sulla scorta di nuovi dati in ingresso.

In parole semplici è il processo con il quale un’AI mette in pratica ciò che ha imparato. Ciò fa sì che le AI riescano ad adattarsi anche a situazioni impreviste.

Questa, al pari di ogni altra definizione, ha il demerito di essere asettica e di non centrare appieno il potenziale dell’argomento, molto più ampio e sfaccettato.

Infatti, l’inferenza AI è centrale nelle applicazioni di intelligenza artificiale tant’è che, oggi, due degli obiettivi prioritari nei laboratori di ricerca sono il migliorarne l’efficienza e la trasparenza. Riuscire a comprendere in che modo e perché le AI giungono a certe conclusioni e quindi prendono certe decisioni è una delle sfide attuali.

Come funziona l’inferenza AI

Prima di esaminare le diverse fasi di cui l’inferenza AI è composta, è opportuno fare una netta distinzione tra l’addestramento e l’inferenza in sé:

Una differenza che è bene tenere a mente e che approfondiremo in seguito, parlando di ciò che distingue l’inferenza dall’apprendimento automatico (il machine learning).

Tecnologie hardware e software più ricorrenti nell’inferenza AI sono:

Le fasi principali del processo di inferenza AI possono essere ridotte a quattro, ovvero l’input, l’elaborazione, l’output e l’interpretazione.

inferenza AI fasi

Nella prima fase l’AI riceve dei nuovi dati (immagini, audio, video, testo, eccetera) e che vengono processati al fine di essere compatibili con il modello.

La seconda fase vede il modello AI applicare parametri e regole apprese durante la fase precedente.

In seguito, il modello restituisce una decisione (o una previsione) sulla scorta dei dati in entrata (nell’immagine sopra, il modello stabilisce che la fotografia analizzata è quella di un cane). Questo output viene poi consegnato alla quarta fase dell’inferenza.

La quarta fase, dedicata al post-processing, consente di affinare i risultati e di restituirli all’operatore umano affinché possano essere interpretati. Qui si inserisce anche il concetto di explainability delle AI, sistemi che aiutano a comprendere perché un modello ha fornito un certo output.

Qualche esempio d’uso

Senza entrare nello specifico citando i nomi di chi produce hardware e servizi, l’inferenza AI è alla base in diversi campi di applicazione:

  • Nella visione artificiale per il riconoscimento di immagini, ambienti e volti. Un ambito nel quale rientrano anche i veicoli autonomi
  • Nella medicina per le diagnosi evinte da radiografie
  • Nell’elaborazione del linguaggio naturale (NLP) per la traduzione di frasi in diverse lingue e al servizio degli assistenti come Alexa, Google Assistant oppure Siri
  • Nella finanzia per prevedere il rischio di un investimento o della concessione di un credito
  • Nei sistemi di raccomandazione
  • Nel gaming per la creazione di personaggi non giocabili (NPC, Non-Playable Character).

Questi sono solo alcuni casi di impiego, l’elenco completo è molto più lungo.

AI Inference: The Secret to AI's Superpowers
Video: Cos’è l’inferenza (fonte: IBM).

I vari tipi di inferenza AI

I tipi di inferenza sono diversi e variano a seconda dell’architettura del modello, del tipo di dati e a seconda del contesto.

Per tracciare una prima differenza possiamo appellarci all’inferenza in tempo reale oppure offline:

  • inferenza in tempo reale è eseguita laddove i dati vengono generati (per esempio, sui dispositivi IoT) e consente di avere risposte rapide
  • inferenza offline avviene con dati pre-processati su architetture server (anche in cloud) e si adatta ad ambienti con elevate capacità cmputazionali

Poi, approfondendo i diversi tipi di interferenza, vanno citati:

Inferenza AI tipi

Non sono gli unici tipi di inferenza AI ma è opportuno sottolineare che più di un tipo può essere combinato all’interno del medesimo progetto.

Per esempio, nel riconoscimento vocale, è possibile usare un’inferenza probabilistica per risolvere le incertezze nel flusso audio e un’inferenza deduttiva dedita all’interpretazione delle regole grammaticali tipiche di uno specifico idioma.

Cosa sono le operazioni inferenziali

Sono i processi a cui viene fatto ricorso per trarre conclusioni sulla scorta dei dati e delle regole. Di fatto, oltre a essere fondanti per le AI, sono operazioni comuni anche all’essere umano e includono:

  • osservazione: operazioni dedita all’identificazione dei dati rilevanti
  • analisi: l’organizzazione e l’interpretazione delle informazioni disponibili
  • formulazione di ipotesi: la generazione di spiegazioni o deduzioni plausibili fondate sui dati
  • valutazione: è l’operazione con la quale viene stabilito se le ipotesi sono coerenti con le evidenze
  • decisione: la scelta (o la conclusione finale) migliore tra quelle possibili.

Per fare un esempio pratico a partire dall’elenco qui sopra, possiamo immaginare un servizio di contenuti in streaming (uno dei tanti esistenti, senza fare nomi):

L’osservazione è la fase in cui il sistema AI raccoglie i dati dell’utente (contenuti di cui ha usufruito, eventuali recensioni dei contenuti e generi preferiti).

La fase dell’analisi usa i dati per scovare le preferenze dell’utente: per esempio, predilige contenuti di artisti italiani (oppure francesi, inglesi, turchi…) oppure di genere rock o, nel caso di film, pellicole drammatiche

La formulazione delle ipotesi, correlata all’analisi, il sistema AI ritiene che l’utente possa apprezzare un regista (oppure un cantautore, un violinista, …) emergente

Con la valutazione, il sistema AI confronta l’ipotesi a cui è giunto usando termini di paragone quali, per esempio, le abitudini di altri utenti con preferenze simili

La decisione restituisce all’utente un elenco di contenuti di suo gradimento.

Come già scritto sopra, torna ancora una volta la combinazione di diverse operazioni inferenziali. In questo caso, il sistema ricorre alle inferenze probabilistiche (per ridurre le incertezze nei dati), a quelle induttive (per identificare i pattern) e, per suggerire contenuti potenzialmente graditi, fa ricorso alle inferenze abduttive.

Cosa sono gli algoritmi inferenziali?

Partiamo dalla fine: gli algoritmi inferenziali sono capitali per trasformare i dati in conoscenza spendibile, migliorando la capacità delle AI di “ragionare”, prevedere e adattarsi a nuove situazioni.

Fatto salvo questo concetto di primaria importanza, possiamo dire che gli algoritmi inferenziali sono metodi usati per trarre conclusioni o formulare previsioni fondate su dati e modelli. Sono pilastri del costrutto chiamato AI, in particolare del machine learning e nel ragionamento basato sui dati.

A seconda del contesto, gli algoritmi inferenziali possono lavorare con dati strutturati, modelli matematici o logici, gestendo allo stesso tempo le incertezze o le variabilità.

Gli algoritmi e le tecniche inferenziali sono di diverso tipo e categoria e, tra queste, vale la pena citare:

inferenza AI differenze
  • Propagazione delle credenze (Belief Propagation): algoritmo usato per l’inferenza sui modelli grafici (per esempio, le reti bayesiane e markoviane)
  • Modelli nascosti di Markov: modelli probabilistici usati per la rappresentazione di sistemi il cui stato non è osservabile in modo diretto ma può essere dedotto dai dati a disposizione
  • Inferenza fuzzy: ricorre a logiche spannometriche per gestire incertezze e concetti vaghi
  • Inferenza Monte Carlo, un insieme di tecniche che fanno leva sul campionamento casuale per stimare probabilità in contesti nei quali un calcolo preciso non può essere fatto
  • Algoritmi backpropagation: nel deep learning consentono di ottimizzare i parametri di una rete neurale durante la fase di apprendimento
  • Inferenza nel ragionamento logico: utilizzata nei sistemi esperti per dedurre conclusioni basandosi su regole logiche e dati certi.

Cosa sono le domande inferenziali?

Per definizione, una domanda inferenziale esige una risposta affidata alla logica in assenza di dati certi.

La risposta non può essere chiaramente evinta dalle informazioni fornite con la domanda e deve quindi essere formulata mediante interpretazione e pensiero critico (ovvero: esperienza pregresse e capacità di collegare tra loro concetti diversi).

Le domande inferenziali sono capitali nell’ambito delle AI ma non solo: hanno valore capitale anche nell’educazione, nella scienza, nella ricerca ma anche nel giornalismo.

Le domande inferenziali sono fondamentali in educazione, ricerca, giornalismo, scienza e AI perché stimolano il pensiero critico e l’analisi profonda.

Per spiegare meglio è opportuno procedere con qualche esempio.

Alcune domande inferenziali

Dato un contesto nel quale “Giuseppe sbatte la porta e si allontana imbronciato”, la domanda inferenziale “Qual è l’umore di Giuseppe?” esige che la risposta sia evinta dagli elementi a disposizione: Giuseppe è arrabbiato e frustrato.

Un altro esempio partendo da un contesto come: “La piscina comunale è al completo, non c’è posto per altri bagnanti”. La domanda “Perché?” esige il ricorso al pensiero inferenziale: è una giornata molto calda, oppure, è una giornata molto calda e la mucillagine marina rende le spiagge vicine poco attraenti.

Le differenze tra l’inferenza AI e l’apprendimento automatico

Facciamo il punto. In precedenza, abbiamo formulato alcune peculiarità proprie dell’inferenza AI e altre tipiche dell’apprendimento automatico (machine learning).

Le riassumiamo in questa tabella.

Anche in questo caso, un esempio è d’obbligo.

Un esempio: il riconoscimento delle immagini

Nella fase di apprendimento, un modello di rete neurale viene addestrato con milioni di immagini etichettate (per esempio: foto di cavalli, di mucche e di alci) affinché il modello stesso impari a riconoscere le caratteristiche di ogni singolo animale. Con il passare del tempo e delle interazioni, il modello raggiunge un elevato livello di accuratezza.

Nella fase di inferenza, il modello può essere impiegato per lavorare su immagini mai viste in precedenza. Mostrandogli la foto inedita di un alce, il modello fa leva su ciò che ha appreso per inferire (trarre una conseguenza) e giungere alla conclusione, in una frazione di secondo, di quale animale si tratta.

Vantaggi dell’inferenza AI

I vantaggi sono insiti nello scopo dell’inferenza AI in quanto tale, i cui meriti principali sono velocità ed efficienza. Entrando più nello specifico, tra gli atout, vanno citati:

  • L’inferenza è più veloce dell’addestramento e consente di ottenere risposte immediate (si pensi al riconoscimento facciale per sbloccare un dispositivo mobile)
  • Esige meno risorse computazionali e ciò ne consente l’esecuzione anche su dispositivi non particolarmente performanti (per esempio, Alexa, Google Assistant e Siri). Ciò porta anche all’applicabilità su dispositivi Edge (Edge AI) che riduce la dipendenza da server locali o in cloud. L’esempio più immediato è la guida autonoma
  • L’inferenza agevola il risparmio energetico, proprio perché non del tutto dipendente da hardware altamente performante
  • La trasversalità: l’inferenza si adatta a qualsiasi settore, dall’industria alla finanza, dalla mobilità alla sanità.
  • La scalabilità: un modello addestrato può essere usato su un numero elevato di dispositivi (chatbot)
  • La privacy e la sicurezza: l’inferenza sui dispositivi riduce la necessità di inviare dati a server esterni.

L’inferenza, come detto, è un pilastro fondante delle AI proprio perché trasforma modelli in strumenti pratici.

Non di meno, sarà sempre più cruciale in futuro, considerando che ormai abbiamo perso il conto dei modelli esistenti, è necessario che questi alimentino applicazioni che abbiano un appeal e che possano essere usate e vendute su vasta scala.

Il dibattito sulle proprietà dell’inferenza

Attorno alle proprietà dell’inferenza è nato un dibattito per palati fini che, in cima alla piramide dei temi trattati, vede il confronto tra il ragionamento algoritmico e quello tipico dell’uomo.

Le differenze ci sono, ma queste non placano le implicazioni etiche:

  • il cervello umano, per trarre inferenze, miscela intuizione, esperienza, logica, contesto, tessuto culturale, capacità creative e di astrazione
  • l’inferenza AI si fonda su modelli statistici e logica formale per trovare correlazioni tra dati. Le AI sono prive di consapevolezza e intenzionalità e questa è una differenza che – per quanto ne sappiamo oggi – potrebbe non essere mai colmata.

Tutto ciò sottrae poco al dibattito, reso ancora più affascinante dalla sua multidisciplinarietà: include concetti di informatica, di neuroscienze, di filosofia e di etica. L’inferenza AI solleva questioni fondamentali su come ragioniamo e su come possiamo costruire sistemi artificiali che imitino o superino le capacità umane in specifici compiti.

Il dibattito rimane aperto ed è un bene che sia incompiuto. Le prospettive spaziano dall’ottimismo sul potenziale dell’AI fino al riduzionismo più estremo, secondo il quale il cervello umano abbia peculiarità che una macchina non potrà mai riprodurre.

Questa breve parentesi introduce i limiti dell’inferenza.

inferenza AI

I limiti e le sfide dell’inferenza AI

Quando si parla di intelligenze artificiali occorre risalire al sodalizio con i dati. Un’AI dà risultati migliori quando usa dati di alta qualità. Un assioma che apre a molte altre considerazioni.

Cominciamo da quanto scritto in apertura: Riuscire a comprendere in che modo e perché le AI giungono a certe conclusioni e quindi prendono certe decisioni è una delle sfide attuali e questo, per quanto pressante, è un limite che si applica alle AI in generale. L’interpretabilità fa il paio con i bias ereditati dai dati con cui vengono creati i modelli AI.

Tra i limiti e le sfide dell’inferenza AI ne spicca uno messo in evidenza dal ricercatore e professore Ajit Jaokar dell’Università di Oxford il quale, parlando di contesti aziendali, lamenta un certo grado di confusione tra le organizzazioni, spesso dubbiose circa l’approccio inferenziale più adatto. Scegliere il tipo di inferenza o la corretta combinazione di inferenze può essere impresa ardua.

Infine, le virtù dei tipi di inferenza diventano paradossalmente dei limiti.

Infatti, bilanciarne velocità, accuratezza e consumo energetico su diverse applicazioni e su diversi dispositivi è una sfida di non poco conto.

Per concludere fornendo qualche esempio:

  • Nell’ambito edge AI e IoT occorre sfruttare l’inferenza su dispositivi con batterie limitate
  • Per quanto riguarda la guida autonoma, la velocità dell’inferenza deve essere molto elevata per valutare lo scenario ed evitare incidenti
  • Nella sanità, l’explanaibility diventa cruciale affinché i medici possano fidarsi delle IA
  • Nel mondo della finanza occorre, infine, è opportuno che le frodi vengano intercettate e prevenute senza creare quantità elevate (e difficilmente gestibili) di falsi positivi.

Le soluzioni, molto probabilmente, si situano a metà strada, riuscendo a miscelare in modo accorto e consapevole i diversi modelli di inferenza.

Articoli correlati

Articolo 1 di 4