INCHIESTA

AI generativa, largo a nuove professioni



Indirizzo copiato

Se è vero che l’intelligenza artificiale minaccia alcuni lavori, ne sta facendo nascere di nuovi. Sviluppatore di LLM, reskiller, psicoterapeuta AI, sono solo alcuni

Pubblicato il 9 ott 2023



benchmark

Quando OpenAI ha presentato al mondo il suo software ChatGPT simile a un essere umano, una cosa è stata chiara: questi sistemi di intelligenza artificiale stanno arrivando per il nostro lavoro. E l’AI sta già creando nuove opportunità. Eccone alcune.

Sviluppatore di modelli linguistici di grandi dimensioni (LLM)

I modelli linguistici di grandi dimensioni, come GPT di OpenAI e LaMDA di Google, sono addestrati su enormi quantità di dati raccolti da Internet per riconoscere, generare e prevedere il linguaggio in sequenze. Per il settore finanziario, questo li rende un po’ come i neolaureati: non sono molto utili senza un’istruzione più specializzata.

Gli sviluppatori interni cambieranno questo stato di cose introducendo i modelli a nuovi modelli di parole che li metteranno in grado di svolgere meglio funzioni come la sintesi del rapporto annuale 10-K di una società o la guida di un cliente attraverso il processo di richiesta di un prestito.

“Attualmente ci stiamo dirigendo verso un piccolo numero di aziende che sviluppano questi modelli enormi e poi i clienti – le istituzioni finanziarie – prendono questi modelli e li migliorano per i loro scopi interni”, ha dichiarato al Wall Street Journal Eric Ghysels, professore di economia e finanza presso la University of North Carolina, Chapel Hill.

Gli sviluppatori interni progettano il curriculum per questa formazione, scegliendo dati nuovi e spesso proprietari da sottoporre ai modelli. Abitueranno i modelli al linguaggio legale e al significato finanziario di parole come “interesse” e “derivato”, interrogandoli e rispondendo con feedback costruttivi alle loro risposte. Infine, consegneranno i modelli in una forma facile da usare a dipendenti e clienti.

La sfida per le istituzioni finanziarie, dice Ghysels, sarà trovare persone qualificate per fare tutto questo.

Reskiller

Man mano che l’intelligenza artificiale diventa in grado di svolgere un maggior numero di lavori che oggi sono svolti dagli esseri umani, le persone dovranno aggiornare in modo più aggressivo le proprie competenze per rimanere produttive e occupabili. I “reskiller”, un nuovo tipo di insegnanti, aiuteranno le persone a stare un passo avanti alle macchine.

Con l’evoluzione dell’AI, le aziende daranno sempre più valore agli specialisti in grado di guidare questo sviluppo umano critico. “Gli insegnanti se la passavano male durante la rivoluzione industriale. Guardate quanto sono pagati”, afferma Stephen Messer, cofondatore e presidente di Collective[i], che ha sviluppato un modello di fondazione in grado di produrre informazioni sulla previsione e la crescita dei ricavi. “Ora, credo che gli insegnanti stiano per subire una rivoluzione grazie all’AI”.

I reskiller dovranno capire quali sono i talenti che le organizzazioni richiedono mentre la tecnologia avanza. “Questo impone ai dipendenti e alle aziende di rimanere rilevanti”, afferma Keith Peiris, cofondatore e amministratore delegato di Tome, una startup con una piattaforma di presentazione e storytelling nativa dell’AI generativa. “Nel ‘vecchio mondo’, prima dell’AI generativa, forse servivano 100 persone per costruire un’azienda… Con l’AI, forse si può costruire quell’azienda con 30 persone”.

Secondo Peiris, che ha una formazione in ingegneria nanotecnologica ed è un veterano dell’AI generativa, stanno già prendendo forma nuovi archi di sviluppo professionale.

“I professionisti delle vendite stanno imparando lo sviluppo web e il copywriting. I professionisti del marketing stanno diventando più esperti di design grafico”, afferma. “I professionisti delle risorse umane si occupano di “lavoro legale” e diventano paralegali utilizzando gli strumenti legali dell’intelligenza artificiale”.

Immagine generata da DALL-E

Psicoterapeuta AI

Le società finanziarie che si affidano all’AI per la previsione e il processo decisionale avranno bisogno di persone che sappiano individuare i fattori che guidano il pensiero di un modello.

A differenza dei software convenzionali, la logica dietro l’output di applicazioni come ChatGPT di OpenAI è tipicamente opaca. Questo può andare bene quando vengono usate per generare ricette e poesie, dice Dinesh Nirmal, vicepresidente senior per i prodotti, IBM Software, ma non se si fa affidamento su di essi per assegnare punteggi di credito, ottimizzare i portafogli di investimento e prevedere i saldi di liquidità.

L’AI aziendale, che serve alle aziende e alle organizzazioni, è tutta una questione di “spiegabilità”, dice Nirmal.

I clienti vorranno sapere perché la loro richiesta di prestito è stata respinta. Le autorità di regolamentazione bancaria richiederanno che alcune decisioni vengano spiegate.

Gli psicoterapeuti dell’intelligenza artificiale valuteranno l’educazione di un modello, esaminando i dati di addestramento alla ricerca di errori e fonti di distorsione. Potrebbero mettere i modelli di AI sul divano, interrogandoli con domande di prova. Aziende come IBM, Google e Microsoft stanno facendo a gara per rilasciare nuovi strumenti che quantificano e tracciano i processi di pensiero di un’AI, ma come i test di Rorschach richiedono l’interpretazione dei loro risultati da parte di persone.

Comprendere il ragionamento di un’intelligenza artificiale sarà solo metà del lavoro, sostiene Alexey Surkov, partner e responsabile globale della gestione del rischio dei modelli presso Deloitte & Touche. L’altra metà del lavoro consisterà nell’approvare l’idoneità mentale di un modello per il compito da svolgere. “Per quanto sofisticati possano essere i modelli e i sistemi”, afferma Surkov, “noi esseri umani siamo in ultima analisi responsabili dei risultati dell’uso di tali sistemi”.

“Psicoterapeuta” potrebbe essere un titolo di lavoro esagerato in alcune società finanziarie. Surkov suggerisce come alternative l’AI Risk Manager o il Controller.

immagine generata con DALL-E

Prompt engineer

Come si programma un sistema di intelligenza artificiale come ChatGPT in grado di conversare con voi, proprio come un essere umano? Si parla con lui. O, più precisamente, si assume un ingegnere di prompt per farlo. Il prompt engineering è una categoria di lavoro emergente che si colloca a metà strada tra la programmazione e la gestione. Invece di utilizzare complicati linguaggi di programmazione informatica come Python o Java, gli ingegneri di prompt spiegheranno le loro istruzioni ai sistemi di intelligenza artificiale in inglese semplice, creando nuovi modi per sfruttare la potenza dei sistemi di intelligenza artificiale sottostanti.

i
Immagine generata con DALL-E

Questo è ciò che fa la nuova classe di ingegneri del produttore di software legale Casetext con il suo assistente legale basato sull’intelligenza artificiale chiamato CoCounsel. Jake Heller, amministratore delegato dell’azienda, ha dichiarato al Wall Street Journal di aver assunto ingegneri prompt per sviluppare le capacità di CoCounsel, istruendo il chatbot AI, in un migliaio di parole o poco più, su come svolgere vari compiti legali. Il linguaggio usato dai prompt engineer è preciso e diretto, e spiega come esaminare documenti, riassumere ricerche o rivedere e modificare un contratto. Per esempio, un prompt engineer può iniziare a delineare le istruzioni per un memo di CoCounsel indicando il livello di competenza necessario: “Il vostro obiettivo è che il memo mostri il livello di percezione, sfumatura e attenzione ai dettagli che ci si aspetterebbe da un giudice d’appello federale che redige un parere legale”.

I migliori prompt engineer sono persone in grado di dare istruzioni molto chiare, ma anche di comprendere i principi della codifica”, dice Heller. In altre parole, spesso sono ottimi manager tecnici. “Ma nel caso dei prompt engineer, non si tratta di un dipendente da gestire”, dice Heller. “È un’intelligenza artificiale”.

Articoli correlati

Articolo 1 di 2