Da quando ChatGPT ha fatto la sua comparsa, nell’autunno del 2022, chiunque, dal più esperto al neofita, ha tentato di cimentarsi nel prompt engineering: l’arte di formulare in modo astuto le proprie richieste a un grande modello linguistico (LLM) o a un generatore di arte o video AI per ottenere i migliori risultati o aggirare le protezioni. Il web pullula di guide, trucchi e consigli per sfruttare al meglio un LLM. Nel settore commerciale, le aziende stanno ora domando gli LLM per costruire copiloti di prodotto, automatizzare lavori noiosi, creare assistenti personali e molto altro ancora, afferma Austin Henley, ex dipendente Microsoft che ha condotto una serie di interviste con persone che sviluppano copiloti alimentati da LLM. “Ogni azienda sta cercando di utilizzarlo per praticamente ogni caso d’uso che riesce a immaginare”, dice Henley. Per farlo, si sono avvalsi dell’aiuto professionale dei prompt engineer. Tuttavia, nuove ricerche suggeriscono che il prompt engineering va meglio se gestito dal modello stesso e non da un ingegnere umano. Questo ha gettato ombre sul futuro del prompt engineering – e aumentato i sospetti che una buona parte dei lavori in questo campo possano essere una moda passeggera, almeno così come è attualmente concepita.
AI GENERATIVA
Il futuro del prompt engineering è nell’autoregolazione
Nuove ricerche suggeriscono che i prompt potrebbero essere meglio gestiti dal modello stesso piuttosto che da un ingegnere umano, aprendo una discussione sul futuro di questa pratica. Il caso di NeuroPrompts. Il lavoro di prompt engineer non sparirà, comunque, ma va ripensato

Continua a leggere questo articolo
Argomenti
Canali