Il Reinforcement Learning from Human Feedback, RLHF, è una tecnica che prevede il feedback dell’uomo per addestrare i modelli di Intelligenza artificiale. Usata nel Machine learning, consente ai modelli di apprendere in modo efficace e flessibile e, come vedremo, ha delle peculiarità rispetto al Reinforcement learning propriamente detto.
approfondimento
Analisi approfondita dell’RLHF: il rapporto tra AI e feedback umano
Si tratta di una tecnica di Machine learning grazie alla quale il feedback dell’uomo è protagonista nell’addestramento. Il più evidente e popolare caso è ChatGPT, che migliora sulla scorta delle attività degli utenti

Continua a leggere questo articolo
Argomenti
Canali