approfondimento

Analisi approfondita dell’RLHF: il rapporto tra AI e feedback umano



Indirizzo copiato

Si tratta di una tecnica di Machine learning grazie alla quale il feedback dell’uomo è protagonista nell’addestramento. Il più evidente e popolare caso è ChatGPT, che migliora sulla scorta delle attività degli utenti

Pubblicato il 14 feb 2024



RLHF
Immagine: Amazon Web Services

Il Reinforcement Learning from Human Feedback, RLHF, è una tecnica che prevede il feedback dell’uomo per addestrare i modelli di Intelligenza artificiale. Usata nel Machine learning, consente ai modelli di apprendere in modo efficace e flessibile e, come vedremo, ha delle peculiarità rispetto al Reinforcement learning propriamente detto.

Continua a leggere questo articolo

Articoli correlati