- Stable Diffusion è un modello di Deep learning rilasciato dalla startup StabilityAI con licenza Open Source. Esso permette di generare immagini a partire da un testo scritto, trasformare immagini in base a uno stile specifico e fare image inpainting, ovvero ricostruire o modificare parti mancanti di un’immagine.
- I modelli di Diffusion, come Stable Diffusion, operano aggiungendo gradualmente contenuto di disturbo a un’immagine reale e poi rimuovendo questo disturbo per ricostruire l’immagine originale. Questo processo si ispira al principio termodinamico della diffusione, dove una sostanza si sposta da un’area di alta concentrazione a una di bassa concentrazione fino a raggiungere l’equilibrio.
- Stable Diffusion ha suscitato interesse per la sua natura Open Source e la possibilità di essere utilizzato con risorse di calcolo limitate. I principali campi di applicazione includono la generazione di illustrazioni, video, effetti speciali, miglioramento dell’esperienza utente nell’e-commerce, e generazione di immagini sintetiche per il training di modelli di Deep learning.
Modelli generativi
Stable Diffusion: cos’è, quali sono le applicazioni pratiche
Rilasciato dalla start up StabilityAI con licenza Open Source, questo modello consente di eseguire tre operazioni: generare immagini a partire da un testo scritto; generare immagini a partire da una bozza o altra immagine di partenza indicando uno o più stili; fare image impainting
Associate Director – ML/AI/Computer Vision presso MSD
Continua a leggere questo articolo
Argomenti
Canali