Lo scorso 21 ottobre, sul New York Times, Kevin Roose ha parlato di “una grande settimana per gli strumenti di intelligenza artificiale generativa”, quella che ha definito una festa di “coming out”.
Perché? C’è stato un massiccio round di finanziamento per Stability AI, la startup dietro Stable Diffusion, l’algoritmo di generazione di immagini che è stato lanciato pubblicamente solo due mesi fa.
Ma le notizie significative sull’intelligenza artificiale generativa non si fermano qui. Microsoft avrebbe aggiunto DALL-E alla sua suite Office e ad Azure AI, mentre Adobe sta pianificando di aggiungere strumenti di intelligenza artificiale generativa a Photoshop e si è anche impegnata per la trasparenza nell’uso dell’intelligenza artificiale generativa.
Anche il generatore di contenuti Jasper ha annunciato un massiccio round di finanziamento di 125 milioni di dollari, consolidando l’interesse del venture capital nello spazio generativo dell’AI.
Le domande sul “fair use” finiranno alla Corte Suprema?
Intanto, le questioni legali relative alla proprietà delle immagini DALL-E, ovvero all’output dell’AI generativa, si moltiplicano. Secondo Bradford Newman, che guida la pratica di apprendimento automatico e intelligenza artificiale dello studio legale globale Baker McKenzie, nel suo ufficio di Palo Alto, intervistato da Venture Beat, “legalmente, in questo momento, c’è poca guida. Ci sono le inevitabili class action, ma la chiave di tutto sta nell’utilizzare gli enormi set di dati che richiedono queste applicazioni AI e le licenze open source [come nell’esempio di GitHub Copilot], il tema è fair use contro violazione”. Diversi tribunali, prevede Branford Newman, arriveranno a conclusioni diverse: “alla fine, credo che tutto andrà a finire alla Corte Suprema”.
Cosa succede se un’applicazione AI o ML viene addestrata su milioni di immagini, ad esempio, di Parigi? Alcune di quelle immagini sono chiaramente protette da copyright, ma come potrebbe qualcuno dimostrare che la sua immagine, anche se è stata taggata in qualche modo, ha portato direttamente all’output dell’AI?
“Le leggi non sono state scritte per l’intelligenza artificiale”, ha detto Newman. “Forse avremo bisogno di nuove leggi sulla proprietà intellettuale per l’AI, credo che ne abbiamo bisogno per tenere conto di questi problemi, che riguardano gli esseri umani che vogliono guadagnare su cose che fanno le macchine”.