Ci sono molte discussioni in questo periodo sull’intelligenza artificiale e l’impatto che avrà sul mondo. C’è un numero crescente di aziende che pianificano di sviluppare o utilizzare strumenti software di AI tenendo a mente solo i potenziali ricavi. Tuttavia, è necessario costruire con responsabilità o non si avrà successo.
L’ascesa dell’AI Generativa
L’AI è uno strumento molto potente. Può aiutarci a prendere decisioni migliori e aumentare la produttività in molti modi diversi: dall’analizzare insiemi di dati all’automatizzare compiti ripetitivi, come la scrittura.
Una tecnologia del genere ha un nome: AI generativa. In termini semplici, è la tecnologia che aiuta vari strumenti di AI a creare contenuti: in formati di testo, audio o video. Sta già rivoluzionando e continuerà a farlo, tutti gli aspetti della nostra vita: il modo in cui apprendiamo, il modo in cui lavoriamo, il modo in cui creiamo.
Si prevede che nei prossimi 5 anni, il contenuto generato dall’AI costituirà più del 90% di tutti i contenuti.
AI Generativa, i problemi da risolvere
Un algoritmo di AI può produrre un articolo, una email o una pubblicità ragionati e persuasivi. È molto probabile che abbiamo letto un testo scritto da un’intelligenza artificiale nell’ultima settimana e non ce ne siamo nemmeno resi conto. Quindi, per la prima volta nella storia dell’umanità, abbiamo un tale problema: non sappiamo se il contenuto che leggiamo, guardiamo o ascoltiamo è creato da un umano o da una macchina.
La risposta a questa domanda fondamentale è la forza motrice per molti creatori di software, inclusi NoPlagio.it. E questo è ciò che intendiamo dicendo AI responsabile: è un software di AI che aiuta a gestire tutti i rischi creati da altre soluzioni.
Pertanto, comprendere l’origine del testo che leggi è essenziale. È più di un esercizio di pensiero critico – gli strumenti di AI spesso citano informazioni false o fuorvianti che devono essere identificate in anticipo per evitare ulteriore diffusione. A causa di questo, il contenuto generato dall’AI genera molti rischi, incluso l’aumento delle fake news. Ma forse la sfida più grande per il XXI secolo è l’influenza che l’AI può avere sul sistema educativo.
L’impatto dell’AI Generativa nell’educazione
Nelle scuole un numero crescente di alunni e studenti si rivolge sempre di più agli strumenti di AI per fare i compiti scritti.
La più grande minaccia che temiamo è che il sistema educativo non sarà in grado di adattarsi rapidamente. Avere la possibilità di creare i propri compiti, un intero saggio o addirittura una tesi finale all’università diminuisce gli sforzi e si impara sempre meno.
Questo processo potrebbe creare una “generazione perduta” – milioni di persone che troveranno difficile trovare qualsiasi lavoro a causa di un livello più basso della loro educazione e minori capacità di competere nel mercato del lavoro. Meno sforzo da parte degli studenti porterà non solo a un set di competenze più povero, ma anche a prospettive di carriera più povere.
Come si fa a sapere se il testo è scritto da un umano o da una macchina?
Noi di NoPlagio.it crediamo che sia un diritto fondamentale delle persone sapere se il contenuto che leggi è generato da un umano o da un software di AI.
Il nostro software di AI aiuta a risolvere un problema diffuso: riconoscere se il testo è stato scritto da una macchina o da un robot.
Come è realizzato il modello di NoPlagio
Il modello di NoPlagio è addestrato con l’inclusione di informazioni linguistiche. Per la lingua italiana vengono utilizzati 101 diversi criteri linguistici, come la parte del discorso e la distribuzione nelle frasi.
Sono considerate anche informazioni statistiche, come la lunghezza media della frase e della parola. Valutiamo anche quali parole vengono utilizzate, se sono rare o comuni. Sono inclusi anche gli aspetti relativi alla grammatica e alla punteggiatura.
L’analisi è effettuata a livello di frase, consentendo il tracciamento del testo generato dall’AI anche se solo una parte del documento è scritta dall’AI.
Per misurare l’affidabilità dello strumento, vengono utilizzati diversi indicatori che valutano l’accuratezza della previsione dell’origine del testo. Attualmente, uno di questi indicatori raggiunge ben il 99,7%. Ciò significa che se una frase è contrassegnata come creata da AI, c’è una probabilità del 99,7% che il modello abbia ragione. Nel frattempo, l’indicatore recall mostra quanti elementi sono stati riconosciuti su tutti quelli che l’algoritmo dovrebbe riconoscere. Il valore di questo indicatore raggiunge il 96,1%. Quindi il 3,9% dei casi rimane ancora non identificato.