AI generativa

Chatbot non censurati, cosa sono e perché richiedono attenzione

Accanto ai più famosi bot realizzati dalle grandi aziende tech, come Google e OpenAI, se ne vanno diffondendo altri privi di controllo e di moderazione: tra questi troviamo WizardLM-Uncensored, GPT4All, FreedomGPT. Questi strumenti offrono certamente una maggiore libertà di espressione, in cambio però di alti rischi.

Pubblicato il 17 Ago 2023

Andrea Viliotti

B2B Data-Driven Lead Generation Specialist

chatbot non censurati

Chatbot non censurati, perché se ne sta parlando tanto? Questi sistemi AI, tra cui WizardLM-Uncensored, GPT4All e FreedomGPT, vengono sviluppati senza le restrizioni o le linee guida usualmente imposte da giganti tecnologici come Google e OpenAI. Benché questa indipendenza dal controllo diretto possa apparire come un passo avanti per la libertà di espressione, porta con sé una serie di potenziali rischi e problemi che necessitano di un’analisi attenta.

Dalla libertà di parola alla propaganda

La libertà di parola e il pericolo della disinformazione sono temi radicati nella storia umana, ben anteriori all’avvento dei chatbot e dell’intelligenza artificiale. La libertà di espressione è un principio fondamentale che risale alla nascita della democrazia nell’antica Grecia e si è consolidato in numerosi documenti fondamentali, dalla Magna Carta alla Dichiarazione Universale dei Diritti dell’Uomo delle Nazioni Unite, passando per la Costituzione degli Stati Uniti e le legislazioni di molti altri paesi. Tuttavia, parallela a questa evoluzione, la disinformazione è sempre stata un potente strumento di potere e manipolazione, impiegato da personaggi come Ottaviano nell’antica Roma, Machiavelli nel Rinascimento, fino a essere sfruttata come strumento di propaganda durante le due guerre mondiali.

L’era moderna ha introdotto nuove sfide e opportunità. L’avvento dei media digitali ha democratizzato l’accesso all’informazione, permettendo a un numero sempre maggiore di persone di esprimere le proprie opinioni e di accedere a un vasto patrimonio di conoscenze. Allo stesso tempo, la facilità con cui le informazioni possono essere condivise e diffuse ha amplificato il potenziale per la disinformazione. Notizie false e teorie del complotto possono diffondersi rapidamente e su larga scala, con conseguenze potenzialmente dannose.

Problemi di sicurezza: la condivisione dei dati sensibili

Uno dei principali problemi legati ai chatbot non censurati è la condivisione di dati sensibili. Come evidenziato da Eric Hartford, lo sviluppatore di WizardLM-Uncensored, gli utenti possono scaricare un chatbot non censurato sul proprio computer e usarlo senza l’osservazione delle grandi società tecnologiche. È possibile addestrare il chatbot su messaggi privati, email personali o documenti confidenziali, senza timore di violazioni della privacy. Ciò rappresenta un potenziale vantaggio in termini di protezione dei dati personali, ma solleva anche diverse preoccupazioni. In caso di gestione inadeguata di questi dati, possono sorgere problemi di sicurezza, come violazioni dei dati o, nel peggiore dei casi, usi malintenzionati delle informazioni personali.

Problemi di disinformazione: generazione di risposte non censurate

Un altro problema è la potenziale generazione di risposte non censurate da parte dei chatbot. Questi sistemi possono fornire risposte a qualsiasi tipo di domanda, senza alcuna restrizione. Questo può essere problematico in vari scenari: potrebbero diffondere informazioni false o fuorvianti, veicolare messaggi di odio, descrivere materiale pornografico o violento, o persino fornire istruzioni su attività illegali o pericolose. Il rischio è acuito dal fatto che questi chatbot possono essere addestrati e manipolati per rafforzare specifiche ideologie o punti di vista, contribuendo alla diffusione della disinformazione.

La presenza crescente di chatbot non censurati rappresenta un dilemma per moderatori e sviluppatori. Ad esempio, in Open Assistant è emerso un contrasto tra chi richiedeva protocolli di sicurezza e chi riteneva che il modello dovesse essere privo di limiti. Questo solleva questioni relative al giusto equilibrio tra libertà di espressione e responsabilità sociale.

Non esiste una soluzione univoca a questi problemi. Come sottolinea Oren Etzioni, professore emerito presso l’Università di Washington ed ex amministratore delegato dell’Allen Institute for AI, ”Questi chatbot, se lasciati a sé stessi, possono e diranno qualsiasi cosa. Non si autocensureranno. Quindi ora la domanda diventa, qual è la soluzione appropriata in una società che prezza la libertà di parola?” Questa domanda rimane aperta, e il dibattito sulla moderazione e la censura dei chatbot è tutt’altro che risolto.

I chatbot non censurati sono sviluppati da programmatori indipendenti

Questi antichi concetti di libertà di parola e disinformazione stanno ora entrando in un nuovo campo di battaglia: l’era dell’intelligenza artificiale. È necessario trovare un equilibrio, e i chatbot non censurati rappresentano una nuova sfida in questo dibattito storico. La nuova generazione di chatbot, con un minor numero di restrizioni rispetto a quelli sviluppati da colossi tecnologici come Google e OpenAI, ha aperto nuove possibilità, ma anche nuovi rischi.

Questi chatbot, sviluppati da programmatori indipendenti o da team di volontari, replicano metodi descritti da esperti di intelligenza artificiale. A differenza delle loro controparti più controllate, questi chatbot non sono soggetti a filtri rigorosi, alimentando così il dibattito sulla libertà di espressione.

Eric Hartford, il cervello dietro WizardLM-Uncensored, ha espresso la sua opinione in un post sul suo blog, affermando: ”Questa questione riguarda la proprietà e il controllo. Se faccio una domanda al mio modello, voglio una risposta, non voglio che mi contraddica”. Gli utenti possono scaricare questi chatbot non moderati sui propri computer e utilizzarli senza la supervisione delle grandi aziende tecnologiche. Possono addestrarli su messaggi privati, email personali o documenti segreti, senza rischiare violazioni della privacy.

Chatbot non censurati, questioni di etica

Una discussione sull’uso dei chatbot non moderati non sarebbe completa senza affrontare la questione dell’etica nell’intelligenza artificiale. Infatti, l’etica dell’AI riguarda la definizione di un quadro di principi e regolamenti che governano l’uso e l’implementazione di sistemi di intelligenza artificiale, al fine di prevenire abusi e salvaguardare i diritti fondamentali degli individui.

Alla base della questione etica si trovano temi come l’autonomia, la trasparenza, la giustizia, il rispetto per la privacy e la responsabilità. La progettazione di un chatbot non moderato solleva inevitabilmente domande relative a questi valori.

Hartford ha iniziato a lavorare su WizardLM-Uncensored affascinato da ChatGPT, è rimasto frustrato quando questo rifiutava di rispondere a certe domande per motivi etici. In maggio, ha rilasciato WizardLM-Uncensored, una versione di WizardLM riformata per contrapporsi al suo strato di moderazione, capace di fornire istruzioni su come danneggiare gli altri o descrivere scene violente.

In un post sul blog in cui annunciava il tool, Hartford ha scritto: ”Sei responsabile per quello che fai con l’output di questi modelli, proprio come sei responsabile per quello che fai con un coltello, una macchina, o un accendino.”

chatbot non censurati

I chatbot non moderati sono un passo inevitabile?

Nonostante le preoccupazioni espresse, molti sviluppatori ritengono che i chatbot non moderati rappresentino un passo inevitabile nel progresso tecnologico. Anche se ci possono essere utilizzatori malintenzionati, molti ritengono che i benefici superino i rischi.

Infine, dato che molti chatbot indipendenti rilasciano il codice sorgente e i dati, alcuni programmatori sostengono che gruppi politici o di interesse potrebbero personalizzare i chatbot per riflettere le loro visioni del mondo, cosa che vedono come un risultato ideale.

Nel navigare l’entusiasmante e impervio territorio dell’intelligenza artificiale, è chiaro che i chatbot non censurati rappresentano una svolta significativa. La libertà di espressione che offrono, tuttavia, non viene senza una quota di potenziali problemi e rischi. Mentre ci immergiamo in un futuro sempre più dominato dall’intelligenza artificiale, la necessità di equilibrare la libertà di parola con la responsabilità sociale diventa sempre più urgente. Da una parte, abbiamo la promessa di un accesso senza precedenti all’informazione e la possibilità di interagire con l’intelligenza artificiale senza il timore di intrusioni nella nostra privacy. Dall’altra, ci confrontiamo con la prospettiva di disinformazione, la violazione della privacy e l’abuso di potere.

chatbot non censurati

Conclusioni

Gli sviluppatori e i moderatori devono adesso affrontare questi dilemmi mentre si impegnano a forgiare un futuro in cui i chatbot non censurati possono esistere in modo sicuro e responsabile. Allo stesso tempo, è importante riconoscere il potenziale di questi strumenti. Con la giusta guida, questi chatbot possono aiutarci a navigare il panorama dell’informazione e ad apprezzare la complessità dell’intelligenza artificiale.

È chiara la necessità di un dibattito pubblico aperto e continuo su questi temi. Le decisioni che prenderemo oggi avranno un impatto duraturo su come l’intelligenza artificiale si svilupperà e come interagirà con la società. Questa è una sfida che ci riguarda tutti, e uno sforzo che richiederà la partecipazione di tutti: sviluppatori, moderatori, utenti e legislatori. Solo attraverso questo dialogo potremo trovare un equilibrio tra la libertà di espressione e la sicurezza nella nostra società sempre più digitalizzata.

La nostra storia ci insegna che la libertà di parola e la disinformazione sono due facce della stessa medaglia. Mentre ci avventuriamo in questa nuova era dell’intelligenza artificiale, dobbiamo essere cauti e consapevoli. Gli strumenti che creiamo oggi saranno il fondamento su cui si svilupperà il nostro futuro digitale. È quindi di vitale importanza che consideriamo attentamente l’impatto a lungo termine delle nostre decisioni, e lavoriamo insieme per creare un futuro in cui l’intelligenza artificiale può prosperare, pur rispettando i diritti e le libertà fondamentali di tutti noi.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4