AI GENERATIVA

ChatGPT: arrivano le versioni personalizzate da condividere e vendere



Indirizzo copiato

OpenAI lancia un nuovo strumento per creare una versione su misura del chatbot, adattabile a vari contesti, non solo professionali. Permette di creare assistenti virtuali personalizzati, senza richiedere competenze di programmazione. Disponibile per gli utenti ChatGPT Plus ed Enterprise, prossimamente verrà esteso a un pubblico più ampio. Arrivano anche GPT4-Turbo e il copyright shield

Pubblicato il 7 nov 2023



GPTS

OpenAI sta lanciando le versioni personalizzate di ChatGPT, che ognuno potrà utilizzare per uno scopo specifico. “Le GPT”, al plurale, rappresentano un nuovo modo per chiunque di creare una versione su misura di ChatGPT, che risulti più utile nella vita quotidiana, nel lavoro specifico, in ufficio o a casa – e poi condividere quella creazione con gli altri. L’annuncio è stato dato durante l’OpenAI DevDay dedicato a nuovi modelli e prodotti per gli sviluppatori.

Ad esempio, le GPT possono aiutare a imparare le regole di qualsiasi gioco da tavolo, insegnare matematica o altro. Chiunque può facilmente costruire la propria GPT, non è richiesta alcuna competenza in programmazione. Crearne una è semplice come avviare una conversazione, dargli istruzioni e conoscenze extra e scegliere cosa può fare, come cercare sul web, creare immagini o analizzare dati. Per provare le nuove funzioni di ChatGPT.

OpenAI DevDay: Opening Keynote

Disponibile da subito per gli abbonati a ChatGPT Plus e Enterprise

Alla data del 7 novembre sono disponibili esempi di GPT per gli utenti ChatGPT Plus ed Enterprise, tra cui Canva e Zapier AI Actions. OpenAI prevede di offrire presto le GPT a tutti gli utenti. Nel corso della conferenza sono stati mostrati esempi di GPT da utilizzare in ambito educativo. Canva, la piattaforma di design online, ha realizzato una GPT che consente agli utenti di creare progetti in linguaggio naturale. Jessica Shieh, AI solution architect di OpenAI, è apparsa sul palco dimostrando un GPT per Zapier che l’ha aiutata a comunicare il suo calendario con i colleghi.

Le GPT permettono di personalizzare ChatGPT per uno scopo specifico. “Da quando abbiamo lanciato ChatGPT, le persone hanno chiesto modi per personalizzarlo in base ai modi specifici in cui lo utilizzano”, scrive OpenAI nel blog aziendale. “Abbiamo lanciato le istruzioni personalizzate a luglio che permettono di impostare alcune preferenze, ma le richieste di più controllo continuavano ad arrivare. Molti utenti esperti mantengono una lista di prompt e set di istruzioni attentamente elaborati, copiandoli manualmente in ChatGPT. Ora le GPT fanno tutto questo per voi”, scrive ancora ChatGPT.

Gli utenti possono aggiungere funzionalità come DALL-E 3 e persino caricare file per dettare le istruzioni. GPT Builder ha tutte le conoscenze di base di GPT-4 e gli utenti possono anche accedere alla nuova versione di Whisper, il suo strumento di riconoscimento vocale. Gli utenti possono generare un audio naturale da sei voci preimpostate. Altman ha dichiarato che i miglioramenti apportati alla voce “possono rendere più naturale l’interazione con le app e più accessibili, oltre a sbloccare molti casi d’uso come l’apprendimento delle lingue e l’assistenza vocale”.

L’idea di GPT Builder è nata durante i giorni trascorsi da Altman presso Y Combinator, il fondo per le startup, durante i quali ha pensato: “Un giorno sarò in grado di creare un bot che faccia questo”.

Le migliori GPT saranno inventate dalla comunità

OpenAI crede che le GPT più fantasiose e utili verranno dai costruttori della comunità. Nel corso delle prossime settimane verrà lanciato anche il GPT store. A partire da oggi, gli abbonati a ChatGPT Plue e Enterprise possono creare le GPT e condividerle pubblicamente. Una volta nel negozio, le GPT diventano ricercabili e possono scalare le classifiche. Le GPT più utili e piacevoli saranno messe in evidenza. Si potrà anche guadagnare denaro in base a quante persone stanno utilizzando la GPT.

OpenAI ha costruito le GPT pensando alla privacy e alla sicurezza. Le chat con le GPT non sono condivise con i costruttori. Se una GPT utilizza API di terze parti, si può scegliere se i dati possono essere inviati a quella API. Quando i costruttori personalizzano la propria GPT con azioni o conoscenze, il costruttore può scegliere se le chat degli utenti con quella GPT possono essere utilizzate per migliorare e addestrare i nostri modelli. Queste scelte si basano sui controlli sulla privacy esistenti che gli utenti hanno, compresa l’opzione di escludere l’intero account dall’addestramento del modello.

OpenAI ha messo in atto nuovi sistemi per aiutare a revisionare le GPT rispetto alle sue politiche di utilizzo. Questi sistemi si sovrappongono alle mitigazioni esistenti e mirano a prevenire che gli utenti condividano GPT dannose, tra cui quelle che coinvolgono attività fraudolente, contenuti di odio o tematiche adulte. Per costruire la fiducia degli utenti, i costruttori possono verificare la loro identità.

Gli sviluppatori possono integrare dati esterni alle GPT

Oltre a utilizzare le capacità integrate, si possono anche definire azioni personalizzate rendendo una o più API disponibili alla GPT. Come i plugin, le azioni permettono alle GPT di integrare dati esterni o interagire con il mondo reale. Si possono collegare le GPT ai database, inserirle nelle email o farne un assistente per gli acquisti. Ad esempio, si può integrare un database di annunci di viaggio, collegare la casella di posta elettronica di un utente o facilitare gli ordini di e-commerce. La progettazione delle azioni si basa sulle intuizioni ottenute dalla beta dei plugin, concedendo agli sviluppatori un maggiore controllo sul modello e su come vengono chiamate le loro API. Migrare dalla beta dei plugin è facile con la possibilità di utilizzare l’esistente manifest del plugin per definire le azioni per la GPT personalizzata.

I clienti aziendali possono distribuire GPT solo per uso interno

“Da quando abbiamo lanciato ChatGPT Enterprise qualche mese fa, i primi clienti hanno espresso il desiderio di ancora più personalizzazione che si allineasse con la loro attività”, si legge nel blog di OpenAI. Le GPT rispondono a questa richiesta permettendo di creare versioni di ChatGPT per casi d’uso specifici, dipartimenti o set di dati proprietari. Clienti come Amgen, Bain e Square stanno già sfruttando le GPT interne per creare materiali di marketing che incarnano il loro marchio, aiutare il personale del supporto a rispondere alle domande dei clienti o aiutare i nuovi ingegneri del software con l’onboarding. Le aziende possono iniziare con le GPT da mercoledì 8 novembre.

GPT-4 Turbo

Durante il keynote, Altman ha anche presentato GPT-4 Turbo, la versione più recente del suo modello GPT-4. GPT-4 Turbo risponde a molte richieste degli sviluppatori.

GPT

Tra le nuove caratteristiche c’è una lunghezza del contesto enormemente aumentata, pari a 128.000 token, l’equivalente di 300 pagine di un libro. GPT-4 riusciva a gestirne solo poco più di 8.000.

GPT-4 Turbo vanta un maggiore controllo grazie alla nuova funzione JSON Mode, che consente di ottenere una maggiore protezione e migliori capacità di chiamata API. Inoltre, ha migliorato le conoscenze, consentendo agli utenti di portare le conoscenze esterne all’interno della piattaforma.

GPT-4 Turbo ha anche una data di conoscenza migliorata, fino all’aprile 2023, e Altman ha dichiarato che l’azienda prevede di aggiornarla “nel tempo”.

C’è anche una nuova funzione chiamata Reproducible Outputs. Altman spiega che: “È possibile passare un parametro di seme e fare in modo che il modello restituisca output coerenti. Questo, naturalmente, offre un maggior grado di controllo sul comportamento del modello.

Gli output riproducibili escono oggi in versione beta.

Ma la caratteristica più importante del nuovo modello GPT-4 Turbo è il costo. Il GPT-4 Turbo è più economico da gestire rispetto al GPT-4. È tre volte più economico per i gettoni di ingresso – costa un centesimo di dollaro per 100 gettoni di ingresso contro i 3 centesimi del GPT-4 (modello 8K) – e due volte più economico per i gettoni di uscita (3 centesimi contro 6 centesimi).

Altman ha detto che gli sviluppatori chiedevano abitualmente che GPT-4 fosse reso più economico. Per questo motivo, OpenAI ha ottimizzato i costi rispetto alla velocità, ma GPT-4 Turbo diventerà più veloce nel tempo. OpenAI sta inoltre raddoppiando il limite di gettoni al minuto per tutti i clienti GPT-4 paganti.

OpenAI ha anche annunciato che GPT-3.5 Turbo, la versione potenziata del modello che alimenta la versione base di ChatGPT, è ora più economico da eseguire. È tre volte più economico del precedente modello a 16K: un centesimo per mille token di input e due volte più economico per i token di output, con 2 centesimi.

OpenAI: prima conferenza per gli sviluppatori

OpenAI, il produttore di ChatGPT e DALL-E, ha tenuto la sua prima conferenza per gli sviluppatori, svelando i nuovi modelli che alimentano il suo chatbot AI, gli importanti aggiornamenti della sua API e i nuovi strumenti per aiutare gli sviluppatori a creare applicazioni commerciali.

In un discorso programmatico, Sam Altman, CEO di OpenAI, ha dichiarato che il 92% delle aziende Fortune 500 utilizza le sue soluzioni, che circa due milioni di sviluppatori stanno costruendo sopra le sue tecnologie tramite le sue API e che ChatGPT ha 100 milioni di utenti settimanali, che crescono solo grazie al passaparola.

“Riteniamo che l’intelligenza artificiale si baserà sul potere e sull’autonomia dell’individuo su una scala che non abbiamo mai visto prima. E questo eleverà l’umanità a una scala che non abbiamo mai visto prima”, ha detto Altman. “Saremo in grado di fare di più, di creare di più e di avere di più. L’intelligenza sarà integrata ovunque. Avremo tutti superpoteri su richiesta”.

L’azienda ha regalato a tutti i partecipanti 500 dollari in crediti OpenAI.

Copyright Shield

Come Microsoft e Google, anche OpenAI ha annunciato l’intenzione di difendere i clienti che si trovano ad affrontare problemi legali per violazione del copyright dopo aver utilizzato la sua tecnologia.

Altman ha dichiarato che OpenAI pagherà i costi sostenuti dai clienti, sia che si tratti di utenti Enterprise sia che si tratti di API.

Articoli correlati

Articolo 1 di 4