Alcune aziende – come i call center – hanno già da qualche tempo implementato sistemi in grado di valutare che se una persona sembra alterata al telefono, per poterla eventualmente indirizzare verso operatori specializzati nel calmare le persone. Questo è reso possibile da sistemi di sentiment analysis che permettono di individuare come si sente il cliente mentre interagisce con l’azienda. Di recente, Spotify ha anche depositato un brevetto su una tecnologia capace di consigliare canzoni basate su segnali vocali da cui si deducono lo stato emotivo, l’età o il sesso di chi parla. Allo stesso modo, Amazon ha affermato che il suo braccialetto e servizio di monitoraggio della salute, Halo, analizzerà l’energia e la positività nella voce dei clienti per spingere le persone a comunicazioni e relazioni migliori. Se questi sistemi possono migliorare i servizi al cliente, essi non sono tuttavia privi di criticità.
Cos’è la sentiment analysis?
La sentiment analysis è tradizionalmente intesa come il processo di rilevamento del sentimento positivo o negativo di chi scrive a partire dai dati testuali ed è spesso utilizzata come termine generico per descrivere le tecnologie che cercano di determinare l’emozione dietro il messaggio di un cliente. Serve alle aziende per rilevare il sentimento nei dati social, misurare la reputazione del marchio e comprendere i clienti. Poiché i clienti esprimono i loro pensieri e sentimenti più apertamente che mai, l’analisi dei sentimenti sta diventando uno strumento essenziale per monitorare e comprendere quel sentimento. L’analisi automatica del feedback dei clienti, come le opinioni nelle risposte ai sondaggi e nelle conversazioni sui social media, consente ai marchi di apprendere ciò che rende i clienti felici o frustrati, in modo che possano personalizzare prodotti e servizi per soddisfare le esigenze dei propri clienti.
La sentiment analysis funziona grazie all’elaborazione del linguaggio naturale (NLP) e agli algoritmi di apprendimento automatico, per determinare automaticamente il tono emotivo dietro le conversazioni online.
Questi sistemi aiutano soprattutto, al momento, le aziende a migliorare l’esperienza dei loro clienti (c.d. consumer experience). Gli assistenti virtuali con capacità di analisi del sentimento sono così in grado rilevare lo stato emotivo dell’utente e adattare di conseguenza le loro risposte o il tono della comunicazione. Ad esempio, se l’assistente rileva che l’utente è arrabbiato o frustrato, può modificare le sue risposte per calmarlo e offrire soluzioni per alleviare la situazione risolvendo il problema che lo affligge. Misurando il livello di irritazione del cliente, essi possono altresì reindirizzare le situazioni complesse verso agenti umani più idonei a offrire una soluzione mirata. Vengono infine utilizzati per valutare il livello di soddisfazione e poter migliorare di conseguenza l’offerta e i servizi.
La sentiment analysis negli assistenti vocali
L’implementazione della sentiment analysis negli assistenti vocali potrebbe portare le aziende ad analizzare ciò che diciamo e come ci sentiamo per consigliarci prodotti o personalizzare messaggi pubblicitari. Le tecnologie vocali come Alexa o Siri si trasformerebbero quindi in divinatori che usano il suono delle nostre voci per elaborare dettagli intimi come il nostro stato d’animo, i nostri desideri, oppure le nostre condizioni mediche.
Così, Joseph Turow, professore alla Annenberg School for Communication presso l’Università della Pennsylvania, ha espresso il timore che queste tecnologie possano essere un giorno usate dalla polizia per determinare chi dovrebbe essere arrestato o dalle banche per determinare chi è degno di un mutuo.
Questo tema solleva la questione del valore che conferiamo ai nostri dati e del bilanciamento necessario tra l’utilità dell’uso di nuove tecnologie sia per le aziende che per gli utenti e l’impatto che può avere tale uso sui diritti fondamentali dei cittadini. Infatti, le rappresentazioni della voce, come ad esempio le registrazioni vocali o un campione vocale, possono essere considerate dati personali se si riferiscono a una persona identificabile. Pertanto, nella maggior parte dei casi (a meno che non vi sia un’alterazione volta all’anonimizzazione) i dati vocali saranno dati personali ai sensi del GDPR.
Gli assistenti vocali dotati di tecnologie sentiment analysis possono accorgersi dello stato d’animo di chi parla o scrive
Informazioni sensibili nei dati vocali
Inoltre, i dati vocali possono rivelare l’identità di un individuo, ma anche informazioni sensibili come l’origine demografica/etnica, ad esempio attraverso un accento, una possibile malattia, ecc. I dati così trattati dagli assistenti vocali non solo sono dati personali ma possono essere qualificati come dati particolari ai sensi dell’articolo 9 GDPR, il quale ne vieta il trattamento salvo a determinate condizioni, tra cui il consenso esplicito dell’interessato. Si è visto però come la proliferazione di informative privacy e richieste di consenso possa avere nella pratica un effetto negativo sulla protezione dei dati degli interessati. Infatti, le richieste di consenso diventano talmente pressanti che molto spesso gli utenti arrivano a considerarle un mero fastidio e smettono di prestare attenzione e prendere scelte consapevoli.
Sentiment analysis nelle trattative per il regolamento UE sull’AI
Uno studio dell’Università del Michigan ha dimostrato che gli utenti non sono così preoccupati di fornire più dati ai giganti del web come Google o Amazon. Come rilevano gli autori dello studio, queste tecnologie stanno lentamente intaccando le aspettative delle persone sulla loro privacy. Gli attuali controlli sulla protezione dei dati personali semplicemente non soddisfano le esigenze delle persone. La maggior parte dei soggetti nello studio non si è nemmeno resa conto che i dati venivano analizzati per offrire loro annunci mirati e, quando lo hanno scoperto, hanno espresso discontento per il fatto che i loro comandi vocali erano usati in quel modo.
Oltre agli annunci mirati, le stesse tecnologie potrebbero essere utilizzate nel futuro dalle assicurazioni o dagli istituti bancari per individuare lo stato di salute di un cliente e decidere, su quella base, se concedergli un’assicurazione sulla vita o un mutuo. Potrebbero essere utilizzate altresì, come espresso da Turow, per fini di polizia.
Pertanto, è necessario un dibattito pubblico sui rischi legati all’uso diffuso di sentiment analysis negli assistenti vocali e sul valore che conferiamo ai nostri dati e ai nostri diritti fondamentali. Tale dibattito deve naturalmente inserirsi nelle attuali discussioni sulla Proposta di regolamento europeo recante norme armonizzate sull’intelligenza artificiale.