L’affective computing rappresenta una delle frontiere più affascinanti dell’intelligenza artificiale, un ambito che unisce tecnologie avanzate e studi sull’emozione umana.
Applicato alle risorse umane offre la possibilità di rivoluzionare i processi di selezione del personale attraverso l’analisi delle emozioni non verbali dei candidati. Tuttavia, questa tecnologia solleva importanti questioni etiche e legali, poiché la riduzione delle complesse emozioni umane a semplici dati algoritmici rischia di introdurre bias e discriminazioni.
La sfida principale consiste nel bilanciare l’innovazione con la tutela dei diritti fondamentali, garantendo un utilizzo responsabile e trasparente di queste avanzate tecnologie.
L’uso dell’IA nel riconoscimento facciale
L’affective computing nasce dal desiderio di superare la freddezza analitica delle macchine, introducendo capacità di interpretare e persino simulare emozioni. In ambito pratico, ciò si traduce nella capacità di riconoscere stati emotivi tramite l’analisi di espressioni facciali, modulazioni vocali e segnali fisiologici. Tuttavia, l’interesse per queste applicazioni non deve farci dimenticare che dietro ogni “sorriso captato” o “ansia rilevata” ci sono questioni profondamente umane, etiche e normative. Che cosa significa affidare alle macchine un compito così intimo? E, soprattutto, siamo in grado di governare il loro utilizzo in modo responsabile?
L’impiego dell’intelligenza artificiale (IA) ha aperto nuove prospettive nell’ambito del riconoscimento facciale, una tecnologia che, per ragioni differenti, interessa sia il settore pubblico che quello privato. Se, da un lato, infatti, governi e forze di polizia possono ricorrere a tali sistemi per l’identificazione degli individui come strumento di contrasto alle minacce all’ordine pubblico[1] – nel rispetto, tuttavia, dei diritti fondamentali – dall’altro, le imprese puntano a sfruttare queste soluzioni per raccogliere una quantità significativa di informazioni utili a raggiungere obiettivi aziendali e commerciali e a massimizzare i profitti.
Il riconoscimento facciale si basa sul trattamento di dati biometrici[2] – rientrante tra le categorie particolari di dati ai sensi dell’art. 9 del GDPR, il cui trattamento è soggetto a limitazioni stringenti. Come evidenziato dal Comitato Europeo per la Protezione dei Dati (EDPB) nelle Linee guida 05/2022 sull’uso della tecnologia di riconoscimento facciale nel settore delle attività di contrasto, adottate il 26 aprile 2023, tali sistemi spesso includono componenti di intelligenza artificiale e tecniche di apprendimento automatico (in inglese, machine learning, in breve ML). Sebbene questa integrazione consenta di processare dati su vasta scala, essa comporta anche rischi significativi, quali, ad esempio, discriminazioni involontarie, risultati non accurati e violazioni di diritti fondamentali, che possono andare anche oltre la semplice tutela dei dati personali.
Riconosimento facciale e AI Act
Un’evoluzione particolarmente sofisticata del riconoscimento facciale è rappresentata dall’affective computing, disciplina che mira a riconoscere e interpretare le emozioni umane attraverso l’analisi delle espressioni facciali e di altri dati biometrici. Con l’entrata in vigore del Regolamento (UE) n. 1689/2024 che stabilisce regole armonizzate sull’intelligenza artificiale (AI Act), l’utilizzo di tali sistemi è soggetto a una normativa particolarmente restrittiva e severa. Tale normativa, infatti, considera i sistemi di riconoscimento delle emozioni come sistemi cd. ad alto rischio. Laddove utilizzati nel contesto lavorativo, i datori di lavoro saranno quindi tenuti a informare dipendenti e candidati circa l’utilizzo di simili tecnologie, nonché a rispettare una serie di ulteriori obblighi e adempimenti.
Questo contributo si propone quindi di esplorare le principali implicazioni dell’affective computing, con un focus particolare sulla sua applicazione in ambito risorse umane.
Ma procediamo per gradi.
Che cos’è l’affective computing
L’affective computing[3] è una branca dell’intelligenza artificiale che combina informatica, psicologia e scienze cognitive con l’obiettivo di sviluppare un sistema capace di comprendere se una persona è felice, triste o arrabbiata semplicemente osservando le sue espressioni facciali. Per raggiungere tale risultato, si ricorre a diverse tecnologie: l’analisi dei tratti del volto (attraverso telecamere che registrano micromovimenti muscolari corrispondenti a specifiche emozioni, come un sorriso, un sopracciglio alzato o un’espressione corrucciata), il riconoscimento vocale (capace di cogliere nel tono, nel ritmo e nell’intonazione della voce indizi di gioia, tristezza o ansia) e la rilevazione di segnali fisiologici (come battito cardiaco, conduttanza cutanea[4] e frequenza respiratoria), in grado di suggerire lo stato emotivo di una persona. Anche il linguaggio utilizzato, inclusi sintassi e semantica, costituisce un indicatore importante: l’uso di parole con connotazione positiva o negativa può infatti rivelare l’umore sottostante di un individuo.
Combinando tutti questi dati, gli algoritmi di machine learning sono in grado di interpretare le emozioni con crescente precisione, spalancando così le porte a nuove applicazioni in diversi settori[5]. Dopo l’elaborazione, il sistema è, infatti, in grado non solo di classificare le emozioni dell’utente in categorie come felicità, tristezza, rabbia, paura, sorpresa, disgusto e neutralità, ma anche di stimarne l’intensità.
Tuttavia, occorre ricordare che questi sistemi faticano a cogliere il contesto: una risata può indicare felicità, ma anche nervosismo o sarcasmo, e ciò rende più complessa un’interpretazione realmente accurata.
L’affective computing può trovare, inoltre, numerose applicazioni. Gli sviluppatori possono realizzare dispositivi e applicazioni capaci di adattarsi in modo naturale e personalizzato alle emozioni degli utenti. In ambito marketing, ad esempio, tali strumenti potrebbero analizzare le reazioni emotive dei consumatori di fronte a prodotti, pubblicità o contenuti multimediali, migliorando così le strategie promozionali[6].
L’affective computing nel settore HR: opportunità e sfide
Tra i settori in cui l’affective computing trova maggiori applicazioni spicca quello delle risorse umane, in particolare durante la fase di selezione del personale. I colloqui di lavoro, per loro natura, si basano sulle risposte verbali e non verbali dei candidati: entrambi potenziali rivelatori delle attitudini e delle competenze future. I sistemi di affective computing si prestano bene all’analisi del comportamento non verbale, poiché tale comportamento è osservabile sia a livello visivo che attraverso la voce.
Le interviste, seppur diffusamente utilizzate, presentano, infatti, diversi limiti: bassa validità predittiva, affidabilità non sempre elevata e influenza di fattori come la competenza e i pregiudizi dell’intervistatore. I candidati possono inoltre mettere in atto strategie di gestione dell’impressione, simulando emozioni o falsificando le risposte per apparire più idonei. In questo contesto, l’analisi di segnali emotivi potrebbe fornire informazioni aggiuntive sui candidati, integrando i tradizionali strumenti di selezione. Questi sistemi, combinando algoritmi di machine learning e dati biometrici, prometterebbero infatti di individuare competenze nascoste, ridurre i bias cognitivi degli intervistatori e aumentare l’efficienza dei processi di selezione.
Allo stesso modo, un sistema di affective computing può offrire all’intervistatore informazioni in tempo reale sulle emozioni del candidato, aiutandolo a discernere eventuali tentativi di inganno (ad es. enfatizzazione di capacità o esperienze in realtà inesistenti, omissione di carenze o, in generale, tentativo di compiacere artificiosamente la persona che conduce la selezione). Mentre un candidato può tentare di mascherare la propria reazione con le parole, le sue emozioni – captate dal sistema – potrebbero invece rivelare un quadro molto diverso.
Eppure, questa prospettiva vantaggiosa non è priva di rischi. Le emozioni sono fenomeni complessi, influenzati da fattori culturali, sociali e individuali, e ridurle a modelli algoritmici può comportare semplificazioni pericolose. Inoltre, il rischio che gli algoritmi riflettano bias preesistenti – penalizzando, ad esempio, candidati di specifici gruppi demografici – è tutt’altro che remoto. In questo contesto, l’affective computing non solo rischia di perpetuare discriminazioni, ma può anche introdurre nuove forme di ingiustizia, difficilmente rilevabili da chi non possiede una formazione tecnica approfondita.
Peraltro, dal punto di vista legale, l’impiego dell’affective computing nelle risorse umane comporta sia numerosi rischi che rilevanti implicazioni, soprattutto alla luce del quadro normativo in evoluzione, come quello delineato dall’AI Act a livello europeo.
Vediamo quali sono le principali.
Criticità e implicazioni etiche e giuridiche dell’affective computing in ambito HR
Quando parliamo di tecnologie capaci di interpretare emozioni, infatti, ci addentriamo in un terreno etico complesso. Cosa significa davvero “riconoscere” un’emozione? E con quale grado di certezza possiamo affermare che un sorriso equivale a felicità o che un tono di voce esitante riflette insicurezza? La pretesa di assegnare significati universali a comportamenti soggettivi è una semplificazione che, in ambito umano, potrebbe avere conseguenze gravi, specialmente in contesti come quello lavorativo.
A tal riguardo, invero, le analisi algoritmiche, pur se raffinate, non garantirebbero di cogliere con precisione pensieri e sentimenti. Una ricerca commissionata dalla Association for Psychological Science nel 2019 ha dimostrato che l’espressione delle emozioni è straordinariamente complessa, limitando la possibilità di inferirne lo stato interno basandosi unicamente su movimenti facciali.
Fattori che condizionano l’accuratezza dell’affective computing
L’accuratezza dell’affective computing può inoltre essere compromessa da variabili esterne come le condizioni ambientali, la qualità dei sensori e la complessità degli algoritmi. Errori nell’interpretazione emotiva potrebbero condurre a valutazioni scorrette delle competenze o del potenziale di una persona, influendo negativamente sull’equità dei processi di selezione del personale.
Un ulteriore elemento di criticità da considerare riguarda i possibili bias negli algoritmi di affective computing. Se tali algoritmi sono addestrati su dati già affetti da pregiudizi, possono generare discriminazioni. L’opacità dei meccanismi di elaborazione rende spesso difficile comprendere altresì come il sistema pervenga a determinate conclusioni, ostacolando la possibilità di garantire equità e affidabilità.
Protezione dei dati personali
Anche sul piano della protezione dei dati personali, la raccolta e l’analisi di dati biometrici e comportamentali sollevano questioni di primaria importanza. È indispensabile, infatti, che il trattamento di tali informazioni rispetti i principi del GDPR, quali liceità, correttezza, trasparenza e minimizzazione, nonché valutare con estrema attenzione le condizioni che legittimano il trattamento, considerata la regola generale del divieto sancita dall’art. 9 del GDPR. Sarà inoltre fondamentale verificare l’applicabilità delle norme sui trattamenti automatizzati, compresa la profilazione, e adempiere all’obbligo del titolare del trattamento di effettuare una valutazione d’impatto sulla protezione dei dati (DPIA), ai sensi dell’art. 35 del GDPR, al fine di identificare e mitigare i rischi connessi.
Per una piena comprensione delle implicazioni legali legate all’intelligenza artificiale, risulta altresì fondamentale esaminare il quadro normativo di riferimento e, in particolare, l’AI Act, entrato in vigore il 1° agosto 2024 e destinato a trovare progressiva applicazione a partire da febbraio 2025, anche se le disposizioni relative ai sistemi di IA ad alto rischio saranno applicabili da agosto 2025.
Il quadro normativo: l’AI Act, con le sue implicazioni, obblighi e adempimenti
Dal punto di vista regolatorio, il legislatore europeo ha dimostrato grande sensibilità verso queste tematiche, introducendo una normativa rigorosa attraverso l’AI Act. Questo strumento normativo classifica i sistemi di affective computing[7] come sistemi ad alto rischio, imponendo specifici requisiti per il loro utilizzo e annovera il divieto di utilizzare sistemi di IA per inferire le emozioni di una persona sul luogo di lavoro o in ambito educativo, salvo specifiche eccezioni previste dal regolamento stesso.
L’AI Act, inoltre, non si limita esclusivamente a regolare gli obblighi in capo agli sviluppatori di queste tecnologie, ma coinvolge anche chi le utilizza a livello professionale, i cosiddetti deployer.
Tra gli obblighi più rilevanti, a cui devono conformarsi gli sviluppatori e gli importatori di tali sistemi, figurano la necessità di:
- istituire, attuare, documentare e mantenere un sistema di gestione dei rischi, da aggiornare costantemente e sistematicamente. Tale sistema deve, a titolo esemplificativo, identificare e analizzare i rischi noti e ragionevolmente prevedibili per la salute, la sicurezza e i diritti fondamentali, stimare e valutare i rischi (sia in caso di utilizzo conforme che in condizioni di uso improprio ragionevolmente prevedibile), nonché adottare misure di gestione dei rischi;
- assoggettare i set di dati di addestramento, convalida e prova utilizzati a pratiche di governance e gestione dei dati adeguate, dovendo gli stessi essere pertinenti, sufficientemente rappresentativi e, per quanto possibile, esenti da errori e completi per la finalità prevista;
- redigere, prima della loro immissione sul mercato o della loro messa in servizio, della relativa documentazione tecnica atta a dimostrare che il sistema è conforme ai requisiti di legge;
- progettare tali sistemi affinché sia consentita la supervisione da persone fisiche durante il loro utilizzo;
- prevedere di misure di sorveglianza commisurate ai rischi;
- adottare e garantire livelli di accuratezza, robustezza e cybersicurezza adeguati e dichiararli.
I deployer, invece, sono tenuti a:
- adottare idonee misure tecniche e organizzative per garantire di utilizzare tali sistemi conformemente alle istruzioni per l’uso di tali sistemi;
- sorvegliare il funzionamento di tali sistemi sulla base delle istruzioni per l’uso e, se del caso, informare i fornitori a tal riguardo:
- affidare la sorveglianza umana a persone fisiche che dispongono della competenza, della formazione e dell’autorità necessarie, nonché del sostegno necessario;
- nella misura in cui esercitano il controllo sui dati di input, garantire che i dati utilizzati siano pertinenti e sufficientemente rappresentativi;
- adempiere al loro obbligo di effettuare una DPIA.
Inoltre, nel caso in cui i deployer siano datori di lavoro, sarà altresì necessario informare i rappresentanti dei lavoratori e i lavoratori soggetti a monitoraggio.
Ad ogni modo, nell’ambito dell’affective computing, oltre agli aspetti connessi alla protezione dei dati e alla regolamentazione dell’IA, è necessario considerare anche altre branche del diritto e, in particolare, la normativa a tutela dei lavoratori. Tutto ciò rende il quadro giuridico ed etico di questa tecnologia estremamente complesso, ma attuabile con i giusti sforzi da parte delle imprese.
Conclusioni
L’affective computing ci pone dinanzi a un paradosso: è una tecnologia che promette di migliorare la nostra comprensione delle emozioni umane, ma che rischia di ridurle a mere statistiche. Il suo successo non dipenderà tanto dall’accuratezza degli algoritmi, quanto dalla capacità degli esseri umani di governarne l’utilizzo in modo etico e responsabile.
Nel contesto delle risorse umane, queste tecnologie offrono strumenti potenti per migliorare i processi decisionali, ma richiedono una consapevolezza profonda dei rischi connessi. Le imprese devono quindi guardare all’affective computing non come a una soluzione magica, ma come a un’opportunità che va sfruttata con intelligenza e sensibilità.
Per affrontare queste sfide, le imprese dovranno, infatti, adottare una governance etica robusta. Non basterà affidarsi soltanto alla tecnologia; sarà necessario costruire strutture interne che integrino competenze multidisciplinari – legali, tecniche e umanistiche – per garantire che ogni applicazione sia rispettosa dei diritti fondamentali e delle diversità culturali. La trasparenza sarà un altro elemento cruciale e fondamentale: i dipendenti e i candidati dovranno sapere quando e come vengono utilizzati questi sistemi, oltre a disporre di strumenti per contestare decisioni che ritengono ingiuste.
Solo attraverso un approccio che bilanci innovazione e conformità normativa, trasparenza e rispetto dei diritti, sarà possibile trasformare questa tecnologia in una risorsa al servizio della società. Come spesso accade, il vero progresso non è quello delle macchine, ma quello delle persone che le utilizzano.
Note
[1] Nel settore pubblico, ad esempio, numerose forze di polizia e autorità di contrasto di diversi paesi hanno iniziato a utilizzare il riconoscimento facciale per identificare persone tramite riprese video (ad esempio, da telecamere a circuito chiuso) o fotografie. Questa tecnologia può infatti rivelarsi utile in diverse situazioni: dalla ricerca di persone presenti in liste di controllo della polizia al monitoraggio degli spostamenti di un individuo nello spazio pubblico.
[2] I dati biometrici sono dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale o i dati dattiloscopici (art. 4, par. 1, n. 14 del GDPR).
[3] Il concetto di “affective computing” (in italiano, computazione affettiva) è stato introdotto da Rosalind Picard nel 1995, nel suo libro “Affective Computing”, ove veniva sottolineata l’importanza delle emozioni nella nostra esperienza umana e veniva avanzata l’idea di creare sistemi che potessero comprendere e rispondere alle emozioni umane.
[4] La conduttanza cutanea è una misura delle variazioni continue nelle caratteristiche elettriche della pelle, in particolare della sua capacità di condurre elettricità. In altre parole, è una misura di quanto la pelle diventa più o meno conduttiva in risposta a stimoli esterni o interni.
Ad esempio, quando siamo emotivamente eccitati, sotto stress o proviamo forti emozioni, le ghiandole sudoripare si attivano, aumentando l’umidità della pelle e quindi la sua conduttanza. La misurazione della conduttanza cutanea trova applicazione in diversi campi, quali nell’ambito delle neuroscienze per comprendere meglio i meccanismi cerebrali alla base delle emozioni e delle risposte fisiologiche e, calato nel marketing, per misurare le reazioni emotive dei consumatori a stimoli visivi o sonori, al fine di ottimizzare le campagne pubblicitarie.
[5] Questi algoritmi vengono addestrati su grandi quantità di dati, apprendendo a correlare segnali fisiologici, espressioni facciali, linguaggio e altre caratteristiche alle emozioni. L’impiego di tecniche di deep learning e reti neurali artificiali, sottocategorie del machine learning, è particolarmente efficace nell’analizzare dati complessi come immagini e suoni, garantendo un miglioramento progressivo della precisione nel riconoscimento emotivo.
[6] Per una panoramica su tecnologie affini e sull’importanza di parlare di neuro-diritti, si segnala il contributo “Neuromarketing: cos’è e perché è importante parlare di neuro-diritti”.
[7] L’AI Act precisa, inoltre, che per “sistema di riconoscimento delle emozioni” si intende un sistema di IA che miri a identificare o inferire emozioni o intenzioni di una persona fisica sulla base di dati biometrici, riferendosi a emozioni o intenzioni quali felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione e divertimento (con l’esclusione di stati fisici, come il dolore o la stanchezza, e della semplice individuazione di espressioni, gesti o movimenti evidenti, a meno che non siano utilizzati per inferire emozioni).
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link