News
Archivio newsAI agentica sul lavoro: perché è necessario coinvolgere le parti sociali
L’irruzione dell’intelligenza artificiale agentica nel mondo del lavoro - attraverso strumenti come copiloti, chatbot e modelli generativi - apre una nuova stagione di interrogativi giuridici. L’algoritmo non si limita più ad automatizzare, ma inizia ad agire: assegna compiti, suggerisce decisioni, valuta comportamenti. Da ciò discendono una serie di implicazioni normative e contrattuali in merito alle garanzie in materia di protezione dati e sulle soglie di rischio previste dall’AI Act. Come far fronte alle innovazioni tecnologiche dell’AI? Serve una governance che presidi l’uso degli strumenti, definisca confini operativi, applichi il principio di responsabilizzazione (accountability), costruisca percorsi formativi, ma soprattutto - ed è questo il punto - che coinvolga le parti sociali nella definizione delle regole.
C’è un nuovo soggetto che si affaccia nei luoghi di lavoro. Non ha volto né contratto, non chiede ferie né malattia, ma lavora accanto all’umano, lo assiste, lo osserva, ne registra le parole, ne anticipa i gesti. È l’agent di intelligenza artificiale, un’entità che agisce nei flussi comunicativi, che interpreta dati, traduce, compila report, suggerisce risposte. La sua presenza è silenziosa ma costante, e la sua rilevanza giuridica, finora trascurata, è destinata a crescere rapidamente.
Nella scienza dell’intelligenza artificiale, l’evoluzione è rapidissima. Dalle versioni iniziali, come GPT-3.5, ancora prive di memoria o capacità critico-adattiva, si è rapidamente transitati verso sistemi multimodali GPT-4, capaci di trattare in simultanea testo, immagini e suoni, e più di recente verso modelli “agentici”, che rompono con la logica dei modelli generativi precedenti, perché non si limitano a produrre contenuti su richiesta, ma sviluppano capacità operative autonome, sino a orchestrare - cioè selezionare, coordinare e attivare - flussi di dati, servizi e soggetti, con un fabbisogno di supervisione umana sempre più ridotto. È il caso, ad esempio, dei copilot conversazionali che assistono nella redazione di testi complessi, degli agenti autonomi o chatbot per la gestione delle comunicazioni e della pianificazione, o dei sistemi predittivi impiegati nell’analisi dei dati e nell’automazione dei flussi di lavoro.
Al modello della AI algoritmica che serve ad ottimizzare il potere gestorio e direttivo - nella logica del management automatizzato tipica delle piattaforme digitali - si sta affiancando l’agent AI, un collega di lavoro digitale, capace di eseguire compiti complessi in modo adattivo e autonomo e di apprendere dai contesti e dai pattern di dati.
È dunque maturo il tempo per avviare una riflessione sistematica sull’impiego di questi agent nei contesti produttivi. La questione non è più (solo) quella del controllo, ma della co-produzione: il lavoro umano si svolge dentro un’interazione ibrida, in cui soggettività e macchina collaborano alla prestazione. Con ciò, si ridefiniscono i confini della professionalità, dell’autonomia operativa e, non ultimo, della valutazione della performance.
L’introduzione di strumenti di intelligenza artificiale generativa e, ancor più, di agenti autonomi nei contesti lavorativi riporta immediatamente al centro della riflessione l’art. 4 dello Statuto dei Lavoratori (legge n. 300 del 1970). La norma subordina l’installazione di impianti e strumenti dai quali derivi anche solo la possibilità di un controllo a distanza dell’attività dei lavoratori alla previa stipulazione di un accordo con le RSA o le RSU ovvero, in difetto, all’autorizzazione dell’Ispettorato del lavoro. Si tratta di una disposizione che, lungi dall’essere superata dall’innovazione tecnologica, trova proprio nei sistemi di IA una nuova e più attuale ragion d’essere.
Non deve trarre in inganno la qualificazione di tali strumenti come tecnologie “di supporto” alla prestazione, potenzialmente riconducibili alla categoria degli strumenti di lavoro di cui al secondo comma dell’art. 4, per la cui utilizzazione è sufficiente una informativa individuale. Anche quando l’agente di intelligenza artificiale è formalmente destinato ad assistere il lavoratore - ad es. nella redazione di testi, nella gestione delle relazioni con l’utenza, nell’organizzazione delle attività - esso resta, nella sua struttura tecnica, oggettivamente idoneo a raccogliere, correlare e rielaborare dati sull’attività del singolo. È questa attitudine oggettiva alla sorveglianza, e non la finalità dichiarata dal datore di lavoro, a rendere applicabile la disciplina del controllo a distanza.
In questo quadro, la contrattazione collettiva assume un ruolo che va ben oltre la dimensione autorizzatoria. Essa diviene la sede privilegiata di regolazione sostanziale dei flussi informativi generati dalle tecnologie digitali e dagli agenti intelligenti. È nel contratto collettivo - aziendale o nazionale, nelle realtà multilocalizzate - che devono trovare concreta attuazione i principi di cui all’art. 5 del Regolamento (UE) 2016/679: finalità, minimizzazione, proporzionalità, esattezza, limitazione della conservazione, integrità e riservatezza. Ed è sempre in sede negoziale che deve essere individuata la base giuridica del trattamento dei dati personali dei lavoratori, alla luce degli artt. 6 e 9 del GDPR, nonché garantito il rispetto del divieto di decisioni basate unicamente su trattamenti automatizzati di cui all’art. 22 del medesimo Regolamento.
Sul terreno operativo, questo significa che parti sociali, direzioni HR e strutture IT devono misurarsi con una serie di scelte concrete: stabilire con precisione per quali finalità gli agenti di intelligenza artificiale possono essere impiegati; distinguere rigorosamente tra utilizzo formativo e utilizzo valutativo dei dati generati; definire i tempi di conservazione delle informazioni; individuare i soggetti legittimati all’accesso, escludendo ogni forma di diffusione incontrollata; disciplinare l’eventuale utilizzabilità dei dati a fini disciplinari, nel rispetto dell’art. 7 dello Statuto dei lavoratori; assicurare, in ogni caso, che le decisioni rilevanti per il rapporto di lavoro siano imputabili a un soggetto umano consapevole e responsabile.
Nel contesto dei servizi di assistenza, soprattutto quando esternalizzati, l’impiego di agenti di intelligenza artificiale generativa solleva questioni complesse in materia di protezione dei dati personali. Strumenti capaci di interpretare, indirizzare o sintetizzare le interazioni tra operatori e utenza inevitabilmente raccolgono e trattano dati sul comportamento lavorativo, anche in assenza di finalità disciplinari. Da qui l’applicabilità delle garanzie previste dall’art. 4, comma 1, dello Statuto dei lavoratori e dagli articoli 5, 6, 9, 22 e 35 del Regolamento (UE) 2016/679 (GDPR). Il datore di lavoro, in quanto titolare del trattamento, è chiamato ad adottare misure proporzionate, trasparenti e preventive. Centrale è la Data Protection Impact Assessment (DPIA), che diviene obbligatoria quando, come in questi casi, l’IA realizza un monitoraggio sistematico dei lavoratori. Pur restando formalmente un adempimento individuale, nulla vieta che tale valutazione sia condivisa con le rappresentanze sindacali, secondo una logica già nota in ambito di sicurezza sul lavoro. Questo approccio partecipativo rappresenta un presidio sostanziale di tutela.
Altrettanto rilevante è la regolazione dei rapporti con i fornitori tecnologici, da qualificare come responsabili del trattamento, e dei soggetti terzi coinvolti, che spesso operano come sub-responsabili su infrastrutture cloud o modelli linguistici esterni. Ogni passaggio deve essere formalizzato e tracciato, con particolare attenzione alla catena di trattamento dei dati e alle clausole contrattuali. La disciplina dei tempi di conservazione, inoltre, non può essere lasciata alla discrezionalità aziendale. I dati raccolti per finalità di assistenza “in sessione” devono essere conservati solo per il tempo strettamente necessario e poi cancellati o anonimizzati. Diverso è il caso dei log tecnici, che possono essere conservati per finalità di sicurezza, purché separati dai dataset utilizzati per valutare la performance del lavoratore.
La distinzione tra dati aggregati destinati al miglioramento organizzativo e dati individuali incidenti sulla valutazione professionale è, in questo senso, essenziale. Solo questi ultimi, se trattati in modo diretto o indiretto, richiedono una base giuridica solida, informative trasparenti, e - non da ultimo - un presidio sindacale effettivo.
Con l’adozione del Regolamento (UE) 2024/1689 (AI Act), che entrerà pienamente in vigore pienamente nel 2026, l’uso di agenti di intelligenza artificiale nei contesti lavorativi entra in una nuova fase, non solo tecnologica ma giuridica. Il Regolamento segna un punto di svolta: introduce una disciplina organica della materia, fondata sul principio di trasparenza, con l’obiettivo di proteggere l’autonomia, la dignità e i diritti fondamentali delle persone, in particolare nei contesti più esposti a forme di automazione decisionale.
L’art. 50 dell’ AI Act, in linea con il considerando 27, impone che chiunque interagisca con un sistema di intelligenza artificiale sia messo in condizione di riconoscerlo come tale. Questo obbligo si applica a tutti i fornitori che progettano sistemi destinati all’interazione con persone fisiche e mira a evitare ambiguità o simulazioni nella comunicazione.
Molto più delicata è la questione delle funzionalità di rilevazione del tono emotivo o della sentiment analysis, spesso integrate nei sistemi di AI più avanzati. Qui interviene l’art. 5, lett. f) dell’AI Act, che vieta i sistemi di riconoscimento delle emozioni nei luoghi di lavoro, proprio per il rischio di interferenza profonda con la sfera personale e relazionale dei lavoratori. Ancora più netta è la posizione del Garante italiano, che da tempo esclude l’uso di dati biometrici - tra cui la voce - per finalità di gestione del personale, ritenendoli sproporzionati rispetto agli scopi perseguiti. Più sfumata è invece la questione della qualificazione di molti strumenti oggi diffusi - come copilot, chatbot, sistemi di trascrizione e clustering - quali “sistemi ad alto rischio”, secondo l’Allegato III dell’AI Act. La lettera a) del punto 4 include i sistemi usati per l’assunzione e lo screening dei CV; la lettera b) estende tale classificazione ai sistemi impiegati per assegnare compiti, monitorare prestazioni o valutare comportamenti nel contesto lavorativo.
È quindi ragionevole ritenere che le principali applicazioni dell’IA generativa nel settore dell’assistenza - virtual agents, copiloti intelligenti, strumenti di trascrizione - rientrino, almeno in parte, tra i sistemi ad “alto rischio”. I primi intervengono nella distribuzione delle chiamate e nella generazione automatica dei report, i secondi offrono suggerimenti che influenzano tempi e modalità delle risposte, i terzi sintetizzano e classificano le interazioni, spesso introducendo una componente valutativa non trasparente. In tutti i casi, il rischio di profilazione è concreto e non può essere sottovalutato. In questo scenario, la contrattazione collettiva è chiamata a un ruolo di presidio. Non potrà certo modificare la gerarchia delle fonti o derogare alle disposizioni regolamentari, ma potrà contribuire in modo decisivo alla definizione condivisa del rischio, delle misure preventive e delle procedure di garanzia. È questo il vero terreno di legittimazione dell’intervento sindacale.
L’esperienza recente del rinnovo del CCNL per l’industria chimica e chimico-farmaceutica (15 aprile 2025) lo dimostra. In quel caso, le parti hanno elencato esempi di tecnologie rientranti tra i sistemi ad alto rischio, tra cui anche pratiche vietate come il riconoscimento delle emozioni o la categorizzazione biometrica. Pur con le migliori intenzioni, questa clausola rischia di legittimare - per via contrattuale - ciò che il Regolamento europeo colloca nell’area del rischio inaccettabile. È un esempio di quello che, forse, non si dovrebbe fare: inserire clausole troppo generiche, o che involontariamente attenuano standard giuridici vincolanti.
L’irruzione dell’intelligenza artificiale generativa nei luoghi della conoscenza ha messo in crisi la distinzione tra strumenti personali e processi aziendali. Tra uso individuale e strategia organizzativa si apre oggi una zona grigia, nella quale la tecnologia precede spesso le regole e l’innovazione corre più veloce delle tutele. In questo spazio interstiziale si celano rischi concreti: dispersione del patrimonio informativo, violazioni di segreti commerciali, vulnerabilità giuridica dei contenuti, opacità delle fonti.
Ma la risposta non può essere il divieto generalizzato, né l’inerzia. Serve una governance che presidi l’uso degli strumenti, definisca confini operativi, applichi il principio di responsabilizzazione (accountability), costruisca percorsi formativi, ma soprattutto - ed è questo il punto - che coinvolga le parti sociali nella definizione delle regole. La contrattazione collettiva non è chiamata a inseguire l’algoritmo, ma a costruirne l’ambiente di legittimazione: un quadro di compatibilità tra innovazione e diritti, tra efficienza e sicurezza, tra produttività e dignità. Nel tempo della generativa, ogni flusso informativo può trasformarsi in valore, ma anche in esposizione. È in questo campo di tensione che il contratto collettivo può tornare a essere strumento di civiltà giuridica: non solo per arginare, ma per generare - garanzie, senso, futuro. Perché, anche davanti all’agente artificiale, il lavoro continua a essere, prima di tutto, una relazione tra persone.
Copyright © - Riproduzione riservata
Per accedere a tutti i contenuti senza limiti abbonati a IPSOA Quotidiano Premium 1 anno € 118,90 (€ 9,90 al mese) Acquista Primi 3 mesi € 19,90 poi € 35,90 ogni 3 mesi Acquista Sei già abbonato ? Accedi