• Home
  • News
  • AI nei luoghi di lavoro tra tutele, rischi e ruolo della contrattazione collettiva

AI nei luoghi di lavoro tra tutele, rischi e ruolo della contrattazione collettiva

L’introduzione dell’intelligenza artificiale nei luoghi di lavoro sta trasformando i tradizionali equilibri del diritto del lavoro, imponendo nuove sfide in termini di tutele e governance. Mentre l’AI Act europeo definisce requisiti di sicurezza dei sistemi ad alto rischio, la normativa nazionale - dalla legge n. 132/2025 ai decreti attuativi, come il D.M. n. 180/2025 - stabilisce che lo sviluppo e l'applicazione dell'AI deve sempre garantire la supervisione e il potere decisionale dell'uomo. Restano, Tuttavia, delle criticità legate al controllo a distanza, alla reale efficacia della supervisione umana e ai rischi di sorveglianza algoritmica. Sarà decisivo il ruolo della contrattazione collettiva nel costruire garanzie concrete per assicurare che l'efficienza tecnologica non porti a una diminuzione della dignità e dei diritti dei lavoratori. E’ uno dei temi del 15° Forum One LAVORO, organizzato da Wolters Kluwer in collaborazione con Dottrina Per il Lavoro, che si svolge a Modena il 25 febbraio 2026.

L'introduzione dell'intelligenza artificiale nei contesti lavorativi sta mettendo in discussione le fondamenta del diritto del lavoro tradizionale. L'IA non è più un semplice strumento di supporto, ma un fattore attivo che interviene nei processi decisionali, organizzativi e di gestione, con un impatto diretto sulla vita professionale e sulla dignità dei lavoratori.

In risposta a questa trasformazione, è stato costruito un quadro normativo a più livelli, europeo e nazionale, che tuttavia presenta tensioni e possibili vuoti di tutela. La questione centrale è se questo apparato normativo sia sufficiente a governare il fenomeno o se, al contrario, rischi di lasciare i lavoratori esposti a nuove forme di controllo opaco e pervasivo.

Il Forum “Lavoro e Sicurezza: 25 Anni di Riforme e le Novità 2026 per Famiglia e Impresa” è sponsorizzato da One LAVORO Expert AI, evoluzione di One LAVORO, è l’assistente ideale per la tua attività professionale, che applica l'intelligenza artificiale generativa al patrimonio di contenuti d’autore esclusivi Wolters Kluwer. Risposte complete, certificate, sempre aggiornate e corredate dai link alle fonti ufficiali e d’autore, consultabili in One LAVORO, per semplificare l’attività quotidiana e aumentare l’efficienza del tuo lavoro. Approfondisci i temi del Forum con One LAVORO Expert AI clicca qui per attivare una prova

Il quadro europeo: l'AI Act e la sua logica di mercato

Il perno della strategia europea è il Regolamento (UE) 2024/1689, noto come AI Act. Questo regolamento adotta un approccio basato sul rischio, classificando i sistemi di IA a seconda del potenziale danno che possono causare. I sistemi impiegati nell'ambito dell'occupazione e della gestione dei lavoratori sono considerati "ad alto rischio", il che impone a fornitori e utilizzatori obblighi stringenti come la qualità dei dati, la trasparenza e una supervisione umana efficace.

Tuttavia, la natura stessa del Regolamento, fondato sulle norme del mercato interno, ne ha definito la finalità principale: garantire la libera circolazione di tecnologie "sicure" e affidabili all'interno dell'Unione. Si tratta, quindi, di una normativa di prodotto, non di una disciplina del suo impatto sul rapporto di lavoro. Ma c’è differenza tra regolamentazione tecnica di un software e protezione concreta del lavoratore che lo utilizza! L'AI Act si concentra sulla conformità del sistema prima della sua immissione sul mercato, ma, appunto, non disciplina direttamente le conseguenze del suo utilizzo quotidiano, lasciando un'area che deve essere regolata dal diritto nazionale.

La risposta nazionale: la legge n. 132/2025 e i decreti attuativi

L'Italia ha risposto a questa esigenza con la legge 23 settembre 2025, n. 132, che detta disposizioni in materia di intelligenza artificiale. La legge adotta un approccio "antropocentrico", stabilendo che lo sviluppo e l'applicazione dell'IA devono sempre garantire la supervisione e il potere decisionale dell'uomo.

L'art. 11 della legge è il fulcro della disciplina giuslavoristica. Esso stabilisce che l'IA deve essere impiegata per "migliorare le condizioni di lavoro, tutelare l'integrità psicofisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività". La norma vieta l'uso di sistemi che contrastino la dignità umana o la riservatezza e impone al datore di lavoro specifici obblighi informativi, richiamando l'art. 1-bis del D.Lgs. n. 152/1997.

Per rendere operativi questi principi, sono stati emanati decreti attuativi. Tra questi, il D.M. n. 180 del 17 dicembre 2025 adotta le "Linee guida per l'implementazione dell'Intelligenza Artificiale nel mondo del lavoro". Questo provvedimento, nato da una consultazione pubblica, ha lo scopo di promuovere un'adozione consapevole dell'IA, tutelando i diritti dei lavoratori e garantendo la conformità alle norme. Le linee guida affrontano aspetti pratici della gestione dell'IA, promuovendo la documentazione dei processi algoritmici, la tracciabilità, la supervisione umana e la prevenzione dei bias.

Istituti giuridici sotto pressione

L'impiego dell'IA mette a dura prova alcuni pilastri del diritto del lavoro esistente, evidenziandone i limiti di fronte alle nuove tecnologie.

1) L'Art. 4 dello Statuto dei Lavoratori: Questa norma limita il controllo a distanza, ma esclude dalla sua applicazione gli "strumenti utilizzati dal lavoratore per rendere la prestazione lavorativa", come chiarito anche dalla giurisprudenza di legittimità. Molti sistemi di IA, come software che ottimizzano i percorsi o analizzano la produttività, possono rientrare in questa categoria. Ciò rischia di trasformare l'eccezione in un "cavallo di Troia", legittimando forme di monitoraggio continuo senza il necessario accordo sindacale e svuotando di fatto la funzione di garanzia della norma.

2) Il GDPR e la Supervisione Umana: L'art. 22 del GDPR sancisce il diritto a non essere sottoposti a decisioni basate unicamente su un trattamento automatizzato. Per conformarsi, le aziende spesso adottano un approccio human-in-the-loop, prevedendo un intervento umano. Tuttavia, quando un supervisore deve validare centinaia di decisioni elaborate da un algoritmo complesso, l'intervento rischia -comprensibilmente- di diventare una mera formalità, una "finzione giuridica" incapace di esercitare un controllo reale ed efficace.

Governance e ruolo della contrattazione collettiva

Per governare il fenomeno, la Legge n. 132/2025 ha istituito, con l'art. 12, l'Osservatorio sull'adozione di sistemi di intelligenza artificiale nel mondo del lavoro, i cui compiti sono stati dettagliati dal D.M. n. 173 del 15 dicembre 2025. Questo organismo ha il compito di monitorare l'impatto dell'IA sul mercato del lavoro, prevedere le competenze emergenti e definire strategie per un'integrazione etica e sostenibile.

In questo contesto, la contrattazione collettiva si sta dimostrando un laboratorio fondamentale per creare nuove tutele. Diversi contratti collettivi nazionali hanno già iniziato a regolamentare il fenomeno. Ad esempio, il CCNL per l'industria chimica del 15 aprile 2025 ha introdotto "Linee guida settoriali" che promuovono la "supervisione e coinvolgimento umano nelle decisioni". Allo stesso modo, il CCNL per le cooperative sociali del 25 novembre 2025 sottolinea la necessità di "integrare l'IA in modo graduale, mantenendo le risorse umane al centro dell'organizzazione". Questa attività dimostra che la regolamentazione "dal basso" è cruciale per adattare i principi generali alle specifiche realtà produttive.

Conclusioni

La regolamentazione dell'IA nel lavoro si presenta come un sistema complesso. L'AI Act europeo fornisce una cornice per la sicurezza del prodotto, mentre la legislazione nazionale, come la Legge n. 132/2025 e i suoi decreti attuativi (tra cui il D.M. n. 180/2025), tenta di indirizzare le implicazioni sul lavoro con principi antropocentrici e linee guida operative. Tuttavia, l'analisi pratica mostra che questa struttura si basa su concetti, come la supervisione umana, che possono rivelarsi deboli, e su norme, come l'art. 4 dello Statuto dei Lavoratori, che l'IA rischia di aggirare.

Il rischio è che, dietro la facciata della regolamentazione, si crei uno spazio in cui la gestione algoritmica possa produrre i suoi effetti più problematici, come discriminazione e sorveglianza opaca.

Per evitare ciò, è necessario un approccio critico che valorizzi la contrattazione collettiva, anche di secondo livello in quanto più “prossima” ai singoli contesti aziendali, come strumento di regolazione sostanziale, assicurando che l'efficienza tecnologica non porti a una diminuzione della dignità e dei diritti dei lavoratori.

La XV edizione del Forum LAVORO è offerta da One LAVORO Expert AI, la soluzione Wolters Kluwer, che applica le più innovative funzionalità di intelligenza artificiale generativa al patrimonio esclusivo di contenuti d’autore Wolters Kluwer: ricerca in linguaggio naturale; risposte precise ai quesiti e bozze di parere verificabili grazie ai riferimenti alle fonti; analisi dei documenti per ottenere confronti, bozze di circolari e report nel rispetto della privacy. Vuoi approfondire i temi del Forum ed essere aggiornato su tutte novità normative in ambito lavoro? Clicca qui per attivare una prova.

Copyright © - Riproduzione riservata

Per accedere a tutti i contenuti senza limiti abbonati a IPSOA Quotidiano Premium 1 anno € 118,90 (€ 9,90 al mese) Acquista Primi 3 mesi € 19,90 poi € 35,90 ogni 3 mesi Acquista Sei già abbonato ? Accedi

Fonte: https://www.ipsoa.it/documents/quotidiano/2026/02/09/luoghi-lavoro-tutele-rischi-ruolo-contrattazione-collettiva

Iscriviti alla Newsletter




È necessario aggiornare il browser

Il tuo browser non è supportato, esegui l'aggiornamento.

Di seguito i link ai browser supportati

Se persistono delle difficoltà, contatta l'Amministratore di questo sito.

digital agency greenbubble