• Home
  • News
  • L’INPS lancia l’IA. Ma il vero nodo resta la trasparenza

L’INPS lancia l’IA. Ma il vero nodo resta la trasparenza

A seguito della direttiva sull’utilizzo di nuove tecnologie che si avvalgono dell’intelligenza artificiale, l’INPS compie un passo decisivo verso l’automatizzazione dei processi interni. Con una strategia che si fonda su un uso esteso e articolato dell’IA: dall’automazione delle attività più ripetitive e standardizzate all’analisi predittiva e all’interazione con i cittadini. Il tutto orchestrato da un ambiente di supervisione che consente di monitorare, verificare e correggere in tempo reale l’operato degli algoritmi. Il banco di prova sarà la capacità della tecnologia di inserirsi nella trama costituzionale dello Stato di diritto e la trasparenza, intesa come capacità dell’IA pubblica di restare comprensibile, motivata, giusta. E allora la domanda vera non è se introdurre l’intelligenza artificiale nella PA. Ma come e per chi. E, soprattutto, sotto il controllo di chi. L’algoritmo pubblico può essere uno strumento di emancipazione, ma solo se rimane, sempre, una casa di vetro.

Con il messaggio n. 1384 dell’8 aprile 2024, l’INPS ha compiuto un passo decisivo verso la automatizzazione dei processi interni. Non si tratta di un documento

“Linee guida sull’implementazione di sistemi di Intelligenza Artificiale in INPS” Come gli altri. Si tratta, piuttosto, di un atto con ambizione trasformativa: l’intelligenza artificiale non come ausilio tecnico, ma come paradigma di riorganizzazione dell’azione pubblica. L’Istituto si candida a essere il primo grande attore dello Stato a incorporare l’IA nei propri processi in modo sistemico, intenzionale, pianificato.

Dietro il gergo specialistico - AI@SCALE, cockpit algoritmico, predictive analytics - si coglie l’annuncio di un mutamento di ordine culturale: non più la digitalizzazione come semplice trasposizione di procedimenti esistenti, ma la costruzione di nuovi processi centrati sul dato, sul modello predittivo, sull’automazione dell’interpretazione.

Si afferma l’idea di una pubblica amministrazione non più solo reattiva e regolativa, ma previsionale, quasi anticipatrice. Una PA che decide prima ancora che l’istanza venga formalizzata, che ordina le priorità sulla base di punteggi algoritmici, che seleziona i “casi rilevanti” con l’ausilio dell’intelligenza artificiale.

La strategia dell’INPS si fonda, infatti, su un uso esteso e articolato dell’IA, già operativo in molteplici ambiti. Si punta sull’automazione delle attività più ripetitive e standardizzate - come la gestione di estratti contributivi, certificazioni, lettere di sollecito - attraverso protocollazione automatica, classificazione documentale e smistamento intelligente delle comunicazioni. Ma il cuore dell’innovazione sta nell’analisi predittiva: modelli capaci di individuare anomalie nei versamenti contributivi, stimare il rischio di omissione, anticipare eventi sensibili come il pensionamento o la disoccupazione. L’algoritmo, quindi, non si limita ad archiviare: interpreta, prevede, propone.

Anche le decisioni più complesse vengono supportate da strumenti algoritmici, con la costruzione di cruscotti digitali che suggeriscono priorità, indicano livelli di affidabilità, stratificano le pratiche in base a modelli di rischio. L’interazione con l’utenza, poi, è demandata a chatbot evoluti e interfacce linguistiche intelligenti, in grado di comprendere e indirizzare le richieste dei cittadini. Il tutto orchestrato da un cockpit interno, un ambiente di supervisione che consente di monitorare, verificare e correggere in tempo reale l’operato degli algoritmi.

Si afferma l’idea di una pubblica amministrazione non più solo reattiva e regolativa, ma previsionale, quasi anticipatrice. Una PA che decide prima ancora che l’istanza venga formalizzata, che ordina le priorità sulla base di punteggi algoritmici, che seleziona i “casi rilevanti” con l’ausilio dell’intelligenza artificiale.

Questo passaggio richiede, però, uno sforzo di pensiero.

Perché se è vero che l’innovazione tecnologica rappresenta una chance per superare inefficienze e rigidità, è altrettanto vero che il potere amministrativo, una volta trasferito all’algoritmo, può diventare opaco, impersonale, deresponsabilizzato.

Il nodo non è solo giuridico, ma anche simbolico: chi decide? E secondo quale logica? La forma dell’atto amministrativo, nella sua classicità, porta in sé la firma, la motivazione, la tracciabilità. L’algoritmo, per sua natura, rischia di spezzare questo “patto di riconoscibilità”. L’atto si smaterializza. La decisione si distribuisce tra progettisti, dati e modelli. Ma il cittadino continua a subire effetti reali, spesso profondi, sulla propria vita.

È una rivoluzione silenziosa, ma profonda. L’algoritmo smette di essere strumento e diventa organo. E proprio qui si pone il nodo politico e giuridico: chi decide davvero? E chi sorveglia il sorvegliante?

Il nodo non è solo tecnico, ma democratico. Perché l’amministrazione, una volta delegata al codice, rischia di perdere il volto. E quando l’atto perde la firma, la motivazione e la responsabilità, non si assiste a un progresso neutro, ma a un mutamento nel fondamento stesso dell’esercizio del potere pubblico che è costituzionalmente condizionato dai principi di legalità e buon andamento (art. 97 Cost.).

Il quadro regolativo europeo è chiaro. L’AI Act - regolamento UE n. 2024/1689 - classifica i sistemi usati dalle pubbliche amministrazioni per erogare servizi essenziali come “ad alto rischio”. L’accesso alla previdenza, all’assistenza, alla sanità non può dipendere da modelli che non si possono spiegare. Il cittadino ha diritto a capire. Ha diritto di sapere perché una prestazione è stato erogata, negata o sospesa. L’algoritmo, se vuole esercitare potere, deve accettare la regola della trasparenza.

La trasparenza algoritmica non è un’appendice. È il cuore del problema.

Un’amministrazione che non spiega come decide, o che delega la decisione a una macchina senza garanzie comprensibili, rompe il patto fiduciario che sorregge il diritto amministrativo moderno.

L’accesso a prestazioni sociali, l’erogazione di servizi essenziali, la gestione previdenziale sono tutte attività che incidono su diritti fondamentali. E come tali esigono trasparenza, supervisione, documentazione, revisione umana.

Mostra di saperlo bene il legislatore europeo, che impone alle PA una tracciabilità delle decisioni, un controllo continuo degli output, una descrizione esplicita dei modelli utilizzati.

Lo dovrebbe ben comprendere anche il legislatore nazionale, e con lui ogni ente pubblico: l’algoritmo non è mai neutro. Ogni scelta automatizzata riflette premesse culturali, economiche, persino ideologiche.

Né può dirsi secondario il tema dei dati. I dataset pubblici non sono il mondo, ma una sua rappresentazione storica. E, come ogni rappresentazione, sono selettivi, incompleti, talora distorti. Alimentare un algoritmo con dati che riflettono diseguaglianze strutturali significa - spesso inconsapevolmente - stabilizzarle, reiterarle, trasformarle in regola.

L’INPS ha già sperimentato le conseguenze di un uso non pienamente consapevole dei dati. Le sanzioni del Garante Privacy per la pubblicazione indebita di dati sensibili nei concorsi o per il trattamento scorretto di informazioni legate ai bonus Covid ricordano che la legalità amministrativa non si sospende nemmeno di fronte all’urgenza. Anzi: quando si passa alla decisione automatizzata, la responsabilità si moltiplica. Perché il rischio di errore non è episodico, ma sistemico.

In questo contesto, la trasparenza non è solo un principio astratto. È una condizione concreta per la cittadinanza attiva. Un algoritmo il cui funzionamento non sia intellegibile equivale, per il cittadino, a una decisione arbitraria. Per questo, l’informazione sulla logica decisionale, sull’origine dei dati, sulle soglie e sui criteri di ponderazione non è una cortesia amministrativa: è un diritto.

Ma c’è di più. In una democrazia, l’amministrazione pubblica si pone in un fondamentale rapporto di relazione con i cittadini. E l’intelligenza artificiale, se vuole diventare parte di questa relazione, deve accettarne i vincoli: spiegabilità, contestabilità, umanità. Un algoritmo, per quanto efficiente, non può essere legittimo se non è anche comprensibile.

Serve, quindi, una nuova cultura dell’amministrare. Una cultura che riconosca nel digitale non un fine, ma uno strumento. Che riaffermi il ruolo della motivazione, del contraddittorio, della responsabilità personale. Che sappia costruire - attorno e dentro l’algoritmo - una grammatica pubblica fatta di diritto, equità, attenzione alla persona.

In questo senso, la proposta dell’INPS può essere un laboratorio. Ma solo se sarà accompagnata da vigilanza critica, partecipazione reale, apertura al confronto. L’amministrazione algoritmica non può diventare una terra di nessuno. Deve restare luogo di regole, di diritti, di garanzie.

L’algoritmo pubblico, se ben progettato, può essere occasione di giustizia. Ma se lasciato all’autonomia dei tecnici o alla pressione dell’efficienza, rischia di diventare un potere cieco.

E il potere pubblico, quando è cieco, smette di essere legittimo.

È questo il vero banco di prova. Non l’adozione della tecnologia in sé, ma la sua capacità di inserirsi nella trama costituzionale dello Stato di diritto.

Perché l’innovazione amministrativa non è neutrale: o è giusta, o è ingiusta. Il punto non è la velocità o la riduzione dei carichi di lavoro dell’ente pubblico. Sarà la trasparenza, la capacità dell’IA pubblica di restare comprensibile, motivata, giusta. Perché solo ciò che si può discutere, si può accettare. E ciò che non si può spiegare, in democrazia, non si può nemmeno decidere.

E allora la domanda vera non è se introdurre l’intelligenza artificiale nella PA. Ma come e per chi. E, soprattutto, sotto il controllo di chi.

L’algoritmo pubblico può essere uno strumento di emancipazione, ma solo se rimane, sempre, una casa di vetro.

Copyright © - Riproduzione riservata

Per accedere a tutti i contenuti senza limiti abbonati a IPSOA Quotidiano Premium 1 anno € 118,90 (€ 9,90 al mese) Acquista Primi 3 mesi € 19,90 poi € 35,90 ogni 3 mesi Acquista Sei già abbonato ? Accedi

Fonte: https://www.ipsoa.it/documents/quotidiano/2025/06/28/inps-lancia-ia-vero-nodo-resta-trasparenza

Iscriviti alla Newsletter




È necessario aggiornare il browser

Il tuo browser non è supportato, esegui l'aggiornamento.

Di seguito i link ai browser supportati

Se persistono delle difficoltà, contatta l'Amministratore di questo sito.

digital agency greenbubble