Vai al contenuto Premi il tasto INVIO
Personalizza preferenze
PHPSESSID Usato da: www.studiomarchetti.it Durata: 1 mese
È un cookie nativo di PHP e consente al sito di memorizzare dati sullo stato della sessione.
privacy_consent Usato da: www.studiomarchetti.it Durata: 1 anno 1 mese 4 giorni
È un cookie tecnico utilizzato per memorizzare le preferenze sulla gestione dei cookie.
News area Lavoro

La legge sull’IA nel mondo del lavoro? Una cornice ancora incompleta da riempire di contenuti

L’intelligenza artificiale è ormai entrata stabilmente nei contesti lavorativi di grandi e piccole imprese, ridefinendo in profondità dinamiche organizzative e processi decisionali e rivoluzionando anche gli stessi strumenti di lavoro. La legge n. 132/2025 è un primo passo verso una regolazione nazionale dell’IA nel lavoro, ma al momento è più una dichiarazione di intenti che un impianto operativo. Pertanto, la sua concreta efficacia dipenderà dai futuri decreti attuativi, dai meccanismi di enforcement e, non da ultimo, dalla capacità degli attori coinvolti - pubblici e privati - di tradurre i principi in prassi virtuose. I principi etici si stanno delineando nel dibattito, ma mancano presìdi giuridici che restituiscano effettività alla regolazione. In questo scenario, il compito di dare corpo e significato alla legge spetterà, come spesso accade, all’interprete: giuslavoristi, sindacati, imprese, giudici saranno chiamati a riempire di contenuti una cornice ancora incompleta. Senza questo sforzo, il rischio è quello di un impianto normativo fragile, che si sovrappone a regole esistenti senza integrarle realmente, moltiplicando le incertezze applicative.

L’intelligenza artificiale è ormai entrata stabilmente nei contesti lavorativi di grandi e piccole imprese ridefinendo in profondità dinamiche organizzative e processi decisionali e rivoluzionando anche gli stessi strumenti di lavoro.

Già a partire dalle prime sperimentazioni, il diritto del lavoro ha mostrato una certa capacità adattiva, rimodulando tutele già esistenti per affrontare le nuove sfide. Le norme sui controlli a distanza, ad esempio, continuano a rappresentare un argine alla sorveglianza indiscriminata, richiedendo un utilizzo proporzionato delle tecnologie digitali, soggetto a confronto sindacale. Il diritto antidiscriminatorio, inoltre, si è rivelato utile per contrastare gli effetti lesivi derivanti da automatismi algoritmici, a prescindere dall’intento soggettivo del datore di lavoro. Vi sono però anche questioni emerse che restano insolute; un buon esempio ne è l’uso di IA agentica come strumento di lavoro: come regolare nei contesti lavorativi l’impiego di IA che diviene un collega virtuale?

In tale contesto si inserisce la legge n. 132/2025, primo tentativo di costruire un assetto regolativo nazionale sull’IA, in attuazione - benché non ce ne fosse bisogno - del Regolamento (UE) 2024/1689 (AI Act). L’obiettivo dichiarato della norma è quello di coniugare la cornice europea con le specificità italiane, offrendo una declinazione settoriale dell’uso dell’IA, in particolare nel mondo del lavoro.

La struttura della legge è tuttavia ancora largamente programmatica.

La sua concreta efficacia dipenderà dai futuri decreti attuativi, dai meccanismi di enforcement e, non da ultimo, dalla capacità degli attori coinvolti - pubblici e privati - di tradurre i principi in prassi virtuose. Senza questo sforzo, il rischio è quello di un impianto normativo fragile, che si sovrappone a regole esistenti senza integrarle realmente, moltiplicando le incertezze applicative.

L’articolo 11 è il fulcro della legge n. 132/2025 per quanto riguarda il lavoro. In soli tre commi, tenta di affrontare il rapporto tra IA e gestione del personale. Si tratta di una norma ambiziosa nei propositi, ma poco incisiva nella formulazione.

Di seguito si analizzeranno i principali snodi critici.

Il primo comma dell’art. 11 legge n. 132/2025 elenca finalità generali cui dovrebbe tendere l’uso dell’IA in ambito lavorativo: migliorare le condizioni di lavoro, tutelare l’integrità psico-fisica dei lavoratori, aumentare la qualità delle prestazioni e della produttività. Obiettivi condivisibili, ma privi di vincolatività. Non si comprende se il legislatore voglia rendere illegittimo ogni uso dell’IA che non persegua almeno uno di tali scopi, imponendo una sorta di funzionalizzazione del potere datoriale oppure se si tratti solo di una generalissima dichiarazione d’intenti. La seconda opzione appare preferibile, non solo perché la prima risulterebbe di impossibile accertamento, potendo essere l’IA utilizzata anche per scopi molto differenti tra loro e compresenti.

Inoltre, come è stato subito notato in dottrina (S. Ciucciovino, “AI, la sfida italiana: la legge 132/2025 ridisegna il quadro nazionale accanto all’AI Act europeo”, AI4business.it) la norma sembra trascurare del tutto l’impiego dell’IA nelle fasi di selezione e reclutamento, ambito in cui gli algoritmi sono già utilizzati per lo screening dei CV e la valutazione predittiva dei candidati. Una lacuna significativa, se si considera il potenziale impatto discriminatorio di tali strumenti.

Il secondo comma dell’art. 11 legge n. 132/2025 richiama l’obbligo per il datore di lavoro (o il committente) di informare il lavoratore dell’uso dell’IA, secondo quanto previsto dal decreto Trasparenza (d.lgs. n. 104/2022). Tuttavia, il rinvio al solo art. 1-bis di tale decreto è limitativo: esso copre solo i sistemi interamente automatizzati, escludendo quelli con supervisione umana, che sono la maggioranza. In secondo luogo, la previsione ignora del tutto la dimensione collettiva dell’informazione, trascurando il ruolo delle rappresentanze sindacali dei lavoratori - che ai sensi dell’art. 1-bis sono invece destinatarie delle informazioni sulla logica del sistema - e delle organizzazioni di categoria che il legislatore europeo ha, invece, espressamente valorizzato nell’art. 27 dell’AI Act.

La generica enunciazione del principio di "trasparenza" è poi priva di concretezza: non vengono indicati i requisiti minimi di intelligibilità, accessibilità o spiegabilità delle logiche algoritmiche. Senza tali specificazioni, il rischio è che l’informazione si riduca a un adempimento formale, poco utile per il lavoratore e ancora meno per la contrattazione collettiva.

Il terzo comma dell’art. 11 legge n. 132/2025 affronta, infine, il tema delle discriminazioni. Dopo anni di dibattito accademico e giurisprudenziale sull’equity algoritmica, il legislatore si limita a ribadire il divieto di discriminazione, senza prevedere presìdi specifici per i sistemi automatizzati. Nessuna menzione, ad esempio, alla necessità di audit periodici, alla verifica della qualità dei dati di addestramento o alla tracciabilità delle decisioni automatizzate. Un’occasione mancata, che lascia aperte questioni cruciali.

In definitiva l’art. 11 della legge n. 132/2025 restituisce l’idea di un legislatore né particolarmente consapevole del sistema giuridico intessuto dalle oramai molte norme che regolano l’IA sui luoghi di lavoro, né particolarmente attento alle dinamiche concrete di questa tecnologia.

L’articolo 12 della legge n. 132/2025 poi istituisce, presso il Ministero del lavoro, un "Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro". Le sue funzioni: definire strategie, monitorare l’impatto dell’IA, individuare i settori più interessati e promuovere la formazione di lavoratori e imprese. Si tratta di un’iniziativa potenzialmente importante, che potrebbe favorire un approccio evidence-based alla regolazione dell’IA nel lavoro. Tuttavia, anche in questo caso, le scelte concrete appaiono deboli; l’Osservatorio opererà "nell’ambito delle risorse disponibili" e i suoi componenti non percepiranno alcun compenso o rimborso. L’impressione è che si tratti più di un atto simbolico che di un reale investimento in capacità istituzionale. Senza risorse dedicate, senza un chiaro mandato operativo e senza l’integrazione con altri soggetti pubblici (INL, Garante Privacy, INAIL, Università), l’Osservatorio rischia di rimanere sulla carta. Servirebbe, invece, un centro di competenza capace di offrire linee guida, strumenti di autovalutazione e supporto operativo alle aziende, specie alle PMI.

Infine, l’art. 13 della legge n. 132/2025 si occupa dell’utilizzo dell’IA nelle professioni intellettuali.

Il primo comma sancisce un principio chiaro: ossia che l’IA può essere usata solo a supporto dell’attività professionale, ma non può sostituire il lavoro umano, che deve rimanere “prevalente”. Un’affermazione importante, specie in un’epoca in cui molti clienti si rivolgono a strumenti generativi per ottenere consulenze, pareri e documenti senza possedere la capacità critica necessaria per rielaborarne gli output.

Tuttavia, la disposizione, pur enunciando una regola apparentemente netta, introduce una clausola elastica che apre rilevanti problemi interpretativi: come si misura, infatti, la “prevalenza” dell’apporto umano? Non sembra plausibile una lettura quantitativa (tempo impiegato o porzione materiale dell’elaborato), ma neppure una esclusivamente qualitativa, pena la sostanziale irrilevanza del limite. La norma sembra piuttosto rinviare ad una nozione funzionale della prestazione, centrata sull’apporto valutativo-decisionale e sull’assunzione di responsabilità; e tuttavia, proprio nei contesti in cui i sistemi generativi producono argomentazioni strutturate, diventa difficile distinguere tra ausilio cognitivo e sostituzione dell’attività intellettuale. Ne deriva il rischio che una revisione meramente formale dell’output automatizzato venga considerata controllo umano sufficiente, svuotando la ratio della disposizione.

A ciò si aggiunge un ulteriore interrogativo che tocca il cuore dell’effettività della disposizione. Chi è chiamato a verificare il rispetto del principio e con quali strumenti: l’ordine professionale, il giudice, o il mercato attraverso la responsabilità contrattuale?

Il secondo comma introduce un obbligo di trasparenza: il professionista deve informare il cliente sull’uso dell’IA, indicando quali sistemi vengono impiegati e con quali finalità, utilizzando un linguaggio chiaro ed esaustivo.

Anche qui, però, manca una disciplina attuativa che specifichi tempi, contenuti e sanzioni in caso di omissione. Si pone allora il problema del contenuto minimo dell’informativa: se essa debba limitarsi alla mera segnalazione dell’impiego dello strumento oppure comprendere anche il ruolo concretamente svolto nel processo decisionale, i margini di errore e i limiti epistemici del sistema. Una informativa generica rischierebbe di ridursi a formula di stile, mentre una eccessivamente tecnica diverrebbe incomprensibile, trasformando la trasparenza in adempimento burocratico. Il riferimento al rapporto fiduciario tra professionista e cliente è evocativo, ma non sufficiente. L’uso dell’IA in ambiti sensibili come la medicina, l’avvocatura o la consulenza del lavoro richiede strumenti di accountability più robusti, incidendo indirettamente anche sul regime della responsabilità professionale. Se la prestazione deve restare prevalentemente umana, la responsabilità permane in capo al professionista; ma, paradossalmente, l’aggiornamento tecnico potrebbe imporre proprio il ricorso all’IA quale parametro di diligenza qualificata. L’art. 13 finisce così per spostare il baricentro dalla correttezza del risultato alla correttezza del processo decisionale, trasformando l’obbligo professionale in un obbligo di governo critico dell’algoritmo più che di produzione autonoma del contenuto intellettuale.

La legge n. 132/2025 è un primo passo verso una regolazione nazionale dell’IA nel lavoro, ma al momento è più una dichiarazione di intenti che un impianto operativo. I principi etici si stanno delineando nel dibattito, ma mancano presìdi giuridici che restituiscano effettività alla regolazione. Le strutture previste (come l’Osservatorio) rischiano di rimanere vuote senza investimenti adeguati.

In questo scenario, il compito di dare corpo e significato alla legge spetterà, come spesso accade, all’interprete: giuslavoristi, consulenti, sindacati, imprese, giudici saranno chiamati a riempire di contenuti una cornice ancora incompleta.

Copyright © - Riproduzione riservata

Per accedere a tutti i contenuti senza limiti abbonati a IPSOA Quotidiano Premium 1 anno € 118,90 (€ 9,90 al mese) Acquista Primi 3 mesi € 19,90 poi € 35,90 ogni 3 mesi Acquista Sei già abbonato ? Accedi

Fonte: https://www.ipsoa.it/documents/quotidiano/2026/02/21/legge-ia-lavoro-cornice-incompleta-riempire-contenuti

altre news

News area Lavoro

Enti di formazione professionale: domanda di contributo entro il 15 febbraio

Leggi di piu
News dello studio

FINANZIARIA 2023. La definizione agevolata degli "avvisi bonari"

Leggi di piu
News area Impresa

Gas Naturale: stabiliti criteri, modalità e requisiti per l'iscrizione, la permanenza e l'esclusione nell’”elenco venditori”

Leggi di piu
News area Impresa

Fiduciary duty dei director negli USA: l’IA come membro del board?

Leggi di piu
News area Impresa

Whistleblowing: come conformarsi alle norme UE

Leggi di piu
News area Lavoro

Liquidazione mensile del TFR in busta paga: quali conseguenze per il datore di lavoro?

Leggi di piu
News area Impresa

Bonifici istantanei in euro: le particolarità per le amministrazioni pubbliche

Leggi di piu
News area Lavoro

Prestazione Universale: chiarimenti su domestico assunto da chi non è beneficiario

Leggi di piu
News area Lavoro

Under 35 e bonus Sud a confronto: regole di convenienza per imprese e professionisti

Leggi di piu

È necessario aggiornare il browser

Il tuo browser non è supportato, esegui l'aggiornamento.
Di seguito i link ai browser supportati

Se persistono delle difficoltà, contatta l'Amministratore di questo sito.
digital agency greenbubble