C'è un momento preciso in cui ogni consulente del lavoro ha capito che qualcosa stava cambiando davvero. Forse era la prima volta che un cliente gli ha chiesto: “Ma questo software che usiamo per selezionare i candidati, rientra in qualcosa?”. Forse era leggendo una circolare e notando che ChatGPT ne aveva già fatto una sintesi — non perfetta, ma utilizzabile. Forse era semplicemente la sensazione, crescente, che lo strumento con cui stavano lavorando stava diventando qualcosa di più di un motore di ricerca evoluto.
L’intelligenza artificiale è già dentro la consulenza del lavoro. La domanda non è più “arriverà?”, ma “come la gestiamo?”. E questa gestione ha due dimensioni che vale la pena tenere separate: la prima è giuridica — cosa dice il nuovo quadro normativo europeo riguardo ai sistemi di IA nel settore lavorativo; la seconda è pratica — come usare questi strumenti in modo efficace, responsabile e senza ingenuità.
L'AI Act e il rapporto di lavoro
Il quadro normativo in pillole
Il Regolamento (UE) 2024/1689 — noto come AI Act — è entrato in vigore il 1° agosto 2024. Il regolamento riguarda chiunque utilizzi sistemi di intelligenza artificiale in determinati contesti ad alto impatto e il rapporto di lavoro è, per esplicita scelta del legislatore europeo, uno di quei contesti, in considerazione dei possibili rischi che l’utilizzo di tale tecnologia potrebbe porre sui diritti dei lavoratori.
Il meccanismo centrale del regolamento è la classificazione per livelli di rischio. La stragrande maggioranza dei sistemi di IA non solleva preoccupazioni particolari, ma per una categoria specifica di applicazioni, considerate ad alto rischio, sono previsti obblighi precisi, stringenti e verificabili.
L’occupazione e la gestione dei lavoratori è elencata nell’Allegato III del regolamento, al punto 4, tra i settori e gli utilizzi di sistemi di intelligenza artificiale che possono ricadere nella classificazione ad alto rischio, e così imporre gli obblighi del rispetto dei requisiti regolamentari sia da parte del fornitore dei sistemi di IA sia da coloro che li utilizzano nell’ambito della propria attività professionale o aziendale.
|
Il calendario applicativo: le disposizioni sui sistemi proibiti sono operative dal febbraio 2025. Quelle sui sistemi ad alto rischio in ambito lavorativo lo saranno dall’agosto 2026. Chi ha bisogno di adeguarsi ha ancora un margine, non molto lungo, salvo che non intervengano delle proroghe in seguito al cd. Digital Omnibus, in discussione in questi giorni all’interno delle istituzioni europee. |
I sistemi ad alto rischio nel settore lavoro
Il legislatore europeo ha individuato quattro aree specifiche all’interno del settore occupazionale in cui un sistema di IA viene classificato automaticamente come ad alto rischio:
Gli obblighi per i deployers (ossia gli utilizzatori di questi sistemi)
Il regolamento distingue tra fornitori (chi sviluppa e mette sul mercato il sistema di IA) e deployers— ovvero chi usa il sistema nel contesto professionale. Il professionista o l’azienda che ad esempio adotta un software di selezione del personale è, in questa logica, un deployer, e ha obblighi precisi:
L’interazione con GDPR e Statuto dei Lavoratori
L’AI Act non opera nel vuoto. Si sovrappone — e talvolta si intreccia — con norme preesistenti che il consulente del lavoro conosce bene.
L’art. 22 del GDPR vieta già oggi le decisioni basate esclusivamente su trattamento automatizzato che producano effetti giuridici significativi su una persona. Nella prassi, molti sistemi di selezione automatizzata si collocano in una zona grigia: tecnicamente vi è una revisione umana, ma nella sostanza il sistema decide. GDPR e AI Act convergono nel richiedere che quella revisione umana sia reale, non fittizia.
L’art. 4 dello Statuto dei Lavoratori, nella versione riformata dal Jobs Act, regolamenta i controlli a distanza e l’uso di strumenti tecnologici che raccolgono dati sui lavoratori. Il consulente che aiuta un’azienda a implementare un sistema di monitoraggio automatizzato delle prestazioni deve assicurarsi che AI Act e Statuto siano coordinati — il che richiede, nella pratica, accordi sindacali o provvedimenti autorizzativi dove previsto.
| Attenzione ai sistemi di social scoring: l’AI Act vieta categoricamente i sistemi che analizzano comportamenti in contesti non pertinenti per applicare quella valutazione in contesti diversi. Un sistema che analizza le attività social di un candidato per inferire tratti di personalità si avvicina molto a questa categoria vietata. |
Usare l’IA in studio
Cosa l’IA sa fare — e cosa no
Prima di parlare di come usare i sistemi di intelligenza artificiale è utile avere un’idea chiara di cosa i grandi modelli linguistici — Claude, ChatGPT, Gemini e simili — fanno bene e cosa fanno male.
L’intelligenza artificiale generativa ha prestazioni eccellenti per sintetizzare documenti lunghi, redigere bozze di testi partendo da strutture fornite, spiegare concetti complessi in modo accessibile, supportare la fase esplorativa di una ricerca e produrre comunicazioni personalizzate in tempi molto brevi.
I modelli linguistici però hanno sono meno affidabili quando si tratta di citare fonti normative con precisione (il rischio di “allucinazioni” è reale), tenersi aggiornati in tempo reale, e costruire un ragionamento giuridico in contesti nuovi o controversi.
| La regola pratica fondamentale: usare l’IA come un collaboratore di studio preparato ma da supervisionare, non come un oracolo. Le bozze che produce vanno controllate. Le norme che cita vanno verificate. Le interpretazioni che offre vanno valutate. |
Come comunicare con un modello IA: il prompting in pratica
Il modo in cui si pone una domanda a un sistema di IA generativa determina in misura decisiva la qualità della risposta. Questa disciplina si chiama prompt engineering ed è costituita da principi molto pratici:
Un esempio pratico — invece di chiedere semplicemente “Scrivimi una lettera di contestazione disciplinare”, utilizzare il seguente prompt di esempio:
|
“Sei un consulente del lavoro esperto. [Descrivi i fatti concreti]. Devo redigere una lettera di contestazione disciplinare per un’azienda del settore metalmeccanico con 45 dipendenti, applicando il CCNL Metalmeccanici. Strutturala in: intestazione formale, esposizione dei fatti contestati, richiamo normativo, termine per le giustificazioni. Tono professionale e formale.” La differenza nella qualità dell’output rispetto a una domanda generica è sempre significativa. |
I rischi da non sottovalutare
Le allucinazioni normative sono il pericolo principale degli attuali modelli di intelligenza artificiale generativa. Un modello IA può citare un articolo di legge inesistente, attribuire una circolare INPS a un anno sbagliato, o descrivere un orientamento giurisprudenziale in modo impreciso — il tutto con la stessa sicurezza con cui fornirebbe un’informazione corretta. Non esistono segnali di allerta visibili in tali ipotesi, quindi è necessario adottare una regola tassativa: qualsiasi riferimento normativo generato dall’IA va verificato sulla fonte primaria.
La riservatezza dei dati dei clienti è l’altro nodo critico. Inserire dati personali o informazioni riservate in una chat con un sistema IA esterno potrebbe rappresentare un problema di compliance con il GDPR, a seconda di come sono impostate le opzioni di utilizzo del modello e, per i modelli generalisti più diffusi come ChatGPT o Claude, della tipologia di contratto che abbiamo sottoscritto con il fornitore. Risulta, pertanto, essenziale verificare sempre le condizioni del servizio e scegliere servizi che garantiscano il rispetto delle disposizioni in materia di protezione dei dati personali sia con riferimento al trasferimento dei dati sia in merito al loro utilizzo.
Cinque casi d’uso concreti per lo studio
Conclusione: un’alleanza, non una sostituzione
L’intelligenza artificiale può cambiare la consulenza del lavoro, ma non nel senso che spesso si teme — almeno non nell’immediato. Non sostituisce il consulente: cambia la natura del lavoro che il consulente fa. Sposta il valore dal recupero e dall’elaborazione meccanica delle informazioni al giudizio, alla relazione, alla capacità di contestualizzare situazioni complesse.
Sul piano normativo, l’AI Act introduce un quadro di responsabilità che i consulenti del lavoro devono conoscere, sia perché li riguarda direttamente quando consigliano le aziende sull’adozione di sistemi di gestione HR con componenti di intelligenza artificiale, sia in quanto la diffusione degli strumenti di intelligenza artificiale negli studi professionali determina la necessità di comprendere quanto essi rientrino nell’ambito di applicazione del regolamento, senza dimenticare l’espresso obbligo informativo previsto dall’art. 13 della L. 132/2025.
Sul piano pratico, il messaggio è semplice: è utile iniziare a usare questi strumenti con consapevolezza, imparando a scrivere prompt efficaci, costruendo un metodo di verifica sistematica degli output, e assicurando la riservatezza dei dati dei clienti. Chi inizia oggi ad acquisire questa competenza avrà un vantaggio significativo nei prossimi anni.
Quotidianopiù è anche
su WhatsApp!
Clicca qui per iscriverti gratis e seguire
tutta l'informazione real time, i video e i podcast sul tuo smartphone.
© Copyright - Tutti i diritti riservati - Giuffrè Francis Lefebvre S.p.A.
Vedi anche
Approfondisci con
Responsabilità, trasparenza e autonomia: sono queste le parole chiave che guidano la riflessione sull’uso dell’intelligenza artificiale generativa da parte dei professionisti. L’art. 13 L. 132/2025 ha fissato principi ch..
Beniamino Scarfone
- Consulente del Lavoro e Giornalista pubblicistaRimani aggiornato sulle ultime notizie di fisco, lavoro, contabilità, impresa, finanziamenti, professioni e innovazione

Per continuare a vederlo e consultare altri contenuti esclusivi abbonati a QuotidianoPiù,
la soluzione digitale dove trovare ogni giorno notizie, video e podcast su fisco, lavoro, contabilità, impresa, finanziamenti e mondo digitale.
Abbonati o
contatta il tuo
agente di fiducia.
Se invece sei già abbonato, effettua il login.