
- 203
- 3 minuti
- 9/10/2025
Guida pratica alla Legge sull'IA: cosa cambia per formazione, orientamento e lavoro intellettuale
Domani, venerdì 10 ottobre 2025, entrerà in vigore la legge 132/2025 in materia di utilizzo dell’Intelligenza Artificiale nelle professioni intellettuali. Come orientatori e formatori siamo chiamati a porre molta attenzione alle implicazioni relative al nostro lavoro. La legge nasce dalle disposizioni del regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024. A cura di Fausto Sana, Orientatore Asnor, Career coach Under 35, Formatore e Consulente.
Introduzione: una legge per un'IA a misura d'uomo
La Legge sull’IA n. 132 del 23 settembre 2025 introduce in Italia un quadro di regole per l'intelligenza artificiale, con uno scopo chiaro e fondamentale: promuovere un uso dell'IA che sia corretto, responsabile e trasparente, ponendo sempre la persona al centro. Come definito dall'Articolo 1, questa dimensione "antropocentrica" è il faro che guida l'intera normativa, assicurando che lo sviluppo tecnologico avvenga nel rispetto dei diritti fondamentali.
Questa guida sulla nuova legge italiana per l’uso dell’Intelligenza Artificiale è pensata specificamente per chi lavora ogni giorno con le persone: professionisti della formazione, dell'orientamento, docenti e chiunque svolga un'attività intellettuale. L'obiettivo è tradurre il linguaggio della legge in indicazioni pratiche e comprensibili per orientarsi nel nuovo scenario.
Analizziamo insieme i princìpi e le regole che trasformano l'uso dell'IA da un'attività sperimentale a una prassi professionale regolamentata, con nuovi doveri e competenze indispensabili.
I Princìpi fondamentali della legge sull'IA che devi conoscere
La legge sull’Intelligenza Artificiale stabilisce dei paletti non negoziabili per garantire che l'IA sia uno strumento al servizio dell'umanità e non il contrario. Per chi opera nella formazione e nel lavoro intellettuale, tre princìpi, derivati dagli Articoli 3 e 11, sono assolutamente cruciali.
- Sempre sotto controllo umano. L'intelligenza artificiale è e deve rimanere uno strumento di supporto. La legge (Art. 3, comma 3 e Art. 14, comma 2) è inequivocabile su questo punto: la decisione finale, e la relativa responsabilità, spetta sempre e solo all'essere umano. Che si tratti di una valutazione, di una consulenza o di un atto amministrativo, il professionista non può delegare il proprio giudizio alla macchina.
- Trasparenza e spiegabilità. Per costruire un rapporto di fiducia, è essenziale che i sistemi di IA non siano "scatole nere". L'Articolo 3, comma 3, insiste sui concetti di "conoscibilità" e "spiegabilità": chi utilizza un sistema di IA deve essere in grado di comprenderne il funzionamento e di spiegare il perché di una determinata decisione o raccomandazione. Questo è fondamentale quando si comunica con studenti, clienti o cittadini.
- Equità e non discriminazione. L'IA deve essere uno strumento di inclusione, non di divisione. Gli Articoli 3 e 11 vietano categoricamente che l'uso di questi sistemi possa creare o amplificare discriminazioni basate su sesso, età, origine etnica, condizioni personali o sociali. È un richiamo potente a vigilare contro i bias (pregiudizi sistemici) che gli algoritmi possono ereditare dai dati con cui vengono addestrati.
Questi principi etici si fondano su un pilastro tecnico e giuridico imprescindibile: la protezione dei dati personali.
La privacy al centro: diritti dei cittadini e doveri delle organizzazioni
L'Articolo 4 della legge sull’IA mette in chiaro che l'innovazione tecnologica non può avvenire a scapito della privacy. Per scuole, aziende, università e professionisti che utilizzano sistemi di IA, questo si traduce in diritti precisi per gli utenti e in doveri inderogabili per le organizzazioni.
Diritti dei Cittadini (Utenti, Studenti, Clienti) | Doveri delle Organizzazioni (Scuole, Aziende, Professionisti) |
Essere informati con un linguaggio chiaro e semplice sui rischi e sull'uso dei propri dati (Art. 4, comma 3). | Garantire un trattamento dei dati lecito, corretto e trasparente, usando i dati solo per gli scopi dichiarati (Art. 4, comma 2). |
Opporsi ai trattamenti autorizzati dei propri dati personali (Art. 4, comma 3). | Fornire informazioni facilmente accessibili e comprensibili, specialmente se l'utente è un minore (Art. 4, comma 4). |
Per i minori che hanno compiuto 14 anni: Diritto di esprimere il proprio consenso al trattamento dati (Art. 4, comma 4). | Assicurare che le informazioni e le comunicazioni siano chiare, per permettere all'utente di capire i rischi (Art. 4, comma 3). |
In particolare, la regola che consente ai quattordicenni di esprimere autonomamente il consenso al trattamento dei dati è di enorme rilevanza per chi opera nel mondo della scuola e della formazione. Richiede un'attenzione ancora maggiore nel fornire informative chiare e adeguate alla loro capacità di comprensione.
La gestione corretta dei dati non è quindi solo un adempimento legale, ma la precondizione per poter applicare l'IA in modo etico e professionale. Vediamo ora come questi obblighi si declinano nei diversi contesti lavorativi.
L'Impatto dell'IA nel lavoro quotidiano: regole per settore
La legge sull’Intelligenza Artificiale non è astratta, ma definisce regole precise che toccano da vicino diverse categorie professionali. Vediamo cosa cambia per aziende, professionisti e pubblica amministrazione.
Uso professionale e in azienda
L'Articolo 11 stabilisce due obblighi fondamentali per ogni datore di lavoro che introduce sistemi di IA per gestire o organizzare il lavoro.
- Obbligo di informare: il datore di lavoro deve sempre comunicare al lavoratore quando e come vengono utilizzati sistemi di intelligenza artificiale che lo riguardano (Art. 11, comma 2). La trasparenza è un requisito non negoziabile.
- Garanzia di dignità e diritti: l'IA deve essere usata per migliorare le condizioni di lavoro e accrescere la qualità delle prestazioni, non per creare un controllo lesivo della dignità, della riservatezza e dei diritti inviolabili del lavoratore (Art. 11, commi 1 e 3).
Questi obblighi non sono altro che l'applicazione pratica dei princìpi di Controllo Umano e Trasparenza visti in precedenza, calati nel contesto specifico del rapporto di lavoro.
Professioni intellettuali
Per avvocati, consulenti, commercialisti e tutte le professioni intellettuali, l'Articolo 13 fissa due paletti chiari per preservare la natura del loro lavoro.
- Ruolo di supporto: l'IA può essere utilizzata esclusivamente per attività strumentali e di supporto, con la "prevalenza del lavoro intellettuale" del professionista (Art. 13, comma 1). Questa regola è la più forte affermazione del principio del Controllo Umano per i professionisti: la legge blinda il valore del giudizio esperto, relegando l'IA a un ruolo di puro assistente.
- Trasparenza con il cliente: Il professionista ha il dovere di comunicare al cliente, in modo chiaro e semplice, quali sistemi di IA sta utilizzando per svolgere la sua prestazione (Art. 13, comma 2). Questo è essenziale per mantenere il rapporto fiduciario.
Scuola e Pubblica Amministrazione
Docenti, orientatori e funzionari pubblici trovano nell'Articolo 14 le linee guida per l'uso dell'IA nel loro settore. L'obiettivo è migliorare i servizi per i cittadini, garantendo al tempo stesso la centralità dell'operatore umano. I punti chiave sono:
- l'IA è uno strumento di supporto all'attività, ma la persona (il docente che valuta, l'orientatore che consiglia) resta l'unica responsabile delle decisioni finali (Art. 14, comma 2);
- le pubbliche amministrazioni, incluse le scuole, hanno il dovere di garantire la formazione dei dipendenti per promuovere un utilizzo responsabile ed efficace dell'IA (Art. 14, comma 3).
Questa enfasi sulla responsabilità personale e sulla necessità di formazione non è casuale: la legge chiarisce che l'adozione dell'IA nella PA deve andare di pari passo con lo sviluppo delle competenze di chi la utilizza. Questo ci porta al pilastro strategico dell'intera normativa.
Formazione e Orientamento: il futuro è nelle competenze
La legge sull’IA non si limita a imporre regole, ma riconosce che il rispetto dei princìpi di controllo umano e trasparenza è possibile solo attraverso un massiccio investimento in competenze. Gli articoli 12 e 24, infatti, non sono un corollario, ma il motore strategico dell'intera normativa.
- Un osservatorio per il lavoro. Viene istituito un Osservatorio presso il Ministero del Lavoro (Art. 12) con il compito di monitorare l'impatto dell'IA sul mercato, ma soprattutto di promuovere la formazione di lavoratori e datori di lavoro per affrontare il cambiamento.
- Formazione continua per professionisti. È fondamentale notare che queste non sono semplici raccomandazioni. La leggedelega formalmente il Governo a trasformare questi indirizzi in decreti legislativi attuativi, segnalando un impegno concreto e vincolante per il futuro. Nello specifico, si prevedono percorsi di "alfabetizzazione e formazione" per i professionisti, che potranno essere organizzati anche dagli ordini professionali (Art. 24, comma 2, lettera f). L'aggiornamento diventa un dovere.
- Nuove competenze a scuola. Un punto cruciale per docenti e orientatori: la legge mira a potenziare le competenze STEM (scientifiche, tecnologiche, ingegneristiche e matematiche) nei curricula scolastici, anche attraverso "mirate attività di orientamento personalizzato" (Art. 24, comma 2, lettera g). L'obiettivo è preparare le nuove generazioni alle professioni del futuro.
- Consapevolezza in Università e ITS. Anche la formazione terziaria è chiamata in causa. Si prevedono attività formative specifiche in università, istituzioni AFAM e ITS Academy per garantire un "utilizzo consapevole anche sotto il profilo giuridico" delle tecnologie IA (Art. 24, comma 2, lettera i), formando professionisti capaci non solo di usare gli strumenti, ma anche di valutarne criticamente l'impatto.
Conclusione: non un semplice manuale di istruzioni
La nuova legge sull'IA non è un semplice manuale di istruzioni, ma definisce un nuovo quadro professionale. Per chi opera nella formazione, nell'orientamento e nel lavoro intellettuale, questo si traduce in tre imperativi strategici.
- Mantenere il controllo è un imperativo. L'IA è un assistente potenziato, non un sostituto. La responsabilità etica, legale e decisionale finale resta saldamente nelle mani del professionista.
- Comunicare con trasparenza è un obbligo. Che si tratti di studenti, lavoratori o clienti, è obbligatorio informare in modo chiaro e comprensibile quando un sistema di intelligenza artificiale viene utilizzato per fornire un servizio o supportare una decisione.
- Professionalizzarsi è un obbligo: L'aggiornamento non è più un'opzione, ma il requisito fondamentale per poter utilizzare legalmente ed efficacemente gli strumenti di IA nel proprio lavoro, cogliendone le opportunità e gestendone i rischi.
In sintesi, con questa nuova legge sull’IA, nell'esercizio della sua professione l’orientatore dovrà:
- utilizzare l'IA solo come supporto strumentale (Art. 12). L'orientatore deve impiegare i sistemi di IA (es. generatori di CV, sistemi di matching) solo come ausili che accelerano il lavoro. Deve assicurare che l'IA non sostituisca la prevalenza del lavoro intellettuale umano e che l'orientatore resti la guida principale nel rapporto fiduciario;
- garantire la trasparenza e l'informazione al cliente: È obbligatorio informare il cliente/utente in modo chiaro e comprensibile se e come si utilizzano strumenti di Intelligenza Artificiale nella prestazione. È fortemente consigliato, per una prassi più prudente, inserire questa informativa per iscritto (es. nel contratto o nell'informativa iniziale).
- mantenere il potere decisionale umano: La decisione critica finale (es. la scelta del percorso formativo o lavorativo) deve restare sempre affidata alla persona (l'utente/cliente), assistito dall'operatore. L'orientatore non deve mai consegnare un "risultato" generato dall'IA senza un confronto critico umano.
- revisionare e personalizzare l'output dell'IA: L'orientatore deve sempre leggere, rivedere e personalizzare i contenuti generati dall'IA (come bozze di CV o lettere di presentazione). Deve discutere criticamente l'analisi dei dati (es. estrazione di competenze) con l'utente per verificarne la reale possessione e pertinenza.
- tutelare la privacy e pviluppare Al literacy: È fondamentale prestare attenzione al trattamento dei dati sensibili (CV, informazioni personali) quando vengono caricati nei sistemi di IA.
- Inoltre, l'orientatore dovrà sviluppare nuove competenze di Al literacy per distinguere tra i suggerimenti della macchina e la necessaria interpretazione professionale.
Asnor – Associazione Nazionale Orientatori promuove l’uso consapevole dell’IA con il proprio Manifesto dell’Orientamento Generativo. Un manifesto per chi vuole porre al centro l’alleanza dell’intelligenza umana e artificiale.