Il 20 marzo è stato approvato al Senato il Disegno di Legge 1146 in materia di intelligenza artificiale.
Il testo ora è in discussione alla Camera.
Con questa nota indichiamo i passaggi più rilevanti, alla luce del commento già elaborato durante le audizioni presso la Commissione X e XI della Camera (link 1/link 2).
C’è da rilevare che la norma è in ritardo rispetto alla prima fase applicativa del “Regolamento Europeo: AI Act”, provvedimento che già dal 2 di febbraio è in fase attuativa, almeno per quanto attiene alle parti considerate di maggiore urgenza: le applicazioni di IA vietate (Riconoscimento delle emozioni in ambito lavorativo, Tecniche di manipolazione subliminale o ingannevoli, Sfruttamento delle vulnerabilità, Sistemi di social scoring, Identificazione biometrica in tempo reale, Valutazioni del rischio relative a persone fisiche, Categorizzazione biometrica basata su dati sensibili, Creazione o ampliamento di banche dati di riconoscimento facciale mediante scraping non mirato).


DELEGA ECCESSIVA AL GOVERNO
Si somma al ritardo oggettivo un ulteriore spostamento in avanti nella definizione di parti fondamentali per l’attuazione del Regolamento Europeo; infatti, il Ddl delega al Governo la regolamentazione, attraverso decreti attutivi, di una serie di temi entro 12 mesi dalla promulgazione della norma.
Quindi, al di là dell’eccessiva delega su varie materie di grande delicatezza (sicurezza, difesa, giustizia, formazione, educazione e addestramento dei sistemi algoritmici) ci troviamo davanti ad un ulteriore rinvio che rischia di compromettere una corretta attuazione della norma, in modo particolare nei luoghi di lavoro.
Nella prima parte del Ddl si enunciano principi generali e si rimanda ai contenuti del Regolamento Europeo.
Su materie di grande rilevanza - l’uso in ambito sanitario, sicurezza e difesa - si rimane molto generici, lasciano a successivi provvedimenti le modalità attuative. C’è, come avevamo già commentato, una eccessiva apertura alla collaborazione pubblico-privato su materie particolarmente delicate, sia per il trattamento dei dati sensibili dei cittadini, sia per limiti di trasparenza posti su attività che riguardano la sicurezza, la difesa e la vita democratica del nostro Paese.
È chiaro che in questi ambiti, come in tutta la pubblica amministrazione, l’adozione di sistemi di AI sono strategici e funzionali a migliorare i servizi ai cittadini. Ciò non toglie che il rischio è sempre quello di lasciare ai privati un eccessivo accesso a dati sensibili, creando maggiori diseguaglianze nell’erogazione di servizi essenziali.


LAVORO
Sul lavoro, l’art.11 rimane generico e ribadisce principi presenti nel regolamento europeo; non c’è nessun passo in avanti rispetto alla tutela dei lavoratori, alla tutela collettiva o alla contrattazione.
Si rimanda genericamente a quanto previsto nel decreto trasparenza sull’informativa al singolo lavoratore per l’introduzione di strumenti di IA nei luoghi di lavoro.
L’Osservatorio per l’adozione di sistemi di intelligenza artificiale nel mondo del lavoro viene istituito presso il Ministero del Lavoro e delle Politiche sociali, ma si demanda ad ulteriore decreto la sua composizione e modalità operativa.


AUTORITA’ NAZIONALE PER L’INTELLIGENZA ARTIFICIALE
Viene istituita, come definito nel Regolamento UE, una autorità, ma in forma composita o, meglio, più autorità che svolgono diversi compiti inerenti l’IA, con una ripartizione per competenze.
Al testo originario che indicava come Autorità, l’Agenzia per la Cybersicurezza Nazionale e l’Agenzia nazionale per l’Italia Digitale, si affiancano Banca d’Italia, IVASS e Consob e, per le tematiche attinenti il trattamento dei dati, il Garante per la Privacy.
Un modello decisamente confuso che dovrà comunque essere definito, attraverso delega al Governo, nella sua funzione e modalità operativa.
Per il Ddl l’autorità incaricata al controllo e alla verifica della correttezza delle applicazioni di IA nei luoghi di lavoro è l’Agenzia nazionale per la Cybesicurezza.
Ci sarebbe da domandarsi con quali strumenti, con quale collaborazione con gli Ispettorati del Lavoro o con il Garante per la Privacy; i dubbi sono molti, ma capiremo quando i testi dei decreti saranno disponibili.
Quello che è certo è che al momento non c’è un sistema di regole in grado di intervenire puntualmente sul fenomeno. Come sindacato dobbiamo quindi esercitare la nostra azione di tutela utilizzando l’attuale quadro normativo: informativa, contrattazione e denuncia alle autorità competenti in caso di irregolarità nell’uso di strumenti di intelligenza artificiale (decreto trasparenza – art. 1bis; GDPR – trattamento dei dati; diritto d’informazione – prima parte dei CCNL; art. 4 della legge 300/70).


POLITICHE INDUSTRIALI E INVESTIMENTI
Le risorse, come già detto, sono insufficienti (circa 1 mld di euro) rispetto alla dimensione degli investimenti realizzati su questa tecnologia da parte di multinazionali, Usa e Cina.
Occorrerà valutare comunque la loro ripartizione e la congruità in relazione agli interventi di politica industriale nazionali ed europee.


ILLECITI E SANZIONI
Nel DdL si prefigura un irrigidimento sanzionatorio penale per l’uso improprio dell’IA. Risulta sproporzionato il rapporto tra la vaghezza con cui si indicano sanzioni per un uso improprio da parte delle imprese, mentre si inaspriscono le pene, fino a 5 anni di reclusione, per le deepfake, con azione penale obbligatoria in caso di una pubblica autorità. Si tratta di una questione molto delicata che non va sottovalutata per i suoi possibili risvolti.