Leggi la rivista online
Leggi la rivista online

AI Act: regole, rischi e sfide della nuova legge sull’intelligenza artificiale

L’AI Act è la prima legge al mondo che regola l’intelligenza artificiale. Approvata dall’UE e già recepita dall’Italia, sarà pienamente operativa entro il 2026. Ecco cosa prevede, come classifica i rischi, chi farà i controlli e quali dubbi solleva.

Nella giungla normativa sull’intelligenza artificiale, da qualche mese è spuntato un raggio di sole: l’AI Act. Emanata dall’Unione Europea, è la prima legge di questo tipo al mondo: è entrata in vigore in parte lo scorso 2 agosto ma l’intero sistema sarà pienamente operativo entro il 2026, per dare il tempo ai governi e alle aziende di adattarsi. L’AI Act è una sorta di grande libro delle regole per chi costruisce e usa questi sistemi super tecnologici, e stabilisce cosa si può fare e cosa no, per evitare che l’AI venga usata in modo pericoloso o ingiusto nelle sue varie applicazioni, dalle auto che si guidano da sole agli assistenti vocali, dai programmi che riconoscono i volti agli strumenti che scrivono testi o analizzano dati. Per fare in modo, cioè, che l’innovazione sia in linea con l’etica e i diritti fondamentali.

Non tutte le AI sono uguali

Il presupposto della legge è che non tutte le AI hanno lo stesso livello di rischio per le persone. Per questo divide i sistemi di intelligenza artificiale in 4 categorie: quelle che presentano un rischio inaccettabile, per esempio il riconoscimento facciale in tempo reale in luoghi pubblici o i sistemi di controllo sociale, sono vietati; quelli ad alto rischio, per esempio in settori come la sanità, la giustizia, la scuola, devono essere testati, controllati e consentiti solo con regole molto rigide; quelli a rischio limitato, come i chatbot, sono consentiti purché dichiarati e trasparenti; quelli a rischio minimo o assente, per esempio i giochi, i filtri foto o gli strumenti creativi, non devono sottostare a restrizioni particolari.

Chi controlla l’intelligenza?

Lo scopo dell’AI Act è garantire che i sistemi di IA siano sicuri e non violino i diritti fondamentali dei cittadini, che gli utenti siano informati se interagiscono con un sistema di AI, che la regolamentazione e la promozione dell’innovazione nel settore dell’IA siano bilanciati e che ci sia un quadro normativo unico per la sicurezza. Per ottenere questo, sono stati individuati dei passaggi fondamentali, il primo è che ogni Paese europeo deve organizzarsi per far rispettare le norme, attraverso autorità che controlleranno se le aziende rispettano le regole. «Queste autorità devono essere dotate di poteri di vigilanza, di strumenti sanzionatori e di risorse adeguate a garantire la propria operatività» spiega l’avvocato Olindo Genovese dello Studio legale Daverio&Florio. In Italia, queste autorità sono state designate con la legge n. 132, che ha recepito l’AI Act a settembre: l’Agenzia per l’Italia Digitale (AgID) si occuperà di notifica, accreditamento e monitoraggio dei soggetti che verificano i sistemi AI, mentre l’Agenzia per la Cybersicurezza Nazionale (ACN) assumerà la vigilanza e la sorveglianza dei sistemi AI.

Il secondo step riguarda le aziende e i creatori di AI: dovranno adattare i loro sistemi alle nuove norme. «Quindi, garantire trasparenza sul funzionamento dei modelli, rispettare il diritto d’autore, sia a livello europeo che nazionale; valutare e mitigare i rischi sistemici, soprattutto se operano con modelli particolarmente avanzati o ad alto impatto» continua l’esperto.

I dubbi tra speranze e timori

Il testo italiano è stato il primo ad aver recepito le norme europee, ma non è uno strumento completo, perché di fatto si limita a ribadire i principi sanciti dall’Europa rimandando a ulteriori decreti di maggiore dettaglio per gli aspetti operativi. Nel frattempo però ha già sollevato dubbi: uno degli argomenti più contestati è che le funzioni di vigilanza siano assegnate ad agenzie statali e non ad autorità autonome come per il GDPR con i garanti della privacy: un modello di tipo “statale” potrebbe rischiare di violare il principio dell’imparzialità nei controlli. Inoltre, alcune startup o PMI tecnologiche italiane hanno chiesto flessibilità nell’attuazione perché mancano standard tecnici chiari e i finanziamenti sono modesti rispetto agli investimenti che fanno paesi come Stati Uniti o Cina. Infine, anche tra i favorevoli, c’è preoccupazione su quando e come le regole diventeranno operative, come avverranno i controlli, come si valuteranno i rischi e come si risolveranno i casi limite non previsti dalle norme.

I più letti della settimana

Sicurezza: ora tocca anche ai datori di lavoro

Entro due anni oltre 5 milioni di datori di...

Come spendono i nostri ragazzi

Pagare per piccoli lussi oggi anziché risparmiare per grandi...

Il benessere aziendale fattura

Va bene la flessibilità, i contributi per il nido...

Quanto mi costa il conto corrente?

I conti correnti costano sempre di più allo sportello,...

L’università italiana nel firmamento accademico mondiale

Il Politecnico di Milano è nella top 100 del...

Argomenti

Sicurezza: ora tocca anche ai datori di lavoro

Entro due anni oltre 5 milioni di datori di...

Come spendono i nostri ragazzi

Pagare per piccoli lussi oggi anziché risparmiare per grandi...

Il benessere aziendale fattura

Va bene la flessibilità, i contributi per il nido...

Quanto mi costa il conto corrente?

I conti correnti costano sempre di più allo sportello,...

L’università italiana nel firmamento accademico mondiale

Il Politecnico di Milano è nella top 100 del...

Oggi conviene investire in oro?

Dopo i valori record del 2025 e un 2026...

Il verde in città e la sfida del 3-30-300

Frane, alluvioni, ondate di calore e siccità mostrano città esposte agli effetti del cambiamento climatico. Il verde urbano diventa una risposta strutturale: dalla regola 3-30-300 ai piani italiani più avanzati, cresce un nuovo modo di pensare la città come infrastruttura climatica e sociale

Psicoterapia online: una competenza centrale nella pratica clinica

Nell’anno appena trascorso la psicoterapia online si è confermata come una modalità sempre più diffusa e integrata nella pratica clinica. I dati raccontano una domanda in crescita e bisogni clinici legati alle relazioni e all’autostima. Mentre lo sguardo dei professionisti si orienta già alle sfide e alle prospettive del 2026
spot_img

Correlati

Categorie Popolari

spot_imgspot_img