Da tempo si parla di come regolamentare l’uso dell’AI. Da una parte c’è chi vuole regole chiare per proteggere i diritti, dall’altra chi teme che le restrizioni possano bloccare l’innovazione. L’Unione Europea ha deciso di essere la prima a creare una normativa specifica, cercando di proteggere i cittadini senza fermare lo sviluppo della tecnologia. È così nato l’AI Act, che avrà un grande impatto su aziende, enti pubblici e cittadini, e potrebbe ispirare anche altri paesi.
L’AI Act è una legge che si applica direttamente in tutti i paesi dell'Unione Europea, senza bisogno di leggi nazionali. Sarà in vigore dal 1° agosto 2024 e considera l’intelligenza artificiale come un "prodotto", regolando tutto il suo ciclo di vita, dalla progettazione allo sviluppo e all’uso. L’obiettivo è mettere al centro l’uomo, vietando gli usi pericolosi ma anche incoraggiando l’innovazione.
L’AI Act usa un sistema che dipende dal rischio: più un sistema AI è pericoloso, più severe saranno le regole. Ecco le quattro categorie di rischio:
🔴 Rischio Inaccettabile – Tecnologie Vietate
Alcuni usi dell’AI sono troppo pericolosi e quindi vietati, come il riconoscimento facciale in tempo reale nei luoghi pubblici (tranne poche eccezioni) e i sistemi che usano l'AI per prevedere crimini o classificare i cittadini.
🟠 Rischio elevato – Uso consentito, ma con regole rigide
Alcuni sistemi AI, come quelli per il reclutamento, la valutazione del credito o l’accesso a servizi pubblici, possono essere usati solo se seguono regole severe, come la trasparenza e la supervisione umana.
🟡 Rischio limitato – Solo obblighi di trasparenza
Alcuni strumenti di AI non sono pericolosi ma devono essere chiari, come i chatbot che devono dire di non essere persone reali e i deepfake che devono essere etichettati per evitare confusione.
🟢 Rischio minimo – Nessuna restrizione
Gli strumenti AI che non presentano rischi, come i filtri antispam o i correttori automatici, possono essere usati liberamente senza particolari regole.
L’AI Act entrerà in vigore in fasi: le prime regole sulle pratiche vietate saranno applicate da febbraio 2025, mentre le regole per l’uso generale dell’AI partiranno ad agosto 2025. Le norme più complete, inclusi i sistemi ad alto rischio, entreranno in vigore ad agosto 2026, con la piena applicazione nel 2027.
L'AI Act impone obblighi chiari a tutti i soggetti coinvolti nell'uso dell'intelligenza artificiale. I fornitori di AI devono garantire sistemi sicuri, trasparenti e privi di discriminazioni, documentando i limiti della tecnologia e applicando supervisione umana nei casi ad alto rischio, pena sanzioni severe. Gli utilizzatori, come aziende e enti pubblici, devono rispettare le normative sulla privacy e informare gli utenti quando interagiscono con sistemi AI, effettuando controlli per garantire equità nei casi a rischio. Consumatori e cittadini saranno tutelati con maggior trasparenza sui sistemi AI sapendo quando interagiscono con un sistema AI e quando con un contenuto artificiale. Ci sarà anche meno rischio di discriminazione, specialmente nelle decisioni importanti come assunzioni, prestiti e salute. I cittadini avranno più diritti sui loro dati e potranno chiedere spiegazioni e contestare le decisioni prese dall’AI.