Homepage / ESG Goal Magazine / Goal Magazine / Il Nuovo Regolamento Europeo sull'Intelligenza Artificiale
Mercoledì 12 febbraio 2025
Governance

Il Nuovo Regolamento Europeo sull'Intelligenza Artificiale

Da febbraio 2025 partono le prime regole. Cosa è vietato fare con l'AI



Da tempo si parla di come regolamentare l’uso dell’AI. Da una parte c’è chi vuole regole chiare per proteggere i diritti, dall’altra chi teme che le restrizioni possano bloccare l’innovazione. L’Unione Europea ha deciso di essere la prima a creare una normativa specifica, cercando di proteggere i cittadini senza fermare lo sviluppo della tecnologia. È così nato l’AI Act, che avrà un grande impatto su aziende, enti pubblici e cittadini, e potrebbe ispirare anche altri paesi.

Cosa prevede la legge

L’AI Act è una legge che si applica direttamente in tutti i paesi dell'Unione Europea, senza bisogno di leggi nazionali. Sarà in vigore dal 1° agosto 2024 e considera l’intelligenza artificiale come un "prodotto", regolando tutto il suo ciclo di vita, dalla progettazione allo sviluppo e all’uso. L’obiettivo è mettere al centro l’uomo, vietando gli usi pericolosi ma anche incoraggiando l’innovazione.

Risk-based approach

L’AI Act usa un sistema che dipende dal rischio: più un sistema AI è pericoloso, più severe saranno le regole. Ecco le quattro categorie di rischio:

🔴 Rischio Inaccettabile – Tecnologie Vietate
Alcuni usi dell’AI sono troppo pericolosi e quindi vietati, come il riconoscimento facciale in tempo reale nei luoghi pubblici (tranne poche eccezioni) e i sistemi che usano l'AI per prevedere crimini o classificare i cittadini.

🟠 Rischio elevato – Uso consentito, ma con regole rigide
Alcuni sistemi AI, come quelli per il reclutamento, la valutazione del credito o l’accesso a servizi pubblici, possono essere usati solo se seguono regole severe, come la trasparenza e la supervisione umana.

🟡 Rischio limitato – Solo obblighi di trasparenza
Alcuni strumenti di AI non sono pericolosi ma devono essere chiari, come i chatbot che devono dire di non essere persone reali e i deepfake che devono essere etichettati per evitare confusione.

🟢 Rischio minimo – Nessuna restrizione
Gli strumenti AI che non presentano rischi, come i filtri antispam o i correttori automatici, possono essere usati liberamente senza particolari regole.



Le scadenze

L’AI Act entrerà in vigore in fasi: le prime regole sulle pratiche vietate saranno applicate da febbraio 2025, mentre le regole per l’uso generale dell’AI partiranno ad agosto 2025. Le norme più complete, inclusi i sistemi ad alto rischio, entreranno in vigore ad agosto 2026, con la piena applicazione nel 2027.

Doveri e diritti per tutti

L'AI Act impone obblighi chiari a tutti i soggetti coinvolti nell'uso dell'intelligenza artificiale. I fornitori di AI devono garantire sistemi sicuri, trasparenti e privi di discriminazioni, documentando i limiti della tecnologia e applicando supervisione umana nei casi ad alto rischio, pena sanzioni severe. Gli utilizzatori, come aziende e enti pubblici, devono rispettare le normative sulla privacy e informare gli utenti quando interagiscono con sistemi AI, effettuando controlli per garantire equità nei casi a rischio. Consumatori e cittadini saranno tutelati con maggior trasparenza sui sistemi AI sapendo quando interagiscono con un sistema AI e quando con un contenuto artificiale. Ci sarà anche meno rischio di discriminazione, specialmente nelle decisioni importanti come assunzioni, prestiti e salute. I cittadini avranno più diritti sui loro dati e potranno chiedere spiegazioni e contestare le decisioni prese dall’AI.

Goal Magazine

Il Blog di ESG Konecta Italia
Articoli, eventi, pubblicazioni e novità interne in tema di Sostenibilità

Obiettivi di Sostenibilità

entro il 2030

I 17 SDGs dell'ONU affrontano sfide cruciali come il cambiamento climatico, l'uguaglianza, la salute, l'istruzione e lo sviluppo sostenibile. Sono un piano globale per eliminare la povertà, proteggere il pianeta e garantire pace e prosperità per tutti

Tags

Login

Login