Dal 2 febbraio 2025, in Europa entra in vigore l’AI Act, una legge che pone limiti severi all’uso dell’intelligenza artificiale. Tra i divieti principali troviamo il social scoring, la polizia predittiva, la manipolazione subliminale e il riconoscimento delle emozioni sul lavoro e a scuola.
Uno dei punti chiave dell’AI Act riguarda il divieto di sistemi di IA che manipolano o ingannano gli utenti sfruttando le loro vulnerabilità. Questo significa che non possono essere usate tecniche subliminali per influenzare il comportamento delle persone senza che queste ne siano consapevoli.
Ad esempio, sono proibiti gli annunci pubblicitari che trasmettono messaggi impercettibili per condizionare le decisioni di acquisto. Allo stesso modo, i chatbot che imitano la voce di un parente per truffare le persone sono vietati. Inoltre, sono illegali i giochi che spingono i bambini a compiere azioni pericolose con la promessa di ricompense digitali e i sistemi che cercano di vendere prodotti medici ingannevoli a persone con disabilità o anziani.
L’Europa ha messo al bando il social scoring, ovvero i sistemi che classificano le persone in base al loro comportamento o a caratteristiche personali. Questo metodo, già usato in alcuni paesi per determinare l’accesso ai servizi pubblici, è considerato pericoloso e discriminatorio.
Grazie all’AI Act, nessun governo potrà introdurre un sistema che tenga traccia di abitudini quotidiane come pagamenti puntuali o comportamenti online per stabilire chi ha diritto a determinati benefici. Anche nel settore privato, le agenzie di credito non potranno assegnare punteggi di affidabilità basati su caratteristiche personali non correlate alle reali capacità finanziarie di una persona.
Un altro grande limite imposto dall’AI Act riguarda l’uso dell’intelligenza artificiale per la polizia predittiva. Non sarà possibile utilizzare algoritmi per prevedere se una persona potrebbe commettere un reato basandosi solo su età, nazionalità o caratteristiche personali. Questo divieto mira a evitare discriminazioni e false accuse basate su modelli statistici poco affidabili.
Inoltre, l’uso del riconoscimento biometrico in tempo reale nei luoghi pubblici è severamente vietato, con pochissime eccezioni. La polizia non potrà quindi usare sistemi di riconoscimento facciale per identificare persone in strada o nei negozi, tranne in casi specifici come la ricerca di persone scomparse o la prevenzione di attacchi terroristici.
Con la nuova normativa, le scuole e i luoghi di lavoro non potranno più utilizzare sistemi di IA per analizzare le emozioni delle persone. Questo significa che le aziende non potranno più monitorare l’umore dei propri dipendenti attraverso webcam o software di riconoscimento vocale, pratica che alcuni call center stavano iniziando a sperimentare.
Anche nelle scuole, l’uso di IA per valutare le emozioni degli studenti durante esami o lezioni è vietato. Questo per evitare che tali strumenti vengano usati per giudicare la concentrazione o l’atteggiamento degli studenti in base a parametri poco scientifici e potenzialmente discriminatori.