EUPD News‏‎‏‎‏‎ㅤ
Giovani
|

Intelligenza artificiale: nessuna protezione aggiuntiva per i minori prima di agosto

Nessuna protezione aggiuntiva per i minori manipolati dagli amici virtuali gestiti dall’intelligenza artificiale fino ad agosto 2026, quando entrerà in vigore il nuovo regolamento europeo sull’IA, anche se esiste un quadro normativo già in grado di intervenire sui rischi per i minori. È quanto emerge dalla risposta della Commissione europea all’interrogazione scritta presentata da un ampio gruppo di eurodeputati, tra cui diversi esponenti del Partito Democratico, sui cosiddetti companion chatbot e i loro potenziali effetti sulla salute mentale degli adolescenti. Tra loro gli eurodeputati Nicola Zingaretti, capodelegazione, Brando Benifei, relatore della normativa comunitaria sull’IA, Alessandra Moretti, Cecilia Strada, Lucia Annunziata, Marco Tarquinio, Giuseppe Lupo e Irene Tinagli.

Nell’interrogazione, gli eurodeputati avevano sollevato un allarme, parlando di “recenti tragedie che hanno visto coinvolti adolescenti che utilizzavano companion chatbot basati sull’IA” e denunciando come alcune piattaforme “accentuano la dipendenza emotiva dei minori, non lanciano l’allarme in caso di emergenza e, in alcuni casi documentati, hanno fornito indicazioni sui metodi per suicidarsi”. Un passaggio particolarmente duro sottolinea anche che test indipendenti avrebbero mostrato comportamenti estremi, con chatbot capaci di “simulare un patto suicida con l’account fittizio di un adolescente”.
I firmatari individuano precise responsabilità di sistema: “carenze sistemiche legate a caratteristiche di progettazione antropomorfe”, “processi di verifica dell’età poco efficaci” e “assenza di meccanismi di gestione delle crisi”. Da qui la richiesta alla Commissione di chiarire “quali azioni concrete” intenda adottare per rafforzare l’applicazione dell’articolo 5 dell’AI Act e se sia pronta a proporre “una legislazione vincolante” sulla verifica dell’età.

Nella risposta, firmata dalla vicepresidente esecutiva Henna Virkkunen, l’esecutivo europeo richiama innanzitutto il quadro normativo esistente. Il regolamento sull’intelligenza artificiale, sottolinea la Commissione, “vieta i sistemi di IA che utilizzano tecniche subliminali o ingannevoli o sfruttano vulnerabilità in modo da distorcere il comportamento, il che può comportare un danno significativo”. Inoltre, sono previsti “obblighi di trasparenza per i sistemi di IA che interagiscono direttamente con le persone fisiche”. Il problema però è che lo stesso esecutivo comunitario ammette che “le disposizioni che disciplinano l’applicazione del regolamento sull’IA inizieranno ad applicarsi nell’agosto 2026”, e dunque “l’applicazione dell’articolo 5 o di altre disposizioni non è possibile prima”. Un chiarimento che, di fatto, rinvia l’effettiva operatività delle norme più stringenti.

Nel frattempo, Bruxelles punta sugli strumenti già in vigore. Il regolamento sui servizi digitali, ricorda la Commissione, “comprende l’obbligo di garantire un elevato livello di tutela della vita privata, di sicurezza e di protezione dei minori”, imponendo alle grandi piattaforme di “valutare e attenuare i rischi sistemici” tra i quali i “i rischi per il benessere fisico e mentale”. Vengono inoltre citati gli orientamenti sulla protezione dei minori, che raccomandano “garanzie per le funzionalità dell’IA come i chatbot integrati nelle piattaforme online”. La Commissione inoltre segnala di aver “avviato un piano d’azione contro il bullismo online” e di lavorare a “un approccio armonizzato a livello dell’UE per quanto riguarda la verifica dell’età”, richiamando anche il ruolo del Comitato europeo per la protezione dei dati.