Brocardi.it - L'avvocato in un click! REDAZIONE

Siti web a rischio, nuovi obblighi per i siti web che utilizzano l段ntelligenza artificiale: nuovo regolamento europeo

Siti web a rischio, nuovi obblighi per i siti web che utilizzano l段ntelligenza artificiale: nuovo regolamento europeo
Sistemi IA e approccio basato sul rischio: vediamo insieme i paletti della gestione responsabile dettata dall’Unione Europea
Nella giornata dello scorso mercoledì 13 marzo, il Consiglio e il Parlamento europeo hanno finalmente raggiunto l’accordo inerente il Regolamento UE che stabilisce regole armonizzate sull'Intelligenza Artificiale (IA).

Si tratta di una normativa auspicata da tempo, che mira a disegnare una disciplina da applicarsi direttamente e uniformemente in tutti gli Stati membri al fine di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l'innovazione. Il principio base è quello di regolamentare l’IA seguendo un approccio basato sul rischio (rischio minimo, rischio alto e rischio inaccettabile), per cui tanto maggiore è il rischio che i sistemi IA possano violare i diritti fondamentali e la sicurezza, più severe e restrittive sono le regole.
In particolare, nella categoria dei sistemi di IA che presentano un rischio inaccettabile - in quanto tali espressamente vietati - rientrano, ad esempio, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l'estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso, per creare banche dati di riconoscimento facciale.
Sono vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

Le regole sono innanzitutto quelle del rispetto della diversità, non discriminazione ed equità.
Con "diversità, non discriminazione ed equità" si intende che i sistemi di IA devono essere sviluppati e utilizzati in modo da includere soggetti diversi e promuovere la parità di accesso, l'uguaglianza di genere e la diversità culturale, evitando nel contempo effetti discriminatori e pregiudizi ingiusti, vietati dal diritto dell'Unione o nazionale. Con "benessere sociale e ambientale" si intende, invece, che i sistemi di IA devono essere sviluppati e utilizzati in modo sostenibile e rispettoso dell'ambiente e in modo da apportare benefici a tutti gli esseri umani, monitorando e valutando gli impatti a lungo termine sull'individuo, sulla società e sulla democrazia.

Anche le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L'identificazione "in tempo reale" potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l'uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, tra gli altri, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L'utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l'autorizzazione giudiziaria dovrà essere collegata a un reato.

Oltre alla classificazione dei sistemi di IA a seconda del rischio, il Regolamento introduce anche norme specifiche per i sistemi di IA per finalità generali. Questi ultimi dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme UE sul diritto d'autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.

IA generativa, come ChatGPT ad esempio, non sarà classificata "ad alto rischio", ma dovrà comunque rispettare requisiti di trasparenza e la legge europea sul diritto d'autore dell'UE oltre che i seguenti vincoli:
• rivelare se il contenuto è stato generato da un'intelligenza artificiale
• progettare il modello in modo da impedire la generazione di contenuti illegali
• pubblicare riepiloghi dei dati citando i diritti d'autore impiegati per l'addestramento.

Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti "deepfake") dovranno essere chiaramente etichettati come tali.
A riguardo la piattaforma YouTube ha già annunciato importanti aggiornamenti alle sue politiche, per gestire in modo responsabile i contenuti generati dall'intelligenza artificiale (IA) sulla sua piattaforma. L'azienda sta introducendo nuovi obblighi di divulgazione per i creatori, etichette sui video AI e nuovi strumenti per richiedere la rimozione dei deepfake.

Gli spettatori vedranno nuove etichette che indicano quando un video contiene materiale AI o alterato. Le etichette saranno particolarmente evidenti per argomenti sensibili come elezioni e conflitti. I creatori che non rispettano gli obblighi di divulgazione potrebbero subire la rimozione dei contenuti o altre sanzioni.
La piattaforma sta anche procedendo per richiedere la rimozione di video generati con l'IA. Gli utenti potranno segnalare i deepfake che imitano una persona identificabile senza permesso. Anche le etichette discografiche potranno richiedere la rimozione dei contenuti musicali AI che imitano senza autorizzazione la voce di un artista.


Notizie Correlate

Hai un dubbio o un problema su questo argomento?

Scrivi alla nostra redazione giuridica

e ricevi la tua risposta entro 5 giorni a soli 29,90 €

Nel caso si necessiti di allegare documentazione o altro materiale informativo relativo al quesito posto, basterà seguire le indicazioni che verranno fornite via email una volta effettuato il pagamento.