Secondo una bozza di dichiarazione vista da EURACTIV, i monitor della privacy nei paesi del G7 sono pronti a dettagliare una visione condivisa delle sfide di protezione dei dati dei modelli di IA generativa come ChatGPT.
Le autorità per la protezione dei dati e la privacy di Stati Uniti, Francia, Germania, Italia, Regno Unito, Canada e Giappone si sono incontrate a Tokyo martedì e mercoledì (20-21 giugno) per una tavola rotonda del G7 per discutere dei flussi senza dati e dell’applicazione cooperazione. e tecnologie emergenti.
La bozza di dichiarazione affermava che i rischi dei modelli di IA generativa dal punto di vista del controllo della privacy legati alla loro rapida diffusione in diversi contesti e campi sono stati al centro dell’attenzione.
“Riconosciamo che ci sono crescenti preoccupazioni che l’IA generativa possa presentare rischi e potenziali danni alla privacy, alla protezione dei dati e ad altri diritti umani fondamentali se non adeguatamente sviluppata e regolamentata”, si legge nella dichiarazione.
L’intelligenza artificiale generativa è una tecnologia avanzata in grado di fornire testo, immagini o contenuti audiovisivi simili a quelli umani in base all’input dell’utente. Dalla rapida ascesa di ChatGPT, la tecnologia emergente ha portato grande entusiasmo ma anche enorme preoccupazione per il suo potenziale uso improprio.
Ad aprile si sono riuniti i ministri della digitalizzazione del G7 Mettere Il cosiddetto “processo di Hiroshima” per allinearsi ad alcuni di questi temi, come la governance, la protezione dei diritti di proprietà intellettuale, la promozione della trasparenza, la prevenzione della disinformazione e la promozione dell’uso responsabile della tecnologia.
Il processo di Hiroshima porterà a un codice di condotta volontario sull’IA generativa che la Commissione europea sta sviluppando con gli Stati Uniti e altri partner del G7.
Nel frattempo, l’Unione Europea è vicina all’adozione della prima legislazione completa al mondo sull’intelligenza artificiale, che dovrebbe includere alcune disposizioni per l’IA generativa.
Tuttavia, i regolatori della privacy sottolineano una serie di rischi coinvolti negli strumenti di IA generativa dal punto di vista della protezione dei dati.
Il punto di partenza è l’autorità legale che gli sviluppatori di intelligenza artificiale devono elaborare le informazioni personali, in particolare relative ai minori, in set di dati utilizzati per addestrare i modelli di intelligenza artificiale, il modo in cui le interazioni degli utenti vengono inserite negli strumenti e quali informazioni vengono quindi pubblicate come output.
La dichiarazione chiede inoltre garanzie di sicurezza per evitare che i modelli di intelligenza artificiale generativa vengano utilizzati per estrarre o riprodurre informazioni personali o che le loro salvaguardie sulla privacy possano essere aggirate da affermazioni accuratamente predisposte.
Le autorità invitano inoltre gli sviluppatori di intelligenza artificiale a garantire che le informazioni personali utilizzate dagli strumenti di intelligenza artificiale generativa rimangano accurate, complete, aggiornate e prive di effetti discriminatori, illegali o altrimenti ingiustificabili.
Inoltre, i regolatori del G7 fanno riferimento a “misure di trasparenza per migliorare l’apertura e la spiegabilità nel funzionamento degli strumenti di intelligenza artificiale generativa, in particolare nei casi in cui tali strumenti sono utilizzati per prendere o assistere il processo decisionale sugli individui”.
Si fa inoltre riferimento alla fornitura di documentazione tecnica lungo tutto il ciclo di vita dello sviluppo, alle misure per garantire un adeguato livello di responsabilità tra gli attori della catena di approvvigionamento dell’IA e al principio di limitare la raccolta di dati personali allo stretto necessario.
Infine, la dichiarazione esorta i fornitori di servizi di intelligenza artificiale a mettere in atto misure tecniche e organizzative per garantire che le persone interessate e che interagiscono con questi sistemi possano continuare a esercitare i propri diritti, come l’accesso, la correzione e la cancellazione delle informazioni personali, nonché la possibilità rifiutare di sottoporsi solo a decisioni automatizzate che hanno impatti significativi.
L’annuncio ha sottolineato il caso dell’Italia, dove l’autorità per la protezione dei dati ha temporaneamente sospeso ChatGPT per potenziali violazioni della privacy, ma il servizio è stato infine ripristinato dopo i miglioramenti di OpenAI.
Le autorità citano diverse azioni in corso, tra cui l’indagine sui modelli di intelligenza artificiale generativa nella propria legislazione, fornendo indicazioni agli sviluppatori di intelligenza artificiale per la conformità alla privacy e sostenendo progetti innovativi come i sandbox normativi.
È stato inoltre notato un rafforzamento della cooperazione, in particolare con la creazione di un gruppo di lavoro dedicato, poiché le autorità dell’UE hanno creato un team per semplificare l’applicazione su ChatGPT a seguito della decisione dell’autorità di regolamentazione italiana diretta al chatbot più popolare al mondo.
Tuttavia, secondo una fonte vicina alla questione, il lavoro di questo gruppo di lavoro sta procedendo molto lentamente, soprattutto a causa del processo amministrativo e del coordinamento, e ora i regolatori europei si aspettano che OpenAI fornisca chiarimenti entro la fine dell’estate.
“Gli sviluppatori e i fornitori dovrebbero integrare la privacy nella progettazione, concettualizzazione, funzionamento e gestione di nuovi prodotti e servizi che utilizzano tecnologie di intelligenza artificiale generativa, basandosi sul concetto di “privacy by design” e documentando le loro scelte e analisi nella valutazione dell’impatto sulla privacy, ” continua la dichiarazione.
Inoltre, gli sviluppatori di IA sono invitati a consentire agli operatori economici a valle che implementano o adattano il modello di rispettare gli obblighi in materia di protezione dei dati.
Ulteriori discussioni su come affrontare le sfide della privacy dell’IA generativa si svolgeranno in un emergente gruppo di lavoro sulla tecnologia del gruppo dei sette paesi delle autorità per la protezione dei dati.
[Edited by Nathalie Weatherald]
Leggi di più con EURACTIV
“Sottilmente affascinante social mediaholic. Pioniere della musica. Amante di Twitter. Ninja zombie. Nerd del caffè.”
More Stories
GT Voice: Gli sforzi commerciali dell’Italia evidenziano il valore del coordinamento tra Cina e Unione Europea
PIL delle maggiori economie europee 1980-2029
Un gruppo di ingegneria del Nottinghamshire ha acquisito un’azienda italiana