La Cina propone di istituire una lista nera di fonti di corpus per sollecitare pubbliche opinioni sui requisiti di sicurezza per il servizio di AI generativa

La Cina ha avviato la sollecitazione dell’opinione pubblica sui requisiti di sicurezza nazionale per i servizi di intelligenza artificiale generativa (AI), con l’obiettivo di migliorare gli standard di sicurezza dei fornitori di servizi di AI generativa rivolti agli utenti domestici.

Il comitato tecnico cinese per la standardizzazione della sicurezza informatica nazionale ha elaborato una bozza dei requisiti di sicurezza di base per il servizio di AI generativa e ha iniziato a sollecitare l’opinione pubblica da mercoledì fino al 25 ottobre.

I requisiti delineano i criteri di sicurezza fondamentali per i servizi di AI generativa, coprendo la sicurezza del corpus, la sicurezza dei modelli, le misure di sicurezza e le valutazioni della sicurezza. Questi criteri sono applicabili ai fornitori che offrono servizi di AI generativa al pubblico in Cina. I fornitori di servizi possono condurre valutazioni di sicurezza in modo indipendente o incaricare terze parti di farlo, in conformità con questi criteri. I requisiti possono anche servire da riferimento per le autorità di regolamentazione competenti nella valutazione del livello di sicurezza dei servizi di AI generativa.

I requisiti propongono di stabilire una lista nera di fonti di corpus e di astenersi dall’utilizzare dati per addestramento di macchine AI provenienti da fonti in lista nera. Suggeriscono di condurre una valutazione della sicurezza sui corpora provenienti da varie fonti e, se il contenuto di una singola fonte contiene più del 5% di informazioni illegali o dannose, questa dovrebbe essere inserita in lista nera.

Quando si utilizzano corpora contenenti informazioni personali, i fornitori dovrebbero ottenere l’autorizzazione e il consenso delle persone corrispondenti o soddisfare altre condizioni per l’utilizzo legale di tali informazioni.

Quando i fornitori utilizzano corpora contenenti informazioni biometriche come i volti, devono ottenere l’autorizzazione e il consenso scritti delle persone corrispondenti o soddisfare altre condizioni legali per l’uso di tali informazioni.

I fornitori dovrebbero valutare gli annotatori di dati AI e garantire la pertinenza delle qualifiche di annotazione, nonché stabilire il meccanismo di riqualificazione degli annotatori e sospendere o revocare le qualifiche, ove necessario.

Durante il processo di training dei dati, la sicurezza del contenuto generato dovrebbe essere considerata come uno dei principali criteri di giudizio per valutare la qualità dei risultati generati.

Per i servizi forniti tramite interfaccia interattiva, le informazioni sul pubblico destinatario, le occasioni e gli scopi per i quali il servizio è applicabile, nonché le informazioni sull’applicazione sui modelli base di terze parti dovrebbero essere divulgate al pubblico in un luogo ben visibile come l’homepage del sito web.

Inoltre, i fornitori dovrebbero verificare pienamente la necessità, l’applicabilità e la sicurezza dell’applicazione dell’AI generativa in vari campi nell’ambito del servizio.

In precedenza, sette autorità cinesi, tra cui l’Amministrazione cinese del cyberspazio, la Commissione nazionale per lo sviluppo e la riforma, il Ministero dell’Istruzione, il Ministero dell’Industria e della Tecnologia dell’informazione, il Ministero della Pubblica Sicurezza e l’Amministrazione nazionale della radio e della televisione, avevano adottato misure provvisorie per la gestione dei servizi di AI generativa emanate il 15 agosto.

Le misure stabiliscono che i fornitori di servizi non devono utilizzare algoritmi, dati, piattaforme o altri vantaggi per impegnarsi in pratiche monopolistiche e di concorrenza sleale. Le misure vietano inoltre di danneggiare la salute fisica e mentale di altri o di violare l’immagine, la reputazione, l’onore, i diritti alla privacy o i diritti e gli interessi sulle informazioni personali di altri.

Le misure richiedono inoltre l’adozione di misure efficaci per aumentare la trasparenza dei servizi di intelligenza artificiale generativa e migliorare l’accuratezza e l’affidabilità dei contenuti generati.

Traduzione a cura di Trancemedia.eu
Testo originale in inglese (apre in nuova scheda dal sito Global Times)


Aggiornamento 16 gennaio 2024Davos, risposte del premier cinese Li Qiang sulla governance dell’AI. Pubblicato sul canale youtube di Shanghai Eye. Lingue: cinese, inglese. Durata: 13 min.

“Devono essere gli umani a controllare l’AI e non il contrario”, “L’AI deve servire gli interessi della maggioranza degli umani”, “L’AI non sia strumento egemonico”


Glossari di base di termini AI 

Un glossario di termini per iniziare a conoscere le tecnologie di intelligenza artificiale (AI) e linguaggio naturale (NL) e per semplificare la conversazione in merito, è pubblicato in lingua inglese dal sito Expert.ai
Un glossario più ricco ma potenzialmente più dispersivo per chi si accosta ora al tema è disponibile su en.wikipedia

 

 

Trancemedia.eu – LA TRANCE DI RITORNO ALLA REALTÀ
sperimenta contenuti transmedia di realtà,
ricerca nuovi approcci editoriali e culturali nel secolo
che vede crollare i paradigmi della modernità passata.
Ambiente, territori, energia, democrazia, debito,
con le relative collisioni, sono temi ricorrenti
della nostra attività editoriale partecipata online.


© Copyright 2015-2024 by Fert Rights srl. Tutti i diritti riservati. CCIAA Torino 08184530015