Ma con l’aumento dell’utilizzo dell’IA generativa, cresce anche il rischio di abusi e di danni. Per questo, 18 Paesi, tra cui l’Italia, hanno presentato un documento contenente le linee guida per uno sviluppo sicuro dei sistemi di IA.
Il documento
Il documento, intitolato “Linee guida per lo sviluppo sicuro dei sistemi di IA”, è stato reso pubblico il 27 novembre 2023. È stato sottoscritto da 23 agenzie di 18 Paesi, tra cui Australia, Canada, Cile, Corea del Sud, Estonia, Francia, Germania, Giappone, Israele, Italia, Nigeria, Norvegia, Nuova Zelanda, Polonia, Regno Unito, Repubblica Ceca, Singapore e Stati Uniti.
Le linee guida sono suddivise in quattro aree chiave:
Progettazione sicura: l’IA deve essere progettata tenendo conto dei rischi e delle minacce potenziali.
Sviluppo sicuro: il processo di sviluppo dell’IA deve essere sicuro e affidabile.
Implementazione sicura: l’IA deve essere implementata in modo sicuro e protetto.
Funzionamento e manutenzione sicuri: l’IA deve essere monitorata e mantenuta in modo sicuro.
Le linee guida non sono vincolanti, ma rappresentano un punto di riferimento per gli sviluppatori di IA. L’obiettivo è quello di promuovere un’IA che sia responsabile, etica e sicura.
La sicurezza, parola chiave
La parola chiave delle linee guida è sicurezza. L’IA deve essere progettata, sviluppata, implementata e mantenuta in modo sicuro, per evitare abusi e danni.
In particolare, le linee guida sottolineano l’importanza di proteggere l’IA dalle seguenti minacce:
Manipolazione: l’IA può essere utilizzata per manipolare le persone o per diffondere disinformazione.
Discriminazione: l’IA può essere utilizzata per discriminare le persone sulla base di sesso, etnia, religione o altri fattori.
Interruzione: l’IA può essere utilizzata per interrompere i servizi o per causare danni materiali.
L’Italia: un ruolo attivo
L’Italia ha svolto un ruolo attivo nella stesura delle linee guida. Bruno Frattasi, direttore generale dell’Agenzia per la Cybersicurezza Nazionale (ACN), ha dichiarato:
“L’Intelligenza Artificiale è una sfida a cui l’Agenzia non vuole e non può sottrarsi. Per questo abbiamo aderito con convinzione a questa iniziativa.
È una sfida che può essere vinta solo tutti assieme: dobbiamo mettere a disposizione le migliori energie, intellettuali e strumentali del nostro Paese e di tutti gli altri Paesi che si apprestano ad affrontare, a partire dal prossimo G7 a guida italiana, questa impresa così altamente impegnativa per l’intera umanità”.
Conclusioni
Le linee guida per lo sviluppo sicuro dei sistemi di IA rappresentano un passo importante per garantire un futuro etico e sicuro per l’IA generativa. L’Italia ha svolto un ruolo attivo nella loro stesura e continuerà a lavorare per promuovere un’IA che sia responsabile e a beneficio di tutti.
L’articolo L’intelligenza artificiale generativa: come renderla sicura proviene da CorriereNerd.it.
Aggiungi un commento