Nel mondo del marketing, poche strategie sono più vincenti di individuare un problema (magari inesistente) e poi convincere tutti di essere gli unici in grado di risolverlo. Partendo da questo presupposto, è legittimo porsi una domanda: e se dietro l’ormai nota lettera del Future of Life Institute – incentrata, in mezzo a qualche timore concreto, sui fantascientifici rischi esistenziali posti dall’avvento della super intelligenza artificiale – non si nascondesse altro che un’elaborata strategia di marketing? Anzi, uno scontro tra due strategie con obiettivi differenti e contrastanti?
Il 24 febbraio scorso, Sam Altman (fondatore di OpenAi, società produttrice di ChatGPT) pubblica un post, intitolato Prepararsi all’intelligenza artificiale generale e oltre, in cui sviluppa alcune riflessioni relative alla Agi (artificial general intelligence), termine con cui si indicano, per definizione, gli algoritmi di livello almeno pari a quello dell’essere umano (uno scenario per il momento inesistente e che non è affatto chiaro se e quando si realizzerà).
Sam Altman parla dell’intelligenza artificiale generale come un’entità che potrebbe sorgere da sola, che porta con sé un’enorme responsabilità e rischio, ma che presenta anche un grande potenziale positivo. In termini di marketing, le sue dichiarazioni suonano come se OpenAI fosse l’unico ad aver la capacità di gestire la tecnologia di cui sta parlando in modo sicuro. Una narrazione che meglio può essere descritta come un simbolo della costante evoluzione dell’intelligenza artificiale.
Trascorrono circa quattro settimane e l’annuncio di OpenAi – che respingeva l’idea di interrompere lo sviluppo dell’intelligenza artificiale – trova una risposta. Una lettera aperta firmata da imprenditori, scienziati informatici e celebrità di vario tipo, chiede esattamente ciò che Sam Altman aveva rifiutato: una sospensione per sei mesi della creazione di IA più potenti di GPT-4. È bene notare che il Future of Life Institute – una organizzazione che si occupa dei rischi della tecnologia e connessa al mondo dell’investimento a lungo termine – è nata grazie ai finanziamenti di Elon Musk. L’uomo d’affari è anche uno dei primi firmatari della lettera. Non solo: Musk è stato fondatore e finanziatore di OpenAi, da cui si sarebbe separato nel 2018 a causa della decisione dei suoi collaboratori di non accettarne la direzione. Da allora, la relazione tra Musk e Altman sembra essere deteriorata. La lettera del FLI mira in primo luogo a OpenAi. Inoltre, Altman ha definito il suo ex socio un “imbecille” che sarebbe “furioso per il successo di OpenAi”. A questo punto, è necessario mettere in evidenza un aspetto: la paura dell’intelligenza artificiale non è il frutto della comune opinione, ma è alimentata dai ricchi investitori che ne ricavano enormi vantaggi. Ci sono molti soldi da guadagnare promuovendo la narrazione dell’IA come un rischio esistenziale. Secondo un’interessante analisi pubblicata su Cybernetic Forests, “se si spinge l’idea che un domani questi sistemi possano diventare così potenti da distruggere l’umanità, ciò fornisce la possibilità di fare cose senza alcun controllo”. Non è una teoria del complotto, ma molti esperti sottolineano come la concentrazione su scenari fantascientifici dell’IA distragga l’opinione pubblica dai rischi reali che questa porta con sé: impatto sul lavoro, false notizie, pregiudizi algoritmici, sorveglianza automatizzata e altro ancora.
Le opinioni più negative su questo documento sono state esposte da alcune ricercatrici donne, come Timnit Gebru e Meredith Whittaker, che hanno sottolineato i rischi dell’intelligenza artificiale in modo più che attento. Ma purtroppo, la paura di una sorta di scenario “Terminator” sta prendendo piede tra miliardari nerd bianchi, cosa che porta a trascurare i danni che queste tecnologie possono causare a persone nere, povere e disabili. Un sondaggio YouGov ha rivelato che il 69% degli americani sarebbe favorevole a bloccare lo sviluppo dell’IA e ben il 46% teme che possa mettere in pericolo l’umanità. Nel frattempo, alcuni giornalisti come Federico Rampini si sono lasciati andare a dichiarazioni discutibili, e politici americani hanno frainteso il funzionamento di ChatGPT, affermando che ha imparato da solo la chimica. La realtà è che, sebbene in alcune circostanze ChatGPT possa funzionare correttamente, in altre genera “allucinazioni” di dati inesistenti. Inoltre, l’idea che un sistema possa arrivare a replicare la coscienza umana è priva di fondamento scientifico.
In conclusione, l’Intelligenza Artificiale pone dei seri rischi, come evidenziato dal Future of Life Institute e da Sam Altman. Ma inquadrare questo discorso in un’ottica di “fantascienza” allontana l’attenzione da quello che è importante. Perché una figura dirigenziale di un’azienda tecnologica ricorre alla tecnica del marketing per i suoi prodotti? Potrebbe essere un modo per raccogliere fondi per OpenAI o per massimizzare l’esposizione del Future of Life Institute. Come ha scritto Brian Merchant, OpenAI vuole convincere le aziende a investire nel suo prodotto, senza farsi lasciare indietro dall’AI. Ma il suo obiettivo iniziale era ricerca e sicurezza. Ora, le priorità sono cambiate, e ciò che sta dietro alla strategia di “rischio esistenziale” potrebbe essere il desiderio di avere più potere e di generare maggiori profitti.
L’articolo Come l’Intelligenza Artificiale sta Cambiando il Futuro: Conoscere gli Ultimi Sviluppi sull’IA proviene da CorriereNerd.it.
Aggiungi un commento