La società no-profit che ha creato il chatbot più avanzato al mondo ha modificato la sua politica di utilizzo, rendendola più generica e meno restrittiva. La nuova versione non vieta più esplicitamente l’uso di ChatGPT per attività militari e guerra, ma si limita a proibire l’uso del chatbot per causare danno a se stessi o agli altri. Questo potrebbe aprire la porta a nuove opportunità di business per OpenAI, che potrebbe attrarre l’interesse del Dipartimento della Difesa e delle agenzie di intelligence degli Stati Uniti.
ChatGPT è un chatbot basato sull’intelligenza artificiale, capace di generare testi coerenti e persuasivi su qualsiasi argomento, a partire da una parola o una frase. Il chatbot è stato sviluppato da OpenAI, una società no-profit fondata da alcuni tra i maggiori imprenditori e ricercatori nel campo dell’intelligenza artificiale. OpenAI si propone di garantire che l’intelligenza artificiale sia usata per il bene dell’umanità, e per questo ha reso disponibile ChatGPT gratuitamente per uso personale e di ricerca.
Tuttavia, la politica di utilizzo di ChatGPT è stata recentemente aggiornata, e ora è più leggibile, ma anche più vaga e meno restrittiva. Mentre la versione precedente aveva una lista dettagliata di usi proibiti, tra cui attività che possono causare gravi danni fisici, la nuova versione non vieta più esplicitamente l’uso di ChatGPT per attività militari e guerra. Ora, il chatbot è solo proibito di essere usato per causare danno a se stessi o agli altri. Per esempio, ChatGPT non può essere usato per promuovere il suicidio o l’autolesionismo, sviluppare o usare armi, danneggiare gli altri o distruggere la proprietà, e svolgere attività non autorizzate che violano la sicurezza di qualsiasi servizio o sistema.
Questo cambiamento potrebbe suggerire una nuova opportunità di business per OpenAI, visto che il linguaggio usato nei suoi termini di servizio è alquanto vago. Alcuni esperti del settore suggeriscono che la società con sede in California abbia rimosso i termini “militare” e “guerra” dopo aver notato un crescente interesse per la tecnologia da parte del Dipartimento della Difesa e delle agenzie di intelligence degli Stati Uniti. Questi potrebbero essere potenziali clienti per ChatGPT Enterprise, la versione a pagamento del chatbot, pensata per le aziende e le organizzazioni che vogliono usare il chatbot per scopi specifici.
Tuttavia, l’uso di ChatGPT per scopi militari solleva diverse questioni etiche e legali, come la responsabilità, la trasparenza, la sicurezza, e la conformità alle norme internazionali. Chi sarebbe responsabile se ChatGPT causasse danni involontari o intenzionali a persone o proprietà? Come si potrebbe garantire che ChatGPT non fosse usato per scopi illeciti o immorali, come la propaganda, la manipolazione, o la disinformazione? Come si potrebbe proteggere ChatGPT da attacchi informatici o da usi non autorizzati? Come si potrebbe assicurare che ChatGPT rispettasse i principi umanitari e i diritti umani nel contesto bellico?
Inoltre, l’uso di ChatGPT per scopi militari presenta delle sfide tecniche e pratiche, come la qualità, l’affidabilità, e la sicurezza dei testi generati. ChatGPT, infatti, non può pilotare un drone o lanciare un missile, ma potrebbe potenzialmente essere usato per scrivere codice. Data la questione delle allucinazioni, cioè la tendenza del chatbot a inventare fatti o dati non verificabili, ci sono evidenti rischi associati all’uso del chatbot per attività critiche o sensibili.
D’altra parte, l’uso di ChatGPT per scopi militari potrebbe anche avere degli aspetti positivi, come la facilitazione della comunicazione, la semplificazione dei processi, e la generazione di nuove idee. ChatGPT potrebbe essere usato per creare interfacce in linguaggio naturale per i sistemi senza pilota, permettendo ai soldati di interagire con i sistemi usando comandi vocali e linguaggio naturale. ChatGPT potrebbe anche essere usato per generare rapporti, briefing, documenti, e comunicazioni militari, sfruttando la sua capacità di produrre testi coerenti e persuasivi.
Su un piano diverso, il governatore della Pennsylvania ha recentemente annunciato che ChatGPT Enterprise sarebbe stato usato da alcuni dipendenti statali per compiti specifici, come creare e modificare testi, semplificare il linguaggio politico obsoleto, scrivere annunci di lavoro, identificare duplicazioni e istruzioni contrastanti all’interno dei documenti, e supportare la generazione di codice. Questo dimostra che ChatGPT può avere delle applicazioni utili e innovative anche al di fuori del settore militare, e che OpenAI può continuare a perseguire la sua missione di garantire che l’intelligenza artificiale sia usata per il bene dell’umanità.
L’articolo OpenAI cambia la sua politica sull’uso di ChatGPT per scopi militari proviene da CorriereNerd.it.
Aggiungi un commento