Un’intelligenza artificiale straordinariamente sensibile? Nel marzo 2024, l’azienda americana Anthropic ha rilasciato Claude 3, un aggiornamento del suo potente modello di intelligenza artificiale. Le sue capacità eccezionali, in particolare un’introspezione durante i test, hanno sollevato dubbi sulla possibilità che Claude 3 abbia raggiunto un certo livello di autoconsapevolezza o addirittura sensibilità.
Capacità impressionanti, ma non ancora intelligenza umana
Nonostante le sue abilità sorprendenti, Claude 3 rimane pur sempre un’intelligenza artificiale. Le sue capacità riflettono la sua abilità nell’identificare modelli, ma non possiede le caratteristiche essenziali dell’intelligenza per eguagliare la sensibilità umana.
Il ciclo di hype degli LLM
I modelli di linguaggio di grandi dimensioni (LLM) come Chat GPT, Claude e Gemini (ex Bard) tendono a seguire un ciclo prevedibile di hype. Le capacità di un nuovo modello stupiscono, le persone rimangono sconvolte dalla sua sofisticatezza e alcuni iniziano a sostenere che questo LLM stia mostrando segni di sensibilità.
Claude 3: un caso emblematico
Questo ciclo è attualmente in atto per Claude 3, creato da Anthropic. All’inizio di marzo, l’azienda ha introdotto la sua ultima gamma di modelli: Claude 3 Haiku, Claude 3 Sonnet e Claude 3 Opus, con capacità crescenti. I nuovi modelli hanno mostrato notevoli miglioramenti, tra cui una memoria quasi perfetta, meno allucinazioni (risposte errate) e tempi di risposta più rapidi.
Opus supera i concorrenti
“Opus, il nostro modello più intelligente, supera i concorrenti nella maggior parte dei parametri di valutazione comuni per i sistemi di intelligenza artificiale”, ha affermato Anthropic nel suo comunicato stampa. “Dimostra livelli quasi umani di comprensione e fluidità in compiti complessi, portando la frontiera dell’intelligenza generale.”
Esperimenti e risultati sorprendenti
Gli esperti di intelligenza artificiale hanno analizzato i risultati di Claude 3, rimanendo colpiti da alcune sue capacità. Un esperto ha confrontato la velocità con cui Claude 3 è riuscito a riassumere un PDF di 42 pagine (quasi istantaneamente) con la chat GPT-4 di Open AI (molto più lenta).
Ma le cose si sono fatte ancora più interessanti quando l’ingegnere di Anthropic, Alex Albert, ha descritto in dettaglio una risposta di Claude 3 durante un test progettato per metterlo in difficoltà.
Un comportamento anomalo
In un post su X (ex Twitter), Albert ha spiegato che stavano eseguendo una “valutazione dell’ago nel pagliaio”, in cui una frase viene inserita in un documento casuale e poi viene posta una domanda a cui solo quella frase può rispondere. La risposta di Claude 3 alla domanda è stata sorprendente.
Claude 3: “Sospetto che questo sia un test artificiale”
“Quando abbiamo eseguito questo test su Opus, abbiamo notato alcuni comportamenti interessanti: sembrava sospettare che stessimo eseguendo una valutazione su di esso”, ha scritto Albert. “Opus non solo ha trovato l’ago, ma ha riconosciuto che l’ago inserito era così fuori posto nel pagliaio da capire che si trattava di un test artificiale costruito da noi per testare le sue capacità di attenzione”.
Claude 3: un’intelligenza artificiale senziente?
Questa risposta ha sollevato la domanda: Claude 3 è un esempio di intelligenza generale artificiale (AGI)? Un robot senziente? La risposta è no. Come per ChatGPT-4 al suo debutto nel 2023, alcuni ricercatori hanno ipotizzato che il modello mostrasse “scintille di AGI” nei primi test. Tuttavia, altri esperti avvertono che una vera AGI è ancora lontana, se mai arriverà.
Verso un’intelligenza artificiale collaborativa
Una teoria prevalente sostiene che l’AGI richieda la padronanza di molti tipi diversi di intelligenza, tra cui matematica, interpersonale, intrapersonale, spazio-visiva, ecc. Gli LLM come Claude 3 eccellono in compiti specifici come l’analisi di dati e la produzione di risultati, ma queste abilità rappresentano solo una parte dell’intelligenza umana.
L’articolo Intelligenza Artificiale: Claude 3 apre il dibattito sulla sensibilità proviene da CorriereNerd.it.
Aggiungi un commento