Né esseri umani né pappagalli, ma un’altra tipologia di intelligenza.

Leggi in app

Cosa significa chiarire un comportamento o una competenza?

Immaginate un pipistrello che riesce a catturare fino a mille piccole zanzare all’ora, anche nel buio totale. Se cercate di comprendere questa straordinaria capacità, vi rivolgete a un biologo, il quale vi spiega: “sta semplicemente cercando di accumulare energia”.

Questa potrebbe sembrare una spiegazione plausibile, ma mentre uscite vi viene un dubbio: perché il topo, che è anch’esso un organismo biologico e affamato, non ne cattura nemmeno una?

Nell’ufficio accanto incontrate un etologo, il quale vi fornisce una risposta differente: il pipistrello possiede un sonar, ha ali che gli permettono di controllare la traiettoria e un cervello capace di elaborare gli echi in tempo reale, traducendo le informazioni in azioni fulminee. Ecco la spiegazione che stavate cercando: non il motivo per cui cattura le zanzare, ma il modo in cui riesce a farlo. La scienza deve essere affrontata al livello appropriato.

Questa considerazione è rilevante oggi, di fronte alle potenti macchine intelligenti capaci di superare esami universitari, dimostrare teoremi e programmare altri computer. Davanti a tali prestazioni, la spiegazione di queste abilità straordinarie è spesso che questi sistemi sono modelli matematico-statistici che apprendono correlazioni e utilizzano un meccanismo che prevede la parola successiva.

Questo è corretto, ma non costituisce una spiegazione, è quasi un modo per evitare di chiarire, mascherato da risposta. È come se liquidassimo il comportamento del pipistrello affermando che sta semplicemente cercando di sopravvivere.

Ed è da questa vaghezza che scaturisce la confusione, e poi la tendenza a antropomorfizzare. Se non comprendiamo come funziona internamente, il rischio è di proiettare capacità umane sulla macchina o di negare qualsiasi forma di intelligenza. Entrambi sono errori.

La statistica descrive un aspetto del meccanismo, ma non spiega cosa emerga da quel meccanismo. Sono due domande distinte. La seconda è quella che suscita interesse.

Il problema si risolve guardando all’interno, e oggi questo è possibile. La domanda scientifica fondamentale è: come fanno queste macchine a risolvere quei problemi? E perché cinque anni fa, con gli stessi strumenti matematici, non ci riuscivano?

La questione è ancora aperta, per un motivo semplice: queste macchine non sono state programmate, ma addestrate, e quindi nessuno ha spiegato loro come effettuare una diagnosi o dimostrare un teorema. Hanno appreso, ma hanno registrato quelle conoscenze in una forma che non riusciamo a decifrare.

L’impresa di decifrarle è ulteriormente complicata dalle loro enormi dimensioni: addestrate su 200mila processori, leggendo 500mila libri, per regolare diecimila miliardi di parametri. Un sistema di questo tipo, illeggibile o indecifrabile, è tecnicamente definito black box.

Esiste oggi una nuova disciplina scientifica che si pone questa domanda senza cercare scuse: si chiama mechanistic interpretability. Una nuova generazione di scienziati ha assunto il compito di aprire la scatola nera per cercare, al suo interno, la “mappa” che le IA utilizzano per risolvere i problemi che poniamo loro.

La corsa per decifrare i meccanismi delle reti neurali è in pieno svolgimento, e ciò che gli scienziati stanno scoprendo è sorprendente: neuroni che si attivano alla vista di uno scacco matto, in qualsiasi configurazione; altri che rispondono alla presenza del Golden Gate in un documento: in immagini diverse, in testi di qualsiasi lingua, e anche in perifrasi. Sempre gli stessi neuroni, che riconoscono lo stesso concetto.

I cataloghi più aggiornati elencano milioni di concetti di questo tipo, scoperti all’interno delle reti neurali di Claude e di GPT. E poi ci sono i circuiti che li collegano, e che consentono loro di calcolare le risposte, ben prima di scegliere le parole con cui esprimerle.

Inoltre, si trovano mappe interne del mondo fisico, incomplete e approssimative, ma utili per rispondere a domande di geografia. Queste sono rappresentazioni interne di concetti astratti, non semplici parole, ma idee, che si sono formate mentre la macchina imparava a prevedere le parole mancanti in testi sempre più complessi. E una rete di concetti astratti è un modello del mondo, ovviamente differente dal nostro.

Le macchine intelligenti di oggi non ripetono frasi già viste, ma compongono risposte dopo aver deciso il contenuto, al punto che gli scienziati possono cambiare la lingua in cui rispondono, semplicemente stimolando pochi neuroni.

È questa la parte affascinante di questo momento scientifico: esiste uno spazio di intelligenze possibili, ancora da esplorare. Le intelligenze artificiali attuali non sono pappagalli, ma non sono nemmeno simili alle menti umane: sono qualcosa di diverso. Un tipo di mente aliena e primitiva, con una sua forma distinta dalla nostra, non umana ma che possiamo studiare. Abbiamo appena aperto una porta, e presto ne troveremo altre.

Il libro che ho scritto (Forma Mentis, Edizioni Il Mulino, 2026) narra la storia dei ricercatori impegnati nell’importante e urgente compito di decifrare i pensieri delle macchine, i metodi che utilizzano e le scoperte sorprendenti che ci stanno costringendo a considerare la scomoda possibilità che anche una macchina possa comprendere delle cose – sebbene in modo chiaramente non umano.

* Nello Cristianini è professore di Intelligenza artificiale presso l’Università di Bath. Ha pubblicato diversi libri, l’ultimo, Forma mentis (Edizioni il Mulino) è disponibile in libreria da oggi.

Lega