Leggi in app
Cosa significa analizzare un comportamento o una competenza?
Immaginate un pipistrello che riesce a catturare fino a mille piccole zanzare all’ora, anche nel buio totale. Se cercate di comprendere questa straordinaria abilità, vi rivolgete a un biologo, il quale vi spiega: “sta semplicemente cercando di ottenere energia”.
Questa spiegazione potrebbe sembrare adeguata, ma mentre uscite, vi viene un dubbio: perché il topo, che è anch’esso un organismo biologico e affamato, non ne cattura nemmeno una?
Nell’ufficio accanto incontrate un etologo, il quale vi fornisce una risposta differente: il pipistrello possiede un sonar, ha ali che gli permettono di controllare la traiettoria e un cervello capace di elaborare gli echi in tempo reale, traducendo le informazioni in azioni fulminee. Ecco la spiegazione che cercavate: non il motivo per cui cattura le zanzare, ma il modo in cui riesce a farlo. La scienza deve essere affrontata al livello appropriato.
Questa considerazione è rilevante oggi, di fronte alle potenti macchine intelligenti capaci di superare esami universitari, dimostrare teoremi e programmare altri computer. Davanti a tali prestazioni, la spiegazione di queste straordinarie capacità è spesso che questi sistemi sono modelli matematico-statistici che apprendono correlazioni e utilizzano un meccanismo per prevedere la parola successiva.
Questo è corretto, ma non costituisce una spiegazione, è quasi un modo per evitare di chiarire, mascherato da risposta. È come se liquidassimo il comportamento del pipistrello affermando che sta semplicemente cercando di sopravvivere.
Ed è da questa vaghezza che scaturisce la confusione, e successivamente la tendenza ad antropomorfizzare. Se non comprendiamo come funziona internamente, il rischio è di proiettare capacità umane sulla macchina o di negare qualsiasi forma di cognizione. Entrambi sono errori.
La statistica descrive un aspetto del meccanismo, ma non chiarisce cosa emerga da quel meccanismo. Si tratta di due domande distinte. La seconda è quella che suscita interesse.
Il problema si risolve guardando all’interno, e oggi questo è possibile. La domanda scientifica cruciale è: come fanno queste macchine a risolvere tali problemi? E perché cinque anni fa, con gli stessi strumenti matematici, non erano in grado di farlo?
La questione rimane aperta, per un motivo semplice: queste macchine non sono state programmate, ma addestrate, e quindi nessuno ha spiegato loro come effettuare una diagnosi o dimostrare un teorema. Hanno appreso, ma hanno registrato quelle conoscenze in una forma che non possiamo decifrare.
L’impresa di decifrarle è ulteriormente complicata dalle loro enormi dimensioni: addestrate su 200mila processori, leggendo 500mila libri, per regolare diecimila miliardi di parametri. Un sistema di questo tipo, illeggibile o indecifrabile, è tecnicamente definito black box.
Oggi esiste una nuova disciplina scientifica che si occupa di questa domanda senza cercare giustificazioni: si chiama mechanistic interpretability. Una nuova generazione di scienziati ha assunto il compito di aprire la scatola nera per cercare, al suo interno, la “mappa” che le IA utilizzano per risolvere i problemi che poniamo loro.
La corsa per decifrare i meccanismi delle reti neurali è in pieno svolgimento, e ciò che gli scienziati stanno scoprendo è sorprendente: neuroni che si attivano alla vista di uno scacco matto, in qualsiasi configurazione; altri che rispondono alla presenza del Golden Gate in un documento: in immagini diverse, in testi di qualsiasi lingua, e anche in perifrasi. Sempre gli stessi neuroni, che riconoscono lo stesso concetto.
I cataloghi più aggiornati elencano milioni di concetti di questo tipo, scoperti all’interno delle reti neurali di Claude e di GPT. E poi ci sono i circuiti che li collegano, permettendo loro di calcolare le risposte, ben prima di scegliere le parole con cui esprimerle.
Inoltre, si trovano rappresentazioni interne del mondo fisico, incomplete e approssimative, ma utili per rispondere a domande di geografia. Queste sono rappresentazioni interne di concetti astratti, non semplici parole, ma idee, che si sono formate mentre la macchina imparava a prevedere le parole mancanti in testi sempre più complessi. E una rete di concetti astratti è un modello del mondo, ovviamente diverso dal nostro.
Le macchine intelligenti attuali non ripetono frasi già viste, ma generano risposte dopo aver deciso il contenuto, al punto che gli scienziati possono cambiare la lingua in cui rispondono, stimolando solo alcuni neuroni.
È questa la parte affascinante di questo periodo scientifico: esiste uno spazio di intelligenze possibili, ancora da esplorare. Le intelligenze artificiali di oggi non sono pappagalli, ma non sono nemmeno simili alle menti umane: sono qualcosa di diverso. Un tipo di mente aliena e primitiva, con una sua forma distinta dalla nostra, non umana ma che possiamo studiare. Abbiamo appena aperto una porta, e presto ne troveremo altre.
Il libro che ho scritto (Forma Mentis, Edizioni Il Mulino, 2026) narra la storia dei ricercatori impegnati nell’importante e urgente compito di decifrare i pensieri delle macchine, i metodi che utilizzano e le scoperte sorprendenti che ci stanno costringendo a considerare la scomoda possibilità che anche una macchina possa comprendere delle cose – sebbene in modo chiaramente non umano.
* Nello Cristianini è professore di Intelligenza artificiale presso l’Università di Bath. Ha pubblicato diversi libri, l’ultimo, Forma mentis (Edizioni il Mulino) è disponibile in libreria da oggi.