Il paradosso dell’intelligenza artificiale: sviluppare sistemi intelligenti senza comprendere il concetto di intelligenza.
Il paradosso fondativo dell’Intelligenza Artificiale contemporanea
Creare intelligenze senza avere una comprensione dell’intelligenza non è una semplice provocazione retorica, ma rappresenta la descrizione più precisa della condizione storica in cui si trova l’attuale sviluppo dell’Intelligenza Artificiale generativa. Per la prima volta, sistemi artificiali manifestano comportamenti che possono essere considerati analoghi a quelli attribuiti all’intelligenza umana, mentre contemporaneamente la comunità scientifica ammette di non avere una teoria comune, unificata e operativa dell’intelligenza come fenomeno biologico, cognitivo e culturale.
Questa discrepanza non è trascurabile. L’IA moderna non deriva da una comprensione dell’intelligenza umana, ma da una combinazione di progressi tecnologici che hanno reso possibile l’addestramento di modelli statistici su scala senza precedenti. I Large Language Models si basano su architetture neurali artificiali addestrate a prevedere sequenze linguistiche, ottimizzando correlazioni tra simboli su enormi volumi di dati. I loro successi non provengono da una teoria della mente, ma da una teoria operativa del linguaggio come distribuzione statistica apprendibile (Bommasani et al., On the Opportunities and Risks of Foundation Models; 2023; Mitchell & Krakauer, The Debate Over Understanding in AI; 2024).
Dall’altro lato, la ricerca sull’intelligenza umana avanza in modo strutturalmente disomogeneo. Neuroscienze, psicologia cognitiva, scienze comportamentali e filosofia della mente offrono contributi significativi ma parziali e difficilmente armonizzabili in un modello causale coerente. Non esiste attualmente una spiegazione condivisa di come i processi neurali, corporei e ambientali generino fenomeni cognitivi complessi come ragionamento astratto, intenzionalità, autoconsapevolezza o coscienza (Dehaene et al., 2024; Seth & Bayne, Theories of Consciousness; 2023).
È in questo contesto che il paradosso diventa chiaro: stiamo creando sistemi che emulano il comportamento intelligente senza sapere esattamente cosa stiamo replicando. Quando si afferma che un sistema di IA “ragiona come un umano”, si compie un’errata sovrapposizione tra prestazione osservabile e meccanismo cognitivo. Un modello può fornire risposte coerenti, argomentazioni complesse e piani plausibili senza avere una rappresentazione semantica del mondo né una comprensione intenzionale del contesto in cui opera (Bender et al., On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 2021; Shanahan, Talking About Large Language Models; 2022).
Questa distinzione è fondamentale. L’intelligenza umana non si limita alla correttezza dell’output, ma implica una connessione significativa con il mondo, mediata da esperienza, corporeità, emozione e contesto sociale. I sistemi di IA operano invece sulla superficie linguistica del pensiero, cioè su quella traccia formalizzabile attraverso cui l’intelligenza umana si esprime, senza accedere ai processi che la generano (Barsalou, 2023; Thompson, Mind in Life: Biology, Phenomenology, and the Sciences of Mind. Harvard University Press).
Il rischio epistemologico non consiste solo nell’attribuire alle macchine caratteristiche che non possiedono, ma nel ridefinire implicitamente l’intelligenza in base a ciò che le macchine sono in grado di fare. In questa transizione, la tecnologia smette di essere uno strumento e diventa un criterio, influenzando il modo in cui interpretiamo l’intelligenza stessa. È su questa tensione che si fonda questo articolo: non si propone di negare il valore dell’IA, ma di riflettere sulle conseguenze di uno sviluppo che avanza più rapidamente della nostra comprensione di ciò che intende replicare.
La grande asimmetria: investimenti, incentivi e priorità globali
Il paradosso concettuale fin qui descritto diventa pienamente evidente osservando i flussi di investimento che stanno rimodellando le priorità della ricerca e dell’innovazione a livello globale. La distanza tra ciò che investiamo per costruire sistemi di Intelligenza Artificiale e ciò che investiamo per comprendere l’intelligenza umana non è simbolica, ma quantificabile e in rapida espansione.
A partire dal 2023, l’Intelligenza Artificiale è diventata il principale polo di attrazione del capitale tecnologico globale. Nel 2024, gli investimenti privati in IA hanno superato i 250 miliardi di dollari, con tassi di crescita a doppia cifra e una concentrazione sempre più marcata sui modelli generativi e sui foundation model (Stanford HAI, 2024; McKinsey Global Institute, 2023). Nel 2025, oltre il 40% del venture capital tecnologico globale è risultato direttamente o indirettamente riconducibile all’IA, una quota senza precedenti nella storia recente dell’innovazione (Crunchbase, 2025).
Questa dinamica non coinvolge soltanto startup e venture capital. I principali hyperscaler hanno annunciato piani di investimento pluriennali in infrastrutture computazionali dedicate all’IA, stimati tra i 150 e i 300 miliardi di dollari complessivi entro la fine del decennio, destinati in gran parte a data center, chip specializzati e sistemi di addestramento su scala massiva (Goldman Sachs Research, 2024). In questo contesto, singoli modelli di IA richiedono investimenti comparabili ai bilanci annuali di interi programmi nazionali di ricerca scientifica.
Se si analizza il lato opposto, quello della comprensione dell’intelligenza umana, il quadro è radicalmente diverso. I finanziamenti destinati a neuroscienze, scienze cognitive e psicologia sperimentale aumentano lentamente, con tassi medi annui stimati tra il 3 e il 5%, e rimangono in gran parte confinati alla ricerca pubblica o filantropica. A livello globale, l’investimento complessivo annuo in neuroscienze è stimato tra i 7 e i 10 miliardi di dollari, includendo ricerca clinica, sanitaria e di base; la quota specificamente dedicata allo studio dei meccanismi cognitivi superiori rappresenta solo una frazione di questo totale (NIH, 2024; European Brain Research Area, 2024).
Il confronto è eloquente: l’ordine di grandezza degli investimenti nell’IA supera di decine di volte quello destinato alla comprensione dell’intelligenza umana. Questa sproporzione non è il risultato di una sottovalutazione scientifica, ma di incentivi economici strutturali. L’IA è scalabile, industrializzabile, brevettabile; consente l’appropriazione privata del valore e promette ritorni rapidi. La ricerca sull’intelligenza umana produce invece conoscenza cumulativa, diffusa e difficilmente monetizzabile nel breve periodo.
A ciò si aggiunge un aspetto decisivo: l’IA genera valore anche senza risolvere il problema teorico dell’intelligenza. I sistemi generativi dimostrano che è possibile ottenere prestazioni utili, affidabili e commercialmente rilevanti senza comprendere i meccanismi cognitivi che rendono l’intelligenza umana tale. Questo fatto, più di qualsiasi posizione ideologica, guida le decisioni di investimento e sposta l’attenzione dalla comprensione alla performance (Brynjolfsson et al., 2024; Mitchell & Krakauer, 2024).
Il risultato è una riallocazione sistematica delle risorse. Università e centri di ricerca vengono progressivamente incentivati a riorganizzarsi attorno all’IA applicata, spesso adattando linguaggi, priorità e linee di ricerca per intercettare finanziamenti e partnership industriali. Nel frattempo, gli studi fondamentali sull’intelligenza umana perdono centralità strategica, pur rimanendo cruciali sul piano scientifico (Nature Human Behaviour, 2024).
Questa asimmetria genera un effetto meno visibile ma più profondo: l’IA diventa implicitamente il riferimento attraverso il quale definiamo cosa intendiamo per intelligenza. In assenza di un contrappeso teorico robusto, ciò che è computabile, misurabile e ottimizzabile tende a essere assunto come criterio di validità. La tecnologia non si limita a risolvere problemi, ma inizia a orientare il modo in cui formuliamo i problemi stessi.
È su questa base che diventa necessario interrogarsi non solo su quanto investiamo nell’IA, ma su che cosa stiamo realmente costruendo. Nel paragrafo successivo, l’attenzione si concentrerà sul piano tecnico per analizzare come funzionano effettivamente i Large Language Models, perché producono risultati così impressionanti e quali limiti strutturali emergono proprio dall’assenza di una comprensione più profonda dell’intelligenza.
Che cosa stiamo davvero costruendo: architetture, emergenza e limiti strutturali
Per comprendere la natura dell’attuale sviluppo dell’Intelligenza Artificiale è fondamentale esaminare il funzionamento dei Large Language Models senza ricorrere né a un entusiasmo acritico né a un riduzionismo. Gli LLM non sono sistemi che “pensano” nel senso umano del termine, ma architetture computazionali progettate per ottimizzare una funzione obiettivo precisa: la previsione del token successivo all’interno di una sequenza linguistica. A partire da questo principio fondamentale, l’aumento drastico della scala ha prodotto risultati che, sul piano funzionale, appaiono sorprendentemente simili a comportamenti intelligenti.
La svolta tecnica è avvenuta con l’adozione di architetture di tipo transformer, capaci di gestire contesti estesi e di apprendere relazioni complesse tra elementi linguistici. L’incremento simultaneo di parametri, dati e potenza computazionale ha consentito l’emergere di capacità non esplicitamente programmate: ragionamento multi-step, generalizzazione tra domini, produzione di spiegazioni articolate e pianificazione apparente (Kaplan et al., 2023; Wei et al., 2024). Questo fenomeno, descritto come emergenza, è diventato uno dei pilastri narrativi del progresso dell’IA contemporanea.
Tuttavia, emergenza non equivale a comprensione. Le capacità degli LLM non derivano da una rappresentazione causale del mondo, ma da una sofisticata interpolazione statistica tra pattern appresi. Anche quando un modello produce risposte coerenti o soluzioni plausibili, tali output non sono il risultato di una comprensione semantica o intenzionale del contesto, ma dell’attivazione di correlazioni ad alta dimensionalità tra simboli linguistici (Marcus, G., & Davis, E. (2024). Rebooting AI: Building Artificial Intelligence We Can Trust. Vintage Books.).
Un punto tecnico cruciale riguarda l’assenza di un vero world model interno. A differenza dell’intelligenza umana, che costruisce modelli dinamici dell’ambiente basati su percezione, azione ed esperienza, gli LLM operano su rappresentazioni statiche derivanti dai dati di addestramento. Non apprendono attraverso l’interazione diretta con il mondo, ma attraverso la compressione statistica di descrizioni linguistiche del mondo prodotte da altri agenti umani. Questo limita la loro capacità di adattarsi in modo robusto a contesti nuovi e non previsti (Lake, 2023; Battaglia et al., 2024).
Un ulteriore limite strutturale emerge nel rapporto tra scala e affidabilità. Studi recenti mostrano che, pur continuando a migliorare le prestazioni medie, l’aumento della scala non elimina fenomeni come allucinazioni, instabilità delle risposte e sensibilità eccessiva al contesto. Questi problemi non sono semplici difetti ingegneristici, ma conseguenze dirette di architetture che non possiedono una nozione intrinseca di verità, significato o rilevanza (Mitchell, 2024; Hoffmann et al., 2024).
Dal punto di vista strategico, questo introduce una tensione profonda. Il paradigma dominante nello sviluppo dell’IA presuppone che l’aumento continuo della scala sia sufficiente a superare progressivamente ogni limite. Tuttavia, i segnali di rendimenti decrescenti suggeriscono che i miglioramenti ottenuti attraverso lo scaling diventano sempre più costosi e meno significativi nei compiti che richiedono comprensione profonda, robustezza concettuale e adattamento situazionale (Sutton, 2024).
Il successo degli LLM rischia quindi di generare un effetto paradossale: più questi sistemi sembrano intelligenti sul piano funzionale, più diventa difficile riconoscerne i limiti strutturali. L’Intelligenza Artificiale generativa si configura come una forma di intelligenza compressa, estremamente potente nella manipolazione simbolica, ma priva di molti degli elementi che caratterizzano l’intelligenza biologica, come l’esperienza incarnata, la metacognizione autentica e l’apprendimento situato.
Questo non invalida l’approccio attuale, né nega i risultati ottenuti. Tuttavia, introduce una questione che non può più essere ignorata: fino a che punto è possibile proseguire con l’Intelligenza Artificiale basandosi esclusivamente su correlazioni statistiche, senza integrare una comprensione più profonda dei meccanismi cognitivi? È questa tensione, ancora tecnica ma già concettuale, che prepara il terreno per il dialogo con le neuroscienze e le scienze cognitive.
L’intelligenza umana come problema irrisolto: dove neuroscienze e scienze cognitive possono fare la differenza
La difficoltà di comprendere l’intelligenza umana viene spesso usata come giustificazione implicita per non integrarla nello sviluppo dell’Intelligenza Artificiale. Poiché non esiste una teoria unificata della mente, l’ingegneria dell’IA ha scelto di procedere lungo una traiettoria autonoma, basata su efficienza, scalabilità e prestazioni misurabili. Tuttavia, questa scelta non è neutrale: ignora una vasta gamma di conoscenze parziali ma robuste, che potrebbero contribuire in modo decisivo a superare alcuni dei limiti strutturali emersi nei sistemi attuali.
Le neuroscienze e le scienze cognitive convergono su un punto cruciale: l’intelligenza umana non è un singolo modulo, ma un sistema distribuito che integra percezione, azione, memoria, emozione e contesto sociale. Questa integrazione non è accessoria, ma costitutiva. L’intelligenza biologica costruisce modelli interni del mondo orientati all’azione e alla previsione, non semplici correlazioni statistiche (Friston, 2023; Dehaene et al., 2024). È proprio l’assenza di questo tipo di modellizzazione che limita oggi la capacità dell’IA di generalizzare in modo robusto.
Un primo punto di possibile convergenza riguarda la costruzione di world model causali. La ricerca cognitiva mostra come l’intelligenza umana operi attraverso simulazioni interne che permettono di anticipare conseguenze, valutare alternative e ragionare in termini controfattuali. Gli LLM, al contrario, non simulano il mondo, ma lo descrivono indirettamente attraverso tracce linguistiche. Integrare principi derivati dalle scienze cognitive significherebbe spostare l’IA da sistemi reattivi a sistemi capaci di anticipazione strutturata, riducendo fragilità e allucinazioni (Battaglia et al., 2024; Lake et al., 2023).
Un secondo ambito cruciale riguarda il ruolo dell’esperienza e dell’azione. L’intelligenza umana non apprende osservando passivamente i dati, ma interagendo attivamente con l’ambiente, commett
I commenti sono chiusi.