Il paradosso dell’intelligenza artificiale: sviluppare intelligenze senza comprendere il concetto di intelligenza.
Il paradosso fondamentale dell’Intelligenza Artificiale moderna
Creare intelligenze senza avere una comprensione dell’intelligenza non rappresenta un semplice slogan retorico, ma piuttosto la descrizione più precisa della situazione storica in cui si trova l’attuale progresso dell’Intelligenza Artificiale generativa. Per la prima volta, sistemi artificiali dimostrano comportamenti funzionalmente simili a quelli che associamo all’intelligenza umana, mentre contemporaneamente la comunità scientifica ammette di non avere una teoria condivisa, unificante e operativa dell’intelligenza come fenomeno biologico, cognitivo e culturale.
Questa discrepanza non è di poco conto. L’IA moderna non deriva da una comprensione dell’intelligenza umana, ma da una sinergia di progressi tecnici che hanno reso possibile l’addestramento di modelli statistici su scala senza precedenti. I Large Language Models si basano su architetture neurali artificiali progettate per prevedere sequenze linguistiche, ottimizzando correlazioni tra simboli su enormi volumi di dati. Il loro successo non è frutto di una teoria della mente, ma di una teoria operativa del linguaggio come distribuzione statistica apprendibile (Bommasani et al., On the Opportunities and Risks of Foundation Models; 2023; Mitchell & Krakauer, The Debate Over Understanding in AI; 2024).
Dall’altra parte, la ricerca sull’intelligenza umana avanza in modo strutturalmente frazionato. Neuroscienze, psicologia cognitiva, scienze comportamentali e filosofia della mente offrono contributi significativi, ma parziali e difficilmente integrabili in un modello causale coerente. Non esiste attualmente una spiegazione condivisa di come processi neurali, corporei e ambientali diano vita a fenomeni cognitivi complessi come ragionamento astratto, intenzionalità, autoconsapevolezza o coscienza (Dehaene et al., 2024; Seth & Bayne, Theories of Consciousness; 2023).
È proprio in questo contesto che il paradosso si manifesta chiaramente: stiamo creando sistemi che emulano comportamenti intelligenti senza sapere esattamente cosa stiamo imitando. Quando si afferma che un sistema di IA “ragiona come un umano”, si compie una confusione inadeguata tra prestazione osservabile e meccanismo cognitivo. Un modello può generare risposte coerenti, argomentazioni complesse e piani plausibili senza avere una rappresentazione semantica del mondo né una comprensione intenzionale del contesto in cui opera (Bender et al., On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? 2021; Shanahan, Talking About Large Language Models; 2022).
Questa distinzione è fondamentale. L’intelligenza umana va oltre la correttezza del risultato, implicando una relazione significativa con il mondo, mediata da esperienza, corporeità, emozione e contesto sociale. I sistemi di IA, invece, operano sulla superficie linguistica del pensiero, cioè su quella traccia formalizzabile attraverso cui l’intelligenza umana si esprime, senza accedere ai processi che la generano (Barsalou, 2023; Thompson, Mind in Life: Biology, Phenomenology, and the Sciences of Mind. Harvard University Press).
Il rischio epistemologico non consiste solo nell’attribuire alle macchine qualità che non possiedono, ma nel ridefinire implicitamente l’intelligenza in base a ciò che le macchine sanno fare. In questo slittamento, la tecnologia smette di essere uno strumento e si trasforma in un criterio, influenzando il modo in cui interpretiamo l’intelligenza stessa. È su questa tensione che si basa questo articolo: non vuole negare il valore dell’IA, ma riflettere sulle conseguenze di uno sviluppo che avanza più rapidamente della nostra comprensione di ciò che intende replicare.
La grande asimmetria: investimenti, incentivi e priorità globali
Il paradosso concettuale finora descritto diventa pienamente evidente quando si esaminano i flussi di investimento che stanno rimodellando le priorità della ricerca e dell’innovazione a livello mondiale. La distanza tra ciò che investiamo per sviluppare sistemi di Intelligenza Artificiale e ciò che investiamo per comprendere l’intelligenza umana non è simbolica, ma quantificabile e in rapida crescita.
A partire dal 2023, l’Intelligenza Artificiale è diventata il principale polo di attrazione del capitale tecnologico globale. Nel 2024, gli investimenti privati in IA hanno superato i 250 miliardi di dollari, con tassi di crescita a doppia cifra e una concentrazione sempre più accentuata sui modelli generativi e sui foundation model (Stanford HAI, 2024; McKinsey Global Institute, 2023). Nel 2025, oltre il 40% del venture capital tecnologico globale sembra essere direttamente o indirettamente riconducibile all’IA, una quota senza precedenti nella storia recente dell’innovazione (Crunchbase, 2025).
Questa dinamica non coinvolge solo startup e venture capital. I principali hyperscaler hanno annunciato piani di investimento pluriennali in infrastrutture computazionali dedicate all’IA stimati tra i 150 e i 300 miliardi di dollari complessivi entro la fine del decennio, destinati in gran parte a data center, chip specializzati e sistemi di addestramento su larga scala (Goldman Sachs Research, 2024). In questo contesto, singoli modelli di IA richiedono investimenti paragonabili ai bilanci annuali di interi programmi nazionali di ricerca scientifica.
Se si osserva il lato opposto, quello della comprensione dell’intelligenza umana, il quadro è radicalmente differente. I finanziamenti diretti a neuroscienze, scienze cognitive e psicologia sperimentale crescono lentamente, con tassi medi annui stimati tra il 3 e il 5%, e rimangono perlopiù confinati alla ricerca pubblica o filantropica. A livello globale, l’investimento complessivo annuo in neuroscienze è stimato tra i 7 e i 10 miliardi di dollari, comprendendo ricerca clinica, sanitaria e di base; la parte specificamente dedicata allo studio dei meccanismi cognitivi superiori rappresenta solo una frazione di questo totale (NIH, 2024; European Brain Research Area, 2024).
Il confronto è eloquente: l’ordine di grandezza degli investimenti nell’IA supera di decine di volte quello destinato alla comprensione dell’intelligenza umana. Questa sproporzione non deriva da una sottovalutazione scientifica, ma da incentivi economici strutturali. L’IA è scalabile, industrializzabile, brevettabile; permette l’appropriazione privata del valore e promette ritorni rapidi. La ricerca sull’intelligenza umana genera invece conoscenza cumulativa, diffusa e difficilmente monetizzabile nel breve termine.
A questo si aggiunge un fattore decisivo: l’IA produce valore anche senza risolvere il problema teorico dell’intelligenza. I sistemi generativi dimostrano che è possibile ottenere prestazioni utili, affidabili e commercialmente significative senza comprendere i meccanismi cognitivi che rendono l’intelligenza umana ciò che è. Questo fatto, più di qualsiasi posizione ideologica, guida le decisioni di investimento e sposta l’attenzione dalla comprensione alla performance (Brynjolfsson et al., 2024; Mitchell & Krakauer, 2024).
Il risultato è una riallocazione sistematica delle risorse. Università e centri di ricerca vengono progressivamente incentivati a riorganizzarsi attorno all’IA applicata, spesso adattando linguaggi, priorità e linee di ricerca per ottenere finanziamenti e partnership industriali. Nel frattempo, gli studi fondamentali sull’intelligenza umana perdono centralità strategica, pur rimanendo cruciali sul piano scientifico (Nature Human Behaviour, 2024).
Questa asimmetria produce un effetto meno visibile ma più profondo: l’IA diventa implicitamente il criterio attraverso cui definiamo cosa intendiamo per intelligenza. In assenza di un contrappeso teorico forte, ciò che è computabile, misurabile e ottimizzabile tende a essere assunto come criterio di validità. La tecnologia non si limita più a risolvere problemi, ma inizia a plasmare il modo in cui formuliamo tali problemi.
È su questa base che diventa necessario interrogarsi non solo su quanto investiamo nell’IA, ma su cosa stiamo effettivamente costruendo. Nel prossimo paragrafo, l’attenzione si concentrerà sul piano tecnico per analizzare come funzionano realmente i Large Language Models, perché producono risultati così notevoli e quali limiti strutturali emergono proprio dall’assenza di una comprensione più profonda dell’intelligenza.
Che cosa stiamo realmente costruendo: architetture, emergenza e limiti strutturali
Per afferrare la natura dello sviluppo attuale dell’Intelligenza Artificiale è necessario esplorare il funzionamento dei Large Language Models senza cadere nell’entusiasmo acritico né nel riduzionismo. Gli LLM non sono sistemi che “pensano” nel senso umano del termine, ma architetture computazionali concepite per ottimizzare una funzione obiettivo specifica: la previsione del token successivo all’interno di una sequenza linguistica. A partire da questo principio basilare, l’aumento considerevole della scala ha portato a risultati che, sul piano funzionale, si rivelano sorprendentemente simili a comportamenti intelligenti.
La svolta tecnica è avvenuta con l’adozione di architetture di tipo transformer, in grado di gestire contesti estesi e di apprendere relazioni complesse tra elementi linguistici. L’incremento simultaneo di parametri, dati e potenza computazionale ha reso possibile l’emergere di capacità non esplicitamente programmate: ragionamento multi-step, generalizzazione tra domini, produzione di spiegazioni articolate e pianificazione apparente (Kaplan et al., 2023; Wei et al., 2024). Questo fenomeno, descritto come emergenza, è diventato uno dei fondamenti narrativi del progresso dell’IA contemporanea.
Tuttavia, emergenza non significa comprensione. Le capacità degli LLM non derivano da una rappresentazione causale del mondo, ma da una complessa interpolazione statistica tra pattern appresi. Anche quando un modello genera risposte coerenti o soluzioni plausibili, tali output non sono il risultato di una comprensione semantica o intenzionale del contesto, ma dell’attivazione di correlazioni ad alta dimensionalità tra simboli linguistici (Marcus, G., & Davis, E. (2024). Rebooting AI: Building Artificial Intelligence We Can Trust. Vintage Books.).
Un punto tecnico fondamentale riguarda l’assenza di un vero world model interno. A differenza dell’intelligenza umana, che costruisce modelli dinamici dell’ambiente basati su percezione, azione ed esperienza, gli LLM operano su rappresentazioni statiche derivate dai dati di addestramento. Non apprendono attraverso l’interazione diretta con il mondo, ma mediante la compressione statistica di descrizioni linguistiche del mondo prodotte da altri agenti umani. Questo limita la loro capacità di adattarsi in modo robusto a contesti nuovi e imprevisti (Lake, 2023; Battaglia et al., 2024).
Un ulteriore limite strutturale emerge nel rapporto tra scala e affidabilità. Studi recenti dimostrano che, pur continuando a migliorare le prestazioni medie, l’aumento della scala non elimina fenomeni come allucinazioni, instabilità delle risposte e sensibilità eccessiva al contesto. Questi problemi non sono semplici difetti ingegneristici, ma conseguenze dirette di architetture che non possiedono una nozione intrinseca di verità, significato o rilevanza (Mitchell, 2024; Hoffmann et al., 2024).
Dal punto di vista strategico, questo introduce una tensione profonda. Il paradigma dominante dello sviluppo dell’IA presuppone che l’aumento continuo della scala sia sufficiente a superare progressivamente ogni limite. Tuttavia, i segnali di rendimenti decrescenti indicano che i miglioramenti ottenuti attraverso lo scaling diventano sempre più costosi e sempre meno significativi nei compiti che richiedono comprensione profonda, robustezza concettuale e adattamento situazionale (Sutton, 2024).
Il successo degli LLM rischia così di produrre un effetto contraddittorio: più questi sistemi appaiono intelligenti dal punto di vista funzionale, più diventa complesso riconoscerne i limiti strutturali. L’Intelligenza Artificiale generativa si configura come una forma di intelligenza compressa, estremamente potente nella manipolazione simbolica, ma priva di molti degli elementi che caratterizzano l’intelligenza biologica, come l’esperienza incarnata, la metacognizione autentica e l’apprendimento situato.
Questo non invalida l’approccio attuale, né nega i risultati ottenuti. Tuttavia, introduce una domanda che non può più essere ignorata: fino a che punto è possibile spingere l’Intelligenza Artificiale basandosi esclusivamente su correlazioni statistiche, senza integrare una comprensione più profonda dei meccanismi cognitivi? È questa tensione, ancora tecnica ma già concettuale, che prepara il terreno per il confronto con le neuroscienze e le scienze cognitive.
L’intelligenza umana come problema irrisolto: dove neuroscienze e scienze cognitive possono fare la differenza
La difficoltà di comprendere l’intelligenza umana viene spesso utilizzata come giustificazione implicita per non integrarla nello sviluppo dell’Intelligenza Artificiale. Poiché non esiste una teoria unificata della mente, l’ingegneria dell’IA ha scelto di procedere lungo una traiettoria autonoma, fondata su efficienza, scalabilità e prestazione misurabile. Tuttavia, questa scelta non è neutrale: ignora una vasta gamma di conoscenze parziali ma robuste, che potrebbero contribuire in modo decisivo a superare alcuni dei limiti strutturali emersi nei sistemi attuali.
Le neuroscienze e le scienze cognitive convergono su un punto fondamentale: l’intelligenza umana non è un singolo modulo, ma un sistema distribuito che integra percezione, azione, memoria, emozione e contesto sociale. Questa integrazione non è accessoria, ma costitutiva. L’intelligenza biologica costruisce modelli interni del mondo orientati all’azione e alla previsione, non semplici correlazioni statistiche (Friston, 2023; Dehaene et al., 2024). È proprio l’assenza di questo tipo di modellizzazione che limita oggi la capacità dell’IA di generalizzare in modo robusto.
Un primo punto di possibile convergenza riguarda la costruzione di world model causali. La ricerca cognitiva mostra come l’intelligenza umana operi attraverso simulazioni interne che consentono di anticipare conseguenze, valutare alternative e ragionare in termini controfattuali. Gli LLM, al contrario, non simulano il mondo, ma lo descrivono indirettamente attraverso tracce linguistiche. Integrare principi derivati dalle scienze cognitive significherebbe spostare l’IA da sistemi reattivi a sistemi capaci di anticipazione strutturata, riducendo fragilità e allucinazioni (Battaglia et al., 2024; Lake et al., 2023).
Un secondo ambito cruciale riguarda il ruolo dell’esperienza e dell’azione. L’intelligenza umana non apprende osservando passivamente dati, ma interagendo con l’ambiente, commettendo errori e correggendosi. Le teorie dell
I commenti sono chiusi.