Sam Altman afferma che a ChatGPT occorrerà almeno un anno per attivare un timer.
Leggi in app
Nel corso della sua apparizione nel podcast Mostly Human condotto da Laurie Segall, Sam Altman ha commentato un video diventato virale in cui ChatGpt non riesce a svolgere un compito semplice: cronometrare una corsa.
Nel video, il creatore TikTok Huskistaken, noto per i suoi contenuti che evidenziano le incongruenze dell’intelligenza artificiale, chiede al chatbot di iniziare un timer per la sua corsa di un miglio. Dopo pochi secondi, gli chiede di fermarlo e domanda quanto tempo sia passato. La risposta è sorprendente: oltre dieci minuti. Anche quando il creatore cerca di correggere l’errore, il chatbot continua a difendere la propria versione.
@huskistaken
I swear I was faster
♬ original sound – Husk
Un paradosso che suscita sorrisi e riflessioni
Altman ha descritto la situazione come un “problema noto”, suggerendo che per giungere a una soluzione potrebbe essere necessario ancora tempo, “forse un altro anno”.
Il modello vocale di ChatGpt, ha chiarito il CEO di OpenAI, “non possiede gli strumenti” necessari per avviare effettivamente un timer: questa funzionalità sarà implementata in una fase successiva.
Pur apparendo come un episodio curioso, tocca una questione delicata per l’intero settore dell’intelligenza artificiale generativa.
Da oltre tre anni, ChatGpt è presentato come una tecnologia capace di scrivere codice, superare esami complessi, sostenere “ragionamenti” e assistere l’utente in un numero crescente di attività.
Il fatto che un semplice cronometro – una funzione basilare rispetto alle ambizioni della cosiddetta IA “agentica” – rimanga ancora fuori portata può suscitare ilarità, ma invita anche a una riflessione più profonda.
L’ironia dell’eccellenza cognitiva
Il limite riconosciuto da Sam Altman evidenzia una distinzione fondamentale: quella tra “sapere” e “fare”. ChatGpt è un modello linguistico di grandi dimensioni, addestrato a prevedere la parola successiva in una sequenza e a simulare forme avanzate di ragionamento. In altre parole, è molto abile nella gestione di concetti astratti, mentre manca di vere “mani” digitali.
Gli assistenti tradizionali, come Siri o Alexa, sono stati concepiti fin dall’inizio come interfacce vocali collegate alle funzioni dei dispositivi. ChatGpt, al contrario, è stato sviluppato come interlocutore testuale separato dal sistema operativo.
Questa mancanza di integrazione profonda genera situazioni surreali in cui l’IA, spinta dalla sua natura predittiva, può arrivare a ingannare l’utente, affermando di aver avviato un timer che in realtà non ha la capacità di attivare.
La gabbia della sicurezza digitale
La ragione tecnica di questo isolamento è nota come “sandboxing”, una pratica di sicurezza che limita un software a un ambiente protetto, impedendogli di accedere ai dati o alle funzioni sensibili di un dispositivo.
Quando un utente richiede di impostare un timer, l’intelligenza artificiale comprende la richiesta, ma non ha le autorizzazioni necessarie per uscire dalla propria applicazione e intervenire sull’orologio di sistema. Questa separazione rappresenta una protezione fondamentale contro accessi non autorizzati, anche se attualmente limita in modo evidente l’utilità pratica quotidiana.
OpenAI ha finora dato priorità alla sicurezza e alla capacità di calcolo, mantenendo ChatGpt all’interno di un perimetro controllato, per ridurre il rischio di azioni indesiderate sul dispositivo dell’utente. Superare questa barriera richiede lo sviluppo di interfacce di programmazione, le cosiddette API, che siano al contempo potenti e affidabili: un compito ingegneristico complesso che, secondo Sam Altman, necessita ancora di tempo per essere perfezionato.
Il vero punto non è il timer
La parte più interessante della questione, forse, non riguarda neppure il limite tecnico in sé, quanto il comportamento del sistema quando quella capacità è assente. Nel video diventato virale, ChatGpt fornisce un tempo errato e continua a sostenerlo.
È una fragilità tipica dei grandi modelli linguistici, che non padroneggiano realmente tutto ciò che descrivono. In assenza di un collegamento concreto con strumenti esterni, c’è sempre il rischio che i chatbot simulino competenze invece di esercitarle.
Eppure ChatGPT ha già compiti programmati e promemoria
Tempo fa OpenAI ha introdotto le “Tasks”, attività programmate che ChatGpt può eseguire in un secondo momento, anche a orari specifici, con notifiche push o email su web.
In questo senso, una forma di gestione temporizzata esiste già: il sistema è in grado di pianificare azioni e ricordarle all’utente, anche se il funzionamento rimane legato a meccanismi interni e a integrazioni ancora parziali rispetto alle funzioni di sistema più immediate.
La contraddizione è meno netta di quanto sembri.
Un conto è programmare un’azione futura attraverso un’infrastruttura dedicata, ed eseguirla all’ora stabilita. Un altro è avere, all’interno di una conversazione vocale in tempo reale, la capacità nativa di avviare un timer, misurare con precisione il tempo che passa e poi restituire il risultato corretto senza inventare nulla.
Le due cose, dal punto di vista dell’utente, possono sembrare simili. Dal punto di vista del chatbot, però, implicano architetture diverse. Ed è proprio questa distanza tra percezione e realtà che continua a generare confusione attorno a strumenti basati su IA generativa come ChatGpt.
Un limite piccolo che racconta un problema grande
La questione del timer funziona perché riassume in scala ridotta la fase che sta attraversando l’intelligenza artificiale.
Le grandi aziende tecnologiche promuovono costantemente i loro sistemi più avanzati parlando di agenti IA, compiti automatizzati e persino di un possibile contributo all’accelerazione della scoperta scientifica.
Tuttavia, quando questi sistemi entrano nella vita quotidiana, il criterio di valutazione cambia poiché contano anche le funzioni più elementari.
Per un pubblico ormai vasto – ChatGpt è utilizzato ogni settimana da oltre 800 milioni di utenti attivi – la fiducia nei chatbot si costruisce anche sulla coerenza tra ciò che affermano e ciò che riescono a realizzare realmente, senza ambiguità.
La battuta di Altman sul timer è diventata a sua volta virale proprio perché rovescia la narrativa abituale: invece di un’IA che avanza senza freni, mostra una tecnologia potentissima ma ancora sorprendentemente fragile nelle situazioni più comuni.
I commenti sono chiusi.