Leggi in app
Oggi, ai colloqui di lavoro, si può essere affiancati dall’IA. Questa è una delle innovazioni emergenti nel campo della selezione del personale di Google, anche se in realtà nel settore IT la tendenza è iniziata circa un anno fa. Secondo un documento interno dell’azienda, esaminato da Business Insider, a partire dalla seconda metà del 2026 i candidati per ruoli di software engineer junior e mid-level potranno avvalersi di Gemini, il modello proprietario del gruppo, durante la prova di “comprensione del codice”. La conferma è stata fornita da Brian Ong, vicepresidente del recruiting di Mountain View, che ha illustrato come il gigante stia adattando i processi di selezione al modo in cui i team operano realmente nell’era dell’IA. Il progetto pilota partirà negli Stati Uniti, su Google Cloud e nella divisione Platforms & Devices, con l’intenzione di estenderlo successivamente ad altre aree e nazioni.
Da Canva a McKinsey: l’IA generativa si diffonde
Google ha impiegato un po’ di tempo prima di testare ciò che diversi concorrenti, e non solo, stanno già facendo da tempo. Ad esempio, la piattaforma di design Canva – tra le più utilizzate a livello globale – dall’anno scorso richiede esplicitamente ai candidati ingegneri di utilizzare strumenti come Cursor, Copilot o Claude durante le prove tecniche, abbandonando i tradizionali test di memorizzazione degli algoritmi. Meta ha avviato a fine 2025 un formato denominato “AI-enabled coding”: una delle due interviste tecniche tradizionali viene sostituita da 60 minuti in un ambiente dotato di un assistente a scelta tra ChatGPT, Claude e Gemini. La startup Cognition, creatrice di Devin, il primo agente IA capace di scrivere, eseguire e testare codice, ha ristrutturato l’intero processo di assunzione attorno all’uso dell’IA. Anche Shopify e Rippling (la piattaforma cloud all-in-one per la gestione delle risorse umane, IT e finanza) consentono ai candidati di portare con sé il proprio assistente preferito durante il colloquio.
Nella consulenza, McKinsey ha introdotto in via sperimentale negli Stati Uniti un “IA interview” per i neolaureati: i candidati devono risolvere un caso aziendale utilizzando Lilli, il chatbot interno dell’azienda, che secondo i dirigenti coesiste ormai con i 20mila “agenti IA” già operativi accanto ai 40mila consulenti umani.
Il motivo: tre righe di codice su quattro sono scritte dall’IA
Questa evoluzione non è ideologica, ma si confronta semplicemente con la realtà del lavoro quotidiano. Google stessa, in primavera, ha rivelato che circa tre quarti del nuovo codice prodotto internamente è generato dall’intelligenza artificiale. Il presidente di OpenAI, Greg Brockman, ha confermato pochi giorni fa che si è passati dal 20% di codice generato internamente a un 80% grazie all’IA.
In questo contesto, secondo molti esperti, sottoporre un candidato a un test tradizionale significa valutare un’abilità che non sarà più richiesta in produzione. Come afferma Emily Cohen, responsabile People di Cognition citata da Business Insider, vietare l’IA durante il colloquio è paragonabile a un test di matematica in cui si esclude l’uso della calcolatrice. Un altro problema, più imbarazzante, riguarda i trasgressori: secondo Karat, azienda specializzata in colloqui tecnici, i casi di frode con IA nei colloqui sono aumentati cinque volte in due anni, passando dal 2% al 10%. Pertanto, sostengono i sostenitori di questo nuovo approccio, è opportuno integrare gli strumenti all’interno della prova e valutare la qualità dei prompt, la capacità di validare l’output e di identificare i bug nel codice generato.
Candidati italiani perplessi
Il fenomeno coinvolge direttamente anche il mercato italiano. L’Osservatorio Hr del Politecnico di Milano, in un’indagine condotta all’inizio dell’anno, ha evidenziato che nel 2025 il 40% dei lavoratori che hanno cambiato lavoro o partecipato a colloqui ha utilizzato strumenti di IA, soprattutto per migliorare il proprio curriculum il 70% non era stato informato in modo chiaro prima della selezione, e il 38% ha addirittura abbandonato un processo perché prevedeva un colloquio con un bot IA.
Il nodo Bruxelles: la selezione all’americana è poco compatibile
Il quadro giuridico europeo impone restrizioni che non sono presenti negli Stati Uniti. Il Regolamento UE 2024/1689, noto come AI Act, all’Allegato III classifica esplicitamente come sistemi ad alto rischio quelli destinati al reclutamento e alla selezione del personale: screening dei curricula, valutazione dei candidati, analisi automatica di colloqui video. Ciò implica obblighi rigorosi riguardo alla qualità dei dati, documentazione tecnica, supervisione umana delle decisioni e trasparenza nei confronti del candidato. Il riconoscimento delle emozioni nei contesti lavorativi è invece incluso tra le pratiche vietate. A questo si aggiungono il Gdpr (l’articolo 22, che protegge contro decisioni esclusivamente automatizzate) e in Italia la Legge 132/2025 che integra il quadro nazionale. Tradotto: un’azienda italiana che desideri replicare il modello Google o McKinsey non solo deve informare il candidato, ma deve anche spiegare la logica dell’algoritmo, garantire una revisione umana e aver effettuato una valutazione d’impatto. In pratica, è difficile che questo modello possa affermarsi nel Vecchio Continente.
La nuova competenza si chiama “IA fluency”
Rimane aperta la questione più complessa: cosa sta realmente misurando un colloquio in cui è consentito l’uso dell’intelligenza artificiale? Le aziende rispondono con un termine che ricorre nei loro documenti interni: IA fluency. Non è sufficiente saper “utilizzare ChatGPT”: vengono valutate la capacità di formulare prompt efficaci, di analizzare criticamente l’output, di identificare allucinazioni e bug, di intrecciare il proprio ragionamento con quello della macchina anziché seguire un copione. Lo schema, riassunto nella formula coniata da Google, è “human-led, AI-assisted”. Si tratta di un cambiamento di paradigma che premia chi ha avuto accesso a strumenti, banda larga e una buona padronanza dell’inglese, e rischia di svantaggiare chi non ha ancora raggiunto tali livelli. Ma è anche, per una volta, un riconoscimento esplicito: il talento del lavoratore non viene più misurato solo in base a ciò che sa fare autonomamente. Ma anche in base a come utilizza l’IA.