Colloqui di lavoro con supporto dell’intelligenza artificiale: anche Google approva

Leggi in app

Colloqui di lavoro con supporto dell'intelligenza artificiale: anche Google approva0 Colloqui di lavoro con supporto dell'intelligenza artificiale: anche Google approva 2

Oggi, ai colloqui di lavoro, si può essere affiancati dall’IA. Questa è una delle innovazioni emergenti nel campo della selezione del personale di Google, anche se in realtà nel settore IT la tendenza è iniziata circa un anno fa. Secondo un documento interno dell’azienda, esaminato da Business Insider, a partire dalla seconda metà del 2026 i candidati per ruoli di software engineer junior e mid-level potranno avvalersi di Gemini, il modello proprietario del gruppo, durante la prova di “comprensione del codice”. La conferma è stata fornita da Brian Ong, vicepresidente del recruiting di Mountain View, che ha illustrato come il gigante stia adattando i processi di selezione al modo in cui i team operano realmente nell’era dell’IA. Il progetto pilota partirà negli Stati Uniti, su Google Cloud e nella divisione Platforms & Devices, con l’intenzione di estenderlo successivamente ad altre aree e nazioni.

Da Canva a McKinsey: l’IA generativa si diffonde

Google ha impiegato un po’ di tempo prima di testare ciò che diversi concorrenti, e non solo, stanno già facendo da tempo. Ad esempio, la piattaforma di design Canva – tra le più utilizzate a livello globale – dall’anno scorso richiede esplicitamente ai candidati ingegneri di utilizzare strumenti come Cursor, Copilot o Claude durante le prove tecniche, abbandonando i tradizionali test di memorizzazione degli algoritmi. Meta ha avviato a fine 2025 un formato denominato “AI-enabled coding”: una delle due interviste tecniche tradizionali viene sostituita da 60 minuti in un ambiente dotato di un assistente a scelta tra , Claude e Gemini. La startup Cognition, creatrice di Devin, il primo agente IA capace di scrivere, eseguire e testare codice, ha ristrutturato l’intero processo di assunzione attorno all’uso dell’IA. Anche Shopify e Rippling (la piattaforma cloud all-in-one per la gestione delle risorse umane, IT e finanza) consentono ai candidati di portare con sé il proprio assistente preferito durante il colloquio.

Nella consulenza, McKinsey ha introdotto in via sperimentale negli Stati Uniti un “IA interview” per i neolaureati: i candidati devono risolvere un caso aziendale utilizzando Lilli, il chatbot interno dell’azienda, che secondo i dirigenti coesiste ormai con i 20mila “agenti IA” già operativi accanto ai 40mila consulenti umani.

Il motivo: tre righe di codice su quattro sono scritte dall’IA

Questa evoluzione non è ideologica, ma si confronta semplicemente con la realtà del lavoro quotidiano. Google stessa, in primavera, ha rivelato che circa tre quarti del nuovo codice prodotto internamente è generato dall’intelligenza artificiale. Il presidente di OpenAI, Greg Brockman, ha confermato pochi giorni fa che si è passati dal 20% di codice generato internamente a un 80% grazie all’IA.

In questo contesto, secondo molti esperti, sottoporre un candidato a un test tradizionale significa valutare un’abilità che non sarà più richiesta in produzione. Come afferma Emily Cohen, responsabile People di Cognition citata da Business Insider, vietare l’IA durante il colloquio è paragonabile a un test di matematica in cui si esclude l’uso della calcolatrice. Un altro problema, più imbarazzante, riguarda i trasgressori: secondo Karat, azienda specializzata in colloqui tecnici, i casi di frode con IA nei colloqui sono aumentati cinque volte in due anni, passando dal 2% al 10%. Pertanto, sostengono i sostenitori di questo nuovo approccio, è opportuno integrare gli strumenti all’interno della prova e valutare la qualità dei prompt, la capacità di validare l’output e di identificare i bug nel codice generato.

Candidati italiani perplessi

Il fenomeno coinvolge direttamente anche il mercato italiano. L’Osservatorio Hr del Politecnico di , in un’indagine condotta all’inizio dell’anno, ha evidenziato che nel 2025 il 40% dei lavoratori che hanno cambiato lavoro o partecipato a colloqui ha utilizzato strumenti di IA, soprattutto per migliorare il proprio curriculum il 70% non era stato informato in modo chiaro prima della selezione, e il 38% ha addirittura abbandonato un processo perché prevedeva un colloquio con un bot IA.

Il nodo Bruxelles: la selezione all’americana è poco compatibile

Il quadro giuridico europeo impone restrizioni che non sono presenti negli Stati Uniti. Il Regolamento UE 2024/1689, noto come AI Act, all’Allegato III classifica esplicitamente come sistemi ad alto rischio quelli destinati al reclutamento e alla selezione del personale: screening dei curricula, valutazione dei candidati, analisi automatica di colloqui video. Ciò implica obblighi rigorosi riguardo alla qualità dei dati, documentazione tecnica, supervisione umana delle decisioni e trasparenza nei confronti del candidato. Il riconoscimento delle emozioni nei contesti lavorativi è invece incluso tra le pratiche vietate. A questo si aggiungono il Gdpr (l’articolo 22, che protegge contro decisioni esclusivamente automatizzate) e in Italia la Legge 132/2025 che integra il quadro . Tradotto: un’azienda italiana che desideri replicare il modello Google o McKinsey non solo deve informare il candidato, ma deve anche spiegare la logica dell’algoritmo, garantire una revisione umana e aver effettuato una valutazione d’impatto. In pratica, è difficile che questo modello possa affermarsi nel Vecchio Continente.

La nuova competenza si chiama “IA fluency”

Rimane aperta la questione più complessa: cosa sta realmente misurando un colloquio in cui è consentito l’uso dell’intelligenza artificiale? Le aziende rispondono con un termine che ricorre nei loro documenti interni: IA fluency. Non è sufficiente saper “utilizzare ChatGPT”: vengono valutate la capacità di formulare prompt efficaci, di analizzare criticamente l’output, di identificare allucinazioni e bug, di intrecciare il proprio ragionamento con quello della macchina anziché seguire un copione. Lo schema, riassunto nella formula coniata da Google, è “human-led, AI-assisted”. Si tratta di un cambiamento di paradigma che premia chi ha avuto accesso a strumenti, banda larga e una buona padronanza dell’inglese, e rischia di svantaggiare chi non ha ancora raggiunto tali livelli. Ma è anche, per una volta, un riconoscimento esplicito: il talento del lavoratore non viene più misurato solo in base a ciò che sa fare autonomamente. Ma anche in base a come utilizza l’IA.

I commenti sono chiusi.