Evento catastrofico o strategia commerciale? Mythos, il nuovo modello di Anthropic, secondo gli specialisti.

Leggi in app

Evento catastrofico o strategia commerciale? Mythos, il nuovo modello di Anthropic, secondo gli specialisti.0 Evento catastrofico o strategia commerciale? Mythos, il nuovo modello di Anthropic, secondo gli specialisti. 2

Nelle ultime settimane, il settore della sicurezza informatica sta cercando di adattarsi a uno strumento innovativo. Questo strumento, almeno in teoria, ha la capacità di superare gli esseri umani in vari aspetti di controllo e programmazione. Ha generato un ampio dibattito tra regolatori e operatori finanziari. Si tratta, come facilmente intuibile, di un prodotto sviluppato da un’azienda specializzata in intelligenza artificiale. Mythos di Anthropic si è presentato come un nuovo punto di riferimento.

Numerosi giganti tecnologici hanno ricevuto accesso a Mythos, o lo hanno ottenuto attraverso un’iniziativa denominata Project Glasswing, concepita per aumentare la resilienza contro lo stesso Mythos. Tuttavia, questo è un argomento controverso. È uno strumento rivoluzionario per la cybersicurezza globale o un mito creato ad arte dalla stessa Anthropic, che ha tutto l’interesse a sostenere che il suo strumento possiede capacità senza precedenti? Ancora una volta, l’intelligenza artificiale si rivela essere il banco di prova più complesso e urgente per separare la realtà dalla propaganda. Innovazione dal marketing. Un compito sempre più arduo, sempre più offuscato da aziendali e nazionali. Abbiamo cercato di fare chiarezza con l’assistenza di un esperto.

Le origini di Mythos e il Project Glasswing

Per cominciare, Mythos è uno dei modelli più recenti sviluppati da Anthropic. È stato creato come parte di un sistema di intelligenza artificiale più ampio, conosciuto a livello globale come Claude. Claude include l’assistente IA (il chatbot gratuito e accessibile a tutti) e la gamma di modelli dell’azienda, concorrenti di di OpenAI e Gemini di Google. Anthropic lo ha presentato all’inizio di aprile come “Mythos Preview”. I ricercatori hanno dichiarato in un rapporto che Mythos ha dimostrato di essere “sorprendentemente efficace nei compiti di sicurezza informatica”.

È stato scoperto che lo strumento è capace di identificare bug di cui nessuno era a conoscenza, dimenticati in programmi e codici scritti decenni fa. Questi bug sono difficili, se non impossibili, da rilevare per un essere umano. Ma non per un’IA addestrata. Invece di renderlo disponibile agli utenti di Claude, Anthropic ha fornito accesso a 12 aziende tecnologiche attraverso il Project Glasswing. Descritto come “uno sforzo per mettere in sicurezza il software più critico del mondo”, è stato concesso a: Amazon Web Services (colosso del cloud computing); Apple, Microsoft e Google (produttori di dispositivi); Nvidia e Broadcom (produttori di chip); Crowdstrike (nota per il grave blackout globale di luglio 2024 causato da un aggiornamento software difettoso).

Il rischio di un oligopolio della difesa

Ma perché limitare l’accesso a pochi colossi? Qual è il motivo di questa segretezza selettiva? “A mio avviso, il Project Glasswing combina sia la reale necessità di contenere abusi su larga scala sia una strategia di marketing di Anthropic (che punta a posizionarsi nel settore come ‘custode etico’)”, riflette a Italian Tech Emanuele De Lucia, esperto di sicurezza informatica e IA e CIO di Meridian Group.

“Nella pratica della cybersecurity, questa chiusura rischia però di generare un pericoloso oligopolio difensivo. Negare l’accesso alla comunità globale di ricercatori ostacola lo sviluppo collaborativo di contromisure e la convalida indipendente delle infrastrutture. Poiché gli avversari svilupperanno inevitabilmente modelli equivalenti, la ‘segretezza selettiva’ ritarda l’evoluzione delle difese diffuse, centralizzando le capacità nelle mani di pochi e lasciando il mercato vulnerabile. Inoltre, concentrando l’accesso e l’intelligence sulle vulnerabilità nelle mani di poche grandi aziende, si crea un obiettivo strategico di valore inestimabile. Un attacco riuscito contro i sistemi interni di un partner Glasswing potrebbe esporre non solo i propri dati, ma l’intero inventario di vulnerabilità zero-day globali identificate da Mythos. Inoltre, la selezione unilaterale dei partner da parte di una società privata, senza supervisione democratica o regolamentare, solleva, a mio avviso, interrogativi sull’equità dell’accesso a strumenti di difesa critici”, aggiunge.

Capacità agentiche e il ruolo dello “scaffold”

Questa segretezza e selettività portano immediatamente a un’altra questione implicita. Se così è stato deciso, è perché, sembra, Mythos ha innalzato il livello delle questioni di sicurezza informatica a parametri mai visti prima.

È davvero così? “Strutturalmente, Mythos si distingue dai modelli precedenti per le sue avanzate capacità agentiche: mentre GPT-4 è eccellente nel generare codice per sfruttare vulnerabilità già note, Mythos è in grado di scoprire autonomamente falle inedite (le cosiddette 0-day, ndr) e concatenare attacchi multi-fase”, commenta De Lucia. “Tuttavia, sebbene automatizzi effettivamente gli attacchi su bersagli, la compromissione di architetture complesse richiede ancora la supervisione strategica (nota in gergo come steering) di un ricercatore o di un operatore umano esperto”, aggiunge.

Infine, “bisogna comprendere quanto le capacità di Mythos dipendano effettivamente dalla sua inaccessibile ‘super-intelligenza’ e quanto dallo scaffold (cioè dai sistemi di supporto, ndr) nel quale opera”. Perché, è il messaggio, “gran parte del valore di un sistema di questo tipo dipende dall’ecosistema e dagli strumenti di cui è dotato”.

La fine del mito del codice legacy

Anthropic ha dichiarato di aver fornito accesso a Mythos a oltre 40 organizzazioni responsabili di software critici. L’amministratore delegato di Anthropic, Dario Amodei, ha affermato di essersi reso disponibile a collaborare con i funzionari del governo statunitense per “aiutare a difendersi dai rischi di questi modelli”. “Mythos Preview ha già identificato migliaia di vulnerabilità ad alta gravità, incluse alcune in tutti i principali sistemi operativi e browser web”, ha comunicato Anthropic il 7 aprile.

Il modello, afferma, può rilevare — senza eccessiva supervisione — bug critici che necessitano di un intervento immediato in sistemi obsoleti (incluso un bug presente da 27 anni) e suggerire modi per sfruttarli.

Quanto è grave questa scoperta? Così datata nel tempo, tra l’altro? “Il ritrovamento di vulnerabilità storiche smantella un po’ l’illusione che il codice legacy sia sicuro perché ‘collaudato dal tempo’, confermando una certa superiorità di Mythos nell’automatizzare analisi statica e fuzzing su vasta scala”, prosegue De Lucia. “Tuttavia, dobbiamo considerare che un bug vecchio di 27 anni è spesso solo una falla banale sepolta in librerie trascurate, non una minaccia sofisticata. Per quanto riguarda la cybersecurity, però, questo potrebbe rappresentare un cambiamento di paradigma irrevocabile: è possibile prevedere un’inflazione di CVE su software obsoleto, costringendo l’industria a abbandonare l’approccio reattivo manuale per adottare la bonifica del codice AI-driven e architetture puramente secure-by-design”, aggiunge.

Hype, marketing e corse agli armamenti

I timori legati all’IA non sono una novità. Il settore è caratterizzato da un mix di paura ed entusiasmo che spesso fa parte delle strategie di marketing. Nel caso di Mythos, non abbiamo ancora informazioni sufficienti per comprendere se tali timori siano giustificati o se riflettano l’enfasi mediatica (quello che generalmente viene definito hype) che da sempre accompagna questa industria, e in generale il settore tecnologico.

“Dobbiamo essere consapevoli che la narrazione del rischio è anch’essa un asset commerciale; a mio avviso, definire un modello ‘troppo pericoloso per essere rilasciato’ è, almeno in parte, una leva di marketing utile a catalizzare ed accentrare ingenti investimenti”, aggiunge l’esperto. “Creando un’aura di ‘potenza ineguagliabile’, l’azienda si posiziona come leader etico e giustifica ecosistemi chiusi che impediscono lo scrutinio tecnico indipendente. Sebbene le minacce cyber legate alle IA autonome siano già oggi concrete ed estremamente pericolose, questa narrativa trasforma l’asimmetria informativa in un asset commerciale: si monetizzano paura ed esclusività, mantenendo un vantaggio competitivo senza il rischio di veder smentite pubblicamente le reali limitazioni operative del sistema”.

Nonostante ciò, la rivelazione di Mythos e del progetto che lo ha accompagnato ha suscitato molte preoccupazioni. Ha spinto ministri delle finanze e banchieri centrali a esprimere serie apprensioni, temendo che il modello possa compromettere la sicurezza dei sistemi finanziari. Si temono effetti apocalittici. E si temono nell’immediato.

“Definirei la narrativa dell'”evento apocalittico” come una chiara iperbole sensazionalistica. Nella realtà tecnica, i modelli avanzati non “rompono” matematicamente i moderni standard crittografici, ma amplificano massivamente lo sfruttamento di vulnerabilità di implementazione, configurazioni errate e vettori collaterali. Ci troviamo all’alba di una simmetrica corsa agli armamenti algoritmica: il temporaneo vantaggio offensivo attuale catalizzerà inevitabilmente lo sviluppo e l’adozione di difese AI-driven proattive, capaci di auto-riparazione e neutralizzazione autonoma delle minacce, spostando il conflitto cyber verso una pura competizione tra ecosistemi a velocità macchina”, conclude De Lucia.

I commenti sono chiusi.