Evento catastrofico o strategia commerciale? Mythos, il nuovo modello di Anthropic, secondo gli specialisti.

Leggi in app

Evento catastrofico o strategia commerciale? Mythos, il nuovo modello di Anthropic, secondo gli specialisti.0 Evento catastrofico o strategia commerciale? Mythos, il nuovo modello di Anthropic, secondo gli specialisti. 2

Nelle settimane recenti, il settore della sicurezza informatica sta cercando di adattarsi a uno strumento innovativo. Questo strumento, almeno in teoria, ha la capacità di superare gli esseri umani in vari aspetti di controllo e programmazione. Ha generato un ampio dibattito tra i regolatori e nel mondo finanziario. Si tratta, come è ovvio, di un prodotto sviluppato da un’azienda specializzata in intelligenza artificiale. Mythos di Anthropic si è presentato come un nuovo punto di riferimento.

Numerosi giganti tecnologici hanno ricevuto accesso a Mythos, o lo hanno ottenuto attraverso un’iniziativa denominata Project Glasswing, concepita per aumentare la resilienza contro lo stesso Mythos. Tuttavia, la questione è controversa. È uno strumento rivoluzionario per la cybersicurezza globale o un mito creato ad arte dalla stessa Anthropic, che ha tutto l’interesse a sostenere che il suo strumento possiede capacità senza precedenti? Ancora una volta, l’intelligenza artificiale si rivela il banco di prova più difficile e urgente per distinguere tra realtà e propaganda. Innovazione o marketing. Un compito sempre più complesso, sempre più offuscato da aziendali e nazionali. Abbiamo cercato di fare chiarezza con l’aiuto di un esperto.

Le origini di Mythos e il Project Glasswing

Per cominciare, Mythos è uno dei modelli più recenti di Anthropic. È stato creato come parte di un sistema di intelligenza artificiale più ampio, conosciuto a livello globale come Claude. Claude include l’assistente IA (il chatbot gratuito e accessibile a tutti) e la gamma di modelli dell’azienda, concorrenti di di OpenAI e Gemini di Google. È stato presentato da Anthropic all’inizio di aprile come “Mythos Preview”. I ricercatori hanno dichiarato in un rapporto che Mythos ha dimostrato di essere “sorprendentemente efficace nei compiti di sicurezza informatica”.

Hanno scoperto che lo strumento è capace di identificare bug di cui nessuno è a conoscenza, dimenticati in programmi e codici scritti decenni fa. Difficili, se non impossibili, da scoprire per un essere umano. Ma non per un’IA addestrata. Invece di renderlo disponibile agli utenti di Claude, Anthropic ha concesso l’accesso a 12 aziende tecnologiche attraverso il Project Glasswing. Descritto come “uno sforzo per mettere in sicurezza il software più critico del mondo”, è stato fornito a: Amazon Web Services (colosso del cloud computing); Apple, Microsoft e Google (produttori di dispositivi); Nvidia e Broadcom (produttori di chip); Crowdstrike (nota per il grave blackout globale di luglio 2024 causato da un aggiornamento software difettoso).

Il rischio di un oligopolio della difesa

Ma perché limitare l’accesso a pochi grandi nomi? Perché questa segretezza selettiva? “A mio avviso, il Project Glasswing combina sia la reale necessità di prevenire abusi su larga scala che una strategia di marketing di Anthropic (che punta a posizionarsi nel settore come ‘custode etico’)”, riflette a Italian Tech Emanuele De Lucia, esperto di sicurezza informatica e IA e CIO di Meridian Group.

“Nella pratica della cybersecurity, questa chiusura rischia però di generare un pericoloso oligopolio difensivo. Negare l’accesso alla comunità globale di ricercatori ostacola lo sviluppo collaborativo di contromisure e la validazione indipendente delle infrastrutture. Poiché gli avversari svilupperanno inevitabilmente modelli equivalenti, la ‘segretezza selettiva’ ritarda l’evoluzione delle difese diffuse, centralizzando le capacità nelle mani di pochi e lasciando il mercato vulnerabile. Inoltre, concentrando l’accesso e l’intelligence sulle vulnerabilità nelle mani di poche grandi aziende, si crea un obiettivo strategico di valore inestimabile. Un attacco riuscito contro i sistemi interni di un partner Glasswing potrebbe esporre non solo i propri dati, ma l’intero inventario di vulnerabilità zero-day globali identificate da Mythos. Inoltre, la selezione unilaterale dei partner da parte di una società privata, senza supervisione democratica o regolamentare, solleva, a mio avviso, interrogativi sull’equità dell’accesso a strumenti di difesa critici”, aggiunge.

Capacità agentiche e il ruolo dello “scaffold”

Questa segretezza e selettività portano immediatamente a un’altra questione implicita. Se è stata presa questa decisione, è perché, sembra, Mythos ha elevato il livello delle questioni di sicurezza informatica a parametri mai visti prima.

È davvero così? “Strutturalmente, Mythos si distingue dai modelli precedenti per le sue avanzate capacità agentiche: mentre GPT-4 è eccellente nel generare codice per sfruttare vulnerabilità già note, Mythos è in grado di scoprire autonomamente falle inedite (le cosiddette 0-day, ndr) e concatenare attacchi multi-fase”, commenta De Lucia. “Tuttavia, sebbene automatizzi effettivamente gli attacchi su bersagli, la compromissione di architetture complesse richiede ancora la supervisione strategica (nota in gergo come steering) di un ricercatore o di un operatore umano esperto”, aggiunge.

Infine, “bisognerebbe comprendere quanto le capacità di Mythos dipendano effettivamente dalla sua inaccessibile ‘super-intelligenza’ e quanto dallo scaffold (cioè dai sistemi di supporto, ndr) nel quale opera”. Perché, è il messaggio, “gran parte del valore di un sistema di questo tipo dipende dall’ecosistema e dagli strumenti di cui è dotato”.

La fine del mito del codice legacy

Anthropic ha comunicato di aver concesso accesso a Mythos a oltre 40 organizzazioni responsabili di software critici. L’amministratore delegato di Anthropic, Dario Amodei, ha dichiarato di essersi offerto di collaborare con i funzionari del governo statunitense per “aiutare a difendersi dai rischi di questi modelli”. “Mythos Preview ha già identificato migliaia di vulnerabilità ad alta gravità, incluse alcune in ogni principale sistema operativo e browser web”, ha affermato Anthropic il 7 aprile.

Il modello, afferma, può rilevare — senza troppa supervisione — bug critici che necessitano di un intervento immediato in sistemi obsoleti (incluso un bug presente da 27 anni) e suggerire modi per sfruttarli.

Quanto è grave questa scoperta? Così datata nel tempo, tra l’altro? “Il ritrovamento di vulnerabilità storiche smantella un po’ l’illusione che il codice legacy sia sicuro perché ‘collaudato dal tempo’, confermando una certa superiorità di Mythos nell’automatizzare analisi statica e fuzzing su vasta scala”, continua De Lucia. “Tuttavia, dobbiamo considerare che un bug vecchio di 27 anni è spesso solo una falla banale sepolta in librerie trascurate, non una minaccia sofisticata. Per quanto riguarda la cybersecurity, però, questo potrebbe rappresentare un cambiamento di paradigma irrevocabile: è possibile prevedere un’inflazione di CVE su software obsoleto, costringendo l’industria a abbandonare l’approccio reattivo manuale per adottare la bonifica del codice AI-driven e architetture puramente secure-by-design”, aggiunge.

Hype, marketing e corse agli armamenti

I timori legati all’IA non sono una novità. Il settore è caratterizzato da un mix di paura ed entusiasmo che spesso fa parte delle strategie di marketing. Nel caso di Mythos, non abbiamo ancora informazioni sufficienti per capire se tali timori siano giustificati o se riflettano l’enfasi mediatica (quello che generalmente viene definito hype) che da sempre accompagna questa industria, e in generale il settore tecnologico.

“Dobbiamo essere consapevoli che la narrazione del rischio è anch’essa un asset commerciale; a mio avviso, definire un modello ‘troppo pericoloso per essere rilasciato’ è, almeno in parte, una leva di marketing utile a catalizzare e concentrare ingenti investimenti”, aggiunge l’esperto. “Creando un’aura di ‘potenza ineguagliabile’, l’azienda si posiziona come leader etico e giustifica ecosistemi chiusi che impediscono il controllo tecnico indipendente. Sebbene le minacce cyber legate alle IA autonome siano già oggi concrete ed estremamente pericolose, questa narrativa trasforma l’asimmetria informativa in un asset commerciale: si monetizzano paura ed esclusività, mantenendo un vantaggio competitivo senza il rischio di vedere smentite pubblicamente le reali limitazioni operative del sistema”.

Nonostante ciò, la rivelazione di Mythos e del progetto che lo ha accompagnato ha generato molte preoccupazioni. Ha spinto ministri delle finanze e banchieri centrali a esprimere serie apprensioni, temendo che il modello possa compromettere la sicurezza dei sistemi finanziari. Si temono effetti apocalittici. E si temono nell’immediato.

“Definirei la narrativa dell'”evento apocalittico” come una chiara esagerazione sensazionalistica. Nella realtà tecnica, i modelli avanzati non “rompono” matematicamente i moderni standard crittografici, ma amplificano massivamente lo sfruttamento di vulnerabilità di implementazione, configurazioni errate e vettori collaterali. Ci troviamo all’alba di una simmetrica corsa agli armamenti algoritmica: il temporaneo vantaggio offensivo attuale catalizzerà inevitabilmente lo sviluppo e l’adozione di difese AI-driven proattive, capaci di auto-riparazione e neutralizzazione autonoma delle minacce, spostando il conflitto cyber verso una pura competizione tra ecosistemi a velocità macchina”, conclude De Lucia.

I commenti sono chiusi.