Che cos’è e in che modo opera Daybreak, la soluzione di OpenAI a Mythos di Antropic.

Leggi in app

Che cos'è e in che modo opera Daybreak, la soluzione di OpenAI a Mythos di Antropic.0 Che cos'è e in che modo opera Daybreak, la soluzione di OpenAI a Mythos di Antropic. 2

OpenAI risponde ad Anthropic nella nuova sfida dell’AI applicata alla cybersecurity. A poche settimane dal test di Claude Mythos Preview, la compagnia di Sam Altman presenta Daybreak, una piattaforma concepita per assistere aziende e sviluppatori nell’individuazione e nella correzione delle vulnerabilità del software prima che possano essere sfruttate dagli hacker.

È significativo notare che nei test di Codex Security – il sistema di OpenAI progettato per esaminare il codice, identificare vulnerabilità e suggerire soluzioni – sono state analizzate in trenta giorni oltre 1,2 milioni di modifiche al codice, lavorando su progetti open source ampiamente utilizzati come OpenSSH, PHP e Chromium. Da questa valutazione sono emerse 792 segnalazioni critiche, oltre 10.500 problemi di alta gravità e 14 vulnerabilità hanno già ricevuto un codice CVE, l’identificativo pubblico utilizzato per catalogare le vulnerabilità informatiche.

Non si tratta di un semplice strumento da aggiungere alla cassetta degli attrezzi degli sviluppatori, ma di una piattaforma che integra modelli avanzati, Codex Security e una rete di partner industriali. L’intento è di incorporare l’analisi della sicurezza nel ciclo di sviluppo fin dall’inizio, piuttosto che relegarla a un controllo finale quando il software è già in produzione.

OpenAI risponde ad Anthropic nella corsa alla cybersecurity

Il lancio di Daybreak si colloca in una competizione già avviata da Anthropic con Project Glasswing, il programma di sicurezza basato su Claude Mythos Preview. Un caso emblematico è quello di Mozilla, dove il modello ha aiutato a scoprire centinaia di vulnerabilità poi risolte in Firefox 150, prima che potessero diventare problematiche per gli utenti.

Adesso, OpenAI risponde con una piattaforma che unisce analisi del codice, validazione delle segnalazioni, possibili correzioni e accesso controllato ai modelli più avanzati, riservato a aziende e professionisti della sicurezza informatica. La cybersecurity diventa, quindi, un ambito in cui la competizione tra i principali attori dell’Intelligenza artificiale non si limita più alla generazione di testo, immagini o codice, ma coinvolge direttamente il lavoro di chi sviluppa e protegge software, partendo dal punto più critico, ovvero l’individuazione delle vulnerabilità prima che vengano sfruttate.

«Mentre Claude Mythos è stata principalmente una dimostrazione di potenza, Daybreak rappresenta potenzialmente qualcosa di diverso, poiché cerca di replicare un intero framework di cybersecurity. Non sappiamo ancora quale dei due sistemi risulterà più efficace, ma Daybreak sembra, sulla carta, più ingegnerizzato rispetto al modello proposto da Anthropic – commenta Pierguido Iezzi, Cybersecurity Director di Zenita Group – L’aspetto interessante è che stiamo osservando due approcci distinti. Da un lato ci sono modelli come Mythos, progettati per identificare vulnerabilità e localizzare, anche attraverso movimenti laterali, il punto di debolezza di un sistema. Dall’altro ci sono piattaforme come Daybreak, focalizzate invece sulla protezione e sulla gestione della sicurezza».

Secondo Iezzi, questi strumenti rappresentano solo l’inizio di una trasformazione più ampia. «Stiamo parlando di modelli molto potenti, ma con scopi diversi. Mythos, ad esempio, può essere considerato uno strumento capace di scoprire il punto vulnerabile di un sistema fino a portarlo al collasso. Tuttavia, lo stesso schema concettuale può essere applicato ad altri settori: dai mercati economici alla manipolazione dell’opinione pubblica. Una vulnerabilità, in fondo, è sempre un punto debole da identificare e sfruttare».

Il risultato, spiega Iezzi, è una competizione sempre più accelerata nella scoperta delle vulnerabilità. «Diventeranno più rapide da individuare e più difficili da gestire, sia per chi difende sia per chi attacca. Sono strumenti dual use: nel momento in cui diventano pubblici, l’equilibrio cambia per tutti. È un po’ come nella deterrenza nucleare: quando entrambe le parti hanno accesso agli stessi strumenti, il vantaggio non dipende più solo dalla tecnologia».

Il vero tema, però, rimane l’asimmetria. «Le grandi aziende disporranno di risorse economiche e competenze per adottare questi sistemi. Le piccole e medie imprese rischiano invece di subire maggiormente il divario tecnologico. Già oggi molte PMI soffrono per mancanza di budget e personale specializzato. Con l’AI applicata alla ricerca delle vulnerabilità, il fattore decisivo diventerà la velocità». E qui si pone la domanda più delicata: «Le aziende oggi sono realmente in grado di operare alla velocità richiesta dallo scenario che si sta avvicinando? E soprattutto stanno elaborando un piano per migliorare le proprie capacità di risposta?» conclude Pierguido Iezzi.

Codex Security, l’AI che mette alla prova il codice

Al centro della piattaforma si trova Codex Security. A differenza degli strumenti di analisi tradizionali, che confrontano il software con database di vulnerabilità note, l’agente di OpenAI opera più come uno specialista designato a testare il codice: esamina il repository, costruisce un modello di minaccia specifico, redige ed esegue test. Si immerge nel codice con l’ottica di chi cerca un varco, prova a immaginare come potrebbe essere forzato e indica quali punti deboli devono essere chiusi per primi. Non si limita a riconoscere schemi già noti, ma cerca di comprendere se una debolezza possa diventare concretamente sfruttabile.

Questo approccio mira a ridurre il cosiddetto “rumore”, uno dei problemi più comuni della sicurezza automatizzata: avvisi continui, spesso irrilevanti, che finiscono per sommergere i team di sicurezza informatica, invece di supportarli. Codex Security cerca di affrontare il problema validando le segnalazioni in ambienti isolati prima di passarle agli sviluppatori.

Le correzioni suggerite vengono accompagnate da evidenze e test che ne facilitano la revisione; non si tratta di soluzioni automatiche pronte per la produzione, ma di interventi documentati da sottoporre alla valutazione dei tecnici (umani). È una distinzione importante, poiché nella cybersecurity l’automazione può accelerare il lavoro, ma non può sostituire la responsabilità di chi decide cosa mandare in produzione.

Dal punto di vista operativo, Daybreak si basa su una struttura a livelli in cui l’accesso alle capacità cyber più avanzate varia a seconda degli utenti e dei casi d’uso. OpenAI non affronta il problema limitando ciò che i modelli possono fare, ma controllando chi può accedervi e in quale contesto.

GPT-5.5 standard rimane disponibile per uso generale. GPT-5.5 con Trusted Access for Cyber è riservato a aziende e professionisti autorizzati della cybersecurity, impegnati in attività come revisione del codice, analisi di malware e validazione delle patch in ambienti controllati.

Il livello più sensibile è GPT-5.5-Cyber, disponibile in anteprima limitata e pensato per penetration test e red team, cioè simulazioni di attacco condotte internamente per scoprire le vulnerabilità prima che lo facciano avversari reali.

La strategia di OpenAI passa da cybersecurity, banche e cloud

«L’AI è già efficace nella cybersecurity e sta per diventarlo ancor di più: desideriamo iniziare a collaborare con quante più aziende possibile per aiutarle a proteggersi in modo continuo». Lo ha affermato Sam Altman su X presentando Daybreak.

OpenAI inserisce la piattaforma in una strategia più ampia legata a Trusted Access for Cyber, il programma con cui intende fornire accesso controllato alle capacità cyber dei suoi modelli.

In questa rete figurano aziende della sicurezza come Cisco, Cloudflare, CrowdStrike, Palo Alto Networks, Oracle e Zscaler, ma anche grandi gruppi finanziari come Bank of America, Goldman Sachs, JPMorgan Chase, BNY e Citi, oltre a NVIDIA e iVerify.

La posta in gioco, quindi, non è solo la protezione del software, ma l’integrazione dei modelli AI nei punti più critici dell’economia digitale, come banche, cloud, reti aziendali, sistemi di identità e piattaforme di sicurezza.

I commenti sono chiusi.