Come molti altri, ho letto di recente il rapporto sull'uso improprio di Anthropic e il successivo servizio della Reuters. Entrambi confermano qualcosa che i leader della sicurezza avevano previsto, ma che speravano di non vedere così presto: gli aggressori stanno inserendo il malware nei framework di intelligenza artificiale per migliorarlo.
E non lo fanno caricando file eseguibili grezzi. Le piattaforme di intelligenza artificiale li bloccano già. Al contrario, inseriscono il malware all'interno degli stessi file di produttività quotidiana che i sistemi di intelligenza artificiale accettano per il lavoro legittimo, ad esempio:
- Documenti Word
- Fogli di calcolo
- Registri
- Archivi ZIP
- File del codice sorgente
- Immagini con metadati
Nel mio libro di prossima pubblicazione, Cybersecurity Upside Down, spiego perché questi formati sono sempre stati i vettori di malware più affidabili. Questo non è cambiato. Ciò che è cambiato è che i framework di intelligenza artificiale ora ingeriscono direttamente questi file, li interpretano come contenuti e cercano criticamente di aiutarli. Gli aggressori chiedono semplicemente al modello di correggere gli errori, regolare la logica o generare nuove varianti. L'IA diventa un assistente inconsapevole per lo sviluppo di malware.
Esempi pubblici e neutrali di come tipi di file comuni e fidati trasmettano abitualmente malware:
Una volta che un file supera i filtri di base per il caricamento, l'IA legge il contenuto come testo e non come minaccia. I framework di intelligenza artificiale si fidano del formato del file. Gli aggressori sfruttano questa fiducia. E ciò rende questo percorso di attacco tanto sottile quanto efficace.
This is exactly where Deep Content Disarm and Reconstruction (Deep CDR™ Technology) becomes not just useful – but completely necessary.
What Deep CDR™ Technology Actually Does
Deep CDR™ Technology is fundamentally different from traditional detection technologies. It does not rely on signatures, heuristics, or behavioral analysis. It does not try to inspect files to decide whether a file might be safe.
Instead, Deep CDR™ Technology begins with one simple assumption: any file could be malicious.
La sua forza deriva da un processo in tre fasi:
- Identify the true file type
Deep CDR™ Technology inspects the internal structure of the file. If the file is disguised as something else, Deep CDR™ Technology identifies what it really is and blocks or processes it appropriately. - Unpack the file completely
Deep CDR™ Technology opens the file… then opens any objects embedded inside it… then unpacks archives inside those… continuing until every layer is exposed. Nothing remains hidden. - Regenerate a clean, safe version of the file
This is the important part. Deep CDR™ Technology does not “clean” the original file. It constructs a brand-new PDF, Word document, spreadsheet, or image using only the safe, valid content – removing scripts, macros, embedded logic, and any hidden components.
L'output sembra lo stesso per l'utente, ma il codice pericoloso non raggiunge mai il sistema di intelligenza artificiale.
Why Every AI Workflow Needs Deep CDR™ Technology
Qualsiasi sistema di intelligenza artificiale che accetti file caricati dall'utente è esposto a minacce basate su file. I file di produttività rimangono ancora il vettore di malware numero uno e la situazione non è destinata a cambiare. L'adozione dell'IA ha aumentato drasticamente il volume dei file elaborati. Questa scala amplifica il rischio.

I modelli di intelligenza artificiale sono costruiti per leggere e interpretare il contenuto, non per analizzare la struttura del file alla ricerca di comportamenti dannosi. Non ispezionano il codice incorporato o i componenti nascosti. Si limitano a elaborare tutto ciò che è contenuto.
Deep CDR™ Technology closes this gap. It ensures that before the AI ever processes a file, the file has already been fully reconstructed into a safe, trusted version. It protects the AI system, the user, and the organization deploying it.
Explore how Deep CDR™ Technology works here.
