aiMalware3_red
adv

L’evolversi della tecnologia ha segnato il succedersi di ere informatiche, ciascuna caratterizzata dalle sue battaglie, un continuo gioco al gatto e topo tra hacker e difensori.

Oggi stiamo assistendo all’alba di una nuova era, quella dell’intelligenza artificiale (AI). Le stime di Forbes già a febbraio vedevano questo mercato espandersi notevolmente nel settore di business intelligence, analisi predittiva e sempre più aziende come Amazon, Google ed Apple stanno investendo notevoli risorse nell’AI, ampliandone il ventaglio di possibili utilizzi.

D’altro canto, anche i cybercriminali studiano l’intelligenza artificiale ed i modi per impiegarla a loro vantaggio, in qualità di arma informatica. Quali sono le caratteristiche di un attacco potenziato dall’AI e come difendersi sono stati i quesiti affrontati nella conferenza Black Hat USA 2018.

Breve storia dei malware

Gli anni 80 sono stati caratterizzati dalle prime varianti polimorfiche e metamorfiche dei virus mirate a distruggere e corrompere i dati. Questi usavano tecniche di offuscamento (codice sorgente di difficile lettura) e cambio di target da attaccare per confondere gli antivirus che, gradualmente, si sono evoluti con capacità di analisi del codice offuscato e deduzione degli “intenti malevoli”.

Negli anni ‘90 i virus cominciano ad essere criptati, così da essere osservati in memoria solo durante la loro esecuzione. L’industria dell’antivirus risponde con analisi dinamiche, supervisione dei processi e prevenzione con simulazioni in ambienti virtuali per anticipare le minacce.

Gli anni 2000 vedono la nascita dei virus “evasivi” che fermano la loro esecuzione opportunamente se individuano un processo di scansione antivirus o altre procedure che potrebbero identificarli, in modo da restare criptati ed evitare l’analisi. Studi datati maggio di quest’anno riscontrano che il 98% dei virus attuali utilizza questa tecnica.

Le tecniche di rilevamento basate su analisi dei processi, sandbox e virtualizzazione degli ambienti per esecuzione sicura del codice si sono fatte via via più complesse, gli incursori hanno deciso, così, di cambiare filosofia di attacco ed operare per obiettivi. Il virus si attiverà, dunque, solo in particolari condizioni e mirerà ad un payload (leggasi contenuto informativo) specifico.

Un esempio di tale virus è il worm Stuxnet che mirava a determinati ICS (industrial control system) di un particolare produttore con una ben definita configurazione hardware e software. Tali malware, tuttavia, necessitano di trigger (eventi o condizioni scatenanti) che possono essere individuati da opportuni strumenti informatici e, quindi, monitorati.

La nuova frontiera del malware

Lo step successivo dell’evoluzione del malware mira, quindi, a nascondere non solo il virus, magari all’interno di un altro programma apparentemente innocuo, ma soprattutto il trigger, in maniera da rendere la reverse engineering (procedura per ricavare i dati originali dal prodotto finito) di questo virtualmente impossibile.

L’intrinseca natura black box (leggasi scatola chiusa) del modello AI DNN (Deep Neural Network), rende l’intelligenza artificiale più che adatta allo scopo. La condizione consequenziale if – then (a data condizione esegui tali azioni) si trasforma, così, in una complessa rete neurale convoluzionale che può, in aggiunta, trasformare la condizione di trigger in una password necessaria a sbloccare il malware.

Il modello d’intelligenza artificiale viene addestrato su uno specifico input, magari per colpire una vittima specifica; la rete neurale produce la chiave di sblocco sulla base di diversi attributi, audio, video, condizioni del software, etc. Le possibilità sono innumerevoli e con esse cresce la complessità d’individuazione.

DeepLocker

Gli studi della IBM sull’applicazione di modelli AI a tecniche di attacco già note hanno dato come risultato DeepLocker. Una proof of concept (realizzazione pratica mirata a dimostrare la fattibilità di un concetto) è stata presentata alla conferenza Black Hat USA 2018. Gli esperti hanno camuffato il ben noto ransomware WannaCry in un’applicazione di videoconferenza ed, usando l’intelligenza artificiale per riconoscere il viso di una specifica persona, condizione per il rilascio e l’esecuzione del ransomware.

La diffusione di applicazioni di videoconferenza e la loro capacità di utilizzare legittimamente le webcam rendono lo scenario presentato plausibile ed appetibile per i malintenzionati. DeepLocker getta il seme per una nuova stirpe di malware che possono beneficiare di numerosi modelli di AI per i trigger e numerosi software malevoli da nascondere.

Stato dell’arte

Sebbene attacchi operati da sistemi come DeepLocker al momento non siano stati rilevati, gli strumenti per realizzarli sono alla portata di tutti. Gli strumenti per addestrare l’intelligenza artificiale così come le tecniche di attacco sono pubblicamente disponibili, è quindi solo questione di tempo prima che compaiano le prime segnalazioni.

Gli esperti individuano anche altri tratti legati agli attacchi potenziati dall’AI; la possibilità d’imparare le regole e come aggirarle, il raggiungimento di nuove velocità di attacco e l’aumento di evasività, di anonimato e di adattamento dei malware, tutti questi fattori portano gli attacchi ad un nuovo livello.

Per sviluppare adeguate contromisure, infatti, sembrerebbe necessario impiegare la stessa risorsa nei sistemi di rilevamento.