AI e cybersicurezza: nel 2023 il panorama delle minacce è cambiato?

L’ultimo Security Bulletin (KSB) di Kaspersky evidenzia la profonda influenza dell’Intelligenza artificiale sul panorama delle minacce IT del 2023.
Con l’avanzamento del progresso tecnologico e i cambiamenti che investono la società all’interno delle conversazioni globali si sta affermando il termine ‘AI’. Ma nel corso di quest’anno gli strumenti di Intelligenza artificiale hanno anche aiutato i criminali informatici nelle attività malevole. Al contempo, hanno reso disponibili anche le applicazioni difensive.

In ogni caso, la crescente diffusione dei Large Language Model (LLM), le sempre più diffuse preoccupazioni per la sicurezza e la privacy legano l’Intelligenza artificiale direttamente al settore della cybersecurity.

LLM e AI generativa 

Con l’integrazione di LLM che seguono le istruzioni su un numero sempre maggiore di prodotti rivolti agli utenti finali, emergeranno nuove e complesse vulnerabilità nell’intersezione tra AI generativa probabilistica e le tecnologie deterministiche tradizionali. Ciò amplierà la superficie di attacco che i professionisti della sicurezza informatica dovranno proteggere, richiedendo agli sviluppatori di studiare nuove misure di protezione.

Un esempio è l’approvazione da parte dell’utente per le azioni avviate dagli agenti LLM.
I red teamer e i ricercatori sfruttano l’AI generativa per realizzare strumenti innovativi di cybersecurity, che potrebbero dare vita a un sistema di assistenza che utilizza LLM o machine learning. Questo strumento potrebbe automatizzare le attività di red teaming, offrendo indicazioni basate sui comandi eseguiti in un ambiente pentesting.

Le reti neurali migliorano la qualità degli attacchi

Il prossimo anno i criminali potrebbero migliorare le proprie tattiche utilizzando le reti neurali e sfruttando gli strumenti di AI per creare contenuti fraudolenti più convincenti. Grazie alla possibilità di generare senza sforzo immagini e video realistici le minacce legate a frodi e truffe si aggraveranno.
Nonostante le tendenze descritte, gli esperti di Kaspersky rimangono scettici sul fatto che l’AI possa cambiare significativamente il panorama delle minacce in tempi brevi.

Se da un lato i criminali informatici stanno adottando l’AI generativa, lo stesso vale per gli addetti alla cybersicurezza, che utilizzeranno gli stessi strumenti, o addirittura più avanzati, rendendo improbabile un’alterazione significativa del panorama degli attacchi.

Watermark per i contenuti prodotti artificialmente

Lo sviluppo tecnologico diviene anche una questione di policy e regolamentazione. Il numero di proposte di regolamentazione legate all’AI è destinato ad aumentare, e le aziende tecnologiche possono fornire indicazioni preziose per le discussioni su questo tema a livello nazionale e globale.

Per segnalare o identificare i contenuti generati dall’AI saranno necessarie più normative e policy per i provider, che continueranno a investire in tecnologie di rilevamento.
Gli sviluppatori e i ricercatori, dal canto loro, contribuiranno ai metodi di watermarking dei media creati dall’AI per facilitarne identificazione e tracciabilità.