|

Mimecast: con l’AI una nuova era per la Data Loss Prevention 

Ogni nuova tecnologia porta con sé nuovi rischi. Nel caso dell’intelligenza artificiale, il settore della cyber security si è spesso concentrato l’attenzione sugli aspetti legati all’affinamento delle tecniche di phishing e la possibilità di realizzare più facilmente malware sempre più sofisticati. C’è però un aspetto che viene (troppo) poco considerato: il rischio di esposizione o esfiltrazione di informazioni sensibili legati a errori o attacchi malevoli ai danni di sistemi di AI. 

Se l’AI diventa l’anello debole 

L’implementazione di sistemi di AI generativa all’interno dei sistemi IT aziendali ha generato grandi aspettative in termini di aumento della produttività, ma l’efficacia in ambito business nell’uso dei Large Language Model (LLM) è indissolubilmente legato alla messa a valore di dati aziendali.  

La tecnica di Retrieval Augmented Generation (RAG) consente, infatti, di individuare e utilizzare le informazioni utili all’interno di database e documenti per generare contenuti o automatizzare operazioni attraverso gli AI agent. Quanto più queste informazioni sono puntuali, tanto più l’AI potrà essere efficace. In altre parole, le potenzialità dell’AI dipendono dalla disponibilità di informazioni qualitativamente rilevanti, cioè quelle conservate in azienda. 

“Quello che ci aspettiamo nei prossimi mesi è uno scenario in cui le aziende daranno accesso a un numero sempre maggiore di informazioni ai sistemi di AI generativa” spiega Ricard Torres, Senior Sales Engineer di Mimecast. “In pratica, chatbot e AI agent avranno un’ampia libertà di azione e il rischio che tutto questo si traduca in una esposizione di informazioni riservate crescerà in maniera esponenziale”. 

Tutte le vulnerabilità dell’AI 

All’interno dei sistemi IT di un’azienda, normalmente, le informazioni sono compartimentate attraverso policy che assicurano che gli utenti possano avere accesso soltanto ai dati di loro competenza. Anche se questo tipo di approccio può essere replicato anche con gli strumenti di AI generativa, la sua introduzione aumenta sensibilmente sia il rischio di condivisioni involontarie provocate da errori umani, sia la superficie di attacco a disposizione di eventuali cyber criminali.  

Tra le minacce più rilevanti ci sono tecniche come il jailbreak e la prompt injection. Il jailbreak viene solitamente definito come una tecnica che consente di aggirare o superare i limiti e i controlli di sicurezza implementati in un modello di AI, al fine di fargli eseguire azioni o produrre contenuti che vanno oltre i suoi normali parametri di funzionamento. Nella pratica, l’uso di tecniche di jailbreak potrebbero consentire a un utente legittimo di accedere a informazioni che travalicano i suoi privilegi. 

Gli attacchi basati su prompt injection, invece, prevedono la “iniezione” di comandi nascosti che possono portare l’AI a compiere azioni indesiderate, come l’inserimento di informazioni riservate in comunicazioni dirette a soggetti esterni. Uno degli stratagemmi potenzialmente utili per raggiungere questo scopo è quello di inserire le istruzioni in un documento rendendole invisibili agli esseri umani (per esempio inserendo del testo bianco su sfondo bianco) ma rilevanti per i sistemi di AI. 

Il ruolo della Data Loss Prevention 

In uno scenario estremamente “acerbo” e in continua evoluzione, affidarsi esclusivamente ai controlli di sicurezza interni ai sistemi di AI non è sufficiente. Per implementare una protezione efficace è necessario intervenire su tutti gli strumenti di comunicazione e collaborazione, a partire dall’email. “La posta elettronica è il principale strumento attraverso cui possono essere diffuse le informazioni sensibili” sottolinea Ricard Torres. “Le tecnologie di Mimecast impiegano algoritmi di pattern matching e analisi semantica per identificare dati sensibili all’interno di e-mail e allegati”.  

Il sistema, spiega Torres, può anche essere configurato per crittografare automaticamente determinati contenuti o impedire il loro invio in caso di violazione delle policy aziendali. 

Allo stesso modo, è necessario controllare le piattaforme ddi collaborazione, come Microsoft Teams, Slack e Zoom. In questo caso, il compito è affidato a filtri avanzati in grado di identificare parole chiave, espressioni regolari e comportamenti atipici per prevenire la fuga accidentale di dati riservati. 

“L’efficacia di Mimecast è garantita dall’uso di sistemi di intelligenza artificiale, che permettono di analizzare con estrema accuratezza i contenuti. In questo caso, si tratta in pratica di combattere il fuoco con il fuoco” conclude Torres. 

“La velocità con cui le aziende italiane stanno abbracciando l’uso dell’IA” – dice Sergio Manidi, Regional Manager South East Europe di Ingecom Ignition – “rende indispensabile poter proporre ai nostri mercati gli strumenti giusti per proteggersi dai rischi connessi a una tecnologia potente, ma ancora poco esplorata dal punto di vista della sicurezza. Ingecom permette a tutte le aziende del nostro Paese di poter sfruttare la potenza dell’IA riducendone i rischi con il minimo sforzo”. 

Autore: Ingecom Ignition

Calendario degli eventi

Avete bisogno di ulteriori informazioni?


    Ai sensi dell’art. 13 del Regolamento (UE) 2016/679 Generale sulla Protezione dei Dati, vi informiamo che INGECOM tratterà i vostri dati personali al fine di gestire la vostra richiesta. Potete esercitare i vostri diritti in materia di protezione dei dati tramite richiesta al nostro DPO all’indirizzo gdpr@ingecom.net. Potete ottenere ulteriori informazioni sul trattamento dei vostri dati nella nostra informativa sulla privacy pubblicata su www.ingecom.net.