Attacchi contaminativi

Gli algoritmi di apprendimento automatico sono spesso ri-addestrati su dati collezionati durante la fase operativa per adattarsi ai cambiamenti della distribuzione dei dati. Ad esempio, un sistema di rilevazione delle intrusioni nelle reti di calcolatori (IDS) può essere ri-addestrato su un insieme di campioni (Tr) collezionati durante il funzionamento della rete. In questo scenario, un attaccante potrebbe contaminare i dati di addestramento mediante l'iniezione di campioni opportunamente costruiti per compromettere l'intero processo di addestramento. L'attacco contaminativo consiste quindi in una contaminazione ostile dei dati di addestramento.

Nel nostro lavoro pubblicato su ICML 2012 abbiamo analizzato la vulnerabilità delle Support Vector Machines agli attacchi contaminativi e mostrato come il loro livello di sicurezza possa essere pesantemente compromesso. La presentazione dell'articolo è disponibile qui.

Abbiamo inoltre recentemente investigato l'efficacia degli attacchi contaminativi nel contesto dei sistemi biometrici adattivi, in cui i template degli utenti vengono automaticamente aggiornati per rispondere a variazioni nelle condizioni di acquisizione, o all'invecchiamento dei tratti biometrici. Abbiamo mostrato che l'adattatività dei sistemi biometrici adattivi può essere sfruttata da un attaccante per compromettere i template degli utenti (essenzialmente, presentando una sequenza di tratti biometrici contraffatti al sensore), sia per impersonare un utente specifico, o per negargli l'accesso. La presentazione dell'articolo è disponibile qui
 
Abbiamo infine proposto anche alcune contromisure agli attacchi contaminativi, basate sui sistemi di classificatori multipli.