Adversarial Feature Selection

Nonostante gli algoritmi di feature selection siano spesso utilizzati in applicazioni orientate alla sicurezza informatica, come rilevazione di spam e malware, solo pochi autori hanno preso in considerazione il potenziale impatto dell'utilizzo di un insieme di feature ridotto sulla sicurezza dei classificatori contro attacchi evasivi e contaminativiUn primo interessante risultato ha dimostrato che la sicurezza dei classificatori contro questi tipi di attacchi, può anche peggiorare quando vengono usati algoritmi di feature selection. All'interno di questa area di ricerca, il nostro laboratorio si propone di fornire un'analisi più dettagliata di questo aspetto, mettendo in luce le proprietà di sicurezza degli algoritmi di feature selection contro attacchi di evasione e contaminativi ben progettati.

Nella nostra recente pubblicazione "Is Feature Selection Secure against Training Data Poisoning?" (ICML 2015), abbiamo dimostrato come gli algoritmi di feature selection possano essere significativamente vulnerabili ad attacchi di poisoning ben congegnati. In particolare, progettando dettagliatamente anche una piccola percentuale di campioni d'attacco, abbiamo dimostrato che un attaccante può essere in grado di influenzare quasi arbitrariamente il sottoinsieme di feature selezionate.

Inoltre, nel nostro recente articolo  "Adversarial Feature Selection Against Evasion Attacks" (TCYB), prendendo ispirazione dai lavori allo stato dell'arte, abbiamo proposto un modello di adversary-aware feature selection in grado di migliorare la sicurezza dei classificatori contro gli attacchi evasivi, incorporando ipotesi specifiche sulla strategia di manipolazione dei dati dell'attaccante; la solidità di questo modello è stata poi sperimentalmente provata su diversi campi applicativi, tra cui la rilevazione di spam e malware.