Talks

IH&MMSec 2016. Ho partecipato al 4th ACM Workshop on Information Hiding & MultiMedia Security, tenutosi il 20-22 Giugno, 2016, a Vigo, in Spagna. Sono stato invitato a tenere una presentazione dal titolo "Machine Learning Under Attack: Vulnerability Exploitation and Security Measures", dove ho riassunto alcuni risultati recenti nell'area dell'adversarial machine learning ed, in particolare, su come attacchi sofisticati possano prendere di mira gli algoritmi di machine learning e intelligenza artificiale per compromettere la sicurezza dei sistemi di protezione, in vari ambiti applicativi. Maggiori dettagli disponibili qui.
ICML 2015. Ho presentato l'articolo "Is Feature Selection Secure against Training Data Poisoning?," co-autorato con H. Xiao, G. Brown, G. Fumera, C. Eckert e F. Roli, alla International Conference on Machine Learning (ICML 2015, Lille, France, July 6 - 11), conferenza di punta nell'ambito del machine learning.  Questo è il primo lavoro a dimostrare che gli algoritmi di selezione delle feature possono introdurre vulnerabilità nei sistemi di sicurezza, in presenza di un attaccante che può manipolare anche soltanto una piccola frazione di campioni nei dati di addestramento. Il video della presentazione è disponibile qui.

MCS 2015. Ho presentato l'articolo "One-and-a-half-class Multiple Classifier Systems for Secure Learning against Evasion Attacks at Test Time," co-autorato con I. Corona, Z.-M. He, P. P. K. Chan, G. Giacinto, D. S. Yeung e F. Roli., al Int'l Workshop on Multiple Classifier Systems (MCS 2015, Guenzburg, Germany, June 29 - July 1). In questo lavoro, abbiamo dimostrato come costruire una combinazione di classificatori a una e due classi per migliorare la sicurezza del sistema contro attacchi mirati ad evadere la rilevazione dei campioni malevoli (es. email di spam, o virus informatici).

ICB 2015. Ho presentato l'articolo "Sparse Support Faces," co-autorato con Marco Melis, Giorgio Fumera e Fabio Roli, alla International Conference on Biometrics (ICB 2015, Phuket, Thailand, May 19 - 22). Questo lavoro propone un approccio, chiamato sparse support faces, che può migliorare le prestazioni dei metodi allo stato dell'arte sia in termini di accuratezza del riconoscimento (facciale) sia in termini di riduzione del numero di template di riferimento necessari a questo scopo, sintetizzando un sottoinsieme di template di riferimento virtuali e una corrispondente regola di combinazione ottimale.

MLDM.it 2014. Ho partecipato al workshop MLDM.it tenutosi con la conferenza AI*IA 2014, il 10-11, Dicembre 2014 a Pisa, Italia. Le slide sono disponibili qui.



AISec 2014. Ho partecipato al 2014 Workshop on Artificial Intelligence and Security, tenutosi il 7 Novembre 2014, a Scottsdale, Arizona, USA, insieme alla conferenza CCS 2014. Ho tenuto una   invited talk dal titolo "On Learning and Recognition of Secure Patterns", dove ho riassunto i nostri recenti risultati nel campo dell'adversarial machine learning ed, in particolare, sui potenziali, sofisticati attacchi che possono essere portati contro gli algoritmi di machine learning per compromettere la sicurezza dell'intero sistema. Ho anche presentato il nostro recente lavoro "Poisoning Behavioral Malware Clustering". Alcune foto dell'evento sono disponibili nella nostra photo gallery.

S+SSPR 2014. Ho partecipato al IAPR Joint International Workshop on Statistical, Structural and Syntactic Pattern Recognition, tenutosi dal 20 al 22 Agosto 2014 a Joensuu, in Finlandia, dove ho presentato il nostro articolo "Poisoning complete-linkage hierarchical clustering", successivo al lavoro su AISec 2013 inerente la nostra ricerca su adversarial clustering.

AISec 2013. Ho partecipato al Workshop on Artificial Intelligence and Security (AISec 2013), organizzato contestualmente a CCS 2013, una delle top conference in computer security, tenutosi a Berlino, il 4 Novembre 2013, dove ho presentato il nostro lavoro  "Is Data Clustering in Adversarial Settings Secure?". La presentazione è disponibile qui. Alcune foto scattate durante la presentazione sono disponibili qui.  Questo articolo è stato il nostro primo lavoro sulla tematica del adversarial clustering.

ECML-PKDD 2013. Ho partecipato alla European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECMLPKDD 2013), a Praga (Rep. Ceca) dal 23 al 27 Settembre 2013, dove ho presentato il nostro paper "Evasion attacks against machine learning at test time. Le slide della presentazione sono disponibili qui.

BTAS 2012. Ho partecipato alla IEEE Fifth International Conference on Biometrics: Theory, Applications and Systems (BTAS 2012) dal 23 al 26 Settembre 2012, a Washington DC, USA. Ho presentato il lavoro "Learning Sparse Kernel Machines with Biometric Similarity Functions for Identity Recognition," i cui co-autori sono Giorgio Fumera e Fabio Roli. La registrazione della presentazione è disponibile qui.

Dagstuhl Workshop on ML for computer security. Ho partecipato al Dagstuhl Perspectives Workshop on Machine Learning Methods for Computer Security dal 9 al 15 Settembre 2012, a Dagstuhl, in Germania. Ho svolto una presentazione di 30 minuti, dal titolo "Security evaluation of pattern classifiers: lessons learned in Cagliari". Il report del seminario è disponibile qui.

ICML 2012. Ho presentato il paper "Poisoning attacks against Support Vector Machines," su cui ho lavorato insieme a Blaine Nelson e Pavel Laskov, alla  29th International Conference on Machine Learning (ICML 2012, Edinburgh, June 25 - July 1). Questo lavoro dimostra che le Support Vector Machines (e, più in generale, gli algoritmi di apprendimento automatico) sono vulnerabili ad una contaminazione ostile dei dati di addestramento. Il video della presentazione è disponibile qui.