Valutazione della sicurezza degli algoritmi di apprendimento automatico

Gli algoritmi di apprendimento automatico non sono stati originariamente progettati per competere con avversari intelligenti ed adattivi in grado di manipolare i dati per compromettere la fase di addestramento o classificazione.

Alcuni tra i problemi principali che emergono dall'applicazione delle tecniche di apprendimento automatico in ambiente ostile: identificare vulnerabilità specifiche che possono essere esposte da questi algoritmi durante le fasi di addestramento e classificazione; sviluppare i corrispondenti attacchi; valutarne l'impatto sulla sicurezza del sistema.

Il nostro lavoro sulla valutazione della sicurezza è incentrato sulla definizione di una metodologia generale volta a permettere una valutazione sistematica, per via empirica, della sicurezza degli algoritmi di apprendimento automatico allo scopo di affrontare le problematiche sopra descritte (in altre parole, progettare attacchi mirati contro gli algoritmi di apprendimento automatico e valutarne l'impatto). La metodologia proposta, inoltre, può talvolta suggerire delle contromisure per migliorare la sicurezza degli algoritmi esistenti, basate sull'idea di simulare in anticipo e in modo proattivo le mosse dell'attaccante.

 

Come esempio applicativo più specifico, i nostri ricercatori hanno estensivamente analizzato la sicurezza dei sistemi biometrici multimodali a diversi tipi di attacchi di falsificazione (ovvero, tratti biometrici contraffatti, fabbricati con diverse tecniche e materiali).