Cosa è l'Adversarial Learning?

L'Adversarial learning (o apprendimento automatico in ambiente ostile) è un nuovo campo di ricerca che sorge dall'intersezione tra il campo dell'apprendimento automatico e la sicurezza informatica. L'obiettivo è quello di consentire un uso efficace e sicuro di tecniche di apprendimento automatico in ambienti ostili come il filtraggio delle email di spam, la sicurezza informatica, e il riconoscimento biometrico.

Il problema è motivato dal fatto che le tecniche di apprendimento automatico non sono state originariamente progettate per competere con avversari adattivi e intelligenti; pertanto, in linea di principio, la sicurezza dell'intero sistema potrebbe essere compromessa sfruttando vulnerabilità specifiche di questi algoritmi, attraverso un'attenta manipolazione dei dati che vengono forniti in ingresso. 

Quindi, per migliorare la sicurezza degli algoritmi di apprendimento automatico, il campo dell'adversarial learning si occupa dei seguenti problemi aperti:

  1. identificare le vulnerabilità potenziali degli algoritmi di apprendimento automatico, durante la fase di addestramento e di classificazione;
  2. sviluppare i corrispondenti attacchi e valutarne l'impatto sul sistema attaccato;
  3. proporre contromisure per migliorare la sicurezza degli algoritmi di apprendimento automatico contro gli attacchi considerati.

Il lavoro dei nostri ricercatori nel campo dell'adversarial learning cerca di coprire al meglio tutte le tematiche sopra elencate. Abbiamo svolto una significativa quantità di lavoro sulla valutazione della sicurezza degli algoritmi di apprendimento automatico e sullo sviluppo di attacchi portati sia sulla fase di addestramento (attacchi contaminativi) sia sulla fase di classificazione (attacchi evasivi), congiuntamente alla proposta di contromisure adeguate.