Abstract:
I modelli di Machine Learning (ML) sono soggetti ad attacchi che minano la loro sicurezza e possono generare comportamenti inaspettati: è noto che un malintenzionato può perturbare un'istanza in modo da raggirare un determinato modello di ML. A differenza di altri algoritmi di machine learning, finora è stato fatto poco per creare insiemi di alberi decisionali che siano robusti a questi attacchi. La presente tesi propone un nuovo metodo per l'addestramento di alberi decisionali robusti agli attacchi L_0. In questo scenario, l'attaccante può modificare a piacimento al massimo B feature di una determinata istanza. L'algoritmo di apprendimento proposto distribuisce le feature tra gli alberi dell'insieme in modo che la maggior parte degli alberi non possa essere danneggiata dall'attaccante.
Inoltre, proponiamo due algoritmi euristici per certificare un limite inferiore sulla solidità di un dato insieme di alberi decisionali. Un ampio confronto con modelli dello stato dell'arte mostra che l'algoritmo proposto fornisce una migliore robustezza e che le euristiche di certificazione proposte forniscono una stima molto stretta alla robustezza effettiva dell'insieme di alberi.