Mitigating Unfairness and Adversarial Attacks in Machine Learning

DSpace/Manakin Repository

Show simple item record

dc.contributor.advisor Lucchese, Claudio it_IT
dc.contributor.author Abebe, Seyum Assefa <1987> it_IT
dc.date.accessioned 2022-05-28 it_IT
dc.date.accessioned 2023-02-22T13:45:50Z
dc.date.available 2023-02-22T13:45:50Z
dc.date.issued 2022-07-28 it_IT
dc.identifier.uri http://hdl.handle.net/10579/22745
dc.description.abstract Gli algoritmi di apprendimento automatico (machine learning) come gli alberi di decisione ed gli ensamble di alberi di decisione sono ampiamente utilizzati, ed ottengono prestazioni all'avanguardia in diverse applicazioni, che vanno da sistemi finanziari alla sicurezza informatica. Nonostante gli alti livelli di performance spesso raggiunti, vi è un ampio consenso sul fatto che la loro affidabilità dovrebbe essere attentamente valutata, soprattutto se vengono utilizzati in discipline essenziali come medicina, giustizia penale, mercati finanziari o auto a guida autonoma. Il rischio che questi algoritmi prendano inconsapevolmente conclusioni errate, principalmente dovuto da correlazioni fuorvianti nei dati di addestramento, non è trascurabile, soprattutto nell'era dei big data dove l'uso di modelli di machine learning e' pervasivo. Di conseguenza, per aumentare la fiducia degli utenti ed identificare potenziali vulnerabilità in questi approcci, un'area di ricerca, chiamata Adversarial Machine Learning si e' presa l'incarico di esplorare le vulnerabilità dei suddetti sistemi e di sviluppare delle tecniche che rendono l'apprendimento robusto agli attacchi Molti lavori sono stati introdotti per studiare i potenziali punti deboli, valutare le prestazioni dei modelli sotto attacchi e progettare meccanismi difensivi. A stesso modo, anche l'affidabilità dei sistemi nel processo decisionale e' un argomento ampiamente studiato ed in particolare viene affrontato con nel Fair Machine Learning. L'obiettivo e' quello di progettare sistemi che utilizzino l'apprendimento automatico che siano in grado di eseguire compiti in modo accurato, ma che lo facciano anche evitando giudizi pregiudizi nei confronti di un particolare individuo o gruppo di individui, pregiudizi che potrebbero essere stati appresi dal flusso di dati di training. In questa tesi, dopo aver fornito un background approfondito sull'adversarial e fair machine learning, e dopo aver motivato l'essenzialita' di questi due requisiti, presentiamo prima una revisione della letteratura. Prima sull'adversarial machine learning, incentrata in particolare sugli alberi di decisione ed i loro ensemble. Faremo questo mettendo insieme attacchi, difese, verifiche della robustezza e valutazioni delle prestazioni per comprendere meglio i lavori presenti nella letteratura. Dopodiche', proponiamo un nuovo algoritmo di apprendimento per gli alberi di decisione chiamato TREANT che, basato su un threat model formale, minimizza una evasion-aware loss function ad ogni passo della costruzione dell albero. La tecnica e' composta da due concetti: il robust splitting e l'invarianza dell'attacco, entrambi garantiscono un corretto apprendimento del modello. L'algoritmo utilizza un threat model formale in modo da garantire la generazione degli attacchi in maniera piu' flessibile anche a seconda delle capacita' dell' attaccante. L' algoritmo puo generare un esemble di alberi di decisione che sono allo stesso tempo accurati, ma anche poco sensibili agli attacchi di tipo evasion, superando le tecniche allo stato dell'arte. Infine, presentiamo una tecnica di post-processing chiamata, Enforcing Fairness in Forests by Flipping Leaves (EiFFFeL), affrontando la questione della fairness nei modelli di ensemble. La tecnica garantisce fairness attraverso il leaves flipping. Questo approccio sfrutta la struttura degli alberi di decisione basandosi su strategie proprie dell'albero e delle foglie per rietichettare le foglie degli alberi di decisione selezionati di una determinata foresta. La tecnica e' in grado di raggiunge un grado di fairness definito dall'utente senza perdere un'accuratezza significativa. it_IT
dc.language.iso en it_IT
dc.publisher Università Ca' Foscari Venezia it_IT
dc.rights © Seyum Assefa Abebe, 2022 it_IT
dc.title Mitigating Unfairness and Adversarial Attacks in Machine Learning it_IT
dc.title.alternative Mitigating Unfairness and Adversarial Attacks in Machine Learning it_IT
dc.type Doctoral Thesis it_IT
dc.degree.name Informatica it_IT
dc.degree.level Dottorato it_IT
dc.degree.grantor Dipartimento di Scienze Ambientali, Informatica e Statistica it_IT
dc.description.academicyear D2_010722 it_IT
dc.description.cycle 34
dc.degree.coordinator Cortesi, Agostino
dc.location.shelfmark D002192
dc.rights.accessrights openAccess it_IT
dc.thesis.matricno 854877 it_IT
dc.format.pagenumber 112 p.
dc.subject.miur INF/01 INFORMATICA it_IT
dc.description.note it_IT
dc.degree.discipline it_IT
dc.contributor.co-advisor Orlando, Salvatore it_IT
dc.date.embargoend it_IT
dc.provenance.upload Seyum Assefa Abebe (854877@stud.unive.it), 2022-05-28 it_IT
dc.provenance.plagiarycheck Claudio Lucchese (claudio.lucchese@unive.it), 2022-07-01 it_IT


Files in this item

This item appears in the following Collection(s)

Show simple item record