Abstract:
Sempre più imprese stanno adottano sistemi di intelligenza artificiale (IA) per analizzare e prendere decisioni più velocemente, più accuratamente e più oggettivamente dell'uomo. Ma cosa succede se gli algoritmi di IA non si comportano come ci si aspetta? Non raramente, ad esempio, si è parlato di algoritmi discriminatori. Come poter essere sicuri che l'algoritmo sia oggettivo ed etico e prenda la decisione “giusta”?
Le imprese che desiderano impiegare l’intelligenza artificiale nella propria organizzazione devono porsi queste ed altre domande. La valutazione dell'impiego di IA non può limitarsi all'efficienza e all'economicità, ma anche al rischio nelle sue diverse sfaccettature, che pongono sfide nuove rispetto ai framework già esistenti di risk management. Il presente elaborato è il frutto di un’analisi di vari documenti e white paper di istituzioni internazionali e società attive nel settore dell’IA, dimostrando come un “intelligenza artificiale responsabile” possa essere implementata attraverso il monitoraggio dei rischi fin dalla fase di ideazione degli algoritmi, continuando nello sviluppo e nel monitoraggio continuo delle prestazioni e degli assunti. Al fine di fornire un framework incentrato sulla gestione del rischio dei modelli di IA, si sono analizzate le diverse fonti di rischio, nuove e conosciute, le azioni di mitigazione e le buone pratiche da adottare affinché la tecnologia sia adeguatamente presidiata e garantisca il risultato atteso. Il tutto senza trascurare il ruolo che le Autorità regolamentari hanno nella definizione dei rischi e dei requisiti tecnici e sociali che tali sistemi devono soddisfare.