DPIA, FRIA, CA: gli assessment sull’IA richiesti dalla legge
Sono diverse oggi le normative che obbligano aziende e PA che forniscono o usano sistemi di intelligenza artificiale a svolgere valutazioni sugli impatti dell'IA e sul modo in cui questi sistemi rispettano la legge. È il caso, ad esempio, del Regolamento Generale sulla Protezione dei Dati (GDPR): chi intende avvalersi di un sistema di IA deve infatti effettuare una Valutazione d'Impatto sulla Protezione dei Dati (DPIA). Anche l'AI Act, la nuova legge europea sull'intelligenza artificiale, richiede di eseguire una Valutazione d'Impatto sui Diritti Fondamentali (FRIA) quando si usa un sistema di IA. La stessa legge introduce anche l'obbligo di condurre un Conformity Assessment (CA) per dimostrare la conformità del proprio sistema di intelligenza artificiale ai requisiti dell'AI Act. In questo speech verranno presentati i diversi assessment che imprese ed enti pubblici devono svolgere sui propri sistemi di IA per adempiere agli obblighi di legge. Verrà spiegato in che modo e con quali metodologie condurre queste valutazioni, mettendone in luce punti di contatto e differenze, dedicando attenzione anche ai benefici che possono derivare da loro corretto e tempestivo svolgimento