Explainabile AI (XAI): l’Intelligenza Artificiale “spiegabile”
Mer 13 Apr 2022
Descrizione evento
Il 21 aprile 2021, la Commissione europea ha presentato una proposta di quadro normativo sull’Intelligenza Artificiale (AI), con l’obiettivo di affrontare i rischi derivanti dall’uso di metodi di calcolo basati sull’AI. La “spiegabilità” diventa un elemento imprescindibile quando un sistema di decisione automatica ha effetti rilevanti per le persone coinvolte.
La diffusione dell’AI è ormai pervasiva tanto da rappresentare un fattore critico di successo in molti settori, indispensabile per mantenere alta la competitività delle aziende. Se da una parte la diffusione dell’AI sta fornendo alle aziende nuovi strumenti che aiutano a progettare macchine e sistemi più affidabili e autonomi, dall’altra si è aperto un dibattito sui temi di trasparenza, legalità e equità.
I più moderni sistemi di AI, spesso basati su tecniche di apprendimento automatico, garantiscono prestazioni di altissimo livello e capacità previsionali molto accurate. La contropartita sta nella grande difficoltà nel comprenderne il comportamento e nello spiegare i modelli che questi sistemi utilizzano per suggerire o per prendere una decisione. L’approccio di tipo “Black Box” influenza negativamente il livello di fiducia che si può riporre in questi sistemi. La trasparenza delle informazioni è infatti un principio chiave, che si contrappone con l’opacità che caratterizza molte tecniche di apprendimento automatica.
La soluzione sta nell’eXplainable AI (XAI) che mira a definire sistemi in grado di spiegare la logica delle decisioni e di fornire indicazioni su come evolveranno nel tempo. La XAI fornisce definizioni, approcci e strumenti che aiutano a identificare e gestire i rischi collegati all’AI, stabilendo meccanismi per garantire la qualità del sistema durante l’intero ciclo di vita.
Ne parleremo con Fosca Giannotti, direttrice di ricerca dell’ISTI-CNR di Pisa e del Laboratorio KDD di Pisa.