Nome e qualifica del proponente del progetto: 
sb_p_2778760
Anno: 
2021
Abstract: 

L'Intelligenza Artificiale gioca oggi un ruolo strategico sia nei paesi in via di sviluppo che in quelli ad economia avanzata ed è considerata uno dei driver fondamentali della 4° Rivoluzione industriale. Uno dei temi d'importanza fondamentale è l'elaborazione del linguaggio naturale con numerose applicazioni quali, il riassunto automatico, l'estrazione di entità nei testi, la scoperta dei topic principali e il loro tracking (e.g. nei Social Network), la traduzione automatica, la generazione di risposte sensate negli assistenti digitali, la generazione di didascalie nelle immagini (e.g. imaging medico), la prevenzione delle frodi. Sia per motivi etici che per motivi pratici, data la pervasività e l'ubiquità dei sistemi basati sull'IA è necessario disporre di algoritmi predittivi che siano spiegabili, comprensibili ed interpretabili ovvero in linea con il filone di ricerca che si sta delineando noto come explainable IA. In letteratura sono state studiate numerose metodologie per rappresentare un testo, sia attraverso metodi statistici sia tramite architetture neurali di tipo deep (Geometric Deep Learning). Queste ultime si sono rivelate molto performanti in termini di capacità di generalizzazione ma poco in termini d'interpretabilità dei modelli. Il Granular Computing (GrC) può fornire il framework concettuale per costruire sistemi gerarchici di elaborazione delle informazioni al fine di sintetizzare una metodologia capace da un lato di risolvere le questioni concettuali discusse nella Pattern Recognition (e.g. il problema della "rappresentazione") e dall'altro di costruire sistemi induttivi (classificatori testuali) che operino come white-box. Tale caratteristica spinge il mondo della ricerca a concepire algoritmi che abbiano un buon compromesso tra prestazioni ed interpretabilità. Ciò è di estrema importanza in campi quali la medicina, la biologia e le scienze in genere in seno all'Industry 4.0 e nell¿'elaborazione del linguaggio naturale.

ERC: 
PE6_11
PE6_7
PE7_7
Componenti gruppo di ricerca: 
sb_cp_is_3575819
sb_cp_is_3547469
Innovatività: 

Nel 2018 la Commissione Europea in un comunicato al Parlamento Europeo sulle strategie da seguire nel contesto dell'IA ha dichiarato che [1]: "l'IA è la tecnologia che ha maggiore rilevanza strategica nel 21° Secolo". Inoltre, essa rileva anche che:

"l'IA ci sta aiutando a risolvere alcune delle più grandi sfide del mondo: dal trattamento delle malattie croniche o dalla riduzione dei tassi di mortalità negli incidenti stradali alla lotta ai cambiamenti climatici o all'anticipazione delle minacce alla sicurezza informatica" e per questo è "necessario un ambiente di fiducia e responsabilità intorno allo sviluppo e all'uso dell'IA".

Nella visione dell'Unione Europea espressa nell'European General Data Protection Regulation (GDPR) [2] ci si riferisce esplicitamente al "diritto alla spiegazione" (right to explanation), cioè al fatto che i cittadini europei hanno il diritto di chiedere spiegazioni per le decisioni che li riguardano, non importa chi o quale sistema intelligente opera tale decisione. La motivazione è chiara: la pervasività dei sistemi intelligenti capaci di prendere decisioni autonome che modificano i nostri comportamenti e concorrono alle nostre legittime decisioni genera una serie di questioni etiche. L'ACM Code of Ethics, organo statunitense governativo, ha stilato una serie di "Principi per la trasparenza e la responsabilità algoritmica" mettendo in evidenza quanto sia importante la spiegazione, asserendo che [3]:
"i sistemi e le istituzioni che utilizzano il processo decisionale algoritmico sono incoraggiate a fornire spiegazioni riguardanti sia le procedure seguite dall'algoritmo sia le decisioni specifiche che vengono prese. Ciò è particolarmente importante nei contesti di ordine pubblico".
Il seguente progetto di ricerca si allinea con la visione e le aspettative definite nella "Call for the Establishment of a Confederation of Laboratories for Artificial Intelligence Research" (CLAIRE) [4] dell'Unione Europea e con i principi di transparency, accountability e liability stabiliti nel white paper sull'IA al servizio del cittadino [5] redatto dall'Agenzia per l'Italia digitale nel 2018.
Attualmente molti modelli di Machine Learning, soprattutto nell'ambito dell'elaborazione testuale, sono al contempo molto performanti ma poco interpretabili (è noto che le architetture neurali producono modelli black box [6]). Il presente progetto di ricerca si propone, rispetto allo stato dell'arte attuale, un doppio obiettivo che è di natura metodologica e pratica, cioè di contribuire alla soluzione del problema della rappresentazione (un problema aperto sia in Pattern Recognition che nelle Scienze Cognitive) e, al contempo, di costruire modelli performanti ed interpretabili, grazie all'apporto del Granula Computing come approccio generale al progetto dei sistemi di riconoscimento e classificazione. Quindi il raggiungimento dei goal riguarda sia una questione etica - l'interpretabilità dei modelli di Intelligenza Artificiale - che strettamente scientifico-metodologica, ovvero contribuire a comprendere come le macchine possono rappresentare al meglio le informazioni acquisite tramite Big Data per costruire un modello del mondo. Stando al primo goal, ci si propone di raggiungere tale risultato in maniera "trasparente". Non solo, l'interpretabilità del sistema può essere utile proprio nei domini di applicazione in cui tali sistemi devono essere utlilizzati da esperti di dominio ma non da esperti nell'ambito del Machine Learning o dell'elaborazione del linguaggio naturale. E' necessario, altresì, per il raggiungimento di tali obiettivi, disporre di hardware performante e parallelo in termini di workstation possibilmente dotate di GPU multiple, in quanto il training dei modelli, nel contesto Big Data, richiedono ingenti risorse computazionali.

[1] Anonymous, «Communication Artificial Intelligence for Europe», Shaping Europe¿s digital future - European Commission, apr. 25, 2018. https://ec.europa.eu/digital-single-market/en/news/communication-artific... (consultato gen. 02, 2021).
[2] «EUR-Lex - 32016R0679 - EN - EUR-Lex». https://eur-lex.europa.eu/eli/reg/2016/679/oj (consultato gen. 02, 2021).
[3] «Statement on algorithmic transparency and accountability». ACM, US - Public Policy Council. 2017, 2019. [Online]. Disponibile su: www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_a...
[4] P. SLUSALLEK, «CLAIRE: A European Vision for AI», FUTURIUM - European Commission, ott. 03, 2018. https://ec.europa.eu/futurium/en/european-ai-alliance/claire-european-vi... (consultato gen. 02, 2021).
[5] «Artificial Intelligence at the service of the citizen - AI White Paper draft documentation». https://libro-bianco-ia.readthedocs.io/en/latest/ (consultato gen. 02, 2021).
[6] V. Buhrmester, D. Münch, e M. Arens, «Analysis of Explainers of Black Box Deep Neural Networks for Computer Vision: A Survey», arXiv:1911.12116 [cs], nov. 2019, Consultato: lug. 07, 2021. [Online].

Codice Bando: 
2778760

© Università degli Studi di Roma "La Sapienza" - Piazzale Aldo Moro 5, 00185 Roma