Chiudi
k

Projects

Contact

News

Let's connect
29 Settembre 2022
Notizie EDGENews

Intelligenza Artificiale e Inclusione, due universi comunicanti

Intervista ad Alessandra Galli, consigliera del direttivo EDGE
Divercity, numero 16/2022

Divercity Magazine: Quando è nata l’associazione EDGE? Qual è la vostra Mission?
Alessandra Galli: EDGE1 nasce il 17 maggio 2012, nella giornata internazionale contro l’omofobia, la bifobia e la transfobia. La nostra associazione ha come mission la crescita personale e professionale delle persone LGBTIQ+ e i suoi alleati. Da dieci anni ci impegniamo in prima persona per rendere i luoghi di lavoro più inclusivi e per fare in modo che istituzioni, organizzazioni e aziende diano più spazio ai valori della diversità e dell’equità. L’11 giugno 2022, a Roma, abbiamo celebrato il nostro decennale con il convegno “L’inclusione delle persone LGBTIQ+ per lo sviluppo sostenibile dell’Italia di dieci anni in dieci anni”.

Algoritmi Inclusivi, il progetto sull'Intelligenza Artificiale | EDGE LGBTI+Leaders for change
Algoritmi Inclusivi, il progetto sull'Intelligenza Artificiale: intervista ad Alessandra Galli | EDGE LGBTI+Leaders for change
Alessandra Galli
Communication designer, Managing director e Founder, dal 1995, dell’agenzia creativa Arsenico.
Skill coach, con focus sul “Developing Anticipatory Thinking”. Ghost-writer specializzata in tecnologia,
robotica e intelligenza artificiale.
Socia dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA).
Consigliera nel direttivo dell’associazione EDGE | LGBTI+ LEADERS FOR CHANGE

DM: Partiamo dalle basi: cos’è intelligenza artificiale?
AG: Definirei l’intelligenza artificiale come una delle tecnologie abilitanti, driver della digital trasformation, che apprende dai dati e viene utilizzata per modellare fenomeni complessi; Parliamo di Machine Learning, Deep Learning e Reti Neurali. Gli algoritmi elaborano enormi quantità di dati ed è fondamentale la loro Governance. Possiamo parlare oggi di vere e proprie “tecnologie dell’informazione”; In Italia sono tra gli 11 punti considerati prioritari dal Programma Strategico per l’Intelligenza Artificiale 2022-2024 del Governo2.

Un esempio di IA virtuosa è l’app MirrorHR che aiuta a gestire gli attacchi di epilessia in modo tempestivo. È stata creata da Roberto D’Angelo (con cui ho lavorato in Microsoft), Microsoft Director e Co-Founder con Francesca Fedeli della fondazione FightTheStroke3, che supporta i giovani sopravvissuti all’ictus e alla paralisi cerebrale infantile. MirrorHR usa l’intelligenza artificiale di Microsoft Azure per prevenire gli attacchi epilettici ed evitare il pronto soccorso. L’IA è una tecnologia che può aiutarci a rendere il nostro pianeta più intelligente, più salubre e florido, a patto che sia costruita intorno ai valori e ai bisogni di noi esseri umani.

DM: Artificial Intelligence e Inclusione: sono due mondi separati o comunicanti?
AG: Devono essere necessariamente comunicanti. La Legge zero della robotica scritta da Asimov, afferma “Un robot non può recare danno all’umanità e non può permettere che, a causa di un suo mancato intervento, l’umanità riceva danno”.
Proviamo a sostituire il termine robot ed inserire “intelligenza artificiale”? Le esigenze delle persone devono essere tenute in considerazione affinché possano beneficiare dell’IA e siano date le migliori condizioni possibili per esprimersi e svilupparsi, favorendo la partecipazione sociale e includendo – sempre – le categorie più deboli. Mi viene in mente, a questo proposito, il manifesto “Rome Call for AI Ethics”4, firmato nel 2020 da Governo italiano, Vaticano, FAO, Microsoft e IBM, dove l’inclusione è indicata come uno dei 6 principi fondanti per lo sviluppo di un’IA.

 

DM: L’Intelligenza artificiale e machine learning pongono nuove sfide etiche e di contrasto alle discriminazioni?
AG: Sì, il tema si sta facendo strada anche in Italia, grazie anche alla pubblicazione del Libro bianco sull’IA nel 20205 e alle proposte della Commissione Europea6, il cui obiettivo è garantire che le soluzioni algoritmiche siano trasparenti, etiche, imparziali, sicure e governabili dall’essere umano. Anche il Parlamento europeo, quest’anno, ha adottato le raccomandazioni della “Commissione Speciale sull’intelligenza artificiale nell’era digitale”7. Gli algoritmi non sono neutrali e possono amplificare gli effetti di bias e stereotipi. Bisogna potenziare le buone pratiche di benessere sociale dell’IA8: oggi si parla di algoretica, che indaga sui problemi etici creati dagli algoritmi per evitare che si riproducano discriminazioni a sfavore della collettività.

 

DM: Edge ha dato vita al progetto “A+I Algoritmi+Inclusivi”. Di cosa si tratta?
AG: Desideriamo contribuire alle nuove sfide etiche e di contrasto alle discriminazioni che pone l’IA assumendo come lente d’ingrandimento i potenziali bias nei confronti delle persone LGBTIQ+. Lo scorso anno, insieme a Mario Di Carlo presidente di EDGE, Damiano Terziotti – con me nel board della nostra associazione e il socio Luca Trevisan, abbiamo dato vita al progetto A+I Algoritmi+Inclusivi. L’obiettivo è quello di tenere alta l’attenzione di chi produce e sviluppa i servizi e sistemi di IA, così come di chi li acquista e di chi li usa, sul rischio di incorporare bias e amplificarne gli effetti.
Si è iniziato con una ricerca multidisciplinare incentrata sul binomio Machine Learning – discriminazione delle persone LGBTIQ+: con il supporto di The Fab Lab, sono state realizzate delle interviste ad esperte/i di differenti ambiti del mondo accademico (data science, diritto, sociologia, …), del business e delle istituzioni, facendo emergere i punti di attenzione per uno sviluppo etico dell’IA. Da quest’indagine è stato prodotto un primo report.
“A+I Algoritmi+Inclusivi” è il nome, ideato dalla mia agenzia, capace di tradurre le parole dell’intelligenza artificiale in un linguaggio più inclusivo.
Ho coinvolto l’Istituto Europeo di Design, con i professori Liuzzo e Salomoni, per studiarne il logo, il cui simbolo si ispira al cubo di Rubik. A fine giugno scorso si è tenuto presso l’Università Bocconi di Milano il workshop “Fairness in Artificial Intelligence”, organizzato dal professore Trevisan del Dipartimento di Scienze della Computazione della Bocconi, insieme alla nostra associazione. È stato un momento di confronto tra la comunità scientifica, le imprese e le istituzioni e un’eccellente occasione per iniziare a mettere a sistema il contributo che i diversi saperi possono dare alla ricerca di soluzioni di algoritmi inclusivi. Stiamo pianificando l’agenda dell’evento pubblico di lancio del progetto A+I (con il supporto di AIxIA – Associazione italiana per l’intelligenza Artificiale) e realizzando, in parallelo, una serie di tools di comunicazione, come video e podcast (Vodcast), per divulgare gli esiti della ricerca e contribuire ad aumentare la consapevolezza riguardo ai meccanismi di funzionamento dell’IA.

 

DM: Che ruolo gioca il linguaggio nel vostro progetto?
AG: Un ruolo importante. Per il progetto A+I si è guardato anche al Natural Language Processing – NLP. Stiamo seguendo il lavoro di Debora Nozza, Assistant Professor all’Università Bocconi e il suo team. Gli interessi della loro ricerca si concentrano sull’individuazione e il contrasto dell’incitamento all’odio e dei pregiudizi algoritmici in un contesto multilingue9. Li abbiamo supportati chiedendo alle socie e ai soci EDGE di rispondere ad una survey sui pronomi di genere neutro in lingua inglese, che vuole contribuire a rendere i sistemi di IA più inclusivi rispetto alle identità di genere, soprattutto per le persone non-binarie.

 

DM: Se è vero che gli algoritmi tenderanno sempre di più ad indurre le nostre decisioni, cosa possono fare le aziende per evitare ogni possibile discriminazione?
AG: Negli ultimi anni le istituzioni e governi hanno iniziato a sviluppare linee guida in merito alla Governance dell’IA. Questo trend ha coinvolto anche le aziende10. Le testimonianze delle nostre interviste evidenziano che le imprese si stanno interrogando ogni giorno di più sulle questioni etiche legate agli algoritmi e ai rischi discriminatori da evitare.

 

DM: Come ognuno di noi con la propria intelligenza può influire positivamente sui meccanismi dell’intelligenza artificiale? È possibile per ciascuno contribuire al cambiamento?
AG: Possiamo contribuire al cambiamento riportando al centro l’essere umano, con i propri bisogni e i propri obiettivi, personali, sociali ed etici. Mi piacerebbe che si abbracciasse la pratica dell’Anticipazione (è il campo di ricerca che si concentra sui comportamenti anticipanti in cui i futuri entrano nel processo decisionale) con il sistema della “Comunità di Pratica di futuro – CPFO”:
questi metodi offrono la possibilità di indagare quelle che i miei partner di -skopìa chiamano “incertezze autentiche”, che consentono di influenzare ciò che avverrà nell’ambito dell’intelligenza artificiale.

FONTI E NOTE
1 www.edge-glbt.it
2 A cura dei Ministeri dell’Università e della Ricerca, dello Sviluppo Economico e dell’Innovazione tecnologica e la Transizione Digitale:
3 https://www.fightthestroke.org/mirrorhr
4 https://www.romecall.org
5 Libro Bianco 2020
6 Proposte della Comunità Europea: nel 2019 con le “Ethics guidelines for trustworthy AI” e nell’aprile 2021 con la proposta di Regolamento europeo sull’intelligenza artificiale (Artificial Intelligence Act)
7 AIDA
8 In inglese Artificial Intelligence for Social GoodAI4SG
9 È in corso un’indagine per approfondire il più possibile il rapporto tra la lingua italiana e le identità non binarie. L’obiettivo finale è quello di mostrare il problema pratico (ad esempio nei traduttori automatici) e proporre delle soluzioni possibili basate sui risultati dell’indagine. Stanno monitorando come i modelli linguistici completano delle frasi neutre per gender bias. I risultati evidenziano che questi modelli replicano e amplificano gli stereotipi sociali ai ruoli di genere. Il completamento delle frasi si riferisce alla promiscuità sessuale nel 9% delle volte quando il soggetto è una donna e nel 4% all’omosessualità quando il soggetto è un maschio.
10 Sempre nel Programma Strategico Nazionale per l’Intelligenza Artificiale 2022-2024 (a cura dei Ministeri dell’Università e della Ricerca, dello Sviluppo Economico e dell’Innovazione tecnologica e la Transizione Digitale) si punta nel triennio a sviluppare delle politiche applicative per le aziende come fare dell’IA un pilastro a supporto della Transizione 4.0 delle imprese. Nel programma, uno sforzo particolare è dedicato a sostenere la nascita e la crescita delle aziende IT italiane.