Chiudi
k

Projects

Contact

News

Let's connect

L’AI Act dell’Unione Europea e la tutela dei diritti delle persone LGBTQIA+

L’AI Act dell’Unione Europea e la tutela dei diritti delle persone LGBTQIA+
Webinar con Brando Benifei

Vi invitiamo MERCOLEDÌ 13 MARZO 2024, dalle ore 18.30 alle ore 19.30, ad assistere al webinarL’AI Act dell’Unione Europea e la tutela dei diritti delle persone LGBTQIA+”, SPECIALE CAFFÈ ARTIFICIALI, nell’ambito del progetto A+I Algoritmi+Inclusivi by EDGE.

Ne parliamo con Brando Benifei, Eurodeputato italiano, Relatore del Regolamento sull’intelligenza artificiale della Commissione parlamentare Mercato interno e protezione dei consumatori.
Modera Mario Di Carlo, Past President EDGE.

L'AI Act dell'UE e la tutela dei diritti delle persone LGBTQIA+: webinar con Brando Benifei | EDGE LGBTI+ Leaders for change
Brando Benifei
È un eurodeputato italiano al suo secondo mandato, attualmente Capodelegazione del Partito Democratico al Parlamento europeo. È Relatore del Regolamento sull’intelligenza artificiale, in quanto membro della Commissione parlamentare Mercato interno e protezione dei consumatori. Nella sua attività parlamentare si occupa anche di occupazione, affari legali e costituzionali. In precedenza, è stato anche Relatore ombra della Commissione speciale sull’intelligenza artificiale nell’era digitale (AIDA). Nel 2016 è stato inserito da Forbes nella lista dei trenta politici under 30 più influenti d’Europa.

Siamo alle battute finali dell’introduzione di una regolamentazione europea dell’intelligenza artificiale, che prevederà strumenti specifici a tutela dei diritti umani e per la prevenzione ed il contrasto di fenomeni di discriminazione. Il Parlamento Europeo ha svolto un ruolo fondamentale nella dialettica istituzionale dell’Unione Europea per innalzare il livello di queste tutele.

L’intelligenza artificiale, specie nelle sue forme più evolute come machine learning e reti neurali e nelle sue espressioni più innovative come l’IA generativa, pone nuove sfide ed opportunità nel campo della discriminazione e dell’inclusione.
Ormai è di dominio comune il rischio di discriminazione algoritmica, cioè il rischio che processi automatizzati e soprattutto decisioni automatizzate replichino e perfino amplifichino dinamiche discriminatorie, specie in relazione alle persone portatrici di caratteristiche protette. È un rischio che coinvolge i diversi ambiti di applicazione dell’intelligenza artificiale e tutti i fattori protetti, inclusi l’orientamento sessuale e l’identità di genere.

Gli esempi sono noti alle cronache e vanno dagli algoritmi di riconoscimento facciale che identificano erroneamente o non identificano persone di determinate etnie e generi, agli algoritmi di scoring che penalizzano persone appartenenti a gruppi storicamente discriminati, ai meccanismi di targeting commerciale sui social media e così via.

Dall’altro lato gli strumenti di intelligenza artificiale possono contribuire a significativi miglioramenti della vita, incrementi di efficienza economica, maggiore accessibilità dell’informazione e molto altro.

Gli strumenti automatizzati mediante intelligenza artificiale possono supportare anche l’inclusione, attraverso ad esempio il lavoro di analisi delle opinioni, di individuazione dei bias e dei discorsi d’odio, o strumenti di supporto a necessità di gruppi specifici.

Il Regolamento sull’intelligenza artificiale dell’Unione Europea stabilisce regole pervasive che disegnano il nuovo scenario in cui esprimere le nostre potenzialità e far valere i nostri diritti.

La partecipazione al webinar CAFFÈ ARTIFICIALI è gratuita!

A+I Algoritmi + Inclusivi | EDGE LGBTI+Leaders for change

Il progetto A+I Algoritmi+Inclusivi by EDGE

Intelligenza artificiale e machine learning rappresentano forse lo sviluppo tecnologico più interessante dei nostri giorni, con enormi potenzialità in molteplici campi. Allo stesso tempo pongono nuove sfide etiche da affrontare.

Il tema è molto presente nel dibattito internazionale e si sta facendo strada in Italia, dove sono sempre più frequenti discussioni e ricerche tese a esplorare il potenziale di uno sviluppo “sano” di queste tecnologie, senza trascurare i rischi che portano con sé.

Come EDGE desideriamo contribuire, in particolar modo, alla ricerca di soluzioni tecniche e istituzionali, per superare i limiti che stanno emergendo o che potrebbero emergere nel medio periodo, assumendo come “lente d’ingrandimento” i potenziali bias nei confronti delle persone LGBTQIA+.
È per noi saliente evidenziare rischi e opportunità specifici e studiare soluzioni poi declinabili su tutte le discriminazioni.

Come farlo? Riportando al centro l’essere umano che sta progettando la “macchina”, con i propri bisogni e i propri obiettivi, personali, sociali ed etici.
Se l’algoritmo segue logiche proprie, scoprendo e riproducendo relazioni tra i dati che l’essere umano non riesce a comprendere sino in fondo, è possibile che riaffiorino discriminazioni nuove e vecchie, amplificate o più difficili da intercettare, così contraddicendo il naturale auspicio che le nuove tecnologie contribuiscano in ogni ambito al progresso effettivo delle nostre società.
Chi può fare la differenza? Noi, ovviamente.

È nostra la responsabilità di consegnare alle generazioni future una SOCIETÀ PIÙ INCLUSIVA E SOSTENIBILE, favorendo un’interazione sempre più sciente tra essere umano e macchina, grazie a una GOVERNANCE ETICA DEGLI ALGORITMI che va costruita sin da oggi.

Per contattare il Team EDGE, scrivere a questo indirizzo: algoritmipiuinclusivi@edge-glbt.it