Intelligenza Artificiale, Algoritmi e Discriminazione Sociale - IAADS 2022

La consapevolezza che le scelte operate da procedure algoritmiche, anche quando realizzate da processi di apprendimento automatico, non siano intrinsecamente neutrali, è cresciuta in modo significativo negli ultimi anni. Le distinzioni e le discriminazioni sedimentate nella struttura sociale alimentano classificazioni e selezioni errate o forvianti. Diventa quindi necessario sviluppare strumenti di valutazione critica e certificazione della correttezza delle procedure algoritmiche, anche in ottica regolatoria. L'obiettivo del workshop è raccogliere alcune delle più attuali ricerche prodotte a livello nazionale sulla relazione tra algoritmi, intelligenza artificiale e discriminazione sociale, cercando di mettere in collegamento tra loro aspetti aspetti algoritmici e metodologici, normativi e sociopolitici. Inoltre sono di interesse per il workshop casi reali applicati a contesti specifici o generici.

Organizzatori

  • Valerio Bellandi, Università degli Studi di Milano
  • Paolo Ceravolo, Università degli Studi di Milano
  • Marilisa D'Amico, Università degli Studi di Milano

Formato del workshop

Presentazione e selezione

Gli interventi inclusi nel programma potranno essere sia ad invito che sulla base di una proposta al comitato organizzatore. Il comitato prenderà in considerazione, in particolare, il potenziale interesse del pubblico previsto per le presentazioni. Non ci sarà una pubblicazione ufficiale per i lavori presentati, ma renderemo disponibile sul sito web il materiale che gli autori vorranno condividere con la comunità del workshop.

Programma

  • 16:30 - 16:35 - Paolo Ceravolo - Apertura dell'incontro
  • 16:35 - 16:50 - Nannerel Fiano - La legge tedesca sul linguaggio d’odio online: tra tutela della libertà di opinione e tutela della dignità dei singoli
  • 16:50 - 17:15 - Costanza Nardocci - La “nuova” discriminazione artificiale: caratteri e proposte di regolamentazione
  • 17:15 - 17:30 - Camilla Quaresmini - Dimensioni di qualità dei dati per un'IA equa
  • 17:30 - 17:45 - Sara Cinquini - Linguaggio discriminatorio nei testi: un caso pratico nei documenti ufficiali delle P.A.
  • 17:45 - 18:00 - Fabio Massimo Zanzotto - Syntax and prejudice: ethically-charged biases of a syntax-based hate speech recognizer unveiled