Il Tirreno

Toscana

internet festival 2024
L’incontro

Diseguaglianze di genere e tecnologie, così portiamo i nostri pregiudizi online

di Libero Red Dolce
Diseguaglianze di genere e tecnologie, così portiamo i nostri pregiudizi online

Giulia Blasi e Donata Columbro parlano della presunta neutralità delle tecnologie e di come l’intelligenza artificiale rispecchi i pregiudizi e le visioni di chi l’ha sviluppata

5 MINUTI DI LETTURA





PISA. Si dice che i numeri non mentano, che siano freddi e chiari. Però sicuramente può mentire, o approcciarli secondo una serie di pregiudizi, chi li utilizza e commenta. Di questo, e molto altro, si è parlato nel panel “Bios e bias” all’Internet Festival che ha visto la giornalista Donata Columbro e l’autrice e attivista Giulia Blasi confrontarsi sulle diseguaglianze e discriminazioni di genere prodotte online. 

In premessa, una breve definizione di cos’è un bias: è una distorsione o inclinazione sistematica che influenza il modo in cui interpretiamo o giudichiamo le informazioni. Può derivare da pregiudizi personali, stereotipi, esperienze precedenti o errori nei processi decisionali, portando a conclusioni non oggettive o non rappresentative della realtà.

I numeri e le interpretazioni

E a conferma della fragilità del modo di dire citato in apertura, è proprio Columbro, che si occupa di divulgazione di dati, a mettere in guardia contro un rischio: «“Siate razionali”, si dice alle femministe, “portate dei dati”. Poi quando questi dati vengono portati vengono respinti come falsi. Quando uscì la relazione dati Istat sul femminicidio, quei numeri furono messi in dubbio, persino da un’istituzione, il prefetto di Padova che disse che i femminicidi non furono 105, come indicato dal rapporto, ma 40. Ecco che il modo in cui decidiamo di utilizzare i numeri e i dati non è neutrale e porta dietro una visione».

Blasi parte da un’annotazione filosofica, di stampo anti-realista: «La realtà di fatto non esiste, ci sono piuttosto delle cose a cui diamo dei nomi.  Pensiamo al femminicidio: l’uccisione di una donna da parte di un partner o ex partner a cui era legata da una relazione affettiva. Nella maschiosfera, la comunità dove le donne vengono chiamate “quelle con la d.”, pensate, il femminicidio non esiste: viene classificato come morte accidentale. E che come il prefetto di Padova si possa credere che 40 femminicidi siano una quota più accettabile del doppio o più è preoccupante».

Alla base c’è un problema di percezione di sé e lavoro sulla propria identità che il genere maschile non ha compiuto, a differenza della decostruzione operata dalle donne sulla scorta del femminismo. «La cultura nella quale siamo immersi ha fatto sì che gli uomini non si percepiscono come genere. Se gli uomini 50 anni fa avessero cominciato a decostruirsi, capire di che pezzi sono fatti, facendo una riflessione su com’è composta la loro mascolinità, forse saremmo in una cultura differente. Forse non ci sarebbero persone che esaltano il femminicida Filippo Turetta», argomenta Blasi.

L’influenza dei pregiudizi sulle tecnologie

Che i pregiudizi latenti o espliciti non si fermino sul piano della “realtà”, ma vengano riversati nelle varie tecnologie è facile da capire, considerate queste premesse. Bisogna ricordarsi che al di là dell’apparente scarnificazione delle tecnologie, in particolare di quelle digitali, a crearle, farle funzionare e addestrarle ci sono esseri umani. E questi sono portatori di visioni del mondo. Blasi fa l'esempio di Faceapp: «Una macchina chi la programma? Chi è che insegna a Faceapp che le donne escono truccate quando fai un passaggio da uomo a donna, mentre gli uomini no? Non pensiamo mai al fatto che la tecnologia la fanno le persone. E questo ha delle conseguenze».

Quello che non si vede

Un problema dello stesso tipo lo si ha quando si lavora con i dati. Quello che si sceglie e quello che si scarta non sono “neutrali”. C’è una scelta consapevole e allorquando fosse inconsapevole sarebbe filtrata dalle lenti che ciascuno indossa. Spiega Columnro: «E’ utile capire quando parliamo di dati e di mancanze che la questione non è solo la mancanza di rappresentazione (che è sicuramente un bias di rappresentazione). In Europa non abbiamo l’abitudine di classificare le persone per  razza ed etnia, come fanno negli Usa. Le etichette possono discriminare le persone. La condivisione di contenuti su Gaza viene penalizzata dagli algoritmi, un’esperienza che tutti abbiamo fatto e che fu ammessa da Fb in ottobre, e la categoria, cioè il punteggio che io assegno, modifica il modo in cui vedo le cose. Questo significa che certe cose scompaiono dalla nostra visione del mondo e che bisogna stare attenti».

Il problema dei media

Blasi osserva come il problema è evidente anche nel modo in cui i media italiani trattano la vicenda. «Il sistema informativo italiano è ancora un modello basato sulla pubblicità, quelli alternativi, fondati sugli abbonamenti, sono pochi. Il Post è  I giornali continuano ad assumere il punto di vista del femminicida, continuano a chiamare le persone trans con il genere sbagliato, a enfatizzarli e poi a compiangere le vittime. Questo perché sono schiavi dei clic. Un esempio: in Italia abbiamo letto che Michelle Obama voleva candidarsi alla presidenza della Repubblica. Ebbene è una notizia che è apparsa solo e soltanto sui media italiani (in realtà questo non è corretto, qui e qui due esempi di giornali anglofoni che ne hanno parlato, ndr). Eppure lei ha specificato di non volersi indossare dei completi conservatori o dovere stare con i capelli lisci, non è una cosa che le interessa. I giornali sono sempre più sciatti».

«Rendere visibile l’invisibile»

La soluzione per Blasi parla dal puntare la luce laddove regna il buio. «Rendere visibile l’invisibile è il modo in cui si contrastano i pregiudizi. Le persone trans sono sempre esistite, eppure  da come se ne parla sembra che siano state “inventate” cinque anni fa. Ci sono da sempre, ci sono culture che le accettano, altre che le rifiutano, altre che le hanno integrate. La persona trans può stare nella nostra cultura, ma a patto che assomiglino a donne cis, le cosiddette donne biologiche. Nel momento in cui la donna trans non è un oggetto erotico, esotico, un uccello di paradiso, allora andrà incontro a discriminazioni». E fa un altro esempio che ha a che fare con le intelligenze artificiali e i pregiudizi dei loro creatori. «I corpi grassi vengono esclusi dall’intelligenza artificiale. Se chiedi di raffigurare una donna verrà fuori una bianca e non creerà figure di persone grasse. A meno che non dai un prompt specifico e magari a quel punto esagera ti fa una donna con lo stile di Botero. Ogni volta che un corpo grasso si affaccia all’occhio del mondo, allora viene accusato di promuovere l’obesità».

Primo piano
Nella notte

Lucca, il boato e le fiamme: esplode una villa in Garfagnana, si cercano persone sotto le macerie

Sportello legale