Il Tirreno

Toscana

internet festival 2024
Digitale

L’intelligenza artificiale sbaglia e va bene così: i quattro problemi e le opportunità che si aprono

di Libero Red Dolce
L’intelligenza artificiale sbaglia e va bene così: i quattro problemi e le opportunità che si aprono

“Imperfetta” all’Internet Festival di Pisa è un tentativo di ragionare sul concetto di perfezione, imperfezione e sul come applicarlo alla rivoluzione digitale

13 ottobre 2024
4 MINUTI DI LETTURA





PISA. “The sweetest perfection to call my own”, la più dolce perfezione da chiamare mia. Comincia così una celebre canzone dei Depeche Mode, in un binomio desiderio-perfezione che è uno dei più radicati nella mente umana. Al panel dell’Internet Festival titolato “Imperfetta” Mafe de Baggis e Giuseppe Mayer hanno provato a minare alle fondamenta questa pulsione verso la perfezione, partendo da quella che ci aspettiamo essere (e un po’ temiamo possa diventarlo) la più perfetta delle nuove tecnologie: l’intelligenza artificiale. In un elogio dell’imperfezione creativa e generatrice.

La perfezione e i suoi rischi

Partendo dall’invenzione della stampa a caratteri mobili, de Baggis prende una serie di eventi storici posteriori come esempi di tensioni verso la perfezione dai risultati non positivi, o quantomeno contraddittori. «Chqtgpt è imperfetta ed è una delle cose che ci spaventa. Noi abbiamo bisogno di verità, di certezze. I campi di concentramento nazisti furono tentativi di perfezionare un metodo di eliminazione degli umani. Il Vajont è un gioco con la natura, proviamo a perfezionarne il suo funzionamento, crollò la diga accade un disastro. I virus sono meccanismi naturali perfetti, si è parlato della pandemia come quella del virus perfetto», sostiene de Baggis, pubblictaria di formazione e digital media strategist.

E per storicizzare ulteriormente de Baggis punta il dito contro un’altra credenza che crea attese fuorvianti. «Viviamo in una società dove se qualcosa è scritto allora è vero, degno di fiducia, e lo stesso vale per quello viene fotografato o rappresentato. E non è vero, è un retaggio del ‘900. In questo senso viviamo la coda delle civiltà precedente, come quando abbiamo i sintomi e i problemi di un’influenza passata. Quando usiamo nuove tecnologie è la stessa cosa. Io accolgo con sollievo una tecnologia nata imperfetta e incompleta, come internet e come l’intelligenza artificiale», aggiunge. «Diventa pericoloso quando usata con lo spirito del positivismo e dell’ottimizzazione, uno spiritio ottocentesco.  Quando addestriamo l’algoritmo per identificare persone collegata all’organizzazione Hamas in base a diverse caratteristiche o azioni compiute, basta chiedergli di abbassare la soglia entro la quale includerli come potenziali target e voilà, la lista cresce vertiginosamente. La scelta di indirizzare le bombe su Gaza è di un umano», continua, citando Donata Columbro per quel che riguarda Gaza. E conclude: «Quando si parla di regolare i rischi dell’intelligenza artificiale si parla di quelli che sono gli utilizzi umani».

I quattro problemi più grandi dell’intelligenza artificiale

Mayer, che è chief executive officer di Talent Garden Italia, schematizzando quelli che a suo avviso sono i quattro grandi problemi delle intelligenze artificiali. Le allucinazioni sono il primo, più grande problema dell’intelligenza artificiale. Pensiamo che una tecnologia nuova sia fatta per sostituire quella vecchia Quando si parla di regolare i rischi dell’intelligenza artificiale si parla di quelli che sono gli utilizzi umani. E così con le IA pensiamo di superare Google, ma è un’altra cosa», comincia. Secondo problema. E’ convincente e desiderosa di compiacere, è empatica. L’abbiamo istruita a rispondere anche quando non conosce la risposta. Quando gli sottopongo qualcosa è meglio chiedere cosa non va, piuttosto che chiederle se approva quello che ho scritto», argomenta Mayer. Terzo problema. «E’ piena di pregiudizi, è biased, è addestrata su dati umani e ha gli stessi pregiudizi degli umani», spiega ancora. E infine l’ultimo problema, quello della qualità. «Il risultato è tanto buono quanto i dati che gli diamo: più sono buoni i dati che gli diamo, migliori sono le informazioni che restituisce», conclude sul punto Mayer.

Un uso diverso delle intelligenze artificiali

Per spiegare le possibilità che le IA portano con sè, Mayer, che si definisce un’ottimista a tal riguardo, racconta alla platea un aneddoto molto citato quando si parla di soluzioni creative. Negli anni '40 e '50, con l'aumento della costruzione di edifici più alti, i tempi di attesa degli ascensori iniziarono a diventare un problema. Gli utenti si lamentavano della lentezza degli ascensori, nonostante gli ingegneri facessero del loro meglio per migliorarne l'efficienza. Tuttavia, gli interventi tecnici non risolvevano la percezione del problema. Un'idea semplice, ma geniale, venne avanzata: inserire degli specchi all'interno degli ascensori. Invece di concentrarsi sulla velocità effettiva del viaggio, gli specchi consentivano alle persone di distrarsi. Mentre aspettavano di arrivare al loro piano, le persone tendevano a guardarsi allo specchio, a sistemarsi i capelli o gli abiti, il che rendeva l'attesa molto più tollerabile. «Se io chiedo a Chatgpt di risolvere il problema della velocità degli ascensori mi risponderà con una serie di questioni tecniche, molto specifiche. Se invece proverò a chiedere: “Come risolveresti il problema della lentezza degli ascensori se tu fossi il Dalai Lama?”, ed ecco che vedrete una miriade di proposte che vi stupiranno», conclude.

Sangue in Toscana
Il caso

San Casciano, uccisa a 55 anni nel suo negozio: il nipote bloccato dai carabinieri

Video

San Casciano Val di Pesa, il luogo del delitto: fermato il nipote della donna uccisa

Sportello legale