A proposito del caso Timnit Gebru

FAUSTO CAPRINI
28/12/2020
in sintesi
Occorre prestare grande attenzione ai modi in cui si progetta e si fa innovazione, reale e vantaggiosa quando è governata da principi solidi e condivisi, tanto nella società civile quanto nel business. Diversamente, possono manifestarsi pericolosi squilibri per l'una e per l'altro. La contrapposizione tra Timnit Gebru e Google, al di là della cronaca, sembra fatta apposta per sollecitare tutti gli attori del mercato a una riflessione decisiva sulle azioni e sulle strategie.

La vicenda che vede Timnit Gebru contrapposta a Google mi ha portato subito alla mente un film di fantascienza, campione d’incassi nei primi anni duemila.  In “Io, robot” di Alex Proyas, ambientato nel 2035, un robot, potendo salvare solo una delle due persone intrappolate in un’automobile, sceglie di salvare il detective Spooner e non la bambina con lui. La decisione presa dalla macchina, contravvenendo allo stesso ordine del protagonista, è indotta dal calcolo delle possibilità di sopravvivenza generato dall’algoritmo di programmazione della stessa.

I RISCHI DI MANIPOLAZIONE DEI LINGUAGGI

L’etica, intesa non tanto come parte ma premessa stessa dell’intelligenza artificiale, ha fatto di Timnit Gebru una delle ricercatrici più stimate della comunità scientifica internazionale. Il lavoro da lei volto alla prevenzione dei bias (pregiudizi, preconcetti) ha goduto di notevole popolarità quando ne ha identificati diversi, penalizzanti per la gente nera, ad esempio nei sistemi di riconoscimento facciale in uso nella polizia americana.

Più recentemente, la scienziata ha evidenziato in un articolo, poi diffuso da MIT, i rischi connessi ai modelli linguistici di grandi dimensioni, fondamentali per il business di Google, azienda nella quale lavorava. L’elaborazione delle intelligenze artificiali trova difficoltà d’individuazione e tracciamento dei contenuti discriminanti e violenti a causa degli enormi volumi di testi reperiti in internet. Questo comporta la possibilità di legittimazione di forme di comunicazione devianti che omologano pregiudizi consolidati e non considerano, invece, gli avanzamenti naturali nel linguaggio, frequentemente promossi dai movimenti sociali (ad esempio Black Lives Matter).

Timnit Gebru, inoltre, solleva il tema delle conseguenze sull’ambiente indotte, anche solo per il training “once time” di questi modelli, dalla capacità computazionale richiesta. Per esempio, il modello di elaborazione linguistica denominato BERT di Google utilizza per il solo training (che viene replicato continuamente) tanta CO2 quanto un volo andata e ritorno tra San Francisco e New York.

Queste sue opinioni hanno generato la controversia che ha portato alla sua uscita da Google, lo scorso 2 dicembre. Ora, anche il Congresso chiede spiegazioni a Google, dopo la protesta manifestata da molti ricercatori nel mondo, anche in considerazione del fatto che non si tratta di una prima volta. Un anno fa era toccato a Meredith Whittaker, per le sue proteste contro i contratti militari e le discriminazioni di genere.

IL PRIMATO CONTESO TRA ETICA E TECNOLOGIA

La risonanza internazionale del caso deve indurre, per me, riflessioni molto più ampie del fatto di cronaca, delle accuse di Timnit Gebru e delle difese addotte dal CEO di Google, Sundar Pichai. Le implicazioni di quanto successo riguardano tutti noi, il nostro modo di vivere e di lavorare, le responsabilità che ne derivano e le conseguenze per chi prenderà il nostro posto.

L’incidenza delle tecnologie avanzate vede l’Europa all’1,7 del PIL, la Cina al 2,2%, gli Stati Uniti al 3,3%. L’Italia è solo all’1,2% (*). La nostra lettura dei fatti dev’essere, quindi, necessariamente lungimirante, perché il basso sviluppo digitale del nostro paese ci limita nella consapevolezza della natura e della portata dei problemi.

L’etica di molta parte dell’intelligenza artificiale è un tema tutt’altro che consolidato, la cui definizione delle premesse e dei limiti è ben lontana dalla condivisione comune. La velocità dello sviluppo tecnologico solleva enormi preoccupazioni sulle modalità e i principi necessari a rendere i sistemi evoluti trasparenti, comprensibili e corretti.

Le linee guida della Commissione Europea per un’intelligenza artificiale affidabile, aggiornate a settembre da uno studio del centro studi del Parlamento europeo, presentano indicazioni concrete per lo sviluppo di sistemi di intelligenza artificiale leciti ed etici, vincolati a una prospettiva antropocentrica.

Di questo scenario fanno parte le iniziative di regolamentazione del governo americano; quelle dell’Europa in cerca di autonomia e identità (vedi GDPR per la protezione dei dati); quelle della Cina, tese a esportare i suoi modelli concorrenti. Assisteremo a una lotta senza esclusione di colpi.

RETAIL, CONSUMATORI E SOCIETÀ CIVILE

Nel nostro immediato futuro, condizioneremo il nostro lavoro e il nostro stato di consumatori e di membri della società civile con informazioni derivate da algoritmi basati su enormi quantità di dati, originati da Google e dagli altri colossi del web. Questo è un fatto semplice, quanto importante, che deve allertare il comune senso di responsabilità e alzare il livello di guardia.

Nel retail, il controllo e l’analisi dei dati anche tramite AI è la frontiera più vicina del business e dell’innovazione. Avere una posizione nitida in termini di trasparenza ed eticità è indispensabile alla credibilità del brand.

Proviamo a pensare al chiosco all’ingresso del supermercato, ai servizi di assistenza al cliente gestiti da un virtual assistant o al motore promozionale basato sull’intelligenza artificiale. E, quindi, ai possibili problemi indotti da informazioni sbagliate, da equivoci linguistici o da preconcetti assunti per errore, discriminando i clienti, escludendone alcuni da una campagna di promozione o, più in generale, dalla comunicazione marketing e da altre forme di relazione diretta o indiretta.

L’attenzione ai significati di fondo del caso di Timnit Gebru, in fondo, costa molto meno del prezzo che potremmo pagare per non avere saputo intuire e anticipare ciò che già ci è vicino, ma non siamo ancora abituati a percepire.

 

(*) Dati del Ministero della Sviluppo Economico, 2020