La natura imperfetta del Machine Learning

Il convegno “Ethical and Societal Challenges of Machine Learning” che apre al dibattito pubblico a propone una visione critica su AI e ML, fondamentali per valutare gli impatti sociali di queste tecnologie ancora “imperfette”

Lunedì 14 Novembre 2022
Cristina Cambiucci

linkedin
intelligenza artificiale

Intelligenza artificiale e machine learning hanno rapidamente dimostrato la loro capacità predittiva nell’identificazione di minacce e situazioni di criticità: un esempio di impiego virtuoso arriva da parte di scienziati operanti in Paesi in via di sviluppo, che le utilizzano per individuare soluzioni efficaci applicabili a problematiche sanitarie e produttive: le AI risultano di grande aiuto per predire lo scoppio di focolai epidemici, oppure nel supportare gli agricoltori costretti a fronteggiare l’incessante avanzata del cambiamento climatico e le disastrose conseguenze sul piano produttivo.

L’altro lato della medaglia risiede però nella natura fallace di questi sistemi che, sebbene rappresentino attualmente il punto più alto dell’innovazione tecnologica, rimangono prodotti dell’ingegno umano, di cui ne subiscono l’influenza. Nonostante siano stati creati per risultare del tutto equi e neutrali, molti algoritmi impiegati in ambiti giudiziari, sanitari ed educativi hanno appreso e normalizzato i pregiudizi di chi li ha progettati e “addestrati”, dando vita a veri casi di discriminazione verso gruppi sociali più vulnerabili. Al fine di allenare questi algoritmi, che si modellano e affinano il loro funzionamento in maniera proporzionale alla quantità di informazioni che gli viene fornita, è infatti necessario impiegare una considerevole mole di dati che, in questa ottica, sono a tutti gli effetti il carburante delle nuove tecnologie.

L’Ethical and Societal Challenges of Machine Learning, il convegno online organizzato dal 7 all’11 novembre dall'International Centre for Theoretical Physics (ICTP) di Trieste pone l’attenzione sull’importanza di un dibattito pubblico indipendente riguardo le nuove tecnologie, al di là dell’influenza dei grandi player di settore, per un approccio etico nell’utilizzo di intelligenze artificiali e machine learning. Gli argomenti del meeting invitano ad ampliare lo sguardo sui AI e ML, unendo all’innegabile portata innovativa delle tecnologie anche un ragionamento critico sul potenziale uso improprio e fragilità di questi sistemi.

Big Data: il petrolio del nuovo millennio

Nel 2006 Clive Humby, data scientist e matematico inglese, coniò lo slogan “Data as the new oil”: esattamente come il petrolio ha permesso lo sviluppo socio-economico nei due secoli precedenti, allo stesso modo i big data e le tecnologie che beneficiano di queste enormi quantità di informazioni muovono le economie globali, fornendo nuove possibilità di sviluppo e opportunità di business. Attualmente è però ristretto il ventaglio di player di questa quarta rivoluzione industriale, in grado di estrarre (al pari del petrolio) questa ingente mole di dati e gestirla, grazie alla potenza di calcolo di cui dispongono. La correlazione tra grandi corporation internazionali quali Amazon, Google e Facebook e utilizzo di nuove tecnologie è quanto mai stringente, in uno scenario quasi oligarchico, che fornisce a queste grandi realtà vantaggi strategici a livello produttivo e di competitività sul mercato, ponendo la questione della loro rilevanza a livello politico e decisionale in settori di interesse pubblico.

Roberto Trotta, astrofisico della Scuola Internazionale Superiore di Studi Avanzati (SISSA) di Trieste e del King's College London (KCL), tra gli organizzatori del convegno, sottolinea la necessità di sviluppare un dibattito pubblico che vada al di là della sola narrativa delle compagnie che beneficiano e promuovono le nuove tecnologie, sviluppando uno sguardo critico, informato e, per quanto possibile, indipendente. Per Trotta è fondamentale comprendere la pervasività e l’impatto di questi sistemi nella vita quotidiana di ognuno, tenendo in considerazione le implicazioni che ne derivano, senza sottovalutarne la propensione all’errore: "Il pericolo è svegliarci in una società che ha persino perso la capacità di scioccarci perché ne siamo assuefatti. Bisogna avere il vigore di immaginare un mondo diverso. Non si tratta di un'ineluttabilità scientifica e tecnocratica, ma di scelte umane”.

L’umana propensione al pregiudizio

L’uso delle AI sta diventando una pratica sempre più diffusa all’interno, ad esempio, di agenzie governative, di società private, nel sistema sanitario e in quello educativo: ambiti che impattano quotidianamente sulle nostre vite. Un altro punto di discussione nel convegno Ethical and Societal Challenges of Machine Learning è la fiducia, quasi cieca, che riponiamo nelle intelligenze artificiali, reputandole del tutto infallibili e super partes. Ma può davvero la tecnologia sanare tutti i bias e i pregiudizi tipici dell’essere umano, fornendo soluzioni del tutto inappellabili e prive di criticità?

La risposta è no. Gli algoritmi alla base delle AI sono il frutto di chi li ha creati ed in cui, in maniera più o meno consapevole, inocula i propri pregiudizi. La comunità scientifica che si occupa di intelligenza artificiale sta ponendo grande attenzione nello scovare e, quando possibile, eliminare i bias che si insinuano all’interno di questi sistemi, i quali riverberano stereotipi e pregiudizi prettamente caratteristi del comportamento umano.

Un algoritmo di Machine Learning per svolgere le sue funzioni necessita di essere addestrato e allenato: secondo però il concetto di Garbage In - Garbage Out, se a questo fine vengono utilizzati dati contenenti pregiudizi, l’algoritmo imparerà un ragionamento sbagliato, assimilando i preconcetti contenuti nei dati.

È il caso di un algoritmo analizzato dai ricercatori dell’università della Virginia, accusato di sessismo: quando gli venivano presentate scene di persone in cucina, se nella moltitudine di immagini una di queste raffigurava un uomo ai fornelli, l’algoritmo indicava la presenza di una donna. Questo pone l’attenzione su un altro fondamento del Machine Learning e cioè “correlation is not causation”: la correlazione tra due fatti non implica che uno sia necessariamente la causa dell’altro. Perché quindi l’algoritmo ha indicato che l’uomo in cucina fosse in realtà una donna? La spiegazione risiede nei dati utilizzati per addestrare la rete neurale: nelle scene in cucina proposte all’algoritmo c’erano quasi esclusivamente donne. Di conseguenza, l’algoritmo ha imparato e normalizzato che, se una persona è presente in cucina, quella sarà necessariamente una donna.

La questione dei pregiudizi delle AI è applicabile a settori sensibili, come quello del diritto e della giustizia: in alcuni stati americani, i giudici sono autorizzati ed incoraggiati ad utilizzare un algoritmo di risk assesments (indicatore di rischio) che stabilisce, sulla base dell’analisi di circa 150 parametri, la propensione dell’imputato preso in esame a commettere nuovi reati. ProPublica, una testata investigativa indipendente, ha analizzato 7000 di questi punteggi, accorgendosi che l’algoritmo sistematicamente svantaggiava le persone di colore. Questi risultati, frutto di una decisione da parte di una intelligenza artificiale che non tiene conto di indicatori socio-economici strutturali ed impattanti nella società americana, ha correlato il colore della pelle alla criminalità.

Le risorse a servizio delle AI

Un altro punto di riflessione individuato dal professor Trotta verte sull’impiego di risorse, umane e naturali, che alimentano queste tecnologie. Impiego che, in maniera direttamente proporzionale all’utilizzo sempre più diffuso delle AI, non appresterà certo a diminuire, con impatti particolarmente negativi e pesanti sui Paesi in via di sviluppo, sia in termini sociali che ambientali. Basti pensare che le persone che allenano i sistemi di Machine Learning spesso sono umani che lavorano per un dollaro al giorno. Al tempo stesso, lo sfruttamento delle risorse naturali è un tema critico da tenere in considerazione: l’estrazione di metalli e l’impegno d'ingenti quantità di energia penalizzerà i territori da cui vengono reperite, in favore di zone del pianeta in cui queste tecnologie vengono attivamente impiegate. Ma la questione ha ormai superato i confini del nostro pianeta: anche lo Spazio è infatti terreno di risorse estrattive conteso tra le poche e ricorrenti grandi compagnie che, in mancanza di regolamentazioni che ne indirizzino l’utilizzo, è destinato a trasformarsi nell’ennesima risorsa a beneficio ed usufrutto di un numero limitato di player.

Il caso di Starlink, il servizio di connessione via satellite promossa da Elon Musk pensata per garantire Internet superveloce sulla Terra, è un lampante esempio di criticità di questi sistemi informatici che amplificano le disparità, anche sul piano economico, tra chi può usufruirne e chi no: il costo dell’abbonamento, che si aggira attorno ai 100 dollari al mese, risulta essere una cifra insostenibile per buona parte della popolazione mondiale, che si troverà in una situazione di stallo. Servizi come quelli di Starlink, che pone l’obiettivo di rendere la fruizione di Internet ancora più veloce rispetto alla fibra, cambierà ulteriormente le modalità di erogazione di alcuni servizi fondamentali, tra cui quelli sanitari, inasprendo il divario tra chi può permettersi di avvalersene e chi no. Questo scenario di divario socio-economico legato all’utilizzo di AI, Machine Learning e algoritmi, può sembrarci del tutto anacronistico applicato all’utilizzo quotidiano che ne facciamo: un utilizzo votato alla semplificazione delle nostre vite, alla connessione e alla diffusione delle idee.

In una società contemporanea che si direziona verso una irreversibile gestione da parte delle AI e degli algoritmi delle sue strutture portanti, la matematica e scrittrice Catchy O’Neil mette in guardia, dal 2016, su come una fede cieca nei dati e una cultura algoritmica estremizzata possa produrre dei grossi danni alle persone e alla società, se non affiancata da un’analisi critica dei dati, dei metodi e delle pratiche.

Fonti:

https://www.ansa.it/sito/notizie/tecnologia/hitech/2022/10/31/ai-trotta-sissadibattito-pubblico-o-google-decide-futuro_4a5db870-2b01-4fff-af1d-f090ea27e30d.html

https://laricerca.loescher.it/i-pregiudizi-dellintelligenza-artificiale/

https://www.sintraconsulting.it/quarta-rivoluzione-industriale-i-dati-sono-il-nuovo-petrolio/#:~:text=Clive%20Humby%2C%20data%20scientist%20e,a%20svolgere%20questo%20importante%20ruolo.

https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

https://www.gqitalia.it/tech/article/starlink-internet-elon-musk-italia-come-funziona-quanto-costa


linkedin