Il lato oscuro delle intelligenze artificiali, tra opportunità e rischi
I

Nel corso dell’ultima plenaria il Parlamento Europeo si è espresso a favore di un aggiornamento e miglioramento dei regolamenti che gravitano intorno al mondo dell’intelligenza artificiale. Questa è senz’altro una bella notizia in uno scenario in cui noi tutti assistiamo ad uno sviluppo vertiginoso ma anche imprevedibile che desta non poche preoccupazioni. Nel 2018 più di 2.400 esperti di AI, tra cui i cofondatori di DeepMind, la leggendaria divisione di Google dedicata all’intelligenza artificiale, ed Elon Musk, promotore tra le altre cose di uno dei sistemi più avanzati (ma anche più controversi) di guida autonoma, hanno sottoscritto una petizione per mettere al bando la realizzazione e l’utilizzo per scopi militari di robot intelligenti in grado di porre fine ad una vita umana senza la supervisione dell’uomo. Sembra fantascienza, ma in realtà la nostra vita quotidiana è pervasa da una moltitudine di reti neurali che fanno lavori di ogni tipo, guidano carrelli nei magazzini, assemblano automobili, investono in borsa, scrivono virus informatici, ci leggono un libro, traducono le lingue, riconoscono i nostri volti, censurano le foto che pubblichiamo sui social, decidono quali pubblicità mostrarci.

Questo stesso articolo potrebbe essere arrivato alla tua attenzione perché così ha deciso una intelligenza artificiale. Per curiosità ho appena provato a porre all’assistente di Google una domanda a cui io stesso non saprei cosa rispondere: «Perché esisti?». E sapete come ha replicato? «Perché nessuno ha avuto la risposta pronta alla domanda: perché no?» con tanto di faccina sorridente. Impressionante, vero? Provate a leggere le caption delle foto che postate sul vostro profilo facebook, nel mio ho trovato descrizioni del tipo “una o più persone, barba e primo piano” oppure “una o più persone, persone sedute, albero, cielo, bambino, spazio all’aperto, natura e acqua” oppure ancora “Donato Apollonio, persona seduta e spazio al chiuso”. Solo davanti alla foto di un piatto di orecchiette si è trovato in difficoltà. E certamente non sono d’aiuto nel tranquillizzarci le varie pellicole sul tema, da Metropolis nel 1926 fino ad arrivare nel 2014 a Transcendence (guardatelo, è su Netflix), passando per capolavori come 2001 Odissea nello Spazio, Blade Runner, Terminator, Matrix, Her.

Tutti film in cui le macchine causano problemi e sono viste come antagoniste dell’uomo. In effetti esiste un lato oscuro che è strettamente legato alla struttura stessa di una rete neurale che funziona né più né meno come un cervello umano che incamera informazioni, le elabora, prende decisioni, ne osserva i risultati e impara dai propri errori. Solo che per adesso le reti neurali artificiali sono meno complesse, sono specializzate in un compito, non hanno coscienza di sé né provano emozioni. E quando un cervello umano impazzisce, gli psichiatri possono provare a curarlo solo dall’esterno, osservando le reazioni e facendo deduzioni sulla base di casi simili pregressi, un po’ come farebbe un meccanico se fosse costretto a capire l’origine di un guasto di un’automobile senza aprire il cofano.

Per le Intelligenze artificiali è la stessa cosa perché al pari dei cervelli naturali sono delle black box in cui le informazioni entrano e vengono elaborate per poi restituire un risultato. Ma come di preciso vengono prese le decisioni, non lo sappiamo. Fece scalpore nel 2015 il caso di Google Photo che ad un certo punto cominciò a taggare con la parola “gorilla” certe foto raffiguranti persone di colore. Google si scusò tempestivamente ma non sapendo come mai ciò accadesse e non riuscendo dunque a correggere il bug, decise di risolvere il problema alla radice, eliminando la possibilità di usare quel tag. Addestrare una AI è un po’ come insegnare ad un cane a portarti il giornale: non potrai mai sapere cosa ha ingenerato nella sua testa l’apprendimento e non potrai mai essere certo che un giorno invece del giornale, ti porti una ciabatta.

Recentemente Google si è offerta di fornire un servizio di lettura delle mammografie ad opera di una piattaforma di AI. Le intelligenze artificiali sono molto brave e molto veloci a fare diagnosi a partire da immagini, il problema è che non abbiamo modo di capire come fanno, quali percorsi si attivano e non siamo in grado di valutarne l’efficacia se non su base statistica perché i criteri adottati non sono riproducibili e addirittura due stesse immagini presentate in tempi diversi possono dare risultati differenti a seconda di come si sono autoconfigurati neuroni e sinapsi artificiali in quel momento. In altre parole una rete neurale è progettata per implementare una classe molto ampia di algoritmi che risolvono problemi ma purtroppo non riusciamo a sapere quale algoritmo sarà scelto in un dato momento per processare un determinato input. E’ come una jungla in cui si intrecciano un numero enorme di sentieri: entra un dato ed esce un risultato e, anche se i sentieri li abbiamo definiti noi, non possiamo sapere quale dei tanti percorsi sarà scelto in un dato momento perché la jungla nel frattempo è diventata impenetrabile. Funziona così, prendiamo centinaia di migliaia di mammografie già refertate e le diamo in pasto ad una rete neurale, la quale in un qualche modo che non sappiamo, riesce a trovare una regola in base alla quale stabilire se sussiste qualche patologia.

Un processo di inferenza induttiva alimentato by examples in cui però lo specifico percorso induttivo è ignoto. Io stesso che non ho una laurea in medicina né tanto meno una specializzazione in oncologia posso sperimentare questo processo prendendo in esame dieci mammografie refertate e cercando di trovare “a occhio” nell’undicesima qualche correlazione con le precedenti senza avere la minima conoscenza di nozioni mediche. E’ chiaro che sarebbe una diagnosi molto poco affidabile sia perché gli esempi sono pochissimi sia perché la mente umana in questo tipo di lavoro è molto più inefficiente di una macchina.

E’ un po’, se vogliamo, il bias cognitivo in cui incorrono gli innumerevoli tuttologi della rete che a partire da pochi elementi ritengono di trovare una regola generale senza avere la minima preparazione sull’argomento. Accade però che nella scienza e in medicina in particolare se un processo non è riproducibile, non può essere applicato il metodo scientifico e non si può di conseguenza essere certi che la soluzione funzioni sempre. E’ il tema della trasparenza, in certi ambiti è necessario sapere nel dettaglio come i dati sono elaborati e perché viene restituito un determinato risultato invece di un altro. Lo stesso GDPR per esempio prevede che il soggetto a cui i dati si riferiscono, possa richiedere dettagli su come ha operato un processo di trattamento dei dati. Ma se quel processo è stato eseguito da una AI risulta difficile rispondere se non impossibile.

Magari in un prossimo articolo approfondiamo questo e altri temi legati all’affascinate mondo dell’AI che è in grande fermento e chissà se un giorno non molto lontano leggerete un articolo del genere dubitando che l’abbia scritto un essere umano. Concludendo, la mia paura è che rischiamo di fare la fine della rana di Chomsky, ci lasceremo ammaliare dai benefici dell’AI ma all’aumentare della loro potenza e complessità, a causa dell’impossibilità di sbirciare dentro questa black box potremmo prima o poi perderne il controllo.

Più letti

spot_img

Articoli correlati

1 COMMENTO

  1. Come contro canto a quest’articolo consiglio la lettura di un libro sugli schiavi digitali di recente pubblicato. Gli algoritmi di machine learning funzionano perché estrapolano da innumerevoli esempi loro forniti. Il libro in questione mostra che aziende come Google per fornire questi esempi utilizzano manodopera a basso costo perlopiu’ dei paesi poco sviluppati i quali elaborano manualmente gli esempi con procedure preconfezionate. Insomma dietro l’intelligenza artificiale c’è molta fatica umana.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento
Per favore, inserisci il tuo nome

Magazine