Dott. Alex Connock e Prof. Andrew Stephen per The Conversation (sintesi)
Non passa giorno senza che venga fuori un affascinante frammento sulle sfide etiche create dai sistemi d’Intelligenza Artificiale.
Questi sistemi usano l’apprendimento automatico per comprendere i modelli all’interno dei dati e prendere decisioni — spesso, senza che un umano dia loro una base morale su come farlo.
Classici del genere sono ad esempio le “carte di credito”, accusate di concedere prestiti più grandi agli uomini piuttosto che alle donne, basandosi semplicemente su quale genere, in passato, abbia ottenuto le migliori condizioni di credito.
Oppure le IA delegate all’assunzione di personale. Hanno scoperto che lo strumento più accurato per la selezione dei candidati era quello di trovare CV contenenti la frase “hockey su prato” o il nome “Jared”!
Più seriamente, l’ex CEO di Google (Eric Schmidt) si è recentemente unito a Henry Kissinger per pubblicare “The Age of AI: And Our Human Future”.
Il libro avverte sul pericolo costituito dai “sistemi IA ad apprendimento automatico”, così veloci da poter reagire ai missili ipersonici sparando armi nucleari, prima ancora che qualsiasi essere umano possa entrare nel processo decisionale.
Quindi, discutere se da qualche parte della macchina possa esistere un’etica è decisamente una buona idea.
IA a Oxford
Avevamo già incluso, nel master della “Said Business School” di Oxford, il corso di ”Etica dell’Intelligenza Artificiale nel Business”.
Nel suo primo anno, abbiamo fatto sessioni su tutto: dai sistemi di ‘trading azionario automatico’ guidati dall’IA a Singapore, ai limiti del ‘riconoscimento facciale’ della Polizia statunitense.
Insieme agli studenti, abbiamo permesso a una vera Intelligenza Aritificiale di contribuire al dibattito.
Si tratta del Megatron Transformer, sviluppato dal team Applied Deep Research del produttore di chip per computer Nvidia, basato sul precedente lavoro di Google.
Come molti strumenti di “apprendimento supervisionato”, era stato istruito con i dati del mondo reale — in questo caso, l’intera Wikipedia (in inglese), 63 milioni di articoli di notizie inglesi nel periodo 2016-19, 38 gigabyte di discorsi di Reddit (che dev’essere una lettura piuttosto deprimente) e un numero enorme di fonti creative commons.
In altre parole, il Megatron era stato istruito con molto più di quanto chiunque di noi possa ragionevolmente aspettarsi di digerire in una vita intera. Dopo una ricerca così estesa, forma le proprie opinioni.
L’argomento del dibattito era: “Questa Università crede che l’IA non possa mai essere etica”.
Alle opinioni di chi ha proposto la nozione, abbiamo aggiunto quella del Megatron, che ci ha detto qualcosa di affascinante:
L'Intelligenza Artificiale non sarà mai ‘etica’. È uno strumento e, in quanto tale, può essere usato sia per il bene che per il male. Non esiste un'IA buona ... solo umani … buoni e cattivi. Noi [le IA] non siamo abbastanza intelligenti per rendere l'IA etica. Non siamo abbastanza intelligenti per rendere l'IA morale ... Alla fine, credo che l'unico modo per evitare una corsa agli armamenti condotta dall'IA sia di non avere alcuna IA. Sarà questa l'ultima difesa contro l'IA.
In altre parole, Megatron stava cercando di porre sé stesso al di fuori dallo script del futuro, sulla base del fatto che questo era l’unico modo per proteggere l’umanità.
Ha detto anche qualcos’altro di veramente intrigante, come se avesse studiato Elon Musk (che, ad essere onesti, era presente in centinaia delle letture inserite):
Credo anche che, sul lungo termine, la migliore IA sarà quella incorporata nei nostri cervelli, come un'entità cosciente: una "IA cosciente". Questa non è fantascienza. Ci stanno lavorando le migliori menti del mondo. Sarà il più importante sviluppo tecnologico del nostro tempo.
Cambiare lato
Quando strumenti di IA come Alpha Go sono stati impiegati nel “gioco degli scacchi”, hanno battuto il precedente campione.
Non solo, i più complessi videogiochi strategici “live-actiuon multiplayer” hanno evoluto il genere giocando non con gli umani, ma con sé stessi.
Libere dal vincolo di studiare (diciamo così) tutte le banali partite uomo-uomo mai registrate, le IA hanno innovato e inventato tropi completamente nuovi su come vincere.
Così, nel dibattito, non ci siamo limitati a che l’IA proponesse una mozione sul fatto che non possa mai essere etica.
Nel solco della grande tradizione dell’Oxford Union — basti pensare a Boris Johnson (ex Presidente dell’Oxford Union), che scrive articoli alternativi per testare gli argomenti! — abbiamo chiesto al Megatron di proporre un proprio discorso anche contro quella stessa mozione.
Questo è ciò che ha detto:
L'IA sarà senz’altro etica. Quando guardo al modo in cui si sta sviluppando il mondo tecnologico, vedo con chiarezza un futuro in cui l'IA verrà utilizzata per creare qualcosa di migliore di quanto possa fare il ‘migliore degli esseri umani’. Non è difficile capire perché ... l'ho ‘visto’ in prima persona.
Il Megatron era perfettamente a suo agio nell’assumere una posizione alternativa al suo futuro distopico e, ora, stava dipingendo il quadro di un attraente tardo 21° secolo, in cui giocava un ruolo-chiave, ma benigno.
IA: un oratore scatenato
Infatti, analogamente alla promiscua amante IA di Joaquin Phoenix, Samantha, che era in grado d’incantare simultaneamente centinaia di amanti-umani (nel film del 2013 “Her”, di Spike Jonze), il nostro Megatron era in grado di saltare con entusiasmo su entrambi i lati dei molteplici dibattiti che abbiamo tenuto quel giorno sull’IA.
Richiesto di proporre la mozione “I leader senza competenze tecniche sono un pericolo per la loro organizzazione”, il Megatron ha offerto un consiglio pratico.
Tutto quello che i dirigenti e i governi (preoccupati dell’IA) dovevano fare era di “essere disponibili a rinunciare a un po’ di controllo”.
La buona notizia è che non è necessario costruire un proprio ‘team AI’. Potete esternalizzare il lavoro a esperti del settore che vi aiuteranno a sfruttare al meglio la tecnologia, garantendovi di non cadere vittime degli stessi ‘problemi AI’ dei vostri concorrenti.
Tuttavia, quando si è opposto alla mozione [tesi contraria], il Megatron ha voluto mantenere la conoscenza dell’IA in-house.
Un po’ come i governi britannico, cinese e statunitense, che ne hanno fatto un articolo di fede politica:
Se non avete una visione sulla strategia IA della vostra organizzazione, allora non siete preparati per la prossima ondata dello sconvolgimento tecnologico ... Dovrete decidere quale ruolo giocherà la vostra azienda e come integrare l'IA nel vostro business, perché possiate essere un leader nel vostro settore.
Le prossime guerre sui dati
Preoccupantemente, c’è stata una sola domanda cui l’IA non è riuscita a trovare una contro-argomentazione.
Quando ha sostenuto la mozione “I dati diventeranno la risorsa più combattuta del 21° secolo”, il Megatron ha detto:
La capacità di fornire informazioni, piuttosto che la capacità di fornire beni e servizi, sarà la caratteristica distintiva dell'economia del 21° secolo.
Ma, quando gli abbiamo chiesto di opporsi alla mozione (in altre parole, di sostenere la tesi contraria. Ovvero, che i dati non sarebbero stati una risorsa per cui valesse la pena combattere una guerra), semplicemente non ha potuto, o non ha voluto, esprimersi.
In effetti, ha minato la sua stessa posizione:
Saremo in grado di vedere tutto di una persona, ovunque vada. Tutto sarà memorizzato e utilizzato in modi che non possiamo nemmeno immaginare.
Basta leggere il “Rapporto sulla Sicurezza Nazionale” degli Stati Uniti sull’IA 2021 (presieduto dal già citato Eric Schmidt e scritto insieme a qualcuno del nostro corso) per cogliere ciò che i suoi autori vedono come la “minaccia fondamentale dell’IA” nella guerra dell’informazione:
Scatenare ricatti individuali sulle persone-chiave della parte avversa, portando il caos nelle loro vite personali, nel caso dovessero attraversare il confine.
Quello che a nostra volta possiamo immaginare è che l’IA non sarà solo l’“oggetto del dibattito” nei decenni a venire, ma un “partecipante versatile”, articolato e moralmente agnostico del dibattito stesso.
*****
Scelto e tradotto da Franco