AI: Paura per i giusti motivi

L'intelligenza artificiale, l'intelligenza artificiale, ha conquistato titoli, clamore e persino costernazione alla bestia che stiamo scatenando. Ogni potente tecnologia può essere usata nel bene e nel male, sia essa nucleare o biotecnologica, e lo stesso vale per l'IA. Mentre gran parte del discorso pubblico di artisti del calibro di Elon Musk e Stephen Hawking si riflette su fantascientifiche come visioni distopiche dell'IA sovrana è andata male (uno scenario sicuramente degno di discussione), c'è una minaccia molto più immediata quando si tratta di AI. Molto prima che l'IA diventi incontrollabile o si occupi di posti di lavoro, si nasconde un pericolo molto più grande: l'IA nelle mani di governi e / o cattivi attori usati per spingere le agende egoiste contro il bene superiore.

Come sfondo, come ottimista tecnologico e sostenitore non dispiaciuto di ulteriori sviluppi, nel 2014 ho scritto della massiccia dislocazione nella società che l'IA può causare e, sebbene le nostre metriche economiche come PIL, crescita e produttività possano apparire meravigliose di conseguenza, potrebbe peggiorare meno visibile, ma secondo me, metriche molto più critiche sulla disparità di reddito e sulla mobilità sociale. Ancora più importante, ho sostenuto perché questa volta potrebbe essere diverso dai soliti economisti 'astenersi dal fatto che gli strumenti di produttività aumentino sempre l'occupazione. Con l'IA, la stragrande maggioranza dei lavori attuali può essere dislocata indipendentemente dalle competenze o dal livello di istruzione. Nella precedente rivoluzione industriale, lo abbiamo visto in agricoltura tra il 1900 e il 2000, quando è passata dalla maggioranza degli impieghi statunitensi a meno del 2%, e nei lavori industriali, che oggi sono meno del 20% degli occupati statunitensi. Questa volta, lo spostamento potrebbe non succedere solo a lavori di abilità inferiori: i camionisti, i lavoratori agricoli e i preparatori di alimenti per ristoranti potrebbero essere meno a rischio rispetto ai radiologi e agli oncologi. Se lavori qualificati come medici e ingegneri meccanici vengono sfollati, l'istruzione potrebbe non essere una soluzione per la crescita dell'occupazione (è un bene per molte altre ragioni), come spesso viene proposto da economisti semplicistici che estrapolano il passato senza una comprensione causale delle ragioni. In questa rivoluzione, le macchine saranno in grado di duplicare i compiti che prima non potevano: quelli che richiedono ragionamento intellettuale e capacità motorie a grana fine. Per questo motivo, è possibile che il lavoro emotivo rimanga l'ultimo bastione di abilità che le macchine non possono replicare a livello umano ed è uno dei motivi per cui ho sostenuto che le scuole di medicina dovrebbero passare a enfatizzare e insegnare le capacità interpersonali ed emotive invece di Ippocratico ragionamento.

Ci preoccupiamo della guerra nucleare come dovremmo, ma abbiamo una guerra economica in atto tra le nazioni che è più minacciosa. Gli esperti come Goldman Sachs sostengono l'internazionalismo perché serve bene ai loro interessi ed è la cosa giusta se interpretato in modo equo da tutti. E sebbene la risposta sbagliata, a mio avviso, sia il nazionalismo economico, la risposta giusta va ben oltre un campo di gioco uniforme. Mentre Trump-mania può in qualche modo derivare correttamente dai sentimenti di campi da gioco non livellati in Cina, è probabile che il problema peggiori esponenzialmente quando l'IA è un fattore in queste guerre economiche. Questo problema delle guerre economiche sarà probabilmente amplificato esponenzialmente dall'intelligenza artificiale. La capacità di condurre questa guerra economica è molto diseguale tra gli stati nazionali come Cina, Stati Uniti, Brasile, Ruanda o Giordania in base a chi ha la capitale e l'impulso a investire in questa tecnologia. Poiché le implicazioni più lievi, lasciate a se stesse, la tecnologia dell'IA concentreranno ulteriormente la ricchezza globale in alcune nazioni e "causeranno" la necessità di approcci internazionali molto diversi allo sviluppo, alla ricchezza e alla disparità.

Ho scritto della necessità di affrontare questo problema di disparità, soprattutto perché questa trasformazione comporterà enormi profitti per le aziende che sviluppano l'IA e il lavoro sarà svalutato rispetto al capitale. Fortunatamente, con questa grande abbondanza, avremo i mezzi per affrontare la disparità e altre questioni sociali. Sfortunatamente, non saremo in grado di affrontare ogni problema sociale, come la motivazione umana, che ne deriverà sicuramente. Il capitalismo è permesso dalla democrazia e la democrazia dovrebbe avere gli strumenti per correggere la disparità. Fai attenzione a Tea Party, non hai visto l'uragano in via di sviluppo farsi strada. Sospetto che questo effetto di disparità di reddito guidato dall'intelligenza artificiale abbia più di un decennio o più per diventare materiale, dandoci il tempo di prepararci. Quindi, mentre questo dialogo necessario è iniziato e ha portato all'ideazione di soluzioni come le tasse robotiche e il reddito di base universale, che possono diventare strumenti preziosi, la disparità è lontana dai peggiori problemi che l'IA potrebbe causare e dobbiamo discutere di queste minacce più immediate.

Solo nell'ultimo anno, il mondo ha visto alcune delle basi della società moderna scosse dall'interferenza di cattivi attori che usano la tecnologia. Abbiamo visto direttamente l'integrità del nostro sistema politico minacciata dalle interferenze russe e il nostro sistema finanziario globale minacciato da incidenti come l'hacking Equifax e la rapina in Bangladesh Bank (dove i criminali hanno rubato $ 100 milioni). L'intelligenza artificiale intensificherà drasticamente questi episodi di guerra cibernetica man mano che le nazioni canaglia e le organizzazioni criminali la usano per premere le loro agende, specialmente quando è al di fuori della nostra capacità di valutare o verificare. Questa transizione assomiglierà a ciò che vediamo quando il vento diventa un uragano o un'onda diventa uno tsunami in termini di potere distruttivo. Immagina un agente di intelligenza artificiale addestrato su qualcosa come la piattaforma Universo di OpenAI, che impara a navigare in migliaia di ambienti Web online e che è sintonizzato per stampare un'agenda. Ciò potrebbe scatenare una locusta di troll di bot intelligenti sul web in un modo che potrebbe distruggere l'idea stessa dell'opinione pubblica. In alternativa, immagina un esercito bot di telefonate dalla prossima evoluzione di Lyrebird.ai con voci uniche che molestano le linee telefoniche di deputati e senatori con richieste di cambiamenti politici dannosi. Questo pericolo, a differenza dell'idea che i robot prendano il controllo, ha una forte possibilità di diventare una realtà nel prossimo decennio.

Questa tecnologia è già sui radar dei paesi autoritari di oggi. Ad esempio, Putin ha parlato di come i leader dell'IA governeranno il mondo. Inoltre, la Cina, come nazione, si è concentrata sull'acquisizione molto mirata di questa nuova potente tecnologia AI. L'accumulazione di competenze al di là della normale concorrenza commerciale e il loro ingente finanziamento diretto qui è di grande preoccupazione. Questo è potenzialmente equivalente o peggiore del fatto che gli Stati Uniti siano l'unica nazione con capacità nucleari quando è stato condotto l'attacco di Hiroshima. I nostri avversari giapponesi non avevano molto da rispondere. È difficile dire se quest'arma da guerra economica sarà binaria come la bomba nucleare, ma sarà grande e concentrata in poche mani e soggetta a scarsa verificabilità. Gli sforzi clandestini, dato il suo grande potenziale di amplificazione, potrebbero creare grandi disparità di potere.

Le cose peggiorano se ci si rende conto che i principali attori dello sviluppo dell'IA in Occidente, come Google, Facebook e università, hanno adottato una politica generalmente aperta pubblicando i loro approcci tecnologici e i risultati in riviste scientifiche al fine di condividere questa tecnologia in modo più ampio. Se i singoli attori statali non lo fanno, e dubito che lo faranno, avremo un flusso di tecnologia a senso unico dagli Stati Uniti. Lo sviluppo dell'IA in alcune parti del mondo avrà inoltre enormi vantaggi a causa delle politiche contro / per i dati. Come ha affermato Andrew Ng (un professore di Stanford assunto da una massiccia compagnia cinese, Baidu, per guidare i suoi sforzi di intelligenza artificiale fino a quando non è partito per incubare le proprie idee), "I dati sono il carburante di un razzo per il motore di intelligenza artificiale". Quindi, mentre i progressi dell'IA sono stati frenetici di recente, sarà molto più veloce quando la privacy dei dati e incidenti occasionali sono meno importanti nell'interesse della "sicurezza nazionale". Questo disprezzo per la privacy dei dati e il trasferimento di un modo della tecnologia presterà paesi nazionalisti come la Cina e La Russia è un enorme vantaggio nella corsa allo spazio di questa generazione.

L'intelligenza artificiale sarà molto più di un problema economico, commerciale o di concorrenza di cui si parla oggi. Dovremo ripensare il capitalismo come strumento per l'efficienza economica perché l'efficienza avrà meno importanza, o per lo meno, la disparità avrà più importanza, ma questa considerazione potrebbe essere tra molti decenni. La preoccupazione maggiore nel prossimo decennio è che l'IA peggiorerà drasticamente i problemi di sicurezza informatica odierna e sarà meno verificabile della tecnologia nucleare. Nazioni nazionaliste come la Cina e dittatori criminali come Putin avranno un potere clandestino enormemente amplificato. Non credo che, come società, saremmo disposti a rinunciare alle garanzie nella nostra società come il progresso aperto e la privacy per "stare al passo" con le altre nazioni. Ho alcuni pensieri su cosa possiamo fare qui, ma questo è un problema complesso senza soluzioni ovvie. Forse limitiamo il finanziamento di investitori non NATO nelle società statunitensi di IA? Forse avere il governo degli Stati Uniti o la NATO a investire nelle proprie tecnologie AI per la sicurezza nazionale? Una forza di cappelli bianchi AI? Maggiori sforzi negli sviluppi di Black Swan come il calcolo quantistico? Meno avversione al rischio, più pazienza e meno contraccolpo da parte della società e del governo sui rischi, i preconcetti e le carenze della nuova tecnologia AI mentre cresce? Indipendentemente da ciò che facciamo, ciò che è chiaro è che abbiamo bisogno di molto più dialogo, dibattito e maggiori finanziamenti di contromisure; invece di generare isteria su qualche possibilità distopica lontana impantanata nelle incertezze e quali se, dobbiamo concentrarci sull'ondata immediata di pericolo prima che colpisca. Non correre rischi qui potrebbe essere inavvertitamente il più grande rischio che prendiamo.