Ciò che mi preoccupa per l'IA

Disclaimer: queste sono le mie opinioni personali. Non parlo per il mio datore di lavoro. Se citate questo articolo, abbiate l'onestà di presentare queste idee come sono: opinioni personali e speculative, da giudicare in base ai loro meriti.

Se tu fossi in giro negli anni '80 e '90, potresti ricordare il fenomeno ormai estinto della "computerofobia". Ne ho assistito personalmente alcune volte fin dai primi anni 2000 - mentre i personal computer venivano introdotti nelle nostre vite, nei nostri luoghi di lavoro e nelle nostre case, un bel po 'di persone avrebbe reagito con ansia, paura o persino aggressività. Mentre alcuni di noi erano affascinati dai computer e colpiti dal potenziale che potevano intravedere, la maggior parte delle persone non li capiva. Si sentivano alieni, astrusi e per molti versi minacciosi. La gente temeva di essere sostituita dalla tecnologia.

La maggior parte di noi reagisce ai cambiamenti tecnologici con il disagio nella migliore delle ipotesi, il panico nella peggiore. Forse è vero per qualsiasi cambiamento. Ma notoriamente, la maggior parte di ciò di cui ci preoccupiamo finisce per non accadere mai.

Avanzano di qualche anno e chi odia il computer ha imparato a convivere con loro e ad usarli a proprio vantaggio. I computer non ci hanno sostituito e hanno innescato la disoccupazione di massa - e al giorno d'oggi non potremmo immaginare la vita senza laptop, tablet e smartphone. Il minaccioso cambiamento è diventato comodo status quo. Ma allo stesso tempo in cui le nostre paure non si sono materializzate, i computer e Internet hanno consentito minacce che quasi nessuno ci avvertiva negli anni '80 e '90. Sorveglianza di massa ubiquitaria. Gli hacker cercano la nostra infrastruttura o i nostri dati personali. Alienazione psicologica sui social media. La perdita della nostra pazienza e della nostra capacità di concentrazione. La radicalizzazione politica o religiosa delle menti facilmente influenzabili online. Poteri stranieri ostili che dirottano i social network per interrompere le democrazie occidentali.

Se la maggior parte delle nostre paure si rivelano irrazionali, inversamente, la maggior parte degli sviluppi veramente preoccupanti che sono avvenuti in passato a seguito di cambiamenti tecnologici derivano da cose di cui la maggior parte delle persone non si è preoccupata fino a quando non era già lì. Cento anni fa, non potevamo davvero prevedere che le tecnologie di trasporto e produzione che stavamo sviluppando avrebbero consentito una nuova forma di guerra industriale che avrebbe spazzato via decine di milioni in due guerre mondiali. Non abbiamo riconosciuto presto che l'invenzione della radio avrebbe consentito una nuova forma di propaganda di massa che avrebbe facilitato l'ascesa del fascismo in Italia e Germania. Il progresso della fisica teorica negli anni '20 e '30 non fu accompagnato da ansiosi articoli di stampa su come questi sviluppi avrebbero presto permesso armi termonucleari che avrebbero messo il mondo per sempre sotto la minaccia di un imminente annientamento. E oggi, anche se gli allarmi hanno suonato per decenni sul problema più terribile dei nostri tempi, il clima, una grande parte (44%) del pubblico americano sceglie ancora di ignorarlo. Come civiltà, sembriamo davvero pessimi nell'identificare correttamente le minacce future e preoccuparci giustamente di esse, così come sembriamo estremamente inclini al panico a causa di paure irrazionali.

Oggi, come molte volte in passato, ci troviamo di fronte a una nuova ondata di cambiamento radicale: l'automazione cognitiva, che potrebbe essere sintetizzata in gran parte con la parola chiave "AI". E come molte volte in passato, siamo preoccupati che questa nuova serie di tecnologie ci danneggi - che l'IA porterà alla disoccupazione di massa, o che l'IA ottenga un'agenzia propria, diventi sovrumana e scelga di distruggerci.

Fonte immagine: facebook.com/zuck

E se ci preoccupassimo per la cosa sbagliata, come abbiamo fatto quasi ogni volta prima? E se il vero pericolo dell'intelligenza artificiale fosse molto distante dalle narrazioni di "superintelligenza" e "singolarità" di cui molti si fanno prendere dal panico oggi? In questo post, vorrei aumentare la consapevolezza di ciò che mi preoccupa veramente quando si tratta di AI: la manipolazione altamente efficace e altamente scalabile del comportamento umano che l'IA consente e il suo uso malizioso da parte di aziende e governi. Naturalmente, questo non è l'unico rischio tangibile che deriva dallo sviluppo di tecnologie cognitive - ce ne sono molti altri, in particolare questioni legate ai pregiudizi dannosi dei modelli di apprendimento automatico. Altre persone stanno sensibilizzando su questi problemi molto meglio di quanto potrei. Ho scelto di scrivere sulla manipolazione della popolazione di massa proprio perché vedo questo rischio come urgente e poco apprezzato.

Questo rischio è già una realtà oggi e una serie di tendenze tecnologiche a lungo termine lo amplieranno considerevolmente nei prossimi decenni. Man mano che le nostre vite diventano sempre più digitalizzate, le società di social media ottengono una visibilità sempre maggiore nelle nostre vite e menti. Allo stesso tempo, ottengono un crescente accesso ai vettori di controllo comportamentale, in particolare tramite newsfeed algoritmici, che controllano il nostro consumo di informazioni. Questo mette il comportamento umano come un problema di ottimizzazione, come un problema di intelligenza artificiale: diventa possibile per le società di social media mettere a punto in modo iterativo i loro vettori di controllo al fine di ottenere comportamenti specifici, proprio come un gioco di intelligenza artificiale affinarebbe in modo iterativo la sua strategia di gioco al fine di battere un livello, guidato dal feedback del punteggio. L'unico collo di bottiglia in questo processo è l'intelligenza dell'algoritmo nel ciclo e, come accade, la più grande società di social network sta attualmente investendo miliardi nella ricerca fondamentale dell'IA.

Lasciami spiegare in dettaglio.

I social media come panopticon psicologico

Negli ultimi 20 anni, le nostre vite private e pubbliche si sono spostate online. Trascorriamo una frazione sempre maggiore di ogni giorno a fissare gli schermi. Il nostro mondo si sta spostando in uno stato in cui la maggior parte di ciò che facciamo consiste nel consumo, nella modifica o nella creazione di informazioni digitali.

Un effetto collaterale di questa tendenza a lungo termine è che le aziende e i governi stanno ora raccogliendo quantità sbalorditive di dati su di noi, in particolare attraverso i servizi di social network. Con chi comunichiamo. Quello che diciamo Quali contenuti abbiamo consumato: immagini, film, musica, notizie. In che stato d'animo ci troviamo in momenti specifici. Alla fine, quasi tutto ciò che percepiamo e tutto ciò che facciamo finirà per essere registrato su un server remoto.

Questi dati, in teoria, consentono alle entità che li raccolgono di costruire profili psicologici estremamente precisi sia di individui che di gruppi. Le tue opinioni e il tuo comportamento possono essere correlati tra loro con quelli di migliaia di persone simili, ottenendo una comprensione inquietante di ciò che ti spunta - probabilmente più predittivo di quello che potresti ottenere attraverso la semplice introspezione (ad esempio, i "mi piace" di Facebook consentono agli algoritmi di valuta la tua personalità che i tuoi amici potrebbero). Questi dati consentono di prevedere con qualche giorno di anticipo quando inizierai una nuova relazione (e con chi) e quando finirai quella attuale. O chi è a rischio di suicidio. O da quale parte alla fine voterai alle elezioni, anche se ti senti ancora indeciso. E non si tratta solo del potere di profilazione a livello individuale: i grandi gruppi possono essere ancora più prevedibili, poiché l'aggregazione dei punti di dati cancella la casualità e i singoli valori anomali.

Consumo di informazioni digitali come vettore di controllo psicologico

La raccolta di dati passivi non è dove finisce. Sempre più spesso i servizi di social network controllano le informazioni che consumiamo. Ciò che vediamo nei nostri newsfeed è diventato algoritmicamente "curato". Gli algoritmi opachi dei social media possono decidere, in misura sempre crescente, quali articoli politici leggiamo, quali trailer dei film vediamo, con chi teniamo in contatto, di cui riceviamo feedback sulle opinioni che esprimiamo.

Integrata in molti anni di esposizione, la cura algoritmica delle informazioni che consumiamo conferisce agli algoritmi responsabili un notevole potere sulla nostra vita, su chi siamo, chi diventiamo. Se Facebook deciderà, nel corso di molti anni, quali notizie vedrai (reali o false), di chi vedrai gli aggiornamenti sullo stato politico e chi vedrà i tuoi, allora Facebook è in effetti in controllo della tua visione del mondo e le tue convinzioni politiche.

L'attività di Facebook sta nell'influenzare le persone. Questo è il servizio che vende ai suoi clienti: inserzionisti, inclusi inserzionisti politici. Pertanto, Facebook ha creato un motore algoritmico ottimizzato che fa proprio questo. Questo motore non è semplicemente in grado di influenzare la tua visione di un marchio o il tuo prossimo acquisto di smart speaker. Può influenzare il tuo umore, ottimizzando il contenuto che ti nutre per farti arrabbiare o felice, a piacimento. Potrebbe anche essere in grado di oscillare le elezioni.

Comportamento umano come problema di ottimizzazione

In breve, le società di social network possono misurare simultaneamente tutto su di noi e controllare le informazioni che consumiamo. E questa è una tendenza in accelerazione. Quando hai accesso sia alla percezione che all'azione, stai osservando un problema di IA. Puoi iniziare a stabilire un ciclo di ottimizzazione per il comportamento umano, in cui osservi lo stato attuale dei tuoi obiettivi e continui a sintonizzare quali informazioni li nutri, fino a quando non inizi a osservare le opinioni e i comportamenti che volevi vedere. Un ampio sottogruppo del campo dell'IA - in particolare l'apprendimento per rinforzo - riguarda lo sviluppo di algoritmi per risolvere tali problemi di ottimizzazione nel modo più efficiente possibile, per chiudere il ciclo e ottenere il pieno controllo dell'obiettivo a portata di mano - in questo caso, noi. Spostando le nostre vite nel regno digitale, diventiamo vulnerabili a ciò che lo governa: gli algoritmi AI.

Un ciclo di apprendimento di rinforzo per il comportamento umano

Ciò è reso ancora più semplice dal fatto che la mente umana è altamente vulnerabile ai semplici schemi di manipolazione sociale. Considera, ad esempio, i seguenti vettori di attacco:

  • Rafforzamento dell'identità: questo è un vecchio trucco che è stato sfruttato sin dalle prime pubblicità nella storia, e funziona ancora così come la prima volta, consistendo nell'associare una determinata vista con i marcatori con cui ti identifichi (o che vorresti aver fatto ), facendoti così schierarti automaticamente con la vista target. Nel contesto del consumo di social media ottimizzato per l'IA, un algoritmo di controllo potrebbe assicurarti di vedere solo contenuti (notizie o post dei tuoi amici) in cui le visualizzazioni che desideri mantenere coincidano con i tuoi marcatori di identità e inversamente per le viste l'algoritmo vuole che tu ti allontani.
  • Rinforzo sociale negativo: se pubblichi un post che esprime una visione che l'algoritmo di controllo non vuole che tu mantenga, il sistema può scegliere di mostrare il tuo post solo a persone che detengono la visione opposta (forse conoscenti, forse estranei, forse robot) e chi lo criticherà duramente. Ripetuto più volte, è probabile che un tale contraccolpo sociale ti allontani dalle visualizzazioni iniziali.
  • Rinforzo sociale positivo: se fai un post che esprime una visione che l'algoritmo di controllo vuole diffondere, può scegliere di mostrarlo solo alle persone che lo "apprezzeranno" (potrebbero anche essere dei robot). Ciò rafforzerà la tua convinzione e ti farà avere l'impressione di far parte di una maggioranza favorevole.
  • Distorsione da campionamento: l'algoritmo potrebbe anche essere più propenso a mostrarti post dei tuoi amici (o dei media in generale) che supportano le visualizzazioni che vuoi che tu mantenga. Collocato in una tale bolla informativa, avrai l'impressione che queste opinioni abbiano un supporto molto più ampio di quanto non facciano nella realtà.
  • Personalizzazione dell'argomento: l'algoritmo può osservare che l'esposizione a determinati contenuti, tra persone con un profilo psicologico vicino al tuo, ha comportato il tipo di cambiamento di vista che cerca. Potrebbe quindi servirti con contenuti che dovrebbero essere estremamente efficaci per qualcuno con le tue opinioni e esperienze di vita particolari. A lungo termine, l'algoritmo potrebbe persino essere in grado di generare da zero contenuti così altamente efficaci, appositamente per te.

Dal punto di vista della sicurezza delle informazioni, si chiamerebbero queste vulnerabilità: exploit noti che possono essere utilizzati per rilevare un sistema. Nel caso delle menti umane, queste vulnerabilità non vengono mai rattoppate, sono solo il modo in cui lavoriamo. Sono nel nostro DNA. La mente umana è un sistema statico e vulnerabile che verrà sempre più attaccato da algoritmi di intelligenza artificiale sempre più intelligenti che avranno contemporaneamente una visione completa di tutto ciò che facciamo e crediamo e un controllo completo delle informazioni che consumiamo.

Il panorama attuale

Sorprendentemente, la manipolazione della popolazione di massa - in particolare il controllo politico - derivante dalla collocazione di algoritmi di intelligenza artificiale responsabili della nostra dieta di informazioni non richiede necessariamente un'intelligenza artificiale molto avanzata. Non hai bisogno di un'intelligenza artificiale consapevole e superintelligente perché questa sia una terribile minaccia - la tecnologia attuale potrebbe essere sufficiente. Le società di social network ci lavorano da alcuni anni, con risultati significativi. E mentre potrebbero solo cercare di massimizzare il "coinvolgimento" e influenzare le tue decisioni di acquisto, piuttosto che manipolare la tua visione del mondo, gli strumenti che hanno sviluppato sono già stati dirottati da attori statali ostili per scopi politici - come visto in referendum sulla Brexit 2016 o elezioni presidenziali negli Stati Uniti del 2016. Questa è già la nostra realtà. Ma se oggi la manipolazione della popolazione di massa è già possibile - in teoria - perché il mondo non è stato ancora ribaltato?

In breve, penso che sia perché siamo davvero cattivi con l'IA. Ma ciò potrebbe cambiare.

Fino al 2015, tutti gli algoritmi di targeting degli annunci nel settore erano basati su una semplice regressione logistica. In effetti, questo è ancora vero in gran parte oggi - solo i più grandi giocatori sono passati a modelli più avanzati. La regressione logistica, un algoritmo che precede l'era dell'informatica, è una delle tecniche di base che è possibile utilizzare per la personalizzazione. È il motivo per cui così tanti annunci che vedi online sono irrilevanti. Allo stesso modo, i robot dei social media usati dagli attori statali ostili per influenzare l'opinione pubblica hanno poco o nessun'intelligenza artificiale in essi. Sono tutti estremamente primitivi. Per adesso.

L'apprendimento automatico e l'intelligenza artificiale hanno fatto rapidi progressi negli ultimi anni e questi progressi stanno solo iniziando a essere implementati negli algoritmi di targeting e nei robot dei social media. Il deep learning ha iniziato a farsi strada nei newsfeed e nelle reti pubblicitarie nel 2016. Chissà quale sarà il prossimo. È abbastanza sorprendente che Facebook abbia investito enormi quantità nella ricerca e nello sviluppo dell'IA, con l'obiettivo esplicito di diventare un leader nel settore. Quando il tuo prodotto è un social newsfeed, a che cosa farai per l'elaborazione del linguaggio naturale e l'apprendimento per rinforzo?

Stiamo guardando un'azienda che costruisce profili psicologici a grana fine di quasi due miliardi di esseri umani, che funge da fonte di notizie primaria per molti di loro, che conduce esperimenti di manipolazione del comportamento su larga scala e che mira a sviluppare la migliore tecnologia di intelligenza artificiale il mondo ha mai visto. Personalmente, mi spaventa. E considera che Facebook potrebbe non essere nemmeno la minaccia più preoccupante qui. Rifletti, ad esempio, sull'uso da parte della Cina del controllo delle informazioni per consentire forme senza precedenti di totalitarismo, come il suo "sistema di credito sociale". Molte persone amano fingere che le grandi corporazioni siano i sovrani potenti del mondo moderno, ma quale potere detengono è sminuito da quello dei governi. Se viene dato il controllo algoritmico sulle nostre menti, i governi potrebbero benissimo trasformarsi in attori peggiori delle corporazioni.

Ora, cosa possiamo fare al riguardo? Come possiamo difenderci? Come tecnologi, cosa possiamo fare per evitare il rischio di manipolazioni di massa attraverso i nostri social newsfeed?

Il rovescio della medaglia: cosa l'IA può fare per noi

È importante sottolineare che l'esistenza di questa minaccia non significa che tutta la cura algoritmica sia cattiva o che tutta la pubblicità mirata sia cattiva. Lontano da esso. Entrambi possono servire a uno scopo prezioso.

Con l'ascesa di Internet e dell'intelligenza artificiale, mettere gli algoritmi a capo della nostra dieta informativa non è solo una tendenza inevitabile, ma auspicabile. Man mano che le nostre vite diventano sempre più digitali e connesse e mentre il nostro mondo diventa sempre più ad alta intensità di informazione, avremo bisogno dell'IA come interfaccia per il mondo. A lungo termine, l'istruzione e lo sviluppo personale saranno alcune delle applicazioni più impattanti dell'intelligenza artificiale - e ciò avverrà attraverso dinamiche che rispecchiano quasi interamente quella di un nefasto newsfeed abilitato all'IA che cerca di manipolarti. La gestione algoritmica delle informazioni ha un enorme potenziale per aiutarci, per consentire alle persone di realizzare più del loro potenziale e per aiutare la società a gestire meglio se stessa.

Il problema non è l'IA stessa. Il problema è il controllo.

Invece di lasciare che gli algoritmi di newsfeed manipolino l'utente per raggiungere obiettivi opachi, come influenzare le loro opinioni politiche o perdere il massimo del tempo, dovremmo affidare all'utente gli obiettivi per i quali gli algoritmi ottimizzano. Dopotutto, stiamo parlando delle tue notizie, della tua visione del mondo, dei tuoi amici, della tua vita - l'impatto che la tecnologia ha su di te dovrebbe naturalmente essere posto sotto il tuo controllo. Gli algoritmi di gestione delle informazioni non dovrebbero essere una forza misteriosa inflitta a noi per servire fini che si oppongono ai nostri interessi; invece, dovrebbero essere uno strumento nella nostra mano. Uno strumento che possiamo usare per i nostri scopi, per esempio, per l'educazione e il personale anziché per l'intrattenimento.

Ecco un'idea: qualsiasi newsfeed algoritmico con adozione significativa dovrebbe:

  • Trasmetti in modo trasparente quali obiettivi l'algoritmo di feed sta attualmente ottimizzando e in che modo questi obiettivi influenzano la tua dieta di informazioni.
  • Ti offre strumenti intuitivi per impostare questi obiettivi da solo. Ad esempio, dovrebbe essere possibile per te configurare il tuo feed di notizie per massimizzare l'apprendimento e la crescita personale, in direzioni specifiche.
  • Presenta una misura sempre visibile di quanto tempo stai trascorrendo nel feed.
  • Strumenti di funzionalità per mantenere il controllo di quanto tempo stai trascorrendo nel feed, ad esempio un target di tempo giornaliero, oltre il quale l'algoritmo cercherà di farti uscire dal feed.
Aumentare noi stessi con l'IA mantenendo il controllo

Dovremmo costruire l'IA per servire gli umani, non per manipolarli a scopo di lucro o di guadagno politico. E se gli algoritmi del newsfeed non funzionassero come operatori di casinò o propagandisti? E se invece fossero più vicini a un mentore o un buon bibliotecario, qualcuno che ha usato la loro acuta comprensione della tua psicologia - e quella di milioni di altre persone simili - per raccomandarti quel libro successivo che risuonerà maggiormente con i tuoi obiettivi e renderà tu cresci. Una sorta di strumento di navigazione per la tua vita: un'intelligenza artificiale in grado di guidarti attraverso il percorso ottimale nello spazio dell'esperienza per arrivare dove vuoi andare. Riesci a immaginare di guardare la tua stessa vita attraverso l'obiettivo di un sistema che ha visto svolgersi milioni di vite? O scrivere un libro insieme a un sistema che ha letto ogni libro? O conducendo ricerche in collaborazione con un sistema che vede l'intero ambito delle attuali conoscenze umane?

Nei prodotti in cui hai il pieno controllo dell'intelligenza artificiale che interagisce con te, un algoritmo più sofisticato, anziché essere una minaccia, sarebbe un netto positivo, permettendoti di raggiungere i tuoi obiettivi in ​​modo più efficiente.

Costruire l'anti-Facebook

In sintesi, il nostro futuro è quello in cui l'IA sarà la nostra interfaccia con il mondo, un mondo fatto di informazioni digitali. Ciò può ugualmente portare a dare agli individui il potere di ottenere un maggiore controllo sulla propria vita o una perdita totale di agenzia. Sfortunatamente, i social media sono attualmente impegnati sulla strada sbagliata. Ma è ancora abbastanza presto che possiamo invertire la rotta.

In quanto settore, dobbiamo sviluppare categorie di prodotti e mercati in cui gli incentivi sono allineati con la responsabilità dell'utente di gestire gli algoritmi che li riguardano, anziché utilizzare l'intelligenza artificiale per sfruttare la mente dell'utente a scopo di lucro o di guadagno politico. Dobbiamo impegnarci per i prodotti che sono anti-Facebook.

Nel lontano futuro, tali prodotti probabilmente assumeranno la forma di assistenti di intelligenza artificiale. Mentori digitali programmati per aiutarti, che ti mettono in controllo degli obiettivi che perseguono nelle loro interazioni con te. E nel presente, i motori di ricerca potrebbero essere visti come un primo esempio più primitivo di un'interfaccia informativa basata sull'intelligenza artificiale che serve gli utenti invece di cercare di dirottare il loro spazio mentale. La ricerca è uno strumento che usi deliberatamente per raggiungere obiettivi specifici, piuttosto che un feed passivo sempre attivo che sceglie cosa mostrarti. Digli cosa dovrebbe fare per te. E invece di cercare di sprecare al massimo il tuo tempo, un motore di ricerca tenta di ridurre al minimo il tempo necessario per passare da una domanda all'altra, da un problema a una soluzione.

Potresti pensare, dal momento che un motore di ricerca è ancora uno strato di intelligenza artificiale tra noi e le informazioni che consumiamo, potrebbe distorcere i suoi risultati per tentare di manipolarci? Sì, quel rischio è latente in ogni algoritmo di gestione delle informazioni. Ma in netto contrasto con i social network, gli incentivi di mercato in questo caso sono effettivamente allineati alle esigenze degli utenti, spingendo i motori di ricerca ad essere il più pertinenti e obiettivi possibile. Se non riescono ad essere al massimo utili, non c'è praticamente alcun attrito per gli utenti di passare a un prodotto concorrente. E, soprattutto, un motore di ricerca avrebbe una superficie di attacco psicologico considerevolmente più piccola di un newsfeed sociale. La minaccia che abbiamo profilato in questo post richiede che la maggior parte di quanto segue sia presente in un prodotto:

  • Sia percezione che azione: non solo il prodotto dovrebbe avere il controllo delle informazioni che ti mostra (notizie e aggiornamenti sociali), ma dovrebbe anche essere in grado di "percepire" i tuoi attuali stati mentali attraverso "Mi piace", messaggi di chat e aggiornamenti di stato . Senza percezione e azione, non è possibile stabilire un ciclo di apprendimento di rinforzo. Un feed di sola lettura sarebbe pericoloso solo come una potenziale strada per la propaganda classica.
  • Centralità della nostra vita: il prodotto dovrebbe essere una delle principali fonti di informazioni per almeno un sottoinsieme dei suoi utenti e gli utenti tipici dovrebbero trascorrere diverse ore al giorno su di esso. Un feed ausiliario e specializzato (come i consigli sui prodotti di Amazon) non costituirebbe una seria minaccia.
  • Una componente sociale, che consente una gamma molto più ampia ed efficace di vettori di controllo psicologico (in particolare il rafforzamento sociale). Un newsfeed impersonale ha solo una piccola parte della leva sulle nostre menti.
  • Gli incentivi aziendali mirano a manipolare gli utenti e far sì che gli utenti trascorrano più tempo sul prodotto.

La maggior parte dei prodotti di gestione delle informazioni basati sull'intelligenza artificiale non soddisfano questi requisiti. I social network, d'altra parte, sono una combinazione spaventosa di fattori di rischio. Come tecnologi, dovremmo gravitare verso prodotti che non presentano queste caratteristiche e respingere i prodotti che li combinano tutti, anche solo a causa del loro potenziale per un uso improprio pericoloso. Costruisci motori di ricerca e assistenti digitali, non social newsfeed. Rendi i tuoi motori di raccomandazione trasparenti, configurabili e costruttivi, piuttosto che macchine simili a slot che massimizzano il "coinvolgimento" e sprecano ore di tempo umano. Investi le tue competenze in UI, UX e AI nella creazione di grandi pannelli di configurazione per il tuo algoritmo, per consentire agli utenti di utilizzare il tuo prodotto alle proprie condizioni.

E, soprattutto, dovremmo educare gli utenti su questi temi, in modo che rifiutino i prodotti manipolatori, generando una pressione sufficiente sul mercato per allineare gli incentivi del settore tecnologico a quello dei consumatori.

Conclusione: il bivio sulla strada da percorrere

  • I social media non solo sanno abbastanza di noi per costruire potenti modelli psicologici di individui e gruppi, ma hanno anche un controllo sempre maggiore della nostra dieta di informazioni. Ha accesso a una serie di exploit psicologici estremamente efficaci per manipolare ciò in cui crediamo, come ci sentiamo e ciò che facciamo.
  • Un algoritmo AI sufficientemente avanzato con accesso sia alla percezione del nostro stato mentale, sia all'azione sul nostro stato mentale, in un ciclo continuo, può essere usato per dirottare efficacemente le nostre convinzioni e comportamenti.
  • L'uso dell'intelligenza artificiale come interfaccia per l'informazione non è di per sé il problema. Tali interfacce AI, se ben progettate, hanno il potenziale per essere straordinariamente vantaggiose e potenzianti per tutti noi. Il fattore chiave: l'utente dovrebbe mantenere il pieno controllo degli obiettivi dell'algoritmo, utilizzandolo come uno strumento per perseguire i propri obiettivi (nello stesso modo in cui useresti un motore di ricerca).
  • Come tecnologi, abbiamo la responsabilità di respingere i prodotti che tolgono il controllo e dedicare i nostri sforzi alla costruzione di interfacce informative che affidano l'utente in carica. Non utilizzare l'IA come strumento per manipolare i tuoi utenti; invece, dai ai tuoi utenti l'intelligenza artificiale come strumento per ottenere maggiore agenzia sulle loro circostanze.

Un percorso conduce a un posto che mi spaventa davvero. L'altro porta a un futuro più umano. C'è ancora tempo per prendere quello migliore. Se lavori su queste tecnologie, tienilo a mente. Potresti non avere intenzioni malvagie. Potresti semplicemente non preoccupartene. Puoi semplicemente valutare le tue RSU più del nostro futuro condiviso. Ma che ti interessi o meno, perché hai una mano nel modellare l'infrastruttura del mondo digitale, le tue scelte riguardano tutti noi. E alla fine potresti essere ritenuto responsabile per loro.