In un discorso tenuto lo scorso anno al World Economic Forum, la professoressa Nita Farahany ha sostenuto che la tecnologia di lettura del pensiero non solo è reale, ma è già in uso.
Ha parlato di scenari in cui il monitoraggio delle metriche cerebrali potrebbe migliorare la sicurezza, come prevenire incidenti causati dalla stanchezza del conducente. Ha anche riconosciuto il potenziale "distopico" di questa tecnologia, come la trasmissione obbligatoria del segnale cerebrale in Cina.
Ad esempio, ai macchinisti cinesi viene richiesto di indossare cappelli per il monitoraggio del cervello per monitorare i loro livelli di affaticamento. E la tecnologia di monitoraggio delle onde cerebrali è già utilizzata da aziende come Amazon e Walmart.
La tecnologia di lettura della mente è arrivata o il World Economic Forum sta seminando il panico? Il Gold Report esamina quanto lontano si è spinta la ricerca sulla tecnologia di lettura della mente.
È arrivata la tecnologia della lettura del pensiero? O il WEF sta fomentando il panico?
Quanto segue è stato originariamente pubblicato dal Gold Report il 20 settembre 2024.
L'anno scorso, a Davos, la professoressa Nita Farahany ha detto al pubblico del World Economic Forum ("WEF") che "Non possiamo decodificare il parlato e potremmo non decodificare mai i pensieri completi del cervello, utilizzando semplici dispositivi indossabili".
Quest'anno, in California, un team dell'UCSF (Università della California, San Francisco) sta utilizzando l'intelligenza artificiale per decodificare le parole pensate consapevolmente e trasformarle in linguaggio, utilizzando "un dispositivo che traduce l'attività cerebrale in parole desiderate".
Passo successivo: tecnologia wireless che interpreta i segnali cerebrali che rappresentano il pensiero e li trasmette... dove?
Secondo Farahany, il passo successivo è già stato fatto. Ma è davvero così? Sono state fornite poche prove a sostegno delle affermazioni di Farahany e non è stato rivelato alcun database che associ specifici segnali cerebrali a parole specifiche, sollevando la possibilità che il WEF stia seminando il panico, facendo preoccupare i cittadini rispettosi della legge se il governo conosca i loro pensieri.
Qui presentiamo maggiori dettagli sulle affermazioni di Farahany, lasciando al lettore il compito di valutarne l'affidabilità.
Il Grande Fratello ti legge nel pensiero
Farahany è professoressa di diritto e filosofia alla Duke University, il cui focus è sulle implicazioni etiche, legali e sociali delle tecnologie emergenti. Il titolo del suo libro, " The battle for your brain: defending the right to think freedom in the age of neurotechnology ", prevede sfide alla libertà di pensiero nel prossimo futuro.
Nel suo discorso a Davos, ammette liberamente i pro e i contro della tecnologia di lettura della mente, ma insiste sul fatto che non vuole che venga vietata perché vede in essa un grande potenziale. Il suo discorso è stato introdotto da Nicholas Thompson, CEO di The Atlantic , che ha descritto la tecnologia in termini entusiastici: "Vi farà vedere e comprendere un futuro meraviglioso in cui potremo usare le onde cerebrali per combattere la criminalità, essere più produttivi e trovare l'amore..."
Il video di Farahany si apre con un'animazione di un ufficio futuristico in cui i dipendenti indossano auricolari per le onde cerebrali che trasmettono le informazioni sulle loro onde cerebrali al sistema informatico dell'ufficio. Le informazioni sono completamente accessibili al capo che premia un dipendente per le sue "metriche cerebrali" con un bonus di prestazione.
Tuttavia, le cose cambiano rapidamente quando queste metriche cerebrali vengono utilizzate dalle forze dell'ordine:
Una nuvola cupa è caduta sull'ufficio. Insieme a e-mail, messaggi di testo e dati di localizzazione GPS, il governo ha citato in giudizio i dati cerebrali dei dipendenti dell'anno scorso. Hanno prove schiaccianti che uno dei tuoi colleghi ha commesso una frode telematica massiva e ora stanno cercando l'attività cerebrale sincronizzata tra il tuo collega e le persone con cui ha lavorato.
Mentre sai di essere innocente di qualsiasi crimine, segretamente hai lavorato con lui a una nuova iniziativa imprenditoriale. Tremando, ti togli gli auricolari.
Come possiamo usare "Escape"?
L'animazione finisce lì e Farahany inizia il suo discorso sottolineando che questa tecnologia non solo esiste già, ma è già in uso. Aggiunge che molte persone sono già pronte ad accettarla come parte della vita, dato che molti di noi usano Apple Watch e altri dispositivi indossabili che monitorano alcuni dei nostri processi interni.
Durante il dibattito Trump-Harris, alcuni hanno sospettato che gli orecchini indossati da Harris fossero in realtà dei trasmettitori, aiutandola con le sue risposte. I trasmettitori degli orecchini esistono già. Così come altri dispositivi indossabili come fasce, cappelli, auricolari e persino quelli che sembrano tatuaggi dietro le orecchie, tutti in grado non solo di trasmettere ma anche di decodificare i segnali cerebrali.
"Scorrere" con la mente per creare un'interazione fluida della tecnologia è, dice Farahany, parte di "un futuro entusiasmante e promettente. Ma anche potenzialmente spaventoso. Non possiamo ancora letteralmente decodificare pensieri complessi, ma c'è già molto che possiamo decodificare".
È per la tua sicurezza
Il suo primo esempio della “promessa” insita nelle nuove tecnologie è “un posto di lavoro più sicuro”. Monitorare le metriche cerebrali degli autotrasportatori, ad esempio, potrebbe potenzialmente prevenire incidenti come quelli che si verificano a causa dell’affaticamento del conducente (che si applicherebbe anche ai piloti e ai macchinisti).
Utilizzando un semplice cappello con elettrosensori incorporati che raggiungono un punteggio da 1 a 5 in termini di allerta, il datore di lavoro ottiene informazioni importanti in tempo reale.
È degno di nota che Farahany affermi che è il datore di lavoro ad avere accesso alle metriche del cervello, non il dipendente. La società deve essere protetta da camionisti spericolati che continuano a guidare per ore e ore e causano incidenti mortali, è il caso non dichiarato per l'uso di tale tecnologia.
Sembra che non le sia venuto in mente che gli autisti di solito non vanno avanti per ore e ore per il gusto di farlo, ma piuttosto perché il loro stipendio dipende dalla consegna puntuale della merce a destinazione, e che guidare per x ore consecutive potrebbe essere l'unico modo per raggiungere questo obiettivo, se i loro capi impongono obiettivi irrealistici.
Aiuterà i datori di lavoro ad essere ancora più premurosi nei confronti del proprio personale
Farahany descrive anche un altro scenario in cui il libero accesso alle metriche cerebrali del personale potrebbe creare un ambiente più sicuro per tutti: in un magazzino, dove i sensori cerebrali dei lavoratori rivelano che si stanno esaurendo e i robot impiegati dai loro comprensivi datori di lavoro adattano le condizioni per dare loro abbastanza tempo e riposo per continuare a lavorare.
Ancora una volta, non sembra che le sia venuto in mente che i datori di lavoro potrebbero usare le stesse informazioni metriche cerebrali per eliminare i dipendenti esausti e sostituirli con lavoratori più robusti.
Detto questo, ammette il potenziale “distopico” del monitoraggio cerebrale, sottolineando che i macchinisti in Cina sono già tenuti a indossare cappelli speciali che trasmettono i segnali cerebrali ai loro datori di lavoro, che possono monitorare i loro livelli di affaticamento.
Forse è qualcosa che vogliamo abbracciare come società.
Se fatta bene, la neurotecnologia ha una promessa straordinaria. Se fatta male, potrebbe diventare la tecnologia più oppressiva che abbiamo mai introdotto.
Ridurrà lo stress sul posto di lavoro
Farahany cita anche esempi di tecnologia di monitoraggio delle onde cerebrali in uso negli Stati Uniti. Amazon ha già sperimentato tali dispositivi, testandoli sui dipendenti dei magazzini. Lo stesso hanno fatto Tesco e Walmart, provocando proteste dei dipendenti e minando il loro morale, dato che l'obiettivo è rilevare perdite di tempo sul lavoro e pause non programmate dei dipendenti.
Durante la "pandemia", aggiunge, molte aziende che sono passate agli uffici virtuali hanno utilizzato una qualche forma di monitoraggio per tenere sotto controllo i propri dipendenti. Cita Microsoft per il suo studio sui dipendenti che utilizzano Zoom per le riunioni, che ha rivelato che le riunioni virtuali sono più stressanti di quelle condotte di persona, in parte a causa dei diversi sfondi sugli schermi delle persone.
La semplificazione degli sfondi è stata una misura facile e gratuita per ridurre i livelli di stress. Si immagina che non sia stata l'unica misura che Microsoft ha implementato come risultato del monitoraggio delle onde cerebrali.
E ti renderà più produttivo
Poi, mentre trasmette sullo schermo l'immagine di auricolari dall'aspetto futuristico, Farahany descrive come,
… il modo più recente per monitorare l’attenzione è attraverso un dispositivo come questo: auricolari che verranno lanciati più avanti quest’anno [vale a dire, verso la fine del 2023] e che possono rilevare l’attività delle onde cerebrali e dire se [una] persona sta prestando attenzione o se la sua mente sta vagando…
Si scopre che non solo puoi dire se qualcuno sta prestando attenzione, ma puoi anche distinguere tra i tipi di cose a cui sta prestando attenzione. Quando si combina questo con altri tipi di sorveglianza, il potere diventa piuttosto preciso.
Descrive anche una nuova tecnologia sviluppata da un laboratorio del MIT che "dà letteralmente una scossa alle persone quando la loro mente inizia a vagare".
Impianti cerebrali che conferiscono il potere della parola
Tutti questi sviluppi supportano l'affermazione di Farahany secondo cui "sempre più di ciò che è nel cervello diventerà trasparente". Le cose si stanno muovendo così velocemente, ha aggiunto, che la legislazione correlata "non riesce a tenere il passo". L'anno scorso, ha affermato che "non possiamo decodificare il linguaggio", eppure ormai ciò sta già accadendo, come riportato in un articolo su JAMA Network (il Journal of the American Medication Association ).
L'articolo si basa su un'intervista con Edward Chang MD, co-direttore del Centre for Neural Engineering and Prostheses presso l'UCSF. Lui e il suo team affermano di essere riusciti a sviluppare una tecnologia che consente alle persone affette da afasia (che hanno perso la capacità di parlare, solitamente a causa di un ictus) di "parlare".
Abbiamo iniziato cercando di capire i principi di base con cui l'attività elettrica nei neuroni controlla i muscoli del tratto vocale per dare origine a tutti i diversi suoni che produciamo quando parliamo. Ciò a cui mi riferisco è il modo in cui le labbra, la mascella e la lingua modellano il respiro per creare suoni come consonanti, vocali e persino l'intonazione della voce quando parliamo.
… è diventato molto, molto chiaro che ciò avrebbe potuto avere potenziali applicazioni mediche per le persone che hanno perso la capacità di comunicare a causa della paralisi.
Il team di Chang ha utilizzato diverse tecniche per decodificare i segnali cerebrali, tra cui ricerche condotte durante interventi chirurgici al cervello:
Sono specializzato in interventi chirurgici al cervello, dove abbiamo pazienti svegli e facciamo la mappatura del linguaggio. Parte del mio laboratorio è letteralmente in sala operatoria, dove impariamo e comprendiamo costantemente come il cervello dà origine alle parole e le testiamo e, cosa più importante, le proteggiamo durante gli interventi quando abbiamo la missione di rimuovere il punto che causa le crisi o di rimuovere un tumore al cervello.
Questo è ciò che chiamiamo mappatura cerebrale ed è una parte davvero fondamentale della mia pratica clinica, che è sinergica con i nostri obiettivi più ampi.
Il passo successivo è stato quello di digitalizzare il processo di decodifica, utilizzando elettrodi posizionati sul cervello:
Una volta scoperto che esisteva questa chiara correlazione tra i modelli di attività cerebrale e specifici suoni del linguaggio, abbiamo richiesto l'autorizzazione per condurre uno studio e abbiamo chiesto alla FDA se potevamo utilizzare un nuovo tipo di dispositivo, essenzialmente una serie di elettrodi da posizionare sulla superficie del cervello.
Gli elettrodi array sono collegati a una porta dotata di circa 253 canali che trasmettono in streaming i dati dell'attività cerebrale a un computer che analizza i segnali cerebrali e utilizza l'intelligenza artificiale per tradurre tale attività cerebrale in parole specifiche o suoni vocali o persino movimenti facciali dell'avatar.
Da 256 linee ondulate a 70 parole al minuto
Al centro di questo processo c'è stato l'apprendimento automatico, un'intelligenza artificiale in grado di elaborare enormi quantità di dati e di individuare e interpretare schemi, collegando specifiche onde cerebrali a parole:
Il segreto di tutto questo è stato davvero... l'apprendimento automatico. Il novantanove percento del nostro tempo non ha nulla a che fare con l'operazione o con il dispositivo in sé: ha a che fare con la comprensione dei dati
Quando guardi lo schermo, sembra che ci siano 256 linee ondulate, che sono le onde cerebrali... [Noi] utilizziamo reti neurali ricorrenti per prendere quella sequenza di punti dati che sembrano linee ondulate e tradurle in parole.
Chang sottolinea che l'interpretazione si basa sulle onde cerebrali create dai partecipanti mentre leggono effettivamente le parole su uno schermo, non semplicemente pensando pensieri casuali:
Il compito di base funziona chiedendo ai nostri partecipanti di leggere un testo su uno schermo, non solo pensando a ciò che stanno vedendo, ma cercando di dire effettivamente le parole. Devono provare volontariamente a dirlo.
Ha lavorato con diversi pazienti afasici, due dei quali non erano in grado di parlare da oltre 15 anni:
Il nostro ultimo partecipante è riuscito a raggiungere circa 70 parole al minuto con questo dispositivo. Il parlato normale è di circa 150 parole al minuto e abbiamo ancora molto margine di miglioramento. Ma era veloce e il vocabolario era superiore a mille parole. Lo abbiamo modellato a 30.000 parole, dove ha continuato ad avere buone prestazioni.
Da 15 anni da tetraplegico muto a 2 settimane che gli restituiscono la parola
Come Farahany, Chang sottolinea gli incredibili passi avanti compiuti dalla tecnologia solo negli ultimi anni.
Questo campo si sta muovendo così velocemente che è difficile per me fare previsioni. Non potevo nemmeno prevedere che avremmo avuto i livelli di performance che abbiamo avuto l'anno scorso. E gli algoritmi che stiamo iniziando a usare stanno diventando sempre più potenti.
Non avevamo nemmeno questi strumenti 5 anni fa. E ora, ci stiamo avvicinando molto, molto... [a] ciò che vorremmo per qualcosa che sia clinicamente disponibile. All'inizio, ci sono voluti un paio di mesi. Con il nostro ultimo partecipante, ci sono volute fondamentalmente 2 settimane per addestrare gli algoritmi.
E come Farahany, Chang sottolinea l'incredibile potenziale insito nella tecnologia, che promette sicuramente un tipo di vita molto diverso per coloro che riacquistano la capacità di esprimersi:
Penso che il nostro obiettivo principale sia davvero la piena espressione... per riportare le persone a essere ciò che sono...
Per la nostra ultima partecipante allo studio, abbiamo avuto questa opportunità davvero unica, in cui avevamo un'ora di video del suo matrimonio, che è stato 20 anni fa, e siamo stati in grado di addestrare l'IA sulla sua voce pre-infortunio. Quindi, non era solo una qualsiasi voce preimpostata pronta all'uso che hai nel tuo computer. Questa era in realtà la sua voce che era stata addestrata per fare questo modello, e questo è possibile ora con l'IA. Con l'avatar, è stata in grado di scegliere il colore dei capelli, degli occhi.
Stiamo davvero parlando di un livello completamente nuovo di personalizzazione ed espressione con questo... Anche l'intonazione della voce è qualcosa che vogliamo ottenere correttamente.
Lettura della mente senza fili
Al WEF è stato chiesto a Farahany se le metriche del cervello potessero essere misurate senza l'uso di un dispositivo indossabile e la risposta è stata secca: "No".
Ora, un anno dopo, Chang e il suo team stanno lavorando per potenziare le capacità della tecnologia di cui sono stati pionieri, con l'intenzione di renderla completamente wireless:
Stiamo lavorando all'ingegneria elettrica e all'ingegneria hardware per realizzare un sistema wireless completamente integrato, in modo che non sia necessario essere collegati a un filo su una porta nel cuoio capelluto. Tutto verrà trasmesso in modalità wireless a un ricevitore e alimentato anche in quel modo.
Alla domanda se la tecnologia potesse essere utilizzata per decodificare pensieri che non sono “verbalizzati mentalmente”, Chang ha distinto tra il tipo di metriche cerebrali utilizzate:
Penso che abbiamo dimostrato che quando qualcuno ha quell'intenzione volontaria di parlare, possiamo decodificarla. Ma come ho detto prima, alcune delle cose che abbiamo provato, in cui le persone pensavano solo a qualcosa, non funzionano altrettanto bene.
Una ragione di ciò è che i pensieri “verbalizzati” sembrano essere elaborati in una parte diversa del cervello rispetto ad altri tipi di pensieri:
I sensori degli elettrodi sul cervello non stanno necessariamente toccando dove accadono i pensieri casuali nel cervello. Stanno davvero registrando dalla parte del cervello che controlla il muscolo della traccia vocale.
Ma Chang, come Farahany, prevede che in futuro le cose andranno probabilmente molto oltre, il che introdurrà complesse questioni relative alla privacy:
Quindi, il modo in cui abbiamo progettato il nostro lavoro al momento riguarda ciò che è veramente volitivo, ciò che è destinato a essere espresso dall'individuo. Ma allo stesso tempo, ci sta anche dicendo che potrebbe essere potenzialmente possibile andare oltre in futuro, in cose che sono più private, che sono più discorsi interiori, ad esempio, forse anche pensieri interiori.
Di chi ci si può fidare?
Rivolgendosi al suo pubblico, Farahany chiede: "Siete pronti per questo?" Presenta un futuro, un futuro molto imminente, in cui "sempre più di ciò che è nel cervello diventerà trasparente".
“Questo può essere qualcosa che sblocca il potenziale per l’umanità”, sottolinea ma aggiunge che:
Credo che ci sia una strada da percorrere con questa tecnologia, ma significa metterla nelle mani dei dipendenti, consentendo loro di usarla come una scelta, non come un metro di valutazione cerebrale per licenziarli, assumerli o discriminarli.
Sebbene ammetta che convincere i datori di lavoro a rispettare la libertà di pensiero e la privacy delle metriche cerebrali sarà una sfida, sembra credere che incoraggiare il rispetto diffuso di "un diritto fondamentale a ciò che significa essere umani" potrebbe essere sufficiente per proteggere le persone: "Credo che dobbiamo iniziare riconoscendo un diritto alla libertà cognitiva, un diritto all'autodeterminazione sui nostri cervelli e sulle nostre esperienze mentali".
Ciò che né Chang né Farahany affrontano sono i limiti intrinseci della tecnologia di "lettura della mente", nonostante l'animazione proiettata da Farahany abbia introdotto problemi molto reali: ad esempio, come potrà l'innocente collega dell'impiegato arrestato dimostrare che, sebbene i suoi parametri cerebrali siano sincronizzati con quelli del presunto criminale, in realtà non stava complottando insieme a lui?
Anche Chang è poco disponibile su alcuni aspetti chiave della tecnologia che sta sviluppando. Quando il suo intervistatore gli chiede come può verificare se l'output riflette realmente i pensieri proiettati dai suoi soggetti afasici, elude la domanda.
Senza dubbio, una persona che ha subito una lesione neurologica e ha perso la capacità di parlare coglierà al volo l'occasione di recuperarla, anche se la tecnologia è imperfetta e anche se ciò comporta il rischio che non solo le sue parole, ma anche i suoi pensieri diventino trasparenti agli altri.
Tuttavia, resta molto poco chiaro come si possa scongiurare la “possibilità distopica” descritta da Farahany e come possiamo proteggerci da uno strumento che, secondo lei, “potrebbe davvero diventare la tecnologia più oppressiva che abbiamo mai scatenato”.
Posta un commento
Condividi la tua opinione nel rispetto degli altri. Link e materiale non pertinente sarà eliminato.