di Sara Chessa.
Le neurotecnologie stanno diventando sempre più capaci di decodificare il nostro io più intimo, minacciando la capacità degli attuali quadri dei diritti umani di proteggere la libertà e la privacy individuale. Il termine ‘neurodiritti’ indica nuovi diritti da integrare nel diritto nazionale e internazionale per proteggere la sfera neurocognitiva mentale dall’interferenza profonda resa possibile dalle interfacce cervello-computer e altre tecnologie che interagiscono con il sistema neurale.
Tali dispositivi sono utilizzati prevalentemente nel campo medico o in quello militare. Tuttavia, in futuro, il potenziamento cognitivo tecnologico potrebbe essere disponibile per gli individui. Data la potenzialità di intrusioni indesiderate nella sfera mentale che le neurotecnologie rendono possibile, c’è una crescente consapevolezza della necessità di un quadro di governance.
Di fronte alla sfida etica di dover determinare le condizioni sotto le quali è legittimo interferire con l’attività neurale di un’altra persona, Marcello Ienca, Professore Assistente di Etica dell’IA e delle Neuroscienze presso la Scuola di Medicina e Salute TUM di Monaco di Baviera, e Roberto Andorno, Professore Associato di Diritto Biomedico e Bioetica presso la Facoltà di Giurisprudenza dell’Università di Zurigo, hanno identificato quattro possibili neurodiritti.
Il primo è il diritto alla privacy mentale, che permette agli individui di proteggere le informazioni neurali da accessi indesiderati. Il regolatore italiano della privacy, ad esempio, è tra coloro che sono preoccupati per le violazioni della privacy mentale e sta organizzando una conferenza sui pericoli inerenti alla ‘neuroimmagine’, che sta diventando così avanzata da poter essere presto riconosciuta come ‘lettura della mente’.
Il secondo diritto si riferisce alla continuità psicologica. I dispositivi neurali possono essere utilizzati per stimolare la funzione cerebrale o per modulare: un esempio sono i dispositivi di stimolazione diretta transcranica a corrente continua (tDCS), che generano una corrente costante e bassa consegnata a una specifica area cerebrale tramite elettrodi sul cuoio capelluto.
Le alterazioni che tali dispositivi producono nella funzione cerebrale possono influenzare positivamente la condizione di un paziente. Data l’efficacia terapeutica di tecnologie simili, l’uso di dispositivi di stimolazione cerebrale probabilmente si espanderà oltre il campo psichiatrico. Tuttavia, i dispositivi tDCS possono causare alterazioni non intenzionali e influenzare l’autopercezione di un individuo.
«Prima di pensare alla creazione di nuove leggi, dovremmo guardare a quelle esistenti e considerare se, e in che misura, abbiamo davvero bisogno di nuove leggi» (Monika Gattiker – Vice Presidente, Comitato di Diritto Sanitario e delle Scienze della Vita dell’IBA)
In uno studio che coinvolge pazienti trattati con una tecnologia chiamata DBS, più della metà dei partecipanti ha espresso un sentimento di estraneità verso sé stessi dopo l’intervento chirurgico, dicendo per esempio: ‘Non mi sono ritrovato dopo l’operazione’. Inoltre, le tecnologie di ingegneria della memoria possono avere un impatto sull’identità di un individuo rimuovendo, alterando, aggiungendo o sostituendo selettivamente ricordi rilevanti per il riconoscimento di sé. Questo diritto alla continuità psicologica, quindi, mira a preservare l’identità dell’individuo.
Il terzo neurodiritto proposto riguarda l’integrità mentale. L’articolo 3 della Carta dei Diritti Fondamentali dell’UE afferma che «ogni individuo ha diritto al rispetto della propria integrità fisica e mentale». Richiede, ad esempio, il consenso libero e informato del paziente. Andorno e Ienca suggeriscono di ridefinire questo diritto in modo da proteggere gli individui da intrusioni non autorizzate che hanno un impatto diretto sul loro calcolo neurale e quindi causano danno.
Infine, Andorno e Ienca delineano il diritto alla libertà cognitiva, per salvaguardare la capacità di prendere decisioni libere e competenti sull’uso delle neurotecnologie. Gli adulti dovrebbero essere liberi di utilizzare interfacce cervello/computer e dispositivi simili sia per motivi medici che per scopi di potenziamento cognitivo, purché non causino danni alle libertà altrui.
Le questioni di privacy mentale nell’era delle neurotecnologie sono state discusse durante il Vertice della Royal Society sulle Interfacce Neurali, tenutosi a metà settembre a Londra. Ienca, tra i relatori, dice a Global Insight che «poiché l’ecosistema delle neurotecnologie di consumo si sta espandendo oltre la ricerca biomedica e l’intervento clinico, si stanno creando e incrociando banchi di dati neurali molto estesi con altri dati relativi al comportamento online». In alcuni casi, ciò avviene perché le aziende commerciali hanno politiche che consentono il trasferimento dei dati a terze parti. In altri casi, grandi conglomerati tecnologici hanno acquisito aziende di neurotecnologia, il che significa che le banche di dati neurali sono direttamente disponibili. «Quel che abbiamo imparato negli ultimi 20 anni sui Big Data è che grandi insiemi di dati (dataset, nell’originale, ndt) vengono analizzati retrospettivamente in modo tale che si possano fare inferenze anche quando i dati sono stati sufficientemente de-identificati», afferma Ienca.
Descrive un secondo problema: la decodifica dei dati neurali senza comprendere il soggetto. «L’intelligenza artificiale negli ultimi anni ha fatto grandi progressi, e ora abbiamo modelli di reti neurali che possono decodificare il contenuto degli stati mentali», spiega. «Stiamo parlando di contenuti visivi, uditivi e anche semantici, in altre parole, di ricostruire i pensieri di una persona dai dati neurali.»
«Prima di pensare alla creazione di nuove leggi, dovremmo guardare a quelle esistenti e considerare se, e in che misura, abbiamo davvero bisogno di nuove leggi», dichiara Monika Gattiker, Vice Presidente del Comitato di Diritto Sanitario e delle Scienze della Vita dell’IBA (l’associazione globale degli avvocati e operatori di diritto, ndt) e partner presso Lanter a Zurigo. Gattiker sottolinea, per esempio, che gli articoli 10 e 13 della Costituzione Svizzera forniscono protezione contro la “lettura della mente”. Spiega che «la privacy dei pensieri va oltre la privacy, per esempio, di una lettera. Se una persona accetta la neuroimmagine, le leggi sulla protezione dei dati stabiliscono i limiti riguardo alla raccolta delle informazioni/risultati».
Poi ci sono le rilevanti normative sovranazionali, specificamente la Convenzione del Consiglio d’Europa per la Protezione dei Diritti Umani e della Dignità dell’Essere Umano riguardante l’Applicazione della Biologia e della Medicina. Gattiker ritiene che possa essere necessario modificare le leggi, ma non pensa che «abbiamo bisogno di regolare estensivamente le neurotecnologie in questo momento […] tuttavia, le leggi esistenti dovrebbero essere applicate e fatte rispettare, e gli sviluppi attentamente monitorati».
Anurag Bana, Consigliere Legale Senior nell’Unità di Politica Legale e Ricerca dell’IBA, dice che, se scegliamo di modificare le leggi esistenti o creare un nuovo insieme di regole, il passo cruciale è una discussione tra tutti i portatori d’interessi. Egli evidenzia le valutazioni d’impatto in termini di dovuta diligenza in materia di diritti umani incluse nei Principi Guida delle Nazioni Unite su Impresa e Diritti Umani, che chiamano a una valutazione delle aree direttamente interessate. «Dobbiamo comprendere rischi e opportunità e, quindi, le aziende che stanno investendo dovrebbero prendere l’impegno che seguiranno davvero gli standard di base di protezione dei diritti e degli obblighi: dovrebbero assumersi questa responsabilità [loro stessi] quando sviluppano questa tecnologia», sostiene.
Finora, l’unico paese che ha incluso i neurodiritti nella sua costituzione è il Cile. Carlos Amunátegui Perelló, Professore di Teoria del Diritto e Intelligenza Artificiale presso l’Università Cattolica del Cile, era tra gli studiosi che hanno consigliato il governo cileno. «È cruciale regolare le neurotecnologie ora perché è sempre più facile prevenire un problema che risolverlo», afferma. «La possibile pervasività delle interfacce cervello-computer avrà effetti così profondi che saranno difficili da controllare». Amunátegui Perelló aggiunge che l’accesso ai dati cerebrali delle persone su larga scala significa che le grandi aziende avranno un quadro incredibilmente dettagliato di come funzionano i nostri cervelli e, quindi, «la possibilità di controllare le nostre emozioni, pensieri e decisioni».
Fonte: https://www.ibanet.org/neurotechnologies-protection-against-abuse-of-brain-data
Traduzione a cura di Pino Cabras.