Doc. XII-bis, N. 220

doc. xii-bis n. 220

ASSEMBLEA PARLAMENTARE DEL CONSIGLIO D'EUROPA

Risoluzione n. 2344

L'interfaccia cervello-macchina: nuovi diritti o nuovi pericoli per le libertà fondamentali ?

Trasmessa il 10 novembre 2020

Pag. 2

PARLIAMENTARY ASSEMBLY OF THE COUNCIL OF EUROPE

RESOLUTION 2344 (2020) (1)
Provisional version

The brain-computer interface: new rights or new threats to fundamental freedoms ?

  Parliamentary Assembly,

  1. The Parliamentary Assembly notes the rapid progress made in neurotechnology in recent years, including the ability to record and directly stimulate neural activity, with the potential to create increasingly effective brain-computer interfaces (BCI). This progress has been driven by a combination of, improved understanding of the functioning of the brain, technical developments and the growing power of artificial intelligence systems. The ability to create a fully symbiotic connection between the human brain and digital computing systems, including the internet and artificial intelligence systems, remains a distant aspiration. Nevertheless, it is a goal that researchers and entrepreneurs are already pursuing and which many believe may eventually be achieved.
  2. Neurotechnology, including BCI, is currently being developed and applied with a range of uses in mind. Amongst
  (1) Text adopted by the Standing Committee, acting on behalf of the Assembly, on 22 October 2020 (see Doc. 15147, report of the Committee on Legal Affairs and Human Rights, rapporteur: Mr Olivier Becht).
  See also Recommendation 2184 (2020).

other things, huge sums are being invested in research to create new medical treatments for neurological and psychiatric disorders, such as direct control of robotic limbs, synthetic speech production, or the treatment of intractable mood disorders or post-traumatic stress disorder. Military and security establishments are researching neurotechology for use in intelligence, propaganda, interrogation, surveillance and combatants’ performance enhancement. Private companies are researching the possible use of consumer devices to transform thoughts directly into typing; providing commercial lie-detection services based on brain scans; and selling direct-to-consumer neurotechnology devices, for example as computer gaming or wellness products. Researchers are exploring the development of ‘neuromarketing’ campaigns that would exploit subconscious preferences, and examining whether patterns of neural activity may be predictive of criminal recidivism.
  3. Access to the neural processes that underlie conscious thought implies access to a level of the self that by definition cannot be consciously concealed or filtered. This risks profound violation of individual privacy and dignity, with the potential to subvert free will and breach the Pag. 3ultimate refuge of human freedom – the mind. Cognitive and sensory enhancement through BCI could create separate categories of human beings, the enhanced and the unenhanced, with enhancement available only to those with the necessary wealth and privilege, or used for repressive purposes. Individual identity, agency and moral responsibility may be diminished through the merger of neurological and digital sensory experience and decision-making processes. Such outcomes could change the very nature of humanity and of human societies.
  4. Even if the more spectacular hypothetical applications of BCI remain speculative, the advances already made, and the resources being devoted to further research imply an urgent need for anticipation and precautionary regulation now. Democratic societies should ensure that basic ethical principles are respected. The huge potential benefits of neurotechnology, especially in the medical field, are such that progress and innovation should not be stifled. Nevertheless, research should be steered away from foreseeably harmful or dangerous areas and towards positive applications that do not threaten individual dignity, equality and liberty, which are the foundations also of democracy.
  5. The Assembly considers that a sensitive, calibrated approach to regulation of emerging neurotechnology, including BCI technology, is needed, encompassing both ethical frameworks and binding legal regulation. It notes the similarities and connections between ‘neuroethics’ and bioethics, and the significance of artificial intelligence to the operation of BCI technology. It therefore welcomes the work already underway within the Council of Europe by the Committee on bioethics (DH-BIO) and the Ad hoc Committee on artificial intelligence (CAHAI). It further welcomes the work of other international organisations, notably the Organisation for Economic Cooperation and Development (OECD), which recently adopted a Recommendation on Responsible Innovation in Neurotechnology. The Assembly notes with interest developments such as those in Chile, where consideration is being given to constitutional amendment, legislation and other measures intended to protect human society from possible adverse consequences of neurotechnology.
  6. The Assembly considers that the following ethical principles must be applied to the development and application of neurotechnology in general and BCI technology in particular:
   6.1. Beneficence and prevention of malign use. This technology should be developed and applied only for purposes that are consistent with respect for human rights and dignity. Research aimed at incompatible purposes should be prohibited. Special attention should be given to dual-use technology and technology developed for military or security purposes. New neurotechnology should be subjected to a prior human rights impact assessment before being put into use.
   6.2. Safety and precaution. This technology should be safe for both the user and, in their intended or unintended consequences, society in general. Safety must be ensured before any new applications are put into use.
   6.3. Privacy and confidentiality. At a minimum, information gathered by neurotechnological and BCI devices must be protected according to general principles of data protection. Consideration should also be given to protecting ‘neurodata’ as a special category, for example by analogy to prohibitions on commerce in human organs.
   6.4. Capacity and autonomy. This technology should not be used against a subject's will or in a way that prevents the subject from freely taking further decisions about their continued use. Special care will be needed where such technology is used to treat chronic pain, drug dependency or other conditions where interruption of treatment could lead to discomfort or distress.
   6.5. Human agency and responsibility. This technology should not prevent an Pag. 4individual from acting freely and being responsible for their actions. Human beings, acting freely according to their natural (as opposed to enhanced or symbiotic) consciousness, must remain the only decision-makers and the primary actors in society, especially in matters that may impact human rights and democratic processes.
   6.6. Equity, integrity and inclusiveness. This technology should not create any form of privileged or superior status for their users; it should be implemented with respect for human equality and dignity, including of members of marginalised or vulnerable groups; and it should be made available as widely as possible, especially insofar as they are applied for medical purposes.
   6.7. Ensuring public trust through transparency, consultation and education/awareness-raising. The implementation of new technologies, such as neurotechnology intended for use by individuals, will be best favoured and accepted if it takes place with the confidence of the public, in awareness of the benefits as well as the potential dangers.

  7. The extent to which BCI technology may have the potential to change fundamentally the relationship between the individual's internal and subconscious self and the outside world implies unique and unprecedented threats to fundamental values of human rights and dignity. The Assembly notes with particular interest proposals to establish and provide legal protection for new human rights, sometimes referred to as ‘neurorights’. These proposals are intended to fill the gaps in the existing human rights framework through which BCI technology might threaten enjoyment of currently protected rights and, beyond that, respect for fundamental human dignity. The rights in question have been expressed as cognitive liberty, mental privacy, mental integrity and psychological continuity.
  8. The Assembly therefore calls on Council of Europe member States to:
   8.1. establish ethical frameworks for research, development and application of neurotechnology, including BCI technology, taking into account the principles set out in paragraph 6 of the present resolution;
   8.2. clearly define the limits of research, development and application of neurotechnology, including BCI technology, through specific legal frameworks that ensure effective respect and protection of human rights;
   8.3. ensure that appropriate bodies exist for the oversight and regulation of research, development and application of neurotechnology, including BCI technology, so as to ensure effective implementation of the applicable ethical and legal frameworks;
   8.4. consider the establishment and legal protection of new ‘neurorights’ as a particularly effective protection against possible risks posed by BCI technology.

  9. As regards relevant work already underway within the Council of Europe, the Assembly:
   9.1. encourages the DH-BIO to take an open and constructive approach to the question of new ‘neurorights’, including the possibility of assuring their protection under international law through an additional protocol to the Convention for the Protection of Human Rights and Fundamental Freedoms (ETS No. 5);
   9.2. encourages the CAHAI to take account of the potential risks and opportunities arising from the application of artificial intelligence in the context of BCI systems and its particularly serious impact on human rights.

Pag. 5

ASSEMBLÉE PARLEMENTAIRE DU CONSEIL DE L'EUROPE

RÉSOLUTION 2344 (2020) (1)
Version provisoire

Les interfaces cerveau-machine: nouveaux droits ou nouveaux dangers pour les libertés fondamentales ?

  Assemblée parlementaire,

  1. L'Assemblée parlementaire note les progrès rapides réalisés ces dernières années dans les neurotechnologies, notamment la capacité à enregistrer et à stimuler directement l'activité neuronale, avec la possibilité de créer des interfaces cerveau-machine (ICM) de plus en plus efficaces. Ces progrès sont le fruit de la combinaison d'une meilleure compréhension du fonctionnement du cerveau, des avancées techniques et de la puissance croissante des systèmes d'intelligence artificielle. Le fait de pouvoir créer une connexion entièrement symbiotique entre le cerveau humain et des systèmes informatiques numériques, y compris l'internet et les systèmes d'intelligence artificielle, reste une aspiration lointaine. Néanmoins, c'est un objectif que les chercheurs et les entrepreneurs poursuivent déjà et que beaucoup pensent pouvoir atteindre à terme.
  (1) Texte adopté par la Commission permanente, agissant au nom de l'Assemblée, le 22 octobre 2020 (voir Doc. 15147, rapport de la Commission des questions juridiques et des droits de l'homme, rapporteur: M. Olivier Becht).
  Voir également la Recommandation 2184 (2020).

  2. Les neurotechnologies, dont l'ICM, sont actuellement développées et appliquées en vue de diverses utilisations. Entre autres mesures prises, des sommes énormes sont investies dans la recherche pour créer de nouveaux traitements médicaux contre les troubles neurologiques et psychiatriques, notamment le contrôle direct de membres robotisés, la production de parole de synthèse ou le traitement de certains troubles de l'humeur insurmontables ou du stress post-traumatique. Les institutions militaires et de sécurité mènent des recherches dans les neurotechnologies en vue d'une application dans le renseignement, la propagande, les interrogatoires, la surveillance et l'amélioration des performances des combattants. Des entreprises privées étudient la possibilité d'utiliser des dispositifs grand public pour convertir directement les pensées en caractères dactylographiés; offrent des services commerciaux de détection de mensonges basés sur des scanners cérébraux; et vendent des dispositifs basés sur les neurotechnologies directement aux consommateurs, par exemple sous forme de jeux informatiques ou de produits dédiés au bien-être. Les chercheurs s'intéressent au développement de campagnes de «neuromarketing» qui exploiteraient les Pag. 6préférences subconscientes, et examinent si les modèles d'activité neuronale peuvent prédire la récidive criminelle.
  3. Accéder aux processus neuronaux qui sous-tendent la pensée consciente, c'est accéder à un niveau du soi qui, par définition, ne peut être consciemment ni filtré ni dissimulé. Cela risque d'entraîner une profonde violation de la vie privée et de la dignité humaine et pourrait même subvertir le libre arbitre et porter atteinte au dernier refuge de la liberté: la pensée. L'amélioration des capacités cognitives et sensorielles par l'ICM pourrait créer deux catégories distinctes d’êtres humains, les «augmentés» et les autres, l'amélioration étant accessible uniquement à ceux qui disposent de la fortune et des privilèges nécessaires, ou être utilisée à des fins de répression. L'identité individuelle, la liberté d'action et la responsabilité morale peuvent être diminuées par la fusion de l'expérience neurologique et sensorielle numérique et des processus décisionnels, ce qui pourrait changer la nature même de l'humanité et des sociétés humaines.
  4. Si les applications hypothétiques les plus spectaculaires de l'ICM relèvent encore de la spéculation, les progrès déjà réalisés et les ressources consacrées à la poursuite de la recherche impliquent dès aujourd'hui un besoin urgent d'anticipation et de réglementation préventive. Les sociétés démocratiques doivent veiller à ce que les principes éthiques fondamentaux soient respectés. Les avantages potentiels immenses des neurotechnologies sont tels, en particulier dans le domaine médical, que le progrès et l'innovation ne doivent pas être étouffés. Toutefois, la recherche doit être tenue à l’écart des domaines vraisemblablement néfastes ou dangereux pour se tourner vers des applications positives qui ne menacent pas la dignité, l’égalité et la liberté des individus, sur lesquelles repose également la démocratie.
  5. L'Assemblée estime qu'une approche sensible et calibrée de la réglementation des nouvelles neurotechnologies, y compris les technologies ICM, est nécessaire, qui englobe à la fois des cadres éthiques et une réglementation juridique contraignante. Elle constate les similitudes et les liens entre la «neuroéthique» et la bioéthique, ainsi que l'importance de l'intelligence artificielle dans le fonctionnement des technologies ICM. Elle se félicite donc du travail déjà entamé au sein du Conseil de l'Europe par le Comité de bioéthique (DH-BIO) et par le Comité ad hoc sur l'intelligence artificielle (CAHAI). Elle salue également les travaux menés par d'autres organisations internationales, notamment l'Organisation de coopération et de développement économiques (OCDE) qui a adopté récemment une recommandation sur l'innovation responsable dans le domaine des neurotechnologies. L'Assemblée note avec intérêt les avancées réalisées, comme au Chili, où l'on envisage de modifier la Constitution, d'adopter une législation et de prendre d'autres mesures pour protéger la société humaine des éventuelles retombées négatives des neurotechnologies.
  6. L'Assemblée considère que les principes éthiques suivants doivent être appliqués au développement et à l'application des neurotechnologies en général, et des technologies ICM en particulier:
   6.1. Bienfaisance et prévention d'une l'utilisation malveillante. Ces technologies ne doivent être développées et appliquées qu’à des fins compatibles avec le respect des droits de l'homme et de la dignité humaine. Toute recherche qui poursuit des objectifs incompatibles doit être interdite. Une attention particulière doit être portée aux technologies à double usage et à celles qui sont développées à des fins militaires ou de sécurité. Les nouvelles neurotechnologies doivent être soumises à une évaluation préalable de leurs effets sur les droits de l'homme avant d’être mises en ouvre.
   6.2. Sécurité et précaution. Ces technologies et leurs conséquences prévues ou imprévues doivent être sûres, tant pour l'utilisateur que pour la société dans son ensemble. La sécurité doit être garantie avant la mise en service de toute nouvelle application.Pag. 7
   6.3. Respect de la vie privée et confidentialité. Au minimum, les informations collectées par les dispositifs neurotechnologiques et d'ICM doivent être protégées conformément aux principes généraux de protection des données. La protection des «neurodonnées» en tant que catégorie spéciale doit également être envisagée, par exemple sur le modèle des interdictions relatives au commerce des organes humains.
   6.4. Capacité et autonomie. Ces technologies ne doivent pas être utilisées contre la volonté d'un sujet ni d'une manière qui empêche le sujet de prendre librement d'autres décisions sur la poursuite de leur utilisation. Une attention particulière est nécessaire dans les cas où ces technologies sont utilisées pour soulager la douleur chronique, la toxicomanie ou d'autres affections pour lesquelles l'interruption du traitement pourrait entraîner un malaise ou une détresse.
   6.5. Volonté et responsabilité humaine. Ces technologies ne doivent pas empêcher les individus d'agir librement et d’être responsables de leurs actes. Les êtres humains, agissant librement selon leur conscience naturelle (par opposition à une conscience augmentée ou symbiotique), doivent rester les seuls décideurs et les premiers acteurs de la société, surtout pour les questions qui peuvent avoir une incidence sur les droits de l'homme et les processus démocratiques.
   6.6. Équité, intégrité et inclusivité. Ces technologies ne doivent pas créer de statut privilégié ou supérieur pour leurs utilisateurs; elles doivent être mises en ouvre dans le respect de l’égalité et de la dignité humaine, y compris des membres des groupes marginalisés ou vulnérables; et elles doivent être accessibles au plus grand nombre, en particulier dans la mesure où elles sont appliquées à des fins médicales.
   6.7. Gagner la confiance du public par la transparence, la consultation et l’éducation/la sensibilisation. La mise en ouvre de technologies nouvelles comme les neurotechnologies destinées aux particuliers sera d'autant mieux favorisée et acceptée qu'elle se fera dans la confiance du public qui en connaîtra les bienfaits mais aussi les dangers potentiels.

  7. Dans la mesure où les technologies ICM peuvent changer fondamentalement la relation entre le soi intérieur et le subconscient de l'individu, et le monde extérieur, elles représentent une menace sans équivalent et sans précédent pour les valeurs fondamentales des droits de l'homme et de la dignité humaine. L'Assemblée prend note avec un intérêt particulier des propositions visant à établir et à fournir une protection juridique pour les nouveaux droits de l'homme, parfois appelés «neurodroits». Ces propositions sont censées combler les lacunes du cadre actuel des droits de l'homme par lesquelles les technologies ICM peuvent menacer la jouissance des droits actuellement protégés et, au-delà, le respect de la dignité humaine fondamentale. Les droits en question ont été désignés comme suit: la liberté cognitive, la vie privée sur le plan mental, l'intégrité mentale et la continuité psychologique.
  8. L'Assemblée appelle par conséquent les États membres du Conseil de l'Europe:
   8.1. à établir des cadres éthiques pour la recherche, le développement et l'application des neurotechnologies, y compris les technologies ICM, en tenant compte des principes énoncés au paragraphe 6 de la présente résolution;
   8.2. à définir clairement les limites de la recherche, du développement et de l'application des neurotechnologies, y compris les technologies ICM, au moyen de cadres juridiques spécifiques qui garantissent la protection et le respect effectifs des droits de l'homme;
   8.3. à veiller à ce qu'il existe des organes appropriés pour la surveillance et la réglementation de la recherche, du développement et de l'application des neurotechnologies, y compris les technologies ICM, de manière à garantir la mise en Pag. 8ouvre efficace des cadres juridiques et éthiques applicables;
   8.4. à envisager la création et la protection juridique de nouveaux «neurodroits» afin d'offrir une protection particulièrement efficace contre les risques éventuels inhérents aux technologies ICM.

  9. En ce qui concerne les travaux pertinents déjà menés au sein du Conseil de l'Europe, l'Assemblée:
   9.1. encourage le DH-BIO à adopter une approche ouverte et constructive de la question des nouveaux «neurodroits», y compris la possibilité d'assurer leur protection en vertu du droit international par le biais d'un protocole additionnel à la Convention de sauvegarde des droits de l'homme et des libertés fondamentales (STE no 5);
   9.2. encourage le CAHAI à tenir compte des risques et des opportunités qui peuvent découler de l'application de l'intelligence artificielle dans le contexte des systèmes d'ICM et de ses effets particulièrement graves sur les droits de l'homme.

Pag. 9

ASSEMBLEA PARLAMENTARE DEL CONSIGLIO D'EUROPA

RISOLUZIONE 2344 (2020)
Versione provvisoria

L'interfaccia cervello-macchina: nuovi diritti o nuovi pericoli per le libertà fondamentali ?

  Assemblea parlamentare,

  1. L'Assemblea parlamentare prende nota dei rapidi progressi compiuti negli ultimi anni nelle neurotecnologie, in particolare la capacità di registrare e stimolare direttamente l'attività neuronale, con la possibilità di creare interfacce cervello-macchina (ICM) sempre più efficaci. Tali progressi sono il frutto della combinazione di una migliore comprensione del funzionamento del cervello, dei progressi tecnici e della crescente potenza dei sistemi di intelligenza artificiale. Poter creare una connessione interamente simbiotica tra il cervello umano e i sistemi informatici digitali, compreso internet e i sistemi di intelligenza artificiale, è tuttora una remota aspirazione. Cionondimeno, si tratta di un obiettivo che ricercatori e imprenditori già perseguono e che molti pensano di poter prima o poi raggiungere.
  2. Le neurotecnologie, tra cui l'ICM, sono attualmente sviluppate e applicate in vista di diversi utilizzi. Tra le altre misure prese, sono state investite somme enormi nella ricerca per creare nuovi trattamenti medici contro i disturbi neurologici e psichiatrici, in particolare il controllo diretto di arti robotizzati, la produzione di linguaggio di sintesi o il trattamento di alcuni disturbi dell'umore insormontabili o di stress post-traumatico. Le istituzioni militari e della sicurezza svolgono ricerche nelle neurotecnologie per applicarle all'intelligence, alla propaganda, agli interrogatori, alla sorveglianza e al miglioramento delle prestazioni dei combattenti. Alcune imprese private studiano la possibilità di utilizzare prodotti di consumo per convertire direttamente il pensiero in caratteri dattilografati; offrono servizi commerciali di rilevamento delle menzogne basati su scansioni cerebrali; e vendono dispositivi basati sulle neurotecnologie direttamente ai consumatori, per esempio sotto forma di giochi informatici o di prodotti per il benessere. I ricercatori si interessano allo sviluppo di campagne di «neuro-marketing» che sfrutterebbero le preferenze subconscie e studiano se i modelli di attività neuronale sono in grado di prevedere la recidiva criminale.
  3. Accedere ai processi neuronali che sono alla base del pensiero cosciente significa accedere ad un livello del sé che, per definizione, non può essere filtrato né dissimulato. Ciò rischia di causare una profonda violazione della privacy e della dignità umana e potrebbe anche sovvertire il libero arbitrio e minacciare l'ultimo rifugio della libertà: il pensiero. Il potenziamento delle capacità cognitive e sensoriali con l'ICM potrebbe creare due categorie Pag. 10distinte di esseri umani, i «potenziati» e gli altri, in quanto questo potenziamento sarebbe accessibile solo a coloro che dispongono della fortuna e dei privilegi necessari, oppure essere utilizzato a fini repressivi. L'identità individuale, la libertà di azione e la responsabilità morale possono essere limitate dalla fusione tra l'esperienza neurologica e sensoriale digitale e i processi decisionali, il che potrebbe cambiare la natura stessa dell'umanità e delle società umane.
  4. Se le applicazioni ipotetiche più spettacolari dell'ICM restano ancora nell'ambito della speculazione, i progressi già realizzati e le risorse destinate al proseguimento della ricerca implicano sin d'ora un bisogno urgente di previsione e regolamentazione precauzionale. Le società democratiche devono vigilare sul rispetto dei principi etici fondamentali. Gli immensi vantaggi potenziali delle neurotecnologie sono tali, in particolare nel settore medico, che non è opportuno soffocare il progresso e l'innovazione. Tuttavia, la ricerca deve essere tenuta al margine di settori verosimilmente nefasti o pericolosi e orientarsi verso applicazioni positive che non minacciano la dignità, l'uguaglianza e la libertà degli individui, su cui si fonda anche la democrazia.
  5. L'Assemblea ritiene necessaria una strategia sensibile e calibrata alla regolamentazione delle nuove neurotecnologie, comprese le tecnologie ICM, che includa allo stesso tempo quadri etici e una regolamentazione giuridica vincolante. Constata le similitudini e i legami esistenti tra la «neuroetica» e la bioetica, nonché l'importanza dell'intelligenza artificiale nel funzionamento delle tecnologie ICM. Si congratula, quindi, per il lavoro già avviato in seno al Consiglio d'Europa dal Comitato di bioetica (DH-BIO) e dal Comitato ad hoc sull'intelligenza artificiale (CAHAI). Plaude anche ai lavori svolti da altre organizzazioni internazionali, in particolare l'Organizzazione per la cooperazione e lo sviluppo economico (OCSE) che ha recentemente adottato una raccomandazione sull'innovazione responsabile nel campo delle neurotecnologie. L'Assemblea osserva con interesse i progressi realizzati, per esempio in Cile, dove si prevede di modificare la Costituzione, di adottare una nuova legislazione e prendere altri provvedimenti per proteggere la società umana da eventuali ricadute negative delle neurotecnologie.
  6. L'Assemblea ritiene che i seguenti principi etici debbano essere applicati allo sviluppo e all'applicazione delle neurotecnologie in generale e delle tecnologie di ICM in particolare:
   6.1. Utilizzi benefici e prevenzione di utilizzi malevoli. Queste tecnologie devono essere sviluppate e applicate solo per scopi compatibili con il rispetto dei diritti umani e la dignità umana. Qualsiasi ricerca che persegua obiettivi incompatibili deve essere vietata. Deve essere prestata particolare attenzione alle tecnologie a duplice uso e a quelle sviluppate a fini militari o di sicurezza. Le nuove neurotecnologie devono essere sottoposte a una valutazione preventiva degli effetti sui diritti umani, prima di essere applicate;
   6.2. Sicurezza e precauzione. Queste tecnologie e le relative conseguenze previste o impreviste devono essere sicure, sia per l'utente sia per la società nel suo insieme. La sicurezza deve essere garantita prima dell'entrata in servizio di qualsiasi nuova applicazione;
   6.3. Rispetto della privacy e riservatezza. Come minimo, le informazioni raccolte dai dispositivi neurotecnologici e di ICM devono essere protetti, conformemente ai principi generali della protezione dati. Deve essere prevista la protezione dei «neurodati» in quanto categoria speciale, ad esempio sul modello dei divieti imposti al commercio degli organi umani;
   6.4. Capacità e autonomia. Queste tecnologie non devono essere utilizzate contro la volontà di un soggetto, in maniera da impedirgli di prendere liberamente decisioni sul proseguimento del loro utilizzo. È necessaria una particolare attenzione nel caso in cui queste tecnologie siano utilizzate per alleviare il dolore cronico, la tossicomania o altri disturbi Pag. 11per i quali l'interruzione del trattamento potrebbe determinare malessere o sofferenza;
   6.5. Volontà e responsabilità umana. Queste tecnologie non devono impedire agli individui di agire liberamente ed essere responsabili delle proprie azioni. Gli esseri umani, che agiscono liberamente secondo coscienza naturale (in opposizione a una coscienza potenziata o simbiotica), devono restare gli unici decisori e i protagonisti della società, soprattutto per le questioni che possono avere un'incidenza sui diritti umani e sui processi democratici;
   6.6. Equità, integrità e inclusività. Queste tecnologie non devono creare situazioni di privilegio o superiorità per gli utilizzatori; devono essere applicate nel rispetto dell'uguaglianza e della dignità umana, anche di coloro che appartengono a gruppi emarginati o vulnerabili; e devono essere accessibili al maggior numero di persone possibile, in particolare nella misura in cui sono applicate a fini medici;
   6.7. Ottenere la fiducia dei cittadini attraverso la trasparenza, la consulenza e l'educazione/sensibilizzazione. L'attuazione di nuove tecnologie come le neurotecnologie destinate ai privati sarà maggiormente facilitata e accettata se si realizzerà godendo della fiducia dei cittadini che ne conosceranno i vantaggi ma anche i potenziali pericoli.

  7. Nella misura in cui le tecnologie ICM possono cambiare fondamentalmente la relazione tra il sé interiore e il subconscio dell'individuo e il mondo esterno, esse rappresentano una minaccia senza equivalenti e senza precedenti per i valori fondamentali dei diritti umani e della dignità umana. L'Assemblea prende nota con particolare interesse delle proposte tese a istituire e fornire una tutela giuridica per i nuovi diritti umani, a volte definiti «neurodiritti». Queste proposte dovrebbero colmare le lacune dell'attuale quadro dei diritti umani attraverso le quali le tecnologie ICM possono minacciare il godimento dei diritti attualmente protetti e, oltre a ciò, il rispetto della dignità umana fondamentale. I diritti in questione sono stati designati come segue: la libertà cognitiva, la privacy sul piano mentale, l'integrità mentale e la continuità psicologica.
  8. L'Assemblea chiede di conseguenza agli Stati membri del Consiglio d'Europa:
   8.1. di fissare quadri etici per la ricerca, lo sviluppo e l'applicazione delle neurotecnologie, comprese le tecnologie ICM, tenendo conto dei principi enunciati al paragrafo 6 della presente risoluzione;
   8.2. di definire chiaramente i limiti della ricerca, dello sviluppo e dell'applicazione delle neurotecnologie, comprese le tecnologie ICM, per mezzo di quadri giuridici specifici che garantiscano la protezione e il rispetto effettivo dei diritti umani;
   8.3. di assicurare l'esistenza di organi adeguati per la sorveglianza e la regolamentazione della ricerca, dello sviluppo e dell'applicazione delle neurotecnologie, comprese le tecnologie ICM, in modo da garantire l'attuazione efficace dei quadri giuridici ed etici applicabili;
   8.4. di prevedere la creazione e la tutela giuridica dei nuovi «neurodiritti» per offrire una protezione particolarmente efficace contro i rischi eventuali derivanti dalle tecnologie ICM.

  9. Per quanto riguarda i lavori pertinenti già svolti in seno al Consiglio d'Europa, l'Assemblea:
   9.1. incoraggia il DH-BIO ad adottare una strategia aperta e costruttiva sulla questione dei nuovi «neurodiritti», compresa la possibilità di assicurare la protezione in virtù del diritto internazionale, attraverso un protocollo addizionale alla Convenzione di salvaguardia dei diritti umani e delle libertà fondamentali (STE no 005);
   9.2. incoraggia il CAHAI a tener conto dei rischi e delle opportunità che possono derivare dall'applicazione dell'intelligenza artificiale nel contesto dei sistemi di ICM e dei suoi effetti particolarmente gravi sui diritti umani.

Pag. 12