Derechos y libertades y neurotecnologías convergentes aplicadas a la actividad cerebral Tomás de la Quadra-Salcedo Fernández del Castillo
Universidad Carlos III de Madrid (España)

Imprimir

1. Introducción

Los enormes avances producidos en los últimos 10 años en el conocimiento del funcionamiento del cerebro gracias a la ciencia con sus tecnologías convergentes (medicina, biología, nanotecnología, inteligencia artificial, ciencias cognitivas, genómica, etc.) abren esperanzas antes inimaginables de curación de enfermedades (Alzheimer, depresión, esquizofrenia, Parkinson, etc.) merced al conocimiento de la dinámica de tal funcionamiento.

Esos avances abren también nuevas y eventuales posibilidades de conflictos en los novísimos espacios, ámbitos o escenarios que surgen con la aplicación a la actividad cerebral de dichas nuevas tecnologías. Conflictos entre derechos y libertades entre sí y con otros bienes y valores de relevancia constitucional.

Se trata de conflictos por lesiones o afecciones a derechos y libertades de las personas provocados directamente por las nuevas tecnologías cerebrales o por el empleo que terceros hagan de la aplicación a otros de tales tecnologías o dispositivos, aparatos y sistemas con los que operan.

Estos conflictos, sintéticamente denotados con el término «neuro-derechos», son muy diferentes de los que hasta ahora se han venido produciendo en relación con los derechos personales, puesto que al acceder a la actividad cerebral —procediendo a su registro, descifrado e interpretación y, eventualmente, provocando o induciendo sensaciones, reacciones, conductas o ideas (o alterándolas o condicionándolas)— se está afectando al ser de cada uno en su yo más íntimo, en su mismidad e identidad o en la conciencia de sí mismo1.

Cuando las neurotecnologías se emplean para curar enfermedades o defectos de las personas las preocupaciones que se suscitan son relevantes, pero las más importantes se acabarán suscitando cuando se empleen para finalidades distintas de las terapéuticas (mejorar o potenciar a las personas), cuya posibilidad misma y sus condiciones reclamarían una decisión legislativa o convencional en el orden internacional. En todo caso es necesario garantizar que el empleo de las neurotecnologías se contraiga exclusivamente a su función, sin que nadie pueda llegar a emplear esas técnicas para finalidades espurias: alterar el comportamiento del paciente para finalidades distintas o para fines comerciales o de influir en su conducta o pensamientos por razones ajenas a las terapéuticas que motivaron inicialmente su empleo. Exigencia mayor todavía cuando la finalidad principal ni siquiera sea ya terapéutica, sino de mejora o potenciación de las personas, atendidos los evidentes riesgos de influencia que sobre el comportamiento y conducta de los «mejorados» y «potenciados» adquirirían los operadores encargados de desarrollar y mantener tal función; riesgos que no solo afectan a las personas mismas, sino que pueden acabar afectando a la democracia, al mercado y la competencia2.

En efecto, cuando las neurotecnologías se emplean para mejorar o aumentar a la persona o dotarla de capacidades o poderes extraordinarios3, como se propugna desde posiciones transhumanistas o posthumanistas4, la cuestión es ya distinta y suscita otros reflexiones que llevan a considerar si la oportunidad de permitir tales mejoras —y su grado y condiciones— es algo que corresponde a la libre decisión de cada uno o si la sociedad tiene algo que decir al respecto, tanto en razón de la alteración de las condiciones de igualdad de las personas, como de la afección a las condiciones sobre las que se sustenta una sociedad democrática o de las condiciones de libre competencia5. Todo ello teniendo en cuenta, además, que entre las neurotecnologías que se emplean en relación con el cerebro hay algunas, como la inteligencia artificial, que tienden a ser detentadas por pocas empresas que pueden llegar así a tener a mano una capacidad de influencia que podría alterar las condiciones sobre las que se basa una sociedad democrática y el funcionamiento de un mercado en competencia.

Baste esta exposición introductoria para destacar una serie de cuestiones que se suscitan en la actualidad a partir del conocimiento de los prometedores avances de la ciencia y de los proyectos científicos de investigación sobre la actividad cerebral. Para empezar, se hará una enumeración de riesgos y peligros derivados de la aplicación de las neurotecnologías en un futuro más o menos inmediato, pero ya inevitable (2). En segundo lugar, una reflexión sobre el lenguaje que parece apropiada en un Congreso como éste y tiene que ver con el término que parece acuñado —neuroderechos— y que merece alguna aclaración, así como el de los límites mismos del lenguaje para describir los nuevos problemas (3). En tercer lugar, algunas aclaraciones sobre el papel de los juristas y de las leyes en unas tecnologías todavía en construcción y la dimensión transversal y multidisciplinar en el modo de enfrentar los retos que suscita el empleo y aplicación de las neurotecnologías (4). En cuarto lugar, la cuestión de si estamos ante nuevos derechos o ante una concreción de los derechos clásicos y sobre su carácter fundamental o no (5). En último lugar el carácter global de la ordenación del empleo de las neurotecnologías y los instrumentos de garantía de tales derechos (6) antes de algunas precisiones y conclusiones finales sobre las formas como el Derecho está abordando el tema (7).

2. Riesgos y peligros derivados de la aplicación de las neurotecnologías, sin perjuicio de sus beneficios

En el número de noviembre de la revista Nature el Dr. Rafael Yuste, Sara Goering et al. publicaron el artículo citado en la primera nota a pie en que planteaban las cuatro prioridades éticas que sus investigaciones sobre el cerebro y los interfaces cerebro-ordenador les suscitaban a medida que avanzaban en sus investigaciones. Esas prioridades reflejaban sus inquietudes acerca de las consecuencias que las futuras, aunque ya inminentes, aplicaciones de sus investigaciones podían tener sobre las personas. Las cuatro inquietudes —o prioridades éticas a afrontar— tenían que ver con las afecciones a cuatro aspectos concretos de la persona derivados del progresivo empleo de los interfaces cerebro-ordenador6 en la aplicación de neurotecnologías: 1) la privacidad y el consentimiento; 2) el libre albedrío y la identidad o conciencia de sí mismo; 3) la potenciación o aumentación de las capacidades7 de las personas y 4) los sesgos que la IA puede introducir en esa interacción del ordenador con el cerebro.

Se trata de las afecciones que más preocupaban a los investigadores que, por primera vez, han hecho públicas sus inquietudes. No son desde luego las únicas. Son muchos los que han añadido otras que guardan relación con ellas, pero que extienden el ámbito de sus consecuencias más allá de tales inquietudes y de las partes inicialmente implicadas en esa relación cerebro-ordenador.

Particularmente relevantes son las que se refieren a la potenciación o aumentación de las personas8, en cuanto describen un supuesto que va más allá de las finalidades terapéuticas o de curación de enfermedades, que pudo ser el primum movens de las investigaciones. Pero incluso dentro de las finalidades terapéuticas se planteas supuestos adicionales como el de los eventuales hackers que, al margen de la finalidad terapéutica, puedan interceptar o interferir la comunicación cerebro ordenador ya sea para incitar o modificar la voluntad del usuario-paciente, ya sea para quedarse con los datos de su actividad cerebral para influir luego en él para fines de ventas u otros peores; en todo caso para perfilar el carácter de la persona y vender los perfiles a empresas de comercialización de bienes y servicios.

Lo mismo podría ocurrir con las propias empresas que prestan servicios terapéuticos y de conexión con la IA para ofrecer tales servicios, pero para comercializar después los datos a puros efectos comerciales. No se trata ya de que puedan llegar a hacerlo con datos especialmente sensibles —que reflejen los pensamientos conscientes o incluso el subconsciente de las personas o sus problemas neurológicos o mentales— sino incluso que aprovechen otros datos no tan sensibles que tengan, sin embargo, valor comercial para las empresas de propaganda y venta de productos o servicios. Peor sería, desde luego, que esos datos cerebrales se empleen para determinar las preferencias o creencias políticas o religiosas de las personas.

Todos esos supuestos obligan a una reflexión sobre cómo asegurar la privacidad y la imagen de las personas. Muchos consideran que la legislación de protección de datos puede asegurar de forma suficiente ese tipo de datos. Y en parte es así, desde luego, aunque sin duda no baste.

La cuestión es más profunda en realidad, pues no se trata de los datos de una persona en el sentido con el que hasta ahora veníamos debatiendo; es decir de los datos externos a una persona, respecto de lo que compra o a dónde viaja, o los espectáculos a los que asiste o los libros que lee, etc. En el fondo datos externos que pueden acabar dando —con ayuda de la IA— una imagen o perfil de la persona. Tampoco se trata de sus escritos, conferencias, conversaciones o mensajes en redes sociales que, aunque revelen mucho de la persona a afectos de perfilarla y trazar una imagen de ella, siguen siendo datos externos a la misma (aunque revelen lo que exteriormente ha dicho sobre distintos asuntos).

Se trata de algo más; se trata de la esencia misma de la persona y su conciencia; de su mente y sus sentimientos en acción en el cerebro. No se trata, en definitiva, de una reconstrucción de la persona desde su conducta externa o los pensamientos que ha exteriorizado y que se recogen en datos. Se trata de que se entra en el «yo» de otro: de invadirlo. De penetrar y en cierto modo compartir (sin saberlo tal vez el sujeto invadido o sin ser plenamente consciente de ello) el propio yo (el consciente y el subconsciente) del otro. Aquí los datos de la actividad cerebral no son datos relativos a conductas o pensamientos que la persona ha exteriorizado o comunicado, sino que los datos son un mero instrumento de entrada en el santuario del yo; en su cerebro como expresión misma del ser de cada uno, que se comparte con el ordenador y eventualmente con quien lo controle.

Se trata del desvelamiento del «yo» en acción y su compartición con otros; ello exige reflexionar sobre si, para ese desvelamiento y compartición del yo, basta solo el consentimiento consciente del afectado o si ni siquiera tal consentimiento es suficiente; del mismo modo que en la cesión de órganos o en un eventual e ilegal contrato de esclavitud ni basta ni es lícito firmarlo, por más que una persona consienta en ser esclava de otra. Tal consentimiento es indiferente para el Derecho.

La reflexión es pertinente si se tiene en cuenta no solo la dimensión individual de los derechos personales afectados y los límites que el ordenamiento pone a la voluntad y al consentimiento9 en atención a la Ley, a la moral o al orden público, sino también en atención a la dimensión colectiva o institucional susceptible de ser afectada y que obliga a considerar las consecuencias sociales y políticas de un empleo abusivo por parte de empresas o Estados10.

Consecuencias que tienen que ver con las condiciones para la existencia de una democracia de ciudadanos libres y no condicionados por dependencias o sesgos inducidos desde interfaces cerebro-computadoras. Tiene que ver también con una sociedad en un entorno de economía de mercado que puede quedar distorsionada por la disponibilidad por algunos (o incluso apropiación) de los datos de la actividad cerebral de ciudadanos que les procure una posición de peso significativo en el mercado, cuando no una posición de dominio del mismo.

Desde esa perspectiva, además de desde la de los derechos individuales, las exigencias de la democracia y del mercado hacen necesaria la regulación del empleo de las neurotecnologías.

3. El lenguaje sobre los derechos eventualmente afectados por la aplicación de las neurotecnologías y algunas precisiones sobre los riesgos

El término «neuro-derechos» ha sido utilizado desde el ámbito científico y singularmente por uno de los investigadores más relevantes, el Dr. Yuste, impulsor del proyecto BRAIN del presidente Obama, y ha acabado siendo objeto de una notable aceptación11. La Neurorights Foundation promovida por el Dr. Yuste concreta en cinco tales neuro-derechos que son bien expresivos de los riesgos que, desde los propios científicos que investigan el cerebro, se quieren conjurar: 1) Identidad personal, 2) Libre voluntad, 3) Privacidad mental, 4) Acceso equitativo a la aumentación personal y 5) Protección frente a los sesgos algorítmicos12.

No se trata aquí de entrar en si sólo son esos cinco o hay más o menos, sino de constatar cómo el concepto de neuro-derechos viene siendo aceptado en buena medida por la comunidad científica y empleándose en la literatura científica sin dificultad, aunque no sea evidente, sin más, cual es la realidad que se quiere denotar.

El término tiene la virtud de expresar de forma sintética el conjunto de problemas que afectan a los derechos y libertades de las personas y en ese sentido parece oportuno y funcional. La única reflexión que suscita es que los derechos son siempre de las personas y no de las neuronas, ni del cerebro como, a primera vista, pudiera dar la falsa impresión que sugiere. Sin embargo, el hecho de que el sistema nervioso y el cerebro se configure —con las neuronas como elemento básico— como la unidad estructural básica permite, echando mano de un tropo de lenguaje y mediante una sinécdoque compuesta tomar la parte por el todo y referir los derechos de las personas a esa unidad básica del sistema nervioso y del cerebro que es la neurona; que a su vez denota al cerebro mismo y, a su través, el reducto esencial o santuario de la persona. La neurona sirve para denotar el cerebro y el cerebro denotaría a la persona misma.

Desde luego los derechos son de las personas, de cada persona, y no de las partes (miembros u órganos) que la integran, pero se da la circunstancia de que es en el cerebro donde reside la conciencia de sí de cada uno; la identidad de la persona o de su mismidad. La expresión «neuro-derechos» no pretende declarar derechos de las neuronas, ni del cerebro; pero en la medida en que el cerebro y las neuronas que lo integran es el reducto más profundo de la conciencia y de la identidad, la expresión sinecdocal «neuro-derechos» parece afortunada y sintetizadora.

El empleo de las neurotecnologías suscita cuestiones nuevas al dejar, en ocasiones, una sensación de insuficiencia de algunos de las palabras que hasta ahora veníamos empleando en relación con los derechos de la personalidad, cuyo alcance quedaba determinado por las afecciones a los mismos que conocíamos: la identidad personal, la integridad o la intimidad tenían un sentido tradicional que no cubre las afecciones que ahora pueden sufrir cuando lo que ocurre es que, desde fuera del «ser» —de la persona—, se inducen o introducen por otro (o por un sistema de IA) sensaciones, percepciones o conductas. Inducción o introducción que puede acabar alterando la conciencia de sí mismo o mismidad de cada uno; en definitiva, afectar a la identidad. La palabra identidad ha de ser ampliada, así, en lo que quiere denotar y cobra un alcance nuevo.

Algo parecido ocurre con la palabra «privacidad», que se entendía referida a conductas desarrolladas en ámbitos físicos reservados (el propio domicilio o fuera del mismo sitios no abiertos a los demás) o a ideas o pensamientos expresadas en cartas, diarios o en conversaciones cerradas o reservadas a un ámbito reducido y ajena al resto, pero que se extendía a las consecuencias de la acumulación y permanencia misma de los datos, básicamente por la informática, y sus consecuencias para las personas. Extensión que ahora penetra y alcanza los propios pensamientos no expresados siquiera —incluso subconscientes— de la persona objeto de neurotecnologías, pero accesibles y transparentes para los operadores de sistemas y aplicaciones neuro tecnológicas.

El nuevo uso de los viejos términos o el surgimiento de nuevas denominaciones descriptivas del nuevo alcance comportarán, tal vez, una ampliación de términos en los diccionarios.

El concepto mismo del yo —el Dasein de Heidegger (el ser ahí) o el «yo y mi circunstancia» orteguiano— puede quedar conformado en el futuro por una «circunstancia» que es la de un yo traspasado por neurotecnologías que dejan de ser ya meros instrumentos técnicos a disposición de la persona, para hacer de la persona alguien (¿o algo?) sometido o dependiente de la tecnología, lo que suscita el recuerdo del mito del aprendiz de brujo de Goethe que pone en marcha fuerzas que ya no es capaz de dominar —mito permanente con antecedentes en Luciano de Samosata13— sino que le dominan y de las que se puede acabar haciendo siervo.

4. La respuesta multidisciplinar a los retos que suscita la aplicación de las neurotecnologías: el papel del derecho

Los riesgos que para los derechos de las personas derivan del empleo de neurotecnologías obligan a tomar postura anticipada acerca de las condiciones de empleo de las mismas para finalidades terapéuticas, pero también y muy especialmente, acerca de la posibilidad misma de su empleo para finalidades no terapéuticas de aumentación o potenciación de las personas. Se trata de saber si el derecho a la libertad personal conlleva el derecho a optar libremente por ser aumentado o potenciado o puede quedar limitado por las consecuencias que de ello puedan derivarse para el derecho a la igualdad, dando lugar a dos especies de personas: las aumentadas y las naturales hasta ahora existentes o no aumentadas.

Estaríamos ante una posibilidad que pudiera ser disruptiva —disruptiva incluso de la especie humana— pero, en el fondo, ante el mismo conflicto entre derechos fundamentales al que estamos acostumbrados. El conflicto entre la libertad y la igualdad14.

Lo llamativo es que estos conflictos que se presentan como disruptivos pueden analizarse desde dos perspectivas contradictorias: lo insólito de los conflictos mismos, por una parte, pero frente a ello y por otra parte, lo reiterativo de la permanente presencia de la necesidad de ponderación de los derechos en presencia atendiendo a las circunstancias que concurren para ponderarlos y atender a la vez al contenido esencial de los derechos y libertades como criterios de solución de tales conflictos. Solución que se efectúa a través de una reconstrucción de los derechos, pero profundizando en su esencia a la vista del contexto y resituándolos en los nuevos escenarios que abran las neurotecnologías.

Un adelanto de esos rasgos contradictorios lo tuvimos en las ciencias biomédicas con los trasplantes de órganos. El conflicto surge cuando las reales posibilidades técnicas y científicas de los trasplantes obligan a plantearse la cuestión de si las personas pueden, con plena libertad, vender sus órganos. En definitiva, si la libertad fundamental de la persona nos obliga a los demás a proteger y defender su libre opción para vender sus órganos a cambio de un precio, si es lo que libremente desean; precio con el que el vendedor quiera, tal vez, dar una vida mejor a sus hijos, pero sin que la bondad del objetivo haya de determinar su licitud.

El mismo debate se dio en el ámbito de las ciencias biomédicas con la maternidad subrogada o con las investigaciones sobre el genoma.

En el caso de los trasplantes no se reconoce la libertad personal de una persona viva a disponer libremente de sus propios órganos a cambio de un precio a favor de un tercero; solo cabe el altruismo en la donación y siempre para fines terapéuticos15 que no incluyen fines de investigación.

En el caso de la aumentación o potenciación de la persona el conflicto que hemos señalado es entre la libertad personal para ser mejorado y el derecho a la igualad de los demás que, por razones económicas, no puedan acceder a esa aumentación. No es, por cierto, el único conflicto; pero, centrándonos en ese, las ayudas públicas a la aumentación o potenciación que se ofrece como solución, se prestan a discusión; en especial en relación con aquellos que —con ayudas o sin ellas— no quieren ser «mejorados» o «aumentados», pero tampoco quieren quedar discriminados por su menor, aunque normal, capacidad.

Lo mismo ocurre con la objeción que, frente a la libertad personal para ser mejorado, esgrime que esa mejora o aumentación puede crear una permanente dependencia de un sistema convergente de neurotecnologías e inteligencia artificial cuyo gestor adquiere potencialmente unos poderes de orientación de las conductas y de conocimientos de las personas «clientes» que puede afectar a la democracia misma. Afectar también eventualmente a las condiciones de competencia y mercado al poder condicionar lo que la persona aumentada quiere o desea16; afectar igualmente a la seguridad y a la Defensa. Todo ello al margen de los sesgos que la IA pueda tener, ya sean deliberados o no.

No estamos aquí sólo ante un conflicto entre dos derechos fundamentales que haya que resolver ponderando cuál debe prevalecer o en qué condiciones, atendido el contexto y las circunstancias que concurren. Estamos también en un conflicto entre un eventual derecho de libertad a ser mejorado y otros bienes de relevancia constitucional, como son la democracia o el mercado y la competencia. También en un conflicto entre un eventual derecho y un bien como es la preservación de la especie humana en su estado natural.

La índole del conflicto exige respuestas que han de venir del Derecho, pero el Derecho mismo no puede prescindir de los presupuestos éticos y filosóficos sobre los que se ha ido construyendo la humanidad en su dimensión social y política. La respuesta ha de provenir de una reflexión colectiva e interdisciplinar sobre el futuro de la persona y de la sociedad.

Los científicos han de participar en ese debate, pero también otras ciencias, saberes y conocimientos han de participar en él. La visión ética y filosófica es necesaria17, pero una ética y una filosofía que ha de partir de unos valores compartidos, que no son otros que los derechos fundamentales, tal y como los conocemos en sus distintas Declaraciones; ya sea la Universal de Derechos Humanos de 1948, ya sean las regionales (Convenio de Roma de 1950 o la Convención de Costa Rica de 1969) ya sean las que se contienen en documentos constitucionales o de rango constitucional de los distintos Estados.

5. El debate sobre la novedad y el carácter original y fundamental de los derechos que se proclamen en relación con el empleo de las neurotecnologías

Tiene interés el debate acerca de si se trata de declarar derechos nuevos o de si en realidad no es necesario declarar nuevos derechos, sino que los actualmente declarados bastan para resolver los nuevos problemas que se crean. El interés académico del debate no impide sostener que se trata de un debate que, posiblemente, no esté bien planteado.

Los derechos que en relación con las neurotecnologías hayan de reconocerse no lo serán por concesión gratuita del legislador que generosamente los reconozca, sino que en realidad los reconoce —debe reconocerlos o es conveniente que los reconozca— porque, en el fondo, son derechos de la persona que de forma genérica están comprendidos en el concepto de dignidad de la persona y los derechos que le son inherentes como criterio de completitud y reintegración de los singulares derechos y libertades ya expresamente reconocidos (libertad, vida e integridad, intimidad, honor etc.). Dignidad de la persona que, junto al libre desarrollo de la personalidad, se constituye así en el venero reintegrador de todos los derechos. Incluso en el supuesto de que, a diferencia de Alemania, la dignidad de la persona o el libre desarrollo de la personalidad no estén específicamente reconocidos ellos mismos como derechos fundamentales, aportarán siempre una fuerza y un criterio interpretativo y reintegrador de todos los demás derechos sí expresamente reconocidos.

Que el legislador no concrete u otorgue denominación específica a derechos que no son sino derivación o emanación de otros a través del venero sintético de todo derecho de la persona —la dignidad de la persona (el homo homini sacra res de Séneca) con sus derechos inherentes y el libre desarrollo de la personalidad— no significa que tales derechos no puedan reconocerse a partir de esa fuente originaria adicional y sintética que es la dignidad de la persona sobre la base de los reconocimientos específicos de cada uno que ya existan, siquiera de forma sucinta e imprecisa, en las Declaraciones de derechos. Tampoco significa que los tribunales no puedan llegar a declararlos caso por caso con arreglo a esos criterios de reintegración —y a lo dispuesto en tratados y convenios internacionales— en los supuestos en que tengan que resolver controversias al respecto; tampoco que los tribunales constitucionales no puedan llegar a declarar que determinadas leyes o actuaciones públicas son contrarias a derechos fundamentales, cuando se refieran a la afección que los tradicionales derechos de la persona sufran con ocasión de la aplicación de neurotecnologías de modo que lesionen derechos como la identidad, voluntad o capacidad de decisión, conciencia de sí, información, etc. de la persona; derechos interpretados o reintegrados con arreglo a las exigencias de la dignidad de la persona y del libre desarrollo de la personalidad.

Con esas declaraciones de los tribunales se estaría afirmando que determinados derechos cuya positivación con denominaciones específicas en las leyes no se ha producido todavía, reciben protección anticipada frente al empleo de las neurotecnologías en la medida en que no sean sino concreción o derivación de derechos sí reconocidos.

Ello no significa que no sea necesario y muy conveniente que el legislador mismo o, en último caso, la propia Constitución reconozcan y declaren los nuevos derechos —los neuro-derechos— en la medida en que con ello favorece enormemente su respeto y efectividad, a la vez que se dota de seguridad jurídica su tratamiento18 aunque el enunciado constitucional sea tan conciso que precise después también de desarrollo legal que lo concrete.

En España se ha optado por una Carta de Derechos Digitales no vinculantes, pero que llama al legislador a regular no solo los neuro-derechos, sino todas las realidades afectadas por las tecnologías digitales en general. Una carta que en su preámbulo empieza por reconocer que no trata de declarar nuevos derechos, aunque luego invite al legislador a concretarlos, afirmando desde el principio la filosofía de la que parte:

En este contexto, no se trata necesariamente de descubrir derechos digitales pretendiendo que sean algo distinto de los derechos fundamentales ya reconocidos o de que las nuevas tecnologías y el ecosistema digital se erijan por definición en fuente de nuevos derechos. La persona y su dignidad son la fuente permanente y única de los mismos y la clave de bóveda tanto para proyectar el Ordenamiento vigente sobre la realidad tecnológica, como para que los poderes públicos definan normas y políticas públicas ordenadas a su garantía y promoción.

Las leyes en todo caso permitirán establecer las condiciones, restricciones y medidas que aseguren su efectividad y que se abra un debate parlamentario y social en trance de aprobarlas. Un debate relevante sobre la delimitación de los derechos personales y su relación con otros derechos o con otros bienes en los nuevos espacios o escenarios que abren las neurotecnologías y sus aplicaciones.

Desde luego las afecciones de las neurotecnologías sobre las personas se producirán siempre sobre sus derechos personales —o de la personalidad— reconocidos en Declaraciones de derechos, pero la radical novedad disruptiva de las nuevas afecciones hace muy conveniente su expreso reconocimiento con nuevas denominaciones que reflejen la novedad de tales afecciones.

La conveniencia y a veces necesidad del reconocimiento de específicos derechos relacionados con el empleo de las neurotecnologías, no quiere decir que sin ese reconocimiento legal queden completamente desprotegidos, pues los tribunales pueden acabar protegiéndolos y declarándolos; pero se crean espacios de incertidumbre e inseguridad para las personas que hace desaconsejable entregar sin más la solución a los tribunales, al margen de que estos con sus sentencias puntuales no pueden establecer una regulación general que establezca condiciones, requisitos y restricciones que solo el legislador puede realizar de forma efectiva.

Esa conveniencia de regulación legislativa no es contradictoria con la experiencia comprobada en otros ámbitos tecnológicos (el de la protección de datos) de que muchos de los nuevos derechos proclamados en textos normativos y vinculantes en tales ámbitos han sido precedidos de pronunciamientos de los tribunales reconociendo derechos, sin que existiera esa previa declaración formal, en situaciones conectadas con los derechos ya declarados de forma más limitada o imprecisa. Ello probaría que no es indispensable, aunque desde luego sea muy conveniente, el previo reconocimiento legal para que los nuevos derechos encuentren plena e inmediata protección sin la azarosa exigencia de un indispensable procedimiento judicial.

Es el caso, en el ámbito de la protección de datos, del llamado «derecho al olvido» o del «derecho a la desconexión digital» que han sido objeto de protección jurisdiccional antes de su proclamación legal. En el caso del derecho al olvido (art. 93 de la Ley española de Protección de Datos19) la jurisprudencia española y la europea ya lo había reconocido como formando parte de derechos clásicos antes de que el Reglamento Europeo de Protección de Datos lo reconociera20 en su artículo 17. Recogerlo en un texto legal o en una declaración hubiera permitido adelantar su protección, lo cual supone una ventaja, pues no hubiera sido necesario esperar a que fuera declarado por los jueces. El hecho de que la ley española haya reconocido también el derecho al olvido en las redes sociales y los servicios equivalentes, pone sobre aviso, sin embargo, respecto de uno de los inconvenientes: el de que se piense que todo lo que no esté listado de modo expreso y concreto como derecho en una ley no es, en principio, derecho alegable. Si el legislador no incluyó algo como derecho, podría decirse erróneamente, será porque no era propiamente un derecho. Para evitar las consecuencias de tal idea, la tentación podría consistir en hacer una interminable lista de derechos con objeto de no olvidarse de alguno. Sin embargo, la no inclusión en una lista no tiene que impedir su futuro reconocimiento jurisdiccional cuando exista un fuerte punto de conexión evidente con un derecho ya reconocido, reinterpretado o reintegrado a la vista de la invocación de la dignidad de la persona y el libre desarrollo de la personalidad.

En cuanto al carácter fundamental de los nuevos derechos o a la consideración como derechos sin más, se trata de otra cuestión de interés académico, pero sin que tenga que entrarse en esa cuestión con detalle, en este foro, señalando únicamente que dependerá, aparte de su declaración o no como derechos fundamentales, de su conexión más o menos íntima- en el caso de que no haya recibido tal categorización - con un derecho sí declarado como fundamental.

6. Carácter global y transnacional de la ordenación del empleo de las neurotecnologías y los instrumentos de garantía de tales derechos

Una peculiaridad que presentan las neurotecnologías en relación con los derechos y libertades de las personas radica en que la solución que se dé a su regulación es cada vez más difícil que sea estatal o regional, sino que ha de ser global y mundial.

La dificultad para lograr una solución tal no puede escapársenos, pero tampoco que es necesario ponerse a la tarea de conseguirlo. Y por lejana que parezca la solución global lo que el momento actual reclamaría es comenzar por dar los primeros pasos sin desanimarse por la distancia del camino a recorrer, pues todo recorrido empieza por los primeros pasos. El horizonte de llegada está condicionado por dos modelos de solución que parece que predeterminan la solución correcta.

Un modelo puede ser el autoritario que ve en la aplicación de las neurotecnologías un sistema de aseguramiento del control de la voluntad de las personas en beneficio de un control estatal de todos que garantice la tranquilidad a cambio de la pérdida de libertad. Otro sería neoliberal con libertad de empresa y de un mercado de las neurotecnologías en que las más competitivas puedan acabar dominándolo.

Tales dos modelos extremos tienen evidentes riesgos para la libertad personal y la democracia, aunque podrían ofrecerse matizaciones y restricciones que eviten parte de esos riesgos y traten de asegurar que ni el estado se haga con el control de todo —en el modelo autoritario— ni las empresas más potentes y competitivas puedan llegar a adquirir tal posición de dominio que desplacen a casi todas las demás —en el modelo neoliberal. La capacidad de tales matizaciones para resolver los riesgos puede resultar, sin embargo, azarosa.

Un tercer modelo que parece superior trataría de evitar desde el principio cualquier riego de estatalización o de privatización del dominio de las neurotecnologías estableciendo una regulación con límites y controles en que, sin prescindir de la iniciativa privada, ni de la supervisión pública, se establezcan las limitaciones y restricciones indispensables y se regulen las condiciones de utilización de las neurotecnologías, tanto de las que presentan finalidad terapéutica, como de los supuestos y condiciones en que el legislador determine que pueden utilizarse para fines de aumentación o mejora. Que las regulen y establezcan autoridades de supervisión.

En ese sentido un foro como este, que pudiera considerarse regional puede ser uno de los instrumentos de toma de conciencia de la necesidad de buscar soluciones globales sobre la base de un modelo compartido para las mismas.

7. Algunas precisiones y conclusiones

La aplicación de las neurotecnologías para la curación de enfermedades tiene que ser saludada con esperanza por sus indudables beneficios. Ello no impide que podamos percibir también riesgos sobre los que deberían establecerse mecanismos y condiciones para conjurarlos, evitando daños a los derechos y libertades de las personas, así como al propio modelo de organización social.

El reto que el momento actual tiene por delante radica en cómo asegurar el máximo el aprovechamiento de las neurotecnologías y sus aplicaciones y, a la vez, evitar los riesgos que puedan derivarse de un mal uso de las mismas. La dificultad radica, entre otras cosas, en que estamos en un momento incipiente del uso de tales tecnologías; tan incipiente que en algunos casos todavía se circunscriben al campo experimental o de laboratorio, aunque empiezan a conocerse supuestos de empleo en la población.

El problema en estas actividades emergentes consiste en que una regulación temprana de las neurotecnologías, como de cualquier tecnología nueva por otra parte, si sólo atiende a los riesgos y peligros que puedan derivarse de su empleo y posterga sus beneficios, puede impedir el pleno despliegue de las enormes oportunidades que puedan llegar a obtenerse en beneficio de las personas y de la sociedad y afectar a la libertad científica e investigadora.

En esas condiciones el legislador debe ser muy prudente sin pretender desde el principio acotar con una regulación rígida de posibilidades de investigación y aplicación que conviene dejar que se desplieguen. El legislador, que no conoce siempre los aspectos técnicos complejos de las nuevas tecnologías, debe señalar aquello que no debe permitirse cuando tiene la seguridad de que no hay otra alternativa, pero en defecto de tal seguridad su regulación debe ser más abierta. Debe señalar claramente los riesgos a evitar e imponer el deber de evitarlos en cuanto se concreten, pero sin señalar siempre todos los medios de hacerlo; medios que podrán imponerse de forma sucesiva en cuanto la investigación y la experiencia den certidumbre al respecto. Puede señalar los principios con arreglo a los cuales hayan de establecerse medidas que protejan los bienes y valores que debe ser preservados.

Simultáneamente y hasta que se obtengan mayores certezas sobre las medidas a tomar pueden establecerse sucesivas recomendaciones y guías de conducta. También elaborar y solicitar informes o realizar consultas públicas con arreglo a las cuales se aprueben comunicaciones donde se analicen los riesgos y medidas a adoptar y se señalen líneas futuras de actuación.

Eso explica por qué, en la mayor parte de nuevos campos de regulación relacionados con nuevas tecnologías, junto a las normas vinculantes (el hard law) empiezan a cobrar mayor importancia instrumentos no directamente vinculantes21, pero que acaban sentando criterios de interpretación con arreglo a los cuales los Tribunales pueden llegar a apreciar si se han producido excesos o daños de los que hacer responsables a sus autores; con ello esos instrumentos no vinculantes acaban teniendo valor y relevancia jurídica. Sobre todo, generan una dinámica de tensión en la búsqueda de avances que no posterguen la máxima atención a los derechos y libertades de las personas.

Junto a ello surgen también las autoridades independientes, las agencias, los Comités de ética, etc., que tratan de complementar una actividad legislativa que no está siempre en condiciones de determinar de forma vinculante y de antemano lo que hay que hacer o no en campos que el legislador no conoce con precisión y en los que los propios científicos e investigadores están siempre en evolución. Eso dota al derecho en estos ámbitos de ese carácter dúctil o maleable del que hablara Zagrebelsky22, que debe su carácter a esta sensación de permanente adaptación.

Es también la característica del derecho de la regulación que más allá del ámbito económico inspira buena parte de la ordenación de sectores muy vinculados con las tecnologías o las ciencias en general.

No se trata de un defecto del derecho, sino de una constatación de que el legislador no conoce siempre con precisión en determinados sectores cuáles son las reglas que debe imponer, aunque sí conoce los riesgos y peligros que quiere evitar por afectar a derechos, bienes o valores que está obligado a proteger. Ello le lleva a establecer no sólo reglas, sino también principios y objetivos a conseguir, entre ellos el de protección desde el diseño y por defecto que se aplica en la protección de datos. Con ello se traspasa a los operadores y empresas la obligación de interiorizar la protección y garantía de los derechos, libertades, bienes y valores como tarea propia que se les impone.

Ese es el camino elegido por España con la aprobación de una Carta de Derechos Digitales presentada públicamente por el presidente del Gobierno el 14 de julio de 2021. No se trata de un instrumento vinculante desde luego, como dice su preámbulo, pero sí trata de inspirar la acción del Gobierno y de los poderes públicos. La Carta llama e invita al legislador a regular los distintos derechos y libertades afectados por las tecnologías digitales y dedica un apartado específico a los neuro-derechos estableciendo los principios a que debe ajustarse su tratamiento y consideración; llamando al legislador para desarrollarlos y muy específicamente en el supuesto de la aplicación de las neuro-tecnologías fuera de las finalidades exclusivamente terapéuticas. Se es consciente así de que en el momento actual sería prematuro que el legislador aborde con detalle una cuestión que precisa del conocimiento de la evolución y alcance de las propias tecnologías que, en ocasiones, pueden ofrecer ellas mismas soluciones a los problemas que hoy parecen insolubles. Pero la propia Carta es ya un compromiso firme con las inmediatas y sucesivas regulaciones en cuanto el conocimiento más preciso de los avances en las neurotecnologías y sus aplicaciones lo permitan.

Notas

  • 1. Así lo recogem Yuste, R., Goering, S. et al. (2017), «Four ethical priorities for neurotechnologies and AI», Nature. Disponible en: https://www.nature.com/news/four-ethical-priorities-for-neurotechnologies-and-ai-1.22960. En página 162 explica cómo personas que han recibido estimulación cerebral profunda a través de electrodos relatan después sensación de pérdida de voluntad e identidad. Al margen de si esa estimulación se produce por razones terapéuticas, el dato debe retenerse, aun notando la distinta consideración que merce que las razones sean terapéuticas u otras diferentes. En un trabajo anterior en que participaban dos de los firmantes de Nature —Goering, S. y Yuste, R. (2016), «On the Necessity of Ethical Guidelines for Novel Neurotechnologies», Cell, 167, 4, pp. 882-885, afirman: «Una de las más importantes cuestiones éticas y filosóficas a afrontar es la posibilidad de cambios sustanciales en el concepto del "yo". Mientras en la actualidad tendemos a identificarnos a nosotros mismos como relativamente separados y entidades privadas limitadas por nuestros propios cuerpos, el uso de las novedades de las neurotecnologías puede dirigirnos hacia una parcial disolución de las ideas tradicionales sobre el yo». En otro orden de cosas, pero situándonos en el mundo digital y de internet, Nicholas Carr detecta también cambios de comportamiento en Superficiales. ¿Qué está haciendo internet con nuestras mentes? (2016) Ed. Taurus, pp. 269-270. Sostiene que al confiar en los ordenadores para comprender el mundo nuestra inteligencia se aplana y convierte en inteligencia artificial. Volver
  • 2. El conocimiento por los operadores de la actividad cerebral de sus «clientes» potenciados o mejorados, de sus preferencias e inclinaciones y su posibilidad de influir en ellos puede llevar a adquirir posiciones de dominio en los distintos mercados a partir de tales conocimientos. Volver
  • 3. De «hombre aumentado» se viene hablando desde hace tiempo por parte de muchos autores entre otros los que podríamos situar en la órbita del poshumanismo o transhumanismo. Vid. sobre el transhumanismo el Manifiesto del Transhumanismo de la Asocicación Humanity+ en la dirección https://www.humanityplus.org/ y el manifiesto en https://www.humanityplus.org/the-transhumanist-manifesto. Vid. tambien la posicion de Peter Sloterdijk, con su polémico libro Normas sobre el parque humano: una respuesta a la Carta sobre el Humanismo de Heidegger, Siruela, 2006 (criticado por Habermas en El futuro de la naturaleza humana. ¿Hacia una eugenesia liberal?, de 2001) y con el siguiente En el mismo barco: Ensayo sobre la hiperpolítica, Siruela, 2006, se ha erigido en el referente del poshumanismo y de la crítica a una idea de humanismo entendido por él como domesticación que vaciando de sentido la idea de humanismo (o criticando su sentido y función) abre un vacío que pueden rellenar las tecnologías; es un discurso de crítica al humanismo y a su supuesto fracaso —entendido como crianza, domesticación y sometimiento— frente a un mundo en que los medios actuales de uso y acceso masivo a la información (redes sociales, diarios digitales, buscadores, YouTube, etc.) dejan a la persona capacidad para, supuestamente, pensar por sí mismo y prescindir de los intermediarios y también para crear un ejército de solitarios. Si en un primer momento el discurso poshumanista se centra en las biotecnologías, acaba promoviendo después una nueva relación con las máquinas o «seres sin alma» que acaban ocupando posiciones predominantes. En el ámbito del transhumanismo —término acuñado por Julian Huxley, profesor de zoología— muy relacionado con el poshumanismo, la preocupación es la mejora de la condición humana mediante un uso intenso de todas las tecnologías. Volver
  • 4. Vid. De Asís Roig, R. y Laukytehottois, M. (2020) «Sobre el transhumanismo: Transhumanismo inclusivo», en E. Atienza Macías (coord..) e I. Alkorta Idiakez (dir.), Soluciones tecnológicas para los problemas ligados al envejecimiento: cuestiones éticas y jurídicas, Dykinson; también la obra colectiva El transhumanisme sota la lupa, coordinada por Frances Torralba y editada por el Club de Roma. Importante el trabajo de Gilbert (2014), «Le transhumanisme est-il un humanisme?», Academie Royal de Bélgica, con un acercamiento muy interesante a la cuestión sentando las bases del debate. El manifiesto de una de las asociaciones estadounidense sobre el hombre potenciado (Humanity +) puede consultarse en https://humanityplus.org/philosophy/transhumanist-declaration/. Como uno de los exponentes del transhumanismo, puede verse Kurzwei, R. (2012), La singularidad está cerca. Cuando los humanos transcendamos la Biología, Lola Books. Para una posición crítica ver Fukuyama, F. (2004), «El transhumanismo», Foreign Policy (edición española), 5. Volver
  • 5. Vid. sobre el debate las posiciones de Habermas, J. (2016), El futuro de la naturaleza humana, ¿hacia una eugenesia liberal?, Básica; Sandel, M. (2007), Contra la perfección. La ética en la era de la ingeniería genética, Barcelona: Marbot; Fukuyama, F. (2002), El fin del hombre: consecuencias de la revolución biotécnológica, Barcelona. Volver
  • 6. Vid. Da Silva Sauer, L. et al. (2011), «Variables psicológicas en el control de interfaces cerebro-computadora, Psicothema, 23, 4; también Da Silva Sauer, L. (2014), en «Factores psicológicos en la implementación de sistemas de interfaces cerebro-ordenador (BCI)», tesis doctoral leída en universidad de Málaga; también Nijboer, F. et al. (2008), «A P300—based brain-computer interface for people with amyotrophic lateral sclerosis», Clinical Neurophysiology, 119 (8), pp. 1909-1916. El Brain Computer Interface (BCI) es uno de los instrumentos utilizados en el programa Brain Research through Advancing Innovative Neurotechnologies (BRAIN) también conocido como Brain Activity Map Project (proyecto de mapeo de la actividad cerebral) que se impulsó por la Administracion Obama en abril de 2013 y prevé inversiones de más de 3.000 millones de dólares durante los diez años del proyecto. El mismo prevé investigar en el cerebro humano, su forma de funcionamiento y ayudar a prevenir y curar algunas de las enfermedades que en él se localizan (Alzheimer y Parkinson, entre otras). Volver
  • 7. En el artículo sus autores lo vinculan con la potenciación o combatividad de los soldados en el ejército y en escenarios de guerra, pero obviamente se trata solo de una de las posibilidades de esa potenciación o aumentación. Sobre la cuestión de la aumentación y potenciación pueden verse los informes. Volver
  • 8. En el ámbito del Parlamento Europeo puede verse un informe oficial emitido a su instancia por varios autores bajo el título «Human Enhancement Study Policy», Bruselas, 2009, encargado por Department A: Economic and Scientific Policy, DG Internal Policies. European Parliament (accesible en: http://www.europarl.europa.eu/stoa/default_en.htm). Por otra parte, en el ámbito de la Unión Europea son muchos los informes que se han ido produciendo, así el de Rossi, F. (2016) «Artificial Intelligence: Potential Benefits and Ethical Considerations», Policy Department C: Citizens’ Rights and Constitutional Affairs, European Parliament, 2016. Volver
  • 9. Art. 1255 del Código Civil: «Los contratantes pueden establecer los pactos, cláusulas y condiciones que tengan por conveniente, siempre que no sean contrarios a las leyes, a la moral, ni al orden público». Volver
  • 10. Vid. del autor (2021), «Los derechos en la sociedad digital: visión subjetiva y visión institucional» en la obra colectiva Las TIC y la sociedad digital. Doce años después de la ley. Ecosistema digital en sus distintos desarrollos y las tecnologías disruptivas» Tomo II. Ed. Universidad del Externado de Colombia. Volver
  • 11. Impulsor, también, de la denominada Neurorights Iniciative (NRI) que se concretó en la creación de la Neurorights Foundation. Volver
  • 12. La Fundacion ha ampliado a cinco neuroderechos, las cuatro preocupaciones iniciales que destacaban Yuste, Goering et al. en su artículo de 2017 antes citado. Volver
  • 13. Vid. del citado autor del siglo II d. C. El aficionado a la mentira. El autor del presente trabajo lo cita en «¿Por qué una carta de derechos digitales?», Revista Registradores de España, 92; también en (2019) «Derechos fundamentales, democracia y mercado en la edad digital», Derecho Digital e Innovación, 1. Volver
  • 14. Vid. Borbón Rodríguez, D. A., Borbón Rodríguez, L. F. y Laverde Pinzón, J. (2020), «Análisis crítico de los NeuroDerechos Humanos al libre albedrío y al acceso equitativo a tecnologías de mejora», Ius et Scientia, 6, 2, pp. 136 y ss. Volver
  • 15. Ley 30/1979, de 27 de octubre, sobre extracción y trasplante de órganos. Volver
  • 16. Sobre esta dimensión colectiva o institucional de los conflictos que pueden acabar afectando a la democracia o al mercado puede verse del autor y en relación en general con la sociedad digital (2019), «Retos, riesgos y oportunidades de la sociedad digital» en la obra colectiva dirigida por él mismo y por Pilar Mañas Sociedad digital y Derecho. BOE. Volver
  • 17. Vid. Ruiz Martínez-Canavate, M., «Neurociencia etica y derechos humanos», tesis doctoral de la Universidad Nacional de Educación a Distancia (España). Escuela Internacional de Doctorado. Programa de Doctorado en Derecho y Ciencias Sociales, dirigida por Rafael Junquera de Estéfani; también Valenzuela Corales, M. A. (2022), «Neuroderechos: hacia una fundamentación filosófica», Encuentros: Revista de Ciencias Humanas, Teoría Social y Pensamiento Crítico, 16 (de la Universidad Nacional Experimental Rafael María Baralt, Maracaibo, Venezuela). Volver
  • 18. Es lo que se ha hecho recientemente en Chile al incorporarlos a su Constitución modificando su artículo 19.1: «El desarrollo científico y tecnológico estará al servicio de las personas y se llevará a cabo con respeto a la vida y a la integridad física y psíquica. La ley regulará los requisitos, condiciones y restricciones para su utilización en las personas, debiendo resguardar especialmente la actividad cerebral, así como la información proveniente de ella». Volver
  • 19. Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales. Volver
  • 20. Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016. Volver
  • 21. La Directiva (UE) 2018/1972 de 11 de diciembre de 2018 por la que se establece el Código Europeo de las Comunicaciones Electrónicas remite, ella misma, a instrumentos no vinculantes como directrices, dictámenes, recomendaciones, posiciones comunes o mejores prácticas de los que dice que los Estados miembros velarán por que las autoridades nacionales de reglamentación las «tengan muy en cuenta». Igualmente en los últimos reglamentos de la UE sobre Servicios Digitales [Reglamento (UE) 2022/2065 de 19 de octubre de 2022] y sobre Mercados Digitales [Reglamento (UE) 2022/1925 de 14 de septiembre de 2022 sobre mercados disputables y equitativos] es notable cómo el propio articulado, formalmente vinculante, se expresa en ocasiones con apelaciones a la «diligencia debida» (Art. 11 y ss. del Reglamento de servicios) que eluden imponer reglas de fondo claras o con apelaciones en el caso del Reglamento (UE) 2022/1925 a obligaciones de los guardianes de acceso que pueden ser especificadas con mayor detalle posteriormente, lo que pone de relieve la imprecisión de la norma y su concreción posterior en un debate con el guardián de acceso. Volver
  • 22. Zagrebelsky, G. (2003), El derecho dúctil. Ley, derechos, justicia. Madrid: Trotta. Volver