Privacidad mental

Nuestra privacidad está, en la actualidad, más amenazada que nunca. Los riesgos que las tecnologías disruptivas entrañan para nuestros derechos y libertades fundamentales son cada vez mayores: la inteligencia artificial o el big data son dos claros ejemplos de esta nueva realidad digital.

En este contexto surge la denominada “neurotecnología”: una serie de sistemas que interactúan directamente con el cerebro o el sistema nervioso y que prometen transformar y mejorar muchos aspectos de nuestras vidas, sin ir más lejos, la de personas con enfermedades mentales y neurológicas que a día de hoy no tienen cura. En la otra cara de la moneda, se plantea un escenario de riesgos en el que una máquina podrá leer e incluso modificar nuestra actividad cerebral, lo cual se antoja inquietante si no se adoptan las cautelas y salvaguardias precisas.

Resulta difícil concebir un sistema democrático en el que las personas no tengan derecho a decidir libremente cuándo, cómo y hasta qué punto comunicar sus pensamientos y sentimientos. Todos necesitamos, en mayor o menor medida, un determinado espacio de intimidad en el cual poder desarrollar nuestra libertad. En este sentido, nadie tiene legitimación suficiente para “destapar el cráneo” de una persona sin su consentimiento, a fin de convertirse en un indeseado espectador de su mundo interior, de su esfera más íntima. De ahí los riesgos de la neurotecnología.

Esta no es, por ende, ni una cuestión distópica ni un supuesto de laboratorio: es una realidad latente que ya comienza a preocupar a los Estados y que necesita de una mirada renovada, porque, como ya ha subrayado algún experto, es un entorno en el que los riesgos para los derechos y las libertades fundamentales suceden dentro de la cabeza de la persona, y no fuera.

Así, a mediados de julio de 2021, el Gobierno de España presentó la denominada «Carta de Derechos Digitales», un texto sin carácter normativo, elaborado a partir del trabajo realizado por un grupo asesor de expertos, que propone un nuevo marco de referencia para la acción de los poderes públicos en el entorno digital.

Entre el catálogo de derechos formulados en la Carta, interesa citar los relacionados con la implantación y el empleo en las personas de la neurotecnología —lo que algunos ya denominan “neuroderechos”—, entre los cuales se encuentran “la confidencialidad y seguridad de los datos obtenidos o relativos a sus procesos cerebrales y el pleno dominio y disposición sobre los mismos”.

No obstante, este texto no deja de ser, como hemos apuntado, una mera declaración de intenciones sin carácter de norma jurídica formal, de manera que el derecho a nuestra “privacidad mental” —permítasenos la expresión— es una exigencia que ha de venir desde la propia ciudadanía: el poder de disposición y de control sobre nuestros datos cerebrales o “neurodatos” hay que exigirlo, porque es un derecho consustancial a nuestra libertad y dignidad personal.

De hecho, en puridad, no es necesario que ninguna ley establezca un derecho ex novo a la “privacidad mental” en relación con el empleo de la neurotecnología, como en principio parece proponer la Carta presentada por el Gobierno, puesto que el derecho fundamental a la protección de datos personales, reconocido expresamente en el artículo 8 de la Carta de los Derechos Fundamentales de la Unión Europea y desarrollado en el Reglamento General de Protección de Datos, ya establece perfectamente las garantías y mecanismos de protección necesarios en lo tocante a este particular. Es decir, no puede predicarse un “derecho a la protección de los datos” y un “derecho a la protección de los neurodatos”: se trata de un mismo derecho que ya existe como tal.

No en vano, la propia Agencia Española de Protección de Datos ya ha mostrado su preocupación en relación con este tema, señalando que “la información del cerebro es única y personal” y que “cada cerebro humano es único y permite la identificación personal a través de su anatomía, de manera semejante a una huella dactilar”; ergo los datos cerebrales o “neurodatos” son datos personales dignos de protección.

De tal manera, este tipo de datos personales podrían utilizarse, entre otros fines, “para inferir estados emocionales y cognitivos, procesos asociados con la personalidad, pensamientos o sentimientos”. Incluso podrían revelar, de manera significativa, más información de la estrictamente necesaria para la finalidad para la cual se supone que se han recogido.

En este sentido, no debemos olvidar que es la persona, y no la tecnología, la que ha de estar en el centro del proceso infinito de digitalización y de cambio a que nos estamos viendo abocados. Esto exige redoblar esfuerzos por parte de toda la sociedad en su conjunto para que, por ejemplo, la neurotecnología, con sus futuros avances, sea utilizada únicamente en beneficio de las personas, que es lo esperado y lo deseado. Tomar conciencia social de ello es, sin lugar a dudas, el primer y trascendental paso en este desafío.
——
(*) Jurista experto en Protección de Datos y Privacidad.