La
inteligencia artificial (IA) se ha convertido en un
factor decisivo que impulsa numerosos campos, pero también en una nueva frontera para el desarrollo de las
neurotecnologías. Más allá de su popularización en ámbitos como la
automatización, la
generación de contenidos o el
análisis de datos, su aplicación al estudio y la intervención sobre el
cerebro humano plantea importantes
debates éticos y morales sobre el potencial de estas herramientas y su relación con los
derechos y las
libertades fundamentales.
Ahora, un
estudio reciente elaborado por un investigador de la Universitat Oberta de Catalunya (
UOC) analiza este cruce entre
innovación y
ética en el marco de la
regulación europea de la IA y su impacto en el desarrollo de las neurotecnologías. "Ahora mismo, todas estas tecnologías están avanzando muchísimo, y lo que está en riesgo es la
esencia de lo que nos hace ser humanos: la capacidad de
pensar y de
decidir", afirma
Miguel Ángel Elizalde, coordinador del Grupo de Estudios en Relaciones Internacionales y Derecho Internacional (
GERD) y profesor de los
Estudios de Derecho y Ciencia Política.
El trabajo, publicado en acceso abierto, analiza las
preocupaciones éticas emergentes y advierte de posibles
vulneraciones de derechos humanos vinculadas a la
privacidad mental, la
libertad de pensamiento y la
autonomía individual. Además, se examina si el
marco jurídico actual es suficiente o si será necesario articular nuevos derechos específicos ante una tecnología que puede llegar a influir en los procesos mentales de las personas.
Innovación en las neurotecnologías
Se entiende por
neurotecnologías aquellos instrumentos y aplicaciones que sirven para medir y registrar señales cerebrales de distintos tipos, como eléctricas, magnéticas, ópticas, acústicas o mecánicas, y también las tecnologías que permiten intervenir en los procesos neuronales.
Durante décadas, estas tecnologías han tenido un desarrollo principalmente
clínico y
experimental, centrado en el diagnóstico de enfermedades neurológicas o en la investigación científica. Sin embargo, la incorporación de la IA permite explorar los
límites para ir más allá y transformar por completo este campo.
Hasta ahora, no existía una herramienta capaz de gestionar la
ingente información que produce el cerebro humano en forma de
señales complejas. Estos procesos resultaban imposibles de interpretar sin
sistemas avanzados de procesamiento. Pero ahora el panorama ha cambiado por completo. El desarrollo de la IA y su aplicación a las neurotecnologías permiten detectar
patrones,
correlaciones y
significados en esos datos, lo que convierte señales aparentemente caóticas en
información útil y accionable.
Gracias a esta capacidad, las
neurotecnologías han pasado de ser simples herramientas de observación a convertirse en sistemas capaces de interactuar con la mente, especialmente cuando
las tecnologías de neuroimagen se apoyan en otros avances. Se trata de un conjunto de tecnologías orientadas a estudiar la estructura y el
funcionamiento del cerebro. Por su parte, las tecnologías de neurointervención están diseñadas para actuar directamente sobre los
procesos neuronales mediante la estimulación o la modulación de la actividad cerebral, como hacen ciertos dispositivos neuroestimuladores cerebro-ordenador y otros aparatos.
Estos dispositivos cerebro-ordenador pueden funcionar tanto en un bucle abierto como en un bucle cerrado, ya que traducen las señales cerebrales recibidas e incluso también las envían, lo que permite modificar o ajustar las acciones. "Por ejemplo, un avión controlado por un dispositivo cerebro-ordenador informa sobre el estado del viento, la presión, etc., directamente al cerebro, lo que permite ajustar la dirección", explica Elizalde, que también es investigador adscrito al Centro de Investigación en Transformación Digital y Gobernanza (
UOC-DIGIT).
Riesgos de su aplicación
Dada la capacidad que la aplicación de la IA tiene en el campo de las neurotecnologías, existen numerosos riesgos derivados de su posible uso para interferir en los pensamientos y los estados mentales de las personas, como las
emociones, las
intenciones o las
preferencias, lo que despierta grandes
preocupaciones éticas y morales.
Por un lado, existe la idea de que, sin una
regulación adecuada, estas herramientas puedan utilizarse para extraer
información confidencial del cerebro o influir en la
conducta de las personas sin su pleno conocimiento. "Las neurotecnologías, combinadas con la IA, podrían llegar a hacer inferencias del contenido subjetivo de la mente y, al mismo tiempo, intervenir en los procesos mentales, de forma que afectarían al comportamiento", advierte Elizalde. Así, existe el riesgo potencial de que sean capaces de identificar estados emocionales, creencias o preferencias íntimas, lo que tendría enormes implicaciones y consecuencias en todos los contextos sociales y laborales.
Sin embargo, por otro lado, las neurotecnologías también pueden aportar
beneficios extraordinarios en campos como la
medicina, la
salud mental o la
rehabilitación neurológica. Las aplicaciones potenciales, que van desde
terapias para enfermedades degenerativas hasta tratamientos para lesiones medulares, podrían transformar las vidas de millones de personas.
Marco normativo y reglamento
En este contexto, el
reglamento europeo de IA contempla algunos de estos escenarios, ya que prohíbe los sistemas diseñados para
manipular el comportamiento de manera subliminal o engañosa. Sin embargo, esta regulación podría dificultar la
investigación y el
desarrollo en Europa, lo que desplazaría la innovación hacia regiones con marcos legales más permisivos.
Hasta ahora, en la etapa de desarrollo, las limitaciones son parte de las excepciones del reglamento, pero, dado su progreso, los fabricantes europeos y extranjeros que deseen comercializar sus productos en Europa estarán sujetos a
condiciones más estrictas, y esto puede afectar a su
posición de competencia a escala mundial en los mercados internacionales.
"Existe el riesgo de que sea más difícil
innovar en Europa que en otras partes del mundo; es una preocupación legítima. Sin embargo, no se debe perder de vista cuál es el riesgo de no regular", señala Elizalde, que destaca que el uso potencial de la IA y las neurotecnologías para "
escribir la mente" estaría prohibido por el reglamento europeo.
"La lógica de esta prohibición es proteger el
derecho de las personas a decidir libremente frente a cualquier sistema de IA con capacidad de
alterar el comportamiento de formas que eludan el control racional, lo que se considera un sistema de IA de
riesgo inaceptable", recalca Elizalde.
Diseño de nuevos derechos
Debido a los posibles conflictos y riesgos derivados de su aplicación, los expertos han planteado numerosos debates sobre el auge de estas tecnologías y la necesidad de diseñar nuevos derechos destinados a proteger la privacidad mental, la identidad personal y el libre albedrío frente a posibles abusos tecnológicos. Son los conocidos como
neuroderechos.
"Es evidente que el reglamento se aplica a la IA y no está pensado específicamente para las neurotecnologías. Sin embargo, las neurotecnologías cada vez hacen más uso de la IA y funcionan de manera muy estrecha con esta tecnología", explica Elizalde.
A juicio del investigador de la UOC, los
derechos humanos existentes y el
marco normativo europeo podrían ser suficientes si se interpretan de forma adaptada en
contextos tecnológicos, ya que admiten interpretaciones que podrían proteger contra esta invasión de la privacidad o en caso de atentados contra la libre decisión de una persona. "Sobre todo, protegen el derecho a la
libertad de pensamiento, el derecho a la
privacidad y el derecho a la
integridad en sus diferentes manifestaciones. Por lo tanto, el diseño de los neuroderechos
no sería indispensable", explica Elizalde.
Según esta perspectiva, no sería imprescindible crear nuevas
categorías jurídicas, sino adaptar las existentes para cubrir las amenazas derivadas de la IA aplicada al cerebro. Esta interpretación evita el riesgo de
fragmentar el sistema de derechos humanos y refuerza la idea de que las
garantías fundamentales deben evolucionar al mismo ritmo que la sociedad.
Este proyecto se enmarca en la misión de investigación Tecnología ética y humana ejecutada por la UOC y favorece los objetivos de desarrollo sostenible (ODS) de la ONU 9, industria, innovación e infraestructura, y 16, paz, justicia e instituciones sólidas.
Investigación con impacto y vocación transformadora
En la UOC entendemos la investigación como una herramienta estratégica para avanzar hacia una sociedad de futuro más crítica, responsable e inconformista. Desde esta visión, desarrollamos una investigación aplicada, interdisciplinaria y conectada con los grandes retos sociales, tecnológicos y educativos.
Los más de 500 investigadores e investigadoras y los más de 50 grupos de investigación de la UOC trabajan alrededor de cinco centros de investigación centrados en cinco misiones: educación a lo largo de la vida, tecnología ética y humana, transición digital y sostenibilidad, cultura para una sociedad crítica, y salud digital y bienestar planetario.
Además, la universidad impulsa la transferencia de conocimiento y el emprendimiento de la comunidad UOC con la plataforma Hubbik.
Más información: https://www.uoc.edu/es/investigacion