La neurotecnología, una controvertida aplicación de la Inteligencia Artificial, se está convirtiendo cada vez más en un punto central de las discusiones sobre privacidad y derechos humanos.
A medida que los avances tecnológicos en el campo avanzan rápidamente, las Naciones Unidas (ONU) se han hecho eco de los llamados a favor de un marco ético para salvaguardar las libertades individuales.
Neurotecnología: las cuestiones éticas
En términos generales, la neurotecnología no es un concepto nuevo. Los ingenieros llevan mucho tiempo desarrollando tecnologías para escanear, reparar y aumentar el cerebro humano y el sistema nervioso.
Sin embargo, el campo ha visto una explosión reciente de potentes modelos de inteligencia artificial y aprendizaje automático, lo que ha llevado a la neurotecnología a áreas éticamente polémicas.
Para abordar estos desafíos, la ONU organizó la Conferencia Internacional sobre la Ética de la Neurotecnología en París. El evento convocó a formuladores de políticas, especialistas en IA, grupos civiles y empresas privadas, lo que provocó un debate sobre las cuestiones éticas que rodean a la neurotecnología.
Antes de la conferencia, Audrey Azoulay, Directora General de la UNESCO, compartió sus temores:
“La neurotecnología podría ayudar a resolver muchos problemas de salud, pero también podría acceder y manipular los cerebros de las personas, producir información sobre nuestras identidades y nuestras emociones. Podría amenazar nuestros derechos a la dignidad humana, la libertad de pensamiento y la privacidad. Urge establecer un marco ético común a nivel internacional, como lo ha hecho la UNESCO con la IA.”
Los organismos reguladores de todo el mundo se esfuerzan por crear reglas para el sector de la IA. Empresas de alto perfil como OpenAI incluso han comenzado a resistirse a la regulación de la IA. A medida que la tecnología se vuelve más íntima, más desacuerdos parecen casi inevitables.
Es algo más que chips cerebrales
Sin embargo, Gabriela Ramos, Subdirectora General de Ciencias Sociales y Humanas de la UNESCO, destacó durante la conferencia que la neurotecnología no se trata solo de tecnologías en etapa inicial que generan titulares.
“Estamos en el camino hacia un mundo en el que los algoritmos nos permitirán decodificar los procesos mentales de las personas y manipular directamente los mecanismos cerebrales que subyacen a sus intenciones, emociones y decisiones.”
La imagen pública de la neurotecnología a menudo está dominada por proyectos ambiciosos como Neuralink de Elon Musk y su interfaz cerebro-computadora.
Aún así, las aplicaciones más discretas de la neurotecnología que pueden interpretar y manipular pensamientos sin intervención física ya están entre nosotros.
“Cuando agrega IA, está poniendo neurotecnología en esteroides”, afirmó Mariagrazia Squicciarini, autora principal de un informe de la Unesco.
Los investigadores de IA están desarrollando nuevas tecnologías con intenciones predominantemente beneficiosas. Un equipo de investigación, por ejemplo, usó IA para interpretar lo que escuchaba un sujeto en función de las señales eléctricas de su cerebro.
Sin embargo, los investigadores advirtieron que los desarrollos futuros podrían permitir que tales tecnologías eviten la necesidad de cooperación voluntaria.
Tecnología de control mental
Curiosamente, la neurotecnología de lectura mental antes mencionada utiliza herramientas de inteligencia artificial que son ampliamente accesibles. El equipo de investigación construyó su modelo utilizando GPT-1 de OpenAI, un precursor de GPT-4, que impulsa el popular chatbot ChatGPT.
También utilizaron varios algoritmos disponibles gratuitamente en línea, entrenando su modelo con conjuntos de datos que incluían oraciones extraídas de Reddit y transcripciones de podcasts del New York Times.
Tales avances subrayan cómo los problemas de privacidad relacionados con la IA no son hipotéticos futuros, sino preocupaciones apremiantes que requieren atención inmediata.
OpenAI, por ejemplo, se enfrenta a una demanda colectiva por la supuesta recopilación de datos personales sin consentimiento. Muchas de las principales empresas de redes sociales han sido acusadas de manejar mal los datos de los usuarios para entrenar sus modelos de IA.
Los casos en que la IA se utiliza para leer y manipular a las personas sin el consentimiento informado ya son una realidad. Abordar estas preocupaciones requerirá pautas éticas sólidas y medidas regulatorias proactivas.
Descargo de responsabilidad
Descargo de responsabilidad: siguiendo las pautas de Trust Project, este artículo presenta opiniones y perspectivas de expertos de la industria o individuos. BeInCrypto se dedica a la transparencia de los informes, pero las opiniones expresadas en este artículo no reflejan necesariamente las de BeInCrypto o su personal. Los lectores deben verificar la información de forma independiente y consultar con un profesional antes de tomar decisiones basadas en este contenido.