Así es cómo la tecnología detrás de ChatGPT podría hacer realidad leer las mentes
Melissa Velásquez Loaiza
(CNN) — En una mañana de domingo reciente, me encontré usando un par de uniformes médicos que no me quedaban bien, acostado boca arriba en los confines claustrofóbicos de una máquina de resonancia magnética funcional en un centro de investigación en Austin, Texas. “Las cosas que hago para la televisión”, pensé.
Cualquiera que haya tenido una resonancia magnética o resonancia magnética funcional te dirá lo ruidoso que es: las corrientes eléctricas se arremolinan creando un poderoso campo magnético que produce escaneos detallados de tu cerebro. En esta ocasión, sin embargo, apenas podía escuchar el fuerte arranque de los imanes mecánicos, me dieron un par de auriculares especializados que comenzaron a reproducir segmentos del audiolibro “El mago de Oz”.
¿Por qué?
Neurocientíficos de la Universidad de Texas en Austin han descubierto una forma de traducir los escaneos de la actividad cerebral en palabras utilizando la misma tecnología de inteligencia artificial que impulsa el innovador chatbot ChatGPT.
El avance podría revolucionar la forma en que las personas que han perdido la capacidad de hablar pueden comunicarse. Es solo una aplicación pionera de IA desarrollada en los últimos meses a medida que la tecnología continúa avanzando y parece estar lista para tocar cada parte de nuestras vidas y nuestra sociedad.
“Bueno, no nos gusta usar el término leer la mente”, me dijo Alexander Huth, profesor asistente de neurociencia e informática en la Universidad de Texas en Austin. “Creemos que evoca cosas de las que en realidad no somos capaces”.
5 advertencias sobre la inteligencia artificial que han hecho los expertos
Huth se ofreció como voluntario para ser un sujeto de investigación para este estudio, pasando más de 20 horas en los confines de una máquina fMRI [resonancia magnética funcional] escuchando clips de audio mientras la máquina tomaba imágenes detalladas de su cerebro.
Un modelo de inteligencia artificial analizó su cerebro y el audio que estaba escuchando y, con el tiempo, finalmente pudo predecir las palabras que estaba escuchando simplemente observando su cerebro.
Los investigadores utilizaron el primer modelo de lenguaje de la startup OpenAI con sede en San Francisco, GPT-1, que se desarrolló con una base de datos masiva de libros y sitios web. Al analizar todos estos datos, el modelo aprendió cómo se construyen las oraciones, esencialmente cómo hablan y piensan los humanos.
Los investigadores entrenaron a la IA para analizar la actividad de los cerebros de Huth y otros voluntarios mientras escuchaban palabras específicas. Eventualmente, la IA aprendió lo suficiente como para poder predecir lo que Huth y otros estaban escuchando o viendo simplemente monitoreando su actividad cerebral.
Pasé menos de media hora en la máquina y, como era de esperar, la IA no pudo descifrar que había estado escuchando una parte del audiolibro “El mago de Oz” que describía a Dorothy caminando por el camino de ladrillo amarillo.
Antes de ingresar a la máquina fMRI, el corresponsal de CNN Donie O’Sullivan recibió audífonos especiales para escuchar un audiolibro durante su exploración cerebral. (Crédito: CNN)
Huth escuchó el mismo audio, pero debido a que el modelo de IA había sido entrenado en su cerebro, pudo predecir con precisión partes del audio que estaba escuchando.
Si bien la tecnología aún está en sus inicios y muestra una gran promesa, las limitaciones pueden ser una fuente de alivio para algunos. La IA no puede leer fácilmente nuestras mentes, todavía.
“La aplicación potencial real de esto es ayudar a las personas que no pueden comunicarse”, explicó Huth.
Él y otros investigadores de UT Austin creen que la tecnología innovadora podría ser utilizada en el futuro por personas con síndrome de “encerramiento”, víctimas de accidentes cerebrovasculares y otras personas cuyos cerebros funcionan pero no pueden hablar.
“La nuestra es la primera demostración de que podemos obtener este nivel de precisión sin cirugía cerebral. Así que creemos que este es el primer paso en este camino para ayudar realmente a las personas que no pueden hablar sin que necesiten una neurocirugía”, dijo.
Si bien los avances médicos revolucionarios son sin duda buenas noticias y pueden cambiar la vida de los pacientes que luchan contra dolencias debilitantes, también plantea interrogantes sobre cómo se podría aplicar la tecnología en entornos controvertidos.
Por qué este pionero de la inteligencia artificial decidió exponer los peligros de la tecnología
¿Cuál es el alcance de la IA y sus riesgos? 2:27
Leer la mente
¿Podría utilizarse para extraer una confesión de un preso? ¿O para exponer nuestros secretos más profundos y oscuros?
La respuesta corta, dicen Huth y sus colegas, es no, no por el momento.
Para empezar, los escáneres cerebrales deben realizarse en una máquina de resonancia magnética funcional, la tecnología de inteligencia artificial debe entrenarse en el cerebro de un individuo durante muchas horas y, según los investigadores de Texas, los sujetos deben dar su consentimiento. Si una persona se resiste activamente a escuchar el audio o piensa en otra cosa, los escáneres cerebrales no tendrán éxito.
“Creemos que los datos cerebrales de todos deben mantenerse en privado”, dijo Jerry Tang, el autor principal de un artículo publicado a principios de este mes que detalla los hallazgos de su equipo. “Nuestros cerebros son como una de las últimas fronteras de nuestra privacidad”.
Tang explicó: “obviamente, existe la preocupación de que la tecnología de decodificación cerebral pueda usarse de manera peligrosa”. La decodificación cerebral es el término que los investigadores prefieren usar en lugar de leer la mente.
“Siento que leer la mente evoca esta idea de llegar a los pequeños pensamientos que no quieres dejar escapar, pequeñas reacciones a las cosas. Y no creo que haya ninguna sugerencia de que realmente podamos hacer eso con este tipo de enfoque”, explicó Huth. “Lo que podemos obtener son las grandes ideas en las que estás pensando. La historia que alguien te está contando, si estás tratando de contar una historia dentro de tu cabeza, también podemos llegar a eso”.
La semana pasada, los creadores de los sistemas de IA generativa, incluido el CEO de OpenAI, Sam Altman, descendieron al Capitolio de Estados Unidos para testificar ante una comisión del Senado sobre las preocupaciones de los legisladores sobre los riesgos que plantea la poderosa tecnología. Altman advirtió que el desarrollo de IA sin barandillas podría “causar un daño significativo al mundo” e instó a los legisladores a implementar regulaciones para abordar las preocupaciones.
Haciéndose eco de la advertencia de la IA, Tang le dijo a CNN que los legisladores deben tomar en serio la “privacidad mental” para proteger los “datos cerebrales”, nuestros pensamientos, dos de los términos más distópicos que he escuchado en la era de la IA.
Pionero de la inteligencia artificial renuncia a Google para advertir de los “peligros” de la tecnología
Deepfake: ¿cuáles son sus beneficios y aplicaciones? 2:43
Si bien la tecnología en este momento solo funciona en casos muy limitados, es posible que ese no sea siempre el caso.
“Es importante no tener una falsa sensación de seguridad y pensar que las cosas serán así para siempre”, advirtió Tang. “La tecnología puede mejorar y eso podría cambiar qué tan bien podemos decodificar y cambiar si los decodificadores requieren la cooperación de una persona”.
The-CNN-Wire
™ & © 2023 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.