logoAICgris  RadioIconTop

Desarrolla CICESE interfaz cerebro-computadora


Por Karla Navarro

Ensenada, Baja California. 1 de marzo de 2017 (Agencia Informativa Conacyt).- Gustavo Olague Caballero, investigador del Departamento de Ciencias de la Computación del Centro de Investigación Científica y de Educación Superior de Ensenada (CICESE), desarrolla una interfaz cerebro-computadora que será capaz de "leer" los impulsos eléctricos generados por la actividad de las neuronas a través del pensamiento.

1-HEAD_cerebro01034.jpg

En entrevista con la Agencia Informativa Conacyt, el investigador informó que como primera aplicación se contempla que esta tecnología, que innova en el área de software, sea utilizada por personas con discapacidad motriz, sensorial y de comunicación oral.

Mediante la ampliación del proyecto titulado Programación cerebral aplicada al estudio del pensamiento y la visión, Gustavo Olague y sus estudiantes consideran la adquisición de tecnología que permita a la interfaz leer los pensamientos en cualquier parte del cerebro.

“La tecnología que tenemos ahorita únicamente lee lo que está cerca de la parte exterior del cerebro”, precisó, y agregó que con la interfaz buscan aportar a los tratamientos médicos que no utilizan fármacos.

1 compucerebral0103El desarrollo de la interfaz es la continuación del proyecto Evolución de cerebros artificiales en visión por computadora, financiado por el Consejo Nacional de Ciencia y Tecnología (Conacyt).

Leer estados de ánimo

Dedicado principalmente al desarrollo de inteligencia artificial, Gustavo Olague explica que se ha propuesto lograr la colaboración entre cerebros artificiales y cerebros reales, con el objeto de poder leer los estados del pensamiento.

Para ello, se usarán electrodos que se conectan en el cuero cabelludo del usuario y al tener un pensamiento la computadora se encargará de expresarlo.

“La idea es que a partir de esas señales se puedan deducir estados de ánimo, vamos a empezar con cosas sencillas como con 10 estados de ánimo, para que la persona pueda decir si no le gusta o si le gusta lo que está comiendo, si quiere que la bañen, si quiere salir, si está molesta, si siente dolor, etcétera”, detalló.

Subrayó que actualmente el proyecto se encuentra en la fase teórica para el desarrollo del software, posteriormente trabajarán en la factibilidad y, finalmente, diseñarán un prototipo para comenzar con su primera aplicación.

Dado que una de sus primeras aplicaciones serán los tratamientos médicos no invasivos, han entablado acuerdos de colaboración con el Sistema para el Desarrollo Integral de la Familia (DIF) a nivel nacional, para que a través de esta institución cuenten con pacientes para hacer las primeras pruebas.

arroba14010contacto 1 Dr. Gustavo Olague Caballero
Investigador del Departamento de Ciencias de la Computación, CICESE
 corrico dos   Esta dirección de correo electrónico está siendo protegida contra los robots de spam. Necesita tener JavaScript habilitado para poder verlo.

 

image icon01Descargar fotografías.

pdf iconVer texto en pdf.

 

Licencia de Creative Commons
Esta obra cuyo autor es Agencia Informativa Conacyt está bajo una licencia de Reconocimiento 4.0 Internacional de Creative Commons.



Agencia Informativa Conacyt

Acerca de ≈

¿Quién está detrás?

>  info@conacytprensa.mx

  • Teléfono (55) 5322 7700 ext: 1030
Algunos derechos reservados 2015 ®
Consejo Nacional de Ciencia y Tecnología
Conoce nuestras políticas de privacidad
logosfooter

México, CDMX

Av. Insurgentes Sur 1582. Delegación Benito Juárez 03940