Posts Tagged ‘interfaz cerebro-máquina’

Pienso echarte una mano…

July 28, 2011

Científicos de la Johns Hopkins University Applied Physics Laboratory (APL)  han recibido del DARPA más de 30 millones de USD para continuar con el desarrollo de un brazo prostético, controlado directamente por el cerebro. El prototipo ya se ha probado con éxito en animales (si, el ejército americano dispone de monos ciborg)  y acaba de entrar en la fase de experimentación humana.

La velocidad de reacción y peso de este brazo son similares a las de un brazo humano normal. Dispone de ‘dedos’ articulados, con lo que su versatilidad de movimiento (22 grados de libertad) se aproxima también a la de un brazo real. Todas estas  virtudes compensan el hecho de tener que implantarte un chip en la cabeza para controlarlo.

Este proyecto servirá además de base para el desarrollo de otras prótesis biónicas e interfaces apropiados para recuperar la movilidad en casos de lesión medular.

Al final va a resultar que el ejército sirve para algo…

 

Noticia original: Brain-controlled prosthetic limb most advanced yet

Fuente: Hopkins Applied Physics Lab Awarded DARPA Funding to Test Thought-Controlled Prosthetic Limb System

Advertisements

Controla tu iPhone/iPad con la mente

January 17, 2011

Esta es la propuesta que nos trae XWave, de PLX Devices (Sunnyvale, CA): una interfaz cerebro/máquina comercial y al alcance del bolsillo de muchos (100 USD aproximadamente). La tecnología se basa en el NeuroSky eSense dry sensor y, si bien no aclaran la tecnología subyacente, parece que se base en detección de patrones, más que en potenciales evocados, lo que lleva a pensar que será necesaria una gran concentración para emplear el dispositivo.

Si bien su aplicación actual está enfocada a los juegos en iPhone/iPad y a la meditación (de acuerdo a sus creadores), no es difícil imaginar múltiples aplicaciones para personas con discapacidades.

Fuente: Medgadget

Interfaz cerebro-ordenador permite comunicarse a personas con lesiones cerebrales

December 7, 2008

El informático de la universidad británica de Portsmouth Paul Gnanayutham ha creado un interfaz cerebro-máquina que permite manejar un ordenador a personas que tienen una lesión cerebral y son incapaces de hablar o moverse, usando únicamente los pocos sentidos de los que disponen. El dispositivo consiste básicamente en una serie de electrodos que recogen señales cerebrales, oculares o musculares. Después, esas señales son pasadas a un ordenador portátil, que las “lee” y las convierte en movimientos de cursor. El prototipo permite que el cursor se desplace hacia mensajes muy básicos, como “sí”, “no” o “gracias”. Las primeras pruebas ya han demostrado la efectividad de este sistema y varias personas que llevaban meses o años incomunicadas han podido interactuar con los demás.

El dispositivo usa las ondas cerebrales de los pacientes y los movimientos oculares y musculares para mover el cursor del ordenador portátil. El prototipo ahora presentado permite que el cursor se dirija a objetivos como “sí”, “no”, “gracias”, así como a encender una televisión o navegar por una página de Internet. Esos objetivos pueden ser cambiados en función de lo que la persona quiera hacer, ver o decir.

El sistema no es invasivo y funciona obteniendo pruebas a partir de una cinta con electrodos adosada a la cabeza para captar las ondas cerebrales (electroencefalografía), el movimiento de ojos (electrooculografía) o movimientos musculares (electromiografía). Estas señales alimentan un amplificador que puede “borrar” los sonidos externos y escuchar sólo esas ondas emitidas por la persona que lleva puestos los electrodos. Después, las señales pasan al puerto de serie del ordenador, de tal modo que éste sólo ve la conexión cerebro-cuerpo y el control del cursor.

Fuente: Tendencias21

Con una mirada

May 26, 2008

Un grupo de investigadores de la Universidad Miguel Hernández (UMH) ha desarrollado una interfaz cerebral capaz de leer los movimientos de los ojos del usuario y, a través de estos estímulos, enviar órdenes a un robot. Sus creadores aseguran que el ingenio servirá para ayudar a personas que no se pueden mover a realizar tareas sencillas con el robot, como conseguir un vaso de agua.

El sistema se compone de unos electrodos que se acoplan a la cabeza, a la altura de la sien, y son capaces de distinguir entre varios estímulos según se muevan los ojos: izquierda, derecha, arriba o abajo, además de combinaciones de estos movimientos. Los estímulos se convierten en órdenes para que las ejecute un robot o un brazo mecánico, de forma que el usuario puede mover y agarrar objetos moviendo tan sólo sus ojos.

Según ha explicado José María Azorín, investigador del Instituto de bioingeniería de la citada universidad, su equipo está trabajando ahora en un nuevo sistema que permitirá leer el pensamiento, destinado a pacientes que no puedan mover tampoco los ojos. Este último sistema empleará un gorro de electrodos -de aspecto similar a los que usan los nadadores- y recogerá los impulsos generados en la corteza coerebral.

Fuente: Madridmas

Interfaces Cerebro-máquina, literal

April 19, 2008

Investigadores de la Universidad de Osake están desarrollando robót controlados mediante el pensamiento, a través de conjuntos de electrodos colocados directamente sobre el cerebro (y bajo el cuero cabelludo). Este es el primer intento en Japón de interfaces cerebro-máquina invasivos, en cuanto a que requieren de cirujía. El objetivo es la creación de miembros robóticos para personas con algún tipo de amputación.

Fuente: pinktentacle

Primer interfaz cerebro-máquina comercial

April 13, 2008

¿Alguna vez quisiste controlar el ordenador con la mente? Emotiv System ha desarrollado un casco (EPOC, en la foto), que puede permitirlo a finales de 2008 por $300

Otra empresa que también está trabajando en lo mismo es NeuroSky. Sin embargo ésta no pretende desarrollar un sistma completo, sino vender los sensores y tecnología a empresas interesadas.


Buen artículo en ThinkArtificial