Author Archive

Google entra en el mundo de la salud

August 26, 2014
En una entrevista en el New York Times el cofundador de Google Larry page afirmó que la regulación respecto a la privacidad de datos médicos está costando muchas vidas. Afirmó que: “Actualmente no se hace minería de datos médicos. Si lo hiciéramos probablemente salvaríamos 100000 vidas el año próximo”
 
body
 
Google X, la división experimental de la compañía, está trabajando en un projecto llamado Baseline Study. El objetivo: prevenir las enfermedades. Para ello un grupo de 100 científicos están tratando de obtener un mapa de cómo debería ser un cuerpo humano perfecto. De esta forma pretenden encontrar nuevos biomarcadores que ayuden a detectar y prevenir las enfermedades. Esto es atacar el problema desde la raíz. Si tenemos en cuenta que el número de marcadores (temperatura, tensión arterial, ritmo cardíaco) que permiten llegar a un diagnóstico es paupérrimo en comparación con el número de enfermedades que manifiestan los mismos síntomas, se entiende que la práctica médica se base mucho en la experiencia pasada del médico.
 
La BBC lanzó un documental interesante sobre el tema de la monitorización.
 
 

Microscopio holográfico low-cost

December 13, 2012
Un microscopio digital holográfico permite obtener la forma en 3D de objetos diminutos como células humanas en alta resolución. Los microscopios tradicionales tienen limitaciones, como el pequeño y poco profundo campo de visión, lo que hace difícil hacerse una idea de la forma tridimensional de los objetos.
Esta técnica no pudo ponerse en práctica hasta principios de los años 2000, cuando los sensores ópticos y ordenadores alcanzaron un nivel adecuado para obtener y procesar imágenes de muy alta calidad. Algunas compañías como Lyncée Tec o Phase Holographic Imaging AB comenzaron entonces a comercializar este tipo de microscopio. Y no es fácil conocer su precio de venta (lo que suele indicar que nada tienen de barato).
El procedimiento básico es dividir un haz LASER en dos. Uno se usa como referencia, y el otro se hace impactar contra la muestra. Combinando esos dos haces, se obtiene el patrón de interferencia. Con procesado digital se puede cambiar la profundidad, corregir aberraciones ópticas y reconstruir la imagen en 3D.
El objeto de esta entrada es que en el Kisarazu National College of Technology (Japón) han creado un prototipo de $250 usando una webcam, un Láser pequeño de estado sólido y un par de librerías gráficas Open Source (OpenCV y CWO++).
Los detalles se pueden encontrar en este artículo y aquí

NETRA, oftalmología de bajo coste

May 24, 2012

NETRA es un dispositivo que combinado con un smartphone permite realizar pruebas oftalmológicas con resultados parecidos a los profesionales. La gracia, que se trata de un dispositivo con un coste de fabricación de $2. El dispositivo se emplea para corregir problemas refractivos (errores en el enfoque de la luz en el ojo), la segunda causa de ceguera a nivel mundial.

NETRA, o Near-Eye Tool for Refractive Assessment, se coloca delante del teléfono. Cuando la persona mira a través del mismo, ve un par de líneas paralelas creadas por el software residente el el teléfono, que ha de mover hasta que unirlas en una. El ejercicio se repite varias veces y con ambos ojos. El conjunto de lentes en el interior del dispositivo cambian la distancia focal a lo largo de las pruebas. Los errores al ajustar las líneas se usan para calcular el error refractivo de la persona.

Fuente: SingularityHub

Entorno ‘inteligente’ de asistencia domiciliaria

May 24, 2012

El grupo ISIS del Departamento de Tecnología Electrónica de la Universidad de Málaga ha desarrollado varios prototipos para configurar un entorno ‘inteligente’ que reconoce los hábitos de los usuarios y les proporciona dispositivos para desplazarse mejor por él. El equipo ha grabado varios vídeossobre su investigación.

Se trata de un sistema inalámbrico de sensores distribuído por el domicilio, capaz de extraer información de los patrones de conducta del habitante y, a partir de las desviaciones de estos, generar información y alarmas. Además, han incorporado a la red de sensores una silla de ruedas y un asistente robótico que acomete tareas sencillas como la búsqueda de objetos o la emisión de avisos.

Los sensores monitorizan dos tipos de parámetros. Por un lado, datos de tipo ambiental, como la temperatura, la luz o la presencia. Por otro, los dispositivos rastrean datos de parámetros biológicos de la persona como la temperatura corporal y el ritmo cardiaco o respiratorio.

Este entorno, de momento en pruebas, se completa con un sistema de ayuda a la navegación de las sillas de ruedas eléctricas y la asistencia de un pequeño robot. En el primer caso, se incorpora una silla de ruedas autónoma con un dispositivo de navegación, de forma que la conducción de ésta aproveche al máximo las capacidades del usuario. “Cuenta con un dispositivo de asistencia guiada que, en función de la discapacidad, deduce los intentos de movimiento, ayuda a la persona a desplazarse y la protege de situaciones peligrosas

Fuente: Agencia Sinc

Telemedicina, cómo se imaginaba en 1925

March 20, 2012

La década de 1920 fue increíble para el avance de las telecomunicaciones. La radio fue finalmente adoptada como un medio de masas, y la televisión daba sus primeros pasos. En esos años se vislumbraban grandes cambios, que un pionero, Hugo Gernsback imaginó como pocos. Fundador de la revista Modern Electronics (1908) y después de Electrical Experimenter (1913), escribió un artículo en 1925 que combinaba su fascinación por las comunicaciones radioeléctricas en el que presentaba el diseño de un dispositivo futurista para el año 1975 que aún hoy no vemos.

Ese dispositivo, al que bautizó como “teledactyl”, permitiría a un médico no sólo ver a sus pacientes en una pantalla, sino también poder tocarlos con unos finos brazos robóticos. Básicamente predijo la telemedicina, con un ingrediente adicional: interfaces hápticos.

Un extracto del número de Febrero de 1925 de Science and Invention:

El Teledactyl (Tele, lejos; Dactyl, dedo — del griego) es un instrumento del futuro que nos permitirá “sentir a distancia”. Esta idea no es en modo alguno imposible, ya que el instrumento puede construirse con los medios disponibles hoy en día. Se trata simplemente del teleautógrafo, llevado al mundo de la radio, con algunas modificaciones. El doctor del futuro será capaz de sentir a sus pacientes a distancias. El médico manipulará los controles, que seguirán sus movimientos en la habitación del paciente de la misma forma. El médico verá lo que sucede en la habitación gracias a una pantalla de televisión.

De forma audaz el teledactyl estaba pensado no sólo para manipular el instrumento distante, sino también para presentar resistencia física al movimiento (tal como las interfaces hápticas):

Vemos al doctor del futuro trabajando, sintiendo el brazo del paciente remoto. Cada movimiento que realiza el médico con los controles, es duplicado vía radio a distancia. Cuando el teledactyl sobre el paciente se encuentra resistencia, los controles del médico se encuentran también con la misma resistencia. Los controles [junto al paciente] son sensibles al sonido y al calor, factores importantes para el diagnóstico.

Y una frase épica:

Dentro de 50 años, los ocupados médicos no podrán ver a sus pacientes como lo hacen hoy. Se requiere mucho tiempo y sólo puede ver a un número limitado cada día. Los servicios de un médico son tan importantes que nunca debería abandonar su despacho. Sin embargo, los pacientes tampoco pueden siempre ir a donde se encuentra su médico. Aquí es donde intervienen el teledactyl y la diagnosis usando comunicaciones por radio.

Es una frase interesante porque ese razonamiento sigue siendo hoy el caballo de batalla alrededor de la telemedicina. Y eso sin incluir otra funcionalidad que tenía pensada para su teledactyl: la firma digital

 

Artículo completo: Smithsonianmag

Realidad Aumentada para hacer ecografías en el espacio

February 27, 2012

En el espacio, las cosas son complicadas y un astronauta enfermo puede ser un problema importante para cualquier misión espacial. Para diagnosticar problemas serios, la Estación Espacial Internacional cuenta con un dispositivo de ultrasonidos, pero los astronautas no están entrenados para usarlos. La asistencia desde Tierra no siempre es rápida, por lo que las agencias espaciales quieren que los astronautas sea aún más autosuficienes.
La Agencia Espacial Europea está trabajando en un sistema de Realidad Aumentada para ayudar a los astronautas a diagnosticar mejor problemas médicos en el espacio. El sistema de cirugía y diagnóstico médico asistido por computadora, (CAMDASS) es un sistema portátil de realidad aumentada, con una pantalla montada sobre un casco que combina objetos reales con virtuales.
El dispositivo está pensado en principio para pruebas de ecografía. La posición de la sonda de ultrasonidos se sigue con una cámara de infrarrojos, usando marcas (o tags) que se colocan sobre el paciente. El cuerpo de éste está asociado a uno de referencia virtual, y el operador puede ver (en su display) imágenes sobre el propio paciente, dándole una indicación de lo que debería estar viendo y guiándolo en el proceso

El uso de ecógrafos está casi siempre ligado a un radiólogo, con experiencia y conocimientos para usarlos (mover la sonda por el cuerpo, básicamente). Desligar equipamiento médico de profesionales (caros) que los sepan utilizar es un paso más en la democratización (unviersalización) de la salud.

Fuente:

Lentillas electrónicas para conectarte al mundo…a flor de piel

November 23, 2011

Investigadores de la Universidad de Washington y de la Universidad Aalto de Finlandia han diseñado el primer prototipo de una lente de contacto capaz de presentar información visual (por ahora sólo un píxel)

A pesar de tener un píxel, se ha probado con ratones (afirman) de forma segura, es una de los primeros prototipos reales de este tipo. En cualquier caso la tolerancia corporal a la lente es un problema. Pero además existe otro problema. El ojo humano cuenta con una distancia focal mínima de varios centímetros, si acercamos demasiado el objeto entonces se volverá borroso. Para solucionar esto, el prototipo cuenta con lentes de Fresnel, que son más delgados y planos que los lentes convencionales; estos ayudan para enfocar la imagen proyectada en la retina.

De esto a leer este blog con tus lentillas conectadas a internet va un paso. Otro uso mejor podría ser el informarte (si eres diabético) de forma visual de tu nivel de glucosa (los primeros diseños de lentillas ‘inteligentes’ iban en este sentido)

Fuente: Medgadget, El Mundo

Robots enfermeros de Toyota para rehabilitación

November 3, 2011

Desde 2007, Toyota trabaja en el programa Toyota Partner Robot, buscando robots que permitan mejorar la calidad de vida, y hemos visto robot violinista, los transportadores de personas y los más ambiciosos relacionados con futuros robots astronautas. También hemos visto un robot que levanta personas del suelo y otro que nos da baños de esponja.

En este caso, el robot enfermero quiere mejorar el proceso de rehabilitación de pacientes con disminuciones motrices por lesiones temporales o por enfermedades que limitan su respuesta física e impiden que puedan desarrollar su vida de manera normal.

Existen cuantro modelos de robot enfermeros: un control para piernas paralizadas, un contenedor del peso corporal para reducir la presión en los miembros inferiores (tobillos y rodillas), uno estilo Segway para mejorar el equilibrio y un sistema de elevación para enfermeras “de verdad”.

Fuente: fayerwayer

Un ecógrafo para todos

October 28, 2011

Son varios los sistemas de ultrasonido portátiles para ver a tu futuro bebé, como el Vscan de GE, o el Acuson P10 de Siemens

 

Sin embargo son dispositivos dedicados. A diferencia de MobiUS, que consta en un de una sonda de ultrasonido y un teléfono Windows Mobile de Toshiba. Una ventaja es la posibilidad de utilizar las comunicaciones del teléfono para enviar imágenes remotamente (a facebook?). Eso sí, gracias a Tom Cruise (hay una ley en su honor!), sólo lo podrás hacer si vives fuera de California.

Fuente: Medgadget

Aumentar la velocidad del emulador de Android x4

October 12, 2011

El emulador de Android es lento, muy lento. Un dispositivo físico, cuando se está depurando una aplicación, también llega a cansar. La razón es que el emulador de Android funciona emulando un procesador ARM por encima del x86 de nuestro PC, lo que genera una traducción de código muy lenta. Aunque es bueno conocer el rendimiento y funcionamiento tal como quedaría en un dispositivo real, muchas veces, cuando se está desarrollando, merece la pena acelerar el proceso.

La solución es usar otro PC o una máquina virtual…con Android. Una vez tengamos Android virtualizado sobre un equipo potente (nuestro x86) se puede depurar tan fácilmente como si se tratara del emulador.

Para ello la opción más simple es usar Android-x86, una distribución de Android para sistemas x86. Pasos para una instalación en un equipo Toshiba satellite con Windows XP (puede servir para otros). Información más detallada aquí (en inglés)

  1. Descargar android-x86-2.2-r2-sparta.iso, hay más en la página (esta funciona para un Toshiba satellite) y VirtualBox.
  2. Crear a continuación una máquina virtual para el SO anterior con VirtualBox
    1. Montar la iso descargada en Opciones->Almacenamiento
    2. En Opciones->Red seleccionar “Adaptador puente” (Bridge) o sólo-anfitrión (Host only)
  3. Inhabilitar integración del ratón (sobre la máquina virtual, en Máquina->Inhabilitar…)
  4. Una vez arrancada la máquina virtual, pulsando Alt+F1 abrimos una consola (volvemos al emulador de Android con Alt+F7) y el comando “netcfg” nos dice la IP que tiene la máquina virtual con Android. Esa IP es importante, ya que la utilizaremos en nuestro PC (host) para conectarnos al emulador y poder depurar con Eclipse (u otro IDE).
  5. Desde la máquina host: adb connect [ip_máquina_Android]. Se podrá ver entonces en Eclipse como un nuevo dispositivo.
  6. Para tener un formato de pantalla similar al de un móvil, añadir una nueva línea al archivo .vbox correspondiente al nombre que dimos a la máquina virtual usando el comando (desde linea de comandos) VBoxManage.exe:
    c:\<ruta_virtualBox>\VBoxManage setextradata “VM name” “CustomVideoMode1” “320x480x16”
  1. Durante el arranque añadir como comando al kernel, o añadir al menú de grub:
    UVESA_MODE=320x480

Usando los mapas

Para usar la API de mapas de google es necesario modificar el procedimiento anterior ligeramente. Esto se debe a que la distribución de Android-x86 no cuenta con las librerías necesarias.

Para ello es necesario copiar dos archivos en la carpeta /system de la máquina virtual con Android:

  • Copiar el archivo com.google.android.maps.jar en /system/framework
  • Copiar el archivo com.google.android.maps.xml en /system/etc/permissions

Durante el proceso de instalación, es necesario seleccionar como sistema de archivo NTFS (opción 07 para el tipo de partición). Si no se hace, la carpeta /system será montada como sólo lectura, por lo que no podremos escribir nada en ella.

Para copiar los archivos, se utiliza adb desde el PC:

c:\android-sdk\platform-tools\adb connect <IP_MaquinaVirtualAndroid>
c:\android-sdk\platform-tools\adb 
push <ruta_local>/com.google.android.maps.jar /system/framework
c:\android-sdk\platform-tools\adb  push
<ruta_local>/com.google.android.maps.xml /system/etc/permissions

Una vez hecho esto hay que añadir al archivo /system/etc/permissions/platform.xml la siguiente línea:

<library name="com.google.android.maps"
file="/system/framework/com.google.android.maps.jar" />

A continuación se debe reiniciar la máquina virtual, y podemos ya depurar y ejecutar aplicaciones que hagan uso de la API de mapas de Google.