martes, 28 de febrero de 2012

EXPLORANDO EL COMPORTAMIENTO HUMANO

Un nuevo sistema de visión analiza el comportamiento humano

 


HERMES se basa en el análisis del comportamiento humano a partir de secuencias de vídeo. La imagen pertenece a una acción efímera de vídeo danza. Foto: Umberto Giangrandi.

Un consorcio de investigadores europeos coordinado por el Centro de Visión por Computador (CVC) de la Universitad Autónoma de Barcelona (UAB) ha desarrollado HERMES, un sistema cognitivo computacional integrado por cámaras de vídeo y software que es capaz de reconocer y prever el comportamiento humano, así como de describirlo en lenguaje natural.
HERMES (Human Expressive Representations of Motion and their Evalutation in Sequences) se basa en el análisis del comportamiento humano a partir de secuencias de vídeo capturadas con tres niveles de enfoque: el del individuo, como un objeto relativamente alejado; el de su cuerpo, con una proximidad media que permite analizar sus posturas; y el del rostro, que permite estudiar con detalle sus expresiones faciales. La información obtenida, procesada por algoritmos de visión por computador y de inteligencia artificial, permite al sistema aprender y reconocer patrones de movimiento.
El nuevo sistema aporta dos novedades importantes en el campo de la visión por computador. La primera es la descripción de los movimientos captados por las cámaras en lenguaje natural, a través de frases sencillas y precisas que van apareciendo en la pantalla del ordenador en tiempo real, junto con el número fotograma en que se produce la acción.
El sistema puede utilizar también un avatar hablando y describir la información en diferentes idiomas. La segunda es la posibilidad de analizar y descubrir potenciales comportamientos inusuales -a partir de los movimientos aprendidos- y de alertar sobre ellos. Por ejemplo, el sistema enviará un aviso al centro de control de una estación de metro cuando capte un individuo que intente bajar a la vía del tren; o alertará cuando una persona anciana que viva sola sufra una caída.
Las ventajas de aplicación que supone son muy altas en el ámbito de la vigilancia inteligente y la prevención de accidentes y delitos, pero los investigadores consideran que también tiene un gran potencial como herramienta de estudio en otros campos, como el marketing o la psicología.
HERMES ha sido un proyecto coordinado por Juan José Villanueva, profesor emérito del Departamento de Ciencias de la Computación de la UAB y desde hace un año exdirector del CVC, del que fue director durante los últimos 14 años.
El nuevo sistema, que ha recibido varios premios científicos en los mejores congresos especializados, ha sido desarrollado dentro del 6º Programa Marco de Investigación de la Unión Europa.
Con una duración de tres años y medio y un presupuesto de 2.100.000 euros, en su realización han participado investigadores de cinco de los grupos de investigación más reconocidos de Europa en esta área y de una empresa especializada en tecnologías de la información y comunicación. Este nuevo sistema se estructura a su vez en siete subproyectos.

Siete subproyectos de HERMES
1.- El sistema de cámaras: se han utilizado cámaras estáticas para abarcar la escena completa y cámaras activas de alta resolución - sensores “pan-tilt-zoom” (inclinación horizontal-vertical-zoom)-, que permiten un seguimiento y una mayor aproximación automática a los individuos. Para hacerlo, se han aplicado técnicas de optimización de la información contenida en las imágenes.
2.- El análisis del movimiento de los objetos y de los individuos de la imagen. La información obtenida es utilizada para guiar las cámaras activas hacia donde se producen las acciones. Estos problemas se han abordado con diferentes tipos de técnicas de seguimiento.
3.- El análisis del movimiento del cuerpo de los individuos, para extraer la información de las diversas partes del cuerpo, analizar las acciones y describir y prever el comportamiento. Se han usado técnicas basadas en el reconocimiento de patrones y siluetas.
4.- El análisis del movimiento facial, para la comprensión del estado emocional de los individuos, su actitud y las posibles reacciones. En este subproyecto se han utilizado y desarrollado nuevas técnicas para el seguimiento y la alineación de las caras en 2D y 3D.
5.- La integración del software y del lenguaje natural, con el objetivo de describir lo que está pasando en las escenas registradas, con un esquema conceptual de representación.
6.- La integración de todo el sistema, software y hardware, para trabajar en entornos reales y en tiempo real. Se ha diseñado e implantado todo el sistema en una arquitectura orientada al funcionamiento en escenarios reales.
7.- La generación de secuencias virtuales a partir de la descripción de comportamientos en lenguaje natural y la interactuación de los dos mundos, el real y el virtual, en una misma secuencia, con técnicas de realidad aumentada.

Fuente: Universitat Autònoma de Barcelona

lunes, 27 de febrero de 2012

Convertir pensamientos en palabras
Un programa que lee la mente traduce la actividad cerebral a palabras

Los científicos han recogido fragmentos de pensamientos de la gente descodificando la actividad cerebral causada por las palabras que escuchan.
Esta extraordinaria proeza ha proporcionado a los investigadores una nueva perspectiva sobre el modo en que el cerebro procesa el lenguaje; y plantea la tentadora posibilidad de desarrollar unos dispositivos que puedan devolver el habla a los mudos.

Aunque todavía se encuentra en sus inicios, el trabajo allana el camino para el desarrollo de implantes cerebrales que podrían monitorizar los pensamientos de una persona y pronunciar palabras y frases a medida que ésta las imagine.

Estos dispositivos podrían transformar la vida de los miles de personas que pierden la capacidad de hablar como resultado de un infarto cerebral u otras enfermedades.

Los experimentos realizados con 15 pacientes en los EE.UU. demostraron que un ordenador podía descifrar la actividad cerebral y reproducir las palabras que escuchaban, aunque a veces las palabras eran difíciles de reconocer.

Crear un dispositivo que ayude a la gente a hablar no será fácil. Las señales del cerebro que codifican las palabras imaginadas podrían ser difíciles de descifrar y el dispositivo debería ser pequeño y funcionar de forma inalámbrica. Otra posible dificultad está en distinguir entre las palabras que una persona quiere decir y los pensamientos que preferirían mantener en privado.

La posibilidad de leer la mente ha despertado cierta preocupación por si se podría utilizar la tecnología en secreto o para interrogar a delincuentes y terroristas, pero Robert Knight, miembro del equipo y director del Instituto Helen Wills de Neurociencia de la Universidad de California, Berkeley, afirmó que eso todavía se encuentra en el reino de la ciencia ficción.

Leer el estudio: Reconstructing Speech from Human Auditory Cortex

http://avances-tecnologicos.euroresidentes.com/

viernes, 24 de febrero de 2012

miércoles, 22 de febrero de 2012

¡Regresamos!

Después de este largo paréntesis, hemos regresado con mucho entusiasmo y ganas de compartir ideas.  Iniciamos esta nueva etapa con una frase de elogio a la estadística dicha nada menos que por el escritor H.G. Wells:
"Llegará el día en el que el pensamiento estadístico será una condición tan necesaria para la convivencia eficiente como la capacidad de leer y escribir”







Y aprovechamos para dejar aquí un video interesante e inquietante, con aspiraciones proféticas, titulado: "La revolución de los medios"
http://www.youtube.com/watch?v=6UrDlqpFteI&feature=related&noredirect=1