Image and video hosting by TinyPic
CHAU...ADIOS A LA LIBERTAD EN BLOG


ESTE ES MI NUEVO SITIO,(todavía en construcción),AL CUAL ME TRANSLADO, CUANDO BLOGGER APLIQUE CENSURA. GRACIAS.

MIENTRAS PUEDA SEGUIRE EN ESTE BLOG




viernes, 25 de noviembre de 2011

Mecanismos neuronales que dan sentido a nuestros sentidos

El cerebro humano está constantemente bombardeado por una cacofonía de información desde los ojos, oídos, nariz, boca y piel. Ahora, un equipo de científicos de la Universidad de Rochester, de la de Washington en St. Louis y el Baylor College of Medicine, ha desvelado cómo maneja el cerebro tan complejos procesos, que cambian rápidamente, y con señales sensoriales, que a menudo entran en conflicto, para dar sentido a nuestro mundo.

La respuesta se encuentra en un cálculo, relativamente simple, llevado a cabo por unas células nerviosas individuales, una operación que puede ser descrita matemáticamente como el promedio ponderado directo. La clave está en que las neuronas tienen que aplicar la ponderación correcta a cada señal sensorial, y los autores revelan cómo esto se hace.

El estudio, que será publicado el 20 de noviembre en la revista Nature Neuroscience, representa la primera evidencia directa de cómo el cerebro combina múltiples fuentes de información sensorial, para formar una percepción lo más exacta posible de su entorno, informan los investigadores.

Este descubrimiento puede conducir a nuevas terapias para personas con la enfermedad de Alzheimer, además de otros trastornos que alteran el sentido de auto-movimiento, señala el coautor del estudio, Greg DeAngelis, profesor y director de Ciencias Cognitivas y Cerebro en la Universidad de Rochester. Esta profunda comprensión de cómo se combinan los circuitos cerebrales con las diferentes señales sensoriales, podría ayudar también a los científicos e ingenieros a diseñar más sofisticados sistemas nerviosos artificiales, como los utilizados en los robots.

El cerebro está constantemente confrontado con el cambio y las entradas sensoriales conflictivas, dice DeAngelis. Por ejemplo, durante una proyección de películas IMAX donde te vas dando una vuelta en una avioneta, “puede que te descubras agarrado con fuerza a tu asiento”, dice. Una gran información visual hace que te sientas como si estuvieras en movimiento, sin embargo, el balance de señales que son transmitidas por los sensores del oído interno indican que tu cuerpo está, de hecho, pegado con seguridad a la butaca. Entonces, ¿cómo decide el cerebro interpretar estas entradas en conflicto?

El estudio muestra que el cerebro no tiene que “decidir” primero qué señal sensorial es más fiable. “En realidad, esto es más emocionante de lo que hemos demostrado”, dice DeAngelis. El estudio demuestra que los cálculos de bajo nivel realizados por las neuronas individuales del cerebro, cuando son repetidos por millones de neuronas realizando cálculos similares, representa una capacidad muy compleja del cerebro para reconocer la ponderación más importante de las señales sensoriales. “Por lo tanto, el cerebro esencialmente puede descomponer una aparente tarea de comportamiento de alto nivel, en un conjunto de operaciones mucho más simples llevadas a cabo simultáneamente por muchas neuronas”, explica DeAngelis.

El estudio confirma y extiende una teoría computacional, ya desarrollada anteriormente, del científico cognitivo Alexandre Pouget, en la Universidad de Rochester y en la de Ginebra, Suiza, además de coautor de este documento. La teoría predice que las neuronas se activan de la manera prevista por una regla de suma ponderada, que se vio ampliamente confirmada por los datos neurales. Sorprendentemente, sin embargo, la ponderación que aprendieron las neuronas se desvia un poco de las predicciones teóricas, y la diferencia podría explicarse a que el comportamiento también varía ligeramente de un sujeto a otro, concluyen los autores. “Ser capaz de predecir estas pequeñas discrepancias establece una conexión interesante entre los cálculos realizados a nivel de neuronas individuales y los aspectos detallados del comportamiento”, añade DeAngelis.

Para recopilar estos datos, los investigadores diseñaron un sistema de realidad virtual con dos señales direccionales, un patrón visual movía puntos en una pantalla de ordenador, que simulaba el movimiento de viaje hacia adelante, y un movimiento físico del sujeto creado por una plataforma. Los investigadores variaban la cantidad de aleatoriedad del movimiento de los puntos, para cambiar la forma confiable de las señales visuales en relación con el movimiento de la plataforma. Al final de cada ensayo, los sujetos se indicaban en qué dirección se dirigían, a derecha o izquierda.

  • Referencia. Eurekalert.org, 20 noviembre 2011, contacto: Susan Hagen
  • Fuente: Universidad de Rochester .
  • Notas: Los experimentos se llevaron a cabo en la Universidad de Washington, y el equipo estaba integrado por Christopher Fetsch, ahora miembro post-doctoral en la Universidad de Washington, y Dora Angelaki, ahora directora del Departamento de Neurociencia del Baylor College of Medicine. La investigación fue financiada por los Institutos Nacionales de Salud, la National Science Foundation, la Multidisciplinary University Research Initiative y la Fundación James McDonnell.
  • Traducido por Pedro Donaire
  • http://bitnavegante.blogspot.com/2011/11/mecanismos-neuronales-que-dan-sentido.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+bitnavegante+%28BitNavegantes%29&utm_content=Google+Reader&utm_term=Google+Reader