César Tomé López

400 posts · 221,360 views

Experientia docet
400 posts

Sort by Latest Post, Most Popular

View by Condensed, Full

  • November 18, 2010
  • 05:02 PM
  • 662 views

El tacto modula la neurogénesis en la médula espinal de adultos.

by César Tomé López in Experientia docet

La exposición a nuevas sensaciones táctiles puede estimular la aparición de nuevas neuronas en la médula espinal de ratones, según un artículo que aparece en Molecular Psychiatry y que recoge las conclusiones del estudio llevado a cabo por el equipo de Michal Schwartz del Instituto Weizmann (Israel). Este resultado sugiere que la neurogénesis podría ser una componente importante del tacto. La neurogénesis en la médula espinal hasta ahora sólo se había documentado in vitro, el equipo de Schwartz informa de su detección in vivo en el asta posterior de la médula espinal.El equipo de investigadores detectó que existía una proliferación de células progenitoras neuronales en el asta posterior de la médula espinal (marcada con el número 2 en esta imagen) de los ratones que estaban estudiando. Dado que esta parte de la médula espinal se sabe que está compuesta principalmente de neuronas sensoriales, los científicos se plantearon la hipótesis de que estas neuronas podrían estar participando en la nocicepción (sensación de dolor) y/o el tacto. Para comprobar esta idea, el equipo colocó ratones durante dos horas en jaulas en las que se habían introducido sensaciones táctiles adicionales cambiando el suelo por papel de lija, grava, esponja o una combinación de los anteriores. El resultado no pudo ser más espectacular. Sólo dos horas después de ser expuestos a estos ambientes enriquecidos en sensaciones los ratones mostraban un incremento sustancial en el número de nuevas células en el asta posterior. La cantidad de neurogénesis era mayor en los ratones expuestos a los entornos con una combinación de materiales en el suelo, lo que sugiere que la proliferación celular podría ser una respuesta no sólo a la novedad del entorno, sino también a su diversidad. Para determinar el papel de la neurogénesis en la habituación a los estímulos, los investigadores expusieron a un grupo de ratones a los distintos entornos repetidamente durante un período de 7 días y a otro grupo lo mantuvieron permanentemente en las distintas jaulas modificadas. En abierto contraste con los experimentos de una sola exposición, las exposiciones repetidas no supusieron un incremento en la neurogénesis, y la exposición continuada incluso parecía inhibir el proceso. Un análisis pormenorizado de las células reveló que, en vez de proliferar, las células recién formadas habían comenzado a diferenciarse, en su mayoría en neuronas GABAérgicas inmaduras. Las neuronas GABAérgicas son inhibidoras, por lo que podrían estar jugando un papel en la habituación. Un aspecto llamativo es que estas neuronas inmaduras morían a las cuatro semanas. No está claro qué provoca esta muerte celular, pero en el tiempo que están vivas muy probablemente liberen GABA, como ya se demostró para este tipo de neuronas en el bulbo olfatorio, donde comienzan a liberar neurotransmisor a la semana del nacimiento.De hecho, los hallazgos del equipo de Schwartz son muy similares al proceso de neurogénesis en adultos que tiene lugar en el bulbo olfatorio, donde se ha encontrado que la exposición a distintos olores estimula la proliferación celular. Por lo tanto el proceso de neurogénesis y diferenciación podría ser un fenómeno más general de la plasticidad de los órganos sensoriales. El hallazgo de que la neurogénesis puede ser una parte integral de la sensación táctil podría tener implicaciones para la gestión del dolor y de las enfermedades dolorosas. Dado que estas nuevas neuronas GABAérgicas, inhibitorias, se generan donde las fibras nociceptivas terminan en la médula espinal podrían cambiar el umbral de dolor.Referencia: Shechter, R., Baruch, K., Schwartz, M., & Rolls, A. (2010). Touch gives new life: mechanosensation modulates spinal cord adult neurogenesis Molecular Psychiatry DOI: 10.1038/mp.2010.116

... Read more »

  • July 27, 2009
  • 04:05 PM
  • 661 views

Un descubrimiento que entra por los ojos.

by César Tomé López in Experientia docet

Prácticamente todas las especies tienen la capacidad de detectar la luz. Al menos tres tipos de células en la retina nos permiten detectarla a los humanos. Según un artículo publicado en Nature por el equipo de King-Wai Yau de la Universidad Johns Hopkins (EE.UU.) existiría en los peces otro tipo de célula sensible a la luz, las células horizontales. Estas células se pensaba que sólo se comunicaban con las células nerviosas vecinas, ni siquiera con el cerebro. Durante más de 100 años se ha sabido que los bastones y los conos eran las células responsables de percibir la luz y, por lo tanto, de la visión. Hace pocos años se descubrió en la retina otro fotorreceptor, las células ganglionares fotosensibles. Un fotorreceptor es un tipo de neurona especializado que se encuentra en la retina del ojo [en la imagen la parte de abajo] que es capaz de realizar la fototransducción, la transformación de la radiación electromagnética (luz) en señales electroquímicas biológicas, un potencial de acción en la membrana celular que dará lugar a la secreción de neurotransmisores. Hay diferencias funcionales importantes entre los conos [1 en la imagen] y los bastones [2 en la imagen]. Los conos están adaptados a la detección de colores, y funcionan bien con luz intensa; los bastones son más sensibles, pero no detectan bien el color, estando adaptados a la baja intensidad de luz. En los humanos hay tres tipos diferentes de cono, los que responden respectivamente a la luz de longitud de onda corta (azul), media (verde) o larga (amarillo-rojo). El número y proporción de bastones y conos varía entre las distintas especies, estando correlacionado con el que el animal sea primariamente diurno o nocturno. En la retina humana hay 120 millones de bastones y 6 millones de conos. También hay 1,3 millones de células ganglionares, de las cuales son fotosensibles el 1 ó 2%. Las células ganglionares fotosensibles [6 en la imagen] poseen un fotopigmento, la melanopsina, que absorbe la luz principalmente en la porción azul del espectro visible. Su función no está relacionada con la formación de imágenes pero sí con obtener una representación estable de la intensidad de la luz ambiente. Juegan un papel importante en la sincronización de los ritmos circadianos con la salida y la puesta del sol. Lo que hicieron Yau y su equipo fue intentar descubrir células que contuviesen melanopsina en otros vertebrados y encontraron algunas en las células horizontales de la retina en el pez gato y el goldfish. Las células horizontales [3 en la imagen] son neuronas que interconectan lateralmente, integrando y regulando la información procedente de múltiples fotorreceptores. Entre sus funciones están permitir que los ojos se adapten a distintas intensidades de luz y ver bordes y contornos El pez gato contiene dos clases de células horizontales: las que conectan los conos y las que conectan los bastones. El equipo de investigadores consiguió aislar células horizontales y tomar lecturas de su actividad eléctrica. Encontraron que la luz provoca un cambio en la corriente eléctrica en las células horizontales de los conos, pero no en las de los bastones. Pruebas con luz de distintas longitudes de onda permitieron comprobar que las células horizontales son miles de veces menos sensibles a la luz que los conos con los que están asociadas y que su respuesta es extremadamente lenta. Se sospecha que su función podría ser modular la inhibición lateral en períodos de tiempo largos. El hecho de que las células horizontales sean sensibles a la luz y que intervengan en la formación de imágenes (al estar asociadas a los conos) es, cuando menos, sorprendente. El descubrimiento abre la puerta a la posible existencia de otras células sensibles desconocidas y, obviamente, a repensar en profundidad cómo vemos.Referencia: Cheng, N., Tsunenari, T., & Yau, K. (2009). Intrinsic light response of retinal horizontal cells of teleosts Nature DOI: 10.1038/nature08175... Read more »

  • June 3, 2010
  • 05:45 PM
  • 660 views

Cómo identificar gotas de lluvia fosilizadas en este y otros mundos.

by César Tomé López in Experientia docet

Si dos gotas de lluvia golpean arena seca a diferentes velocidades, ¿cuál dejaría una marca menos profunda? Reflexiona un momento antes de seguir leyendo. La intuición indica que sería la gota que se mueve a mayor velocidad la que marcaría más la capa de arena. Sin embargo no son las gotas más lentas las que menos marcan, sino las gotas a velocidades medias, según un estudio realizado por Hiroaki Katsuragi, de la Universidad Kyushu (Japón) y publicado en Physical Review Letters. Katsuragi dejó caer gotas de agua desde diferentes alturas sobre una capa de material granular seco. A partir de aquí fue capaz de encontrar una fórmula para el radio del cráter de impacto de la gota basándose en la densidad del material granular, que podrá ser muy útil a los investigadores que intentan interpretar los posibles signos de agua fósil tanto en la Tierra como en otros miembros del Sistema Solar. Muchos investigadores han estudiado objetos rígidos impactando sobre una capa blanda de granos, imaginemos una bola de golf cayendo en una trampa de arena. Estos estudios han reproducido la clase de cráteres que se ven en las distintas lunas del Sistema Solar. Mucho menos se sabe de lo que ocurre cuando la pelota de golf se sustituye por una gota de agua, que es capaz de cambiar de forma durante el impacto. Ya en 1850 los geólogos habían identificado depresiones con forma de hoyo en arena fina que podrían ser gotas de lluvia fosilizadas. Para estar seguros de que lo son estas depresiones es necesario una mejor comprensión de cómo las gotas de agua forman cráteres de impacto. Para caracterizar los impactos de las gotas líquidas, Katsuragi hizo gotear agua en pequeños recipientes que contenían granos de carburo de silicio, un material abrasivo. Katsuragi varió tanto la altura como el tamaño de los granos, de 4 micras a 50. Cada gota tenía aproximadamente 4,8 milímetros de diámetro y se la dejaba caer desde una altura de entre 10 a 480 milímetros. Con esto Katsuragi obtuvo toda una colección de formas de cráter, dependiendo de la velocidad del impacto y del tamaño de los granos, de los que pudo medir con precisión usando un láser tanto radios como profundidades. A velocidades bajas y pequeños tamaños de grano, las gotas formaban lo que él llama un “cráter de hundimiento”. Éstos se forman cuando una gota permanece intacta en el momento del impacto y comprime lentamente la capa de granos “sueltos” que está debajo de ella conforme el líquido penetra entre los granos, dejando una depresión de 1,5 mm de profundidad. A velocidades medias, la gota comprime los granos que tiene debajo en el momento del impacto, por lo que no pueden comprimirse más durante el proceso de penetración del agua. Estos cráteres de media velocidad eran menos profundos que los de hundimiento. Las gotas de mayor velocidad cayendo sobre los granos más pequeños eran las que dejaban los cráteres más profundos, de alrededor de 2 milímetros. Cuanto mayor era el tamaño de los granos, los cráteres eran menos profundos, y las gotas a alta velocidad dejaban picos en medio de los cráteres en vez de valles. Ello se debe, según Katsuragi, a que la gota recoge granos de un área amplia durante el impacto inicial y su expansión, pero después los deposita en el centro cuando la gota se une y comienza a penetrar. Para saber qué controla el tamaño de un cráter, Katsuragi derivó una fórmula para ajustar sus datos experimentales. Encontró que el radio de un cráter es más o menos proporcional a dos cantidades. La primera es la proporción entre la densidad del grano y la del agua. Si la capa granular es mucho más densa que el agua, la gota se deforma mucho en el impacto y, por tanto, hace un cráter mayor que en los granos de menor densidad. La segunda cantidad es una constante llamada número de Weber, que cuantifica la influencia de la tensión superficial, las gotas mayores o que se mueven más rápidamente tienen números de Weber mayores y es más probable que se rompan durante el impacto. Se deduce de lo anterior que la deformación de la gota es crucial para entender la morfología del cráter. Con esta herramienta, que todavía debe refinarse y ampliarse a distintos sustratos y condiciones de caída, se puede intentar deducir en qué condiciones se produjeron algunos cráteres que hasta hoy no tienen una explicación satisfactoria o establecer la presencia de lluvia fósil en un territorio que en su día fue arenoso, ya sea en la Tierra o en cualquier otro mundo.[Esta es la participación de Experientia docet en el VIII Carnaval de la Física, que este mes acoge Pirulo cósmico.]Referencia: Katsuragi, H. (2010). Morphology Scaling of Drop Impact onto a Granular Layer Physical Review Letters, 104 (21) DOI: 10.1103/PhysRevLett.104.218001

... Read more »

  • May 28, 2009
  • 07:21 AM
  • 653 views

La eyaculación precoz tiene una componente genética.

by César Tomé López in Experientia docet

La eyaculación precoz podría ser un problema de origen genético, la disfunción eréctil, no. Investigadores de la Universidad Abo Akademi de Turku (Finlandia) han estudiado el equilibrio entre factores genéticos y ambientales en las disfunciones sexuales de los varones durante la primera relación sexual. Para ello, el equipo dirigido por Pekka Santtila entrevistó a 3.186 gemelos varones  y a sus hermanos (mayores y menores) sobre su primera vez.  Muchos participantes en el estudio afirmaron que habían sufrido disfunción eréctil y eyaculación precoz en su primer encuentro sexual. Estos problemas se atribuyen habitualmente a factores externos (estar borracho, bajo el efecto de las drogas, nerviosismo, cansancio), y el estudio confirma que esto es cierto para la disfunción eréctil. Por otra parte la eyaculación precoz no parece tener sólo un origen psicológico sino que estaría fuertemente ligada a factores genéticos. Los resultados se han publicado en el Journal of Sex and Marital Therapy [1]. Este estudio viene a confirmar los resultados obtenidos por  Marcel Waldinger de la Universidad de Yale y otros investigadores de varios hospitales y universidades de Holanda [2], según el cual la eyaculación precoz estaría asociada a polimorfismos, las distintas formas alternativas que puede tener un gen, en la neurotransmisión de la serotonina, concretamente en el gen de sus receptores específicos 5-HTT. Así existen tres genotipos posibles: SS, SL y LL. Los varones con genotipo SS “durarían” el doble que los que tienen el LL, y los que tienen el SL un 90% más que estos últimos. La buena noticia es que esto abre la vía para la investigación de tratamientos farmacológicos para el tratamiento de la eyaculación precoz gracias a una mejor comprensión de los mecanismos subyacentes. Así, por ejemplo, los resultados ya obtenidos con la dapoxetina [3] atribuidos a su acción antidepresiva  y de reducción del estrés, podrían estar de hecho actuando sobre la transmisión de la serotonina, al ser este fármaco un inhibidor de la recaptación del neurotransmisor. Es necesario recordar que sigue existiendo una componente psicológica en las disfunciones sexuales, por lo que no deben abandonarse o descartarse las intervenciones en este aspecto.Referencias:[1]Santtila P., Sandnabba N.K., & Jern P. (2009). Prevalence and determinants of male sexual dysfunctions during first intercourse.Journal of Sex and Marital Therapy 35(2), 86-105 PMID: 19266379[2]Janssen, P., Bakker, S., Réthelyi, J., Zwinderman, A., Touw, D., Olivier, B., & Waldinger, M. (2009). Serotonin Transporter Promoter Region (5-HTTLPR) Polymorphism is Associated with the Intravaginal Ejaculation Latency Time in Dutch Men with Lifelong Premature Ejaculation Journal of Sexual Medicine, 6 (1), 276-284 DOI: 10.1111/j.1743-6109.2008.01033.x[3] Safarinejad, M. (2007). Safety and Efficacy of Dapoxetine in the Treatment of Premature Ejaculation: A Double-Blind, Placebo-Controlled, Fixed-Dose, Randomized Study Neuropsychopharmacology, 33 (6), 1259-1265 DOI: 10.1038/sj.npp.1301500... Read more »

  • October 14, 2009
  • 03:14 PM
  • 653 views

Los macacos también caen en el valle inquietante.

by César Tomé López in Experientia docet

La gente que suele ver cine lo más probable es que no conozca el término, pero sí sabe que es mucho más fácil emocionarse con los dibujos desproporcionados de humanos de “Los Increíbles”, por ejemplo, que con los casi realistas de The Polar Express [en la imagen; cortesía de Warner Bros.]. Los espectadores se sienten emocionalmente desestabilizados por las imágenes de humanos artificiales que se han diseñado para que parezcan lo más humanas posible y que parecen realistas y no-realistas al mismo tiempo. Esta sensación es lo que se llama el “valle inquietante”. Los investigadores de la Universidad de Princeton (EE.UU.) Asif Ghazanfar y Shawn Steckenfinger han descubierto que los macacos también lo sienten. Es la primera vez que se descubre en un animal no humano. Sus resultados aparecen publicados en los Proceedings of the National Academy of Sciences. La hipótesis del valle inquietante fue propuesta por el especialista en robótica japonés Masahiro Mori en 1970. Lo de “valle” se refiere a un brusco descenso en la gráfica que representa la reacción positiva de un humano como respuesta a una imagen (“familiaridad”) en un eje y el antropomorfismo (“parecido humano”) de un robot en el otro. A las personas nos gusta estudiar otras caras humanas así como los rostros que son claramente no humanos, como el de una muñeca o un dibujo animado. Pero cuando la imagen no es una cosa ni la otra (cerca de lo humano pero claramente sin serlo) causa una sensación de repugnancia. Así, por ejemplo, hubo críticos que calificaron The Polar Express como “escalofriante” o “inquietante”. En los experimentos, los monos, que normalmente arrullan y se relamen los labios para llamar la atención de los otros monos, apartan rápidamente la mirada y se muestran asustados cuando se enfrentan a las imágenes casi reales. Cuando se les induce a que miren detenidamente tanto a las caras reales como a las casi reales, sin embargo, miran éstas más a menudo y durante más tiempo. El trabajo es importante porque indica que existe una base biológica para el valle inquietante y apoya las teorías que proponen que los mecanismos cerebrales tras el valle inquietante son adaptaciones evolutivas. A pesar del amplio reconocimiento del valle inquietante como un fenómeno real, no existe una explicación convincente del mismo. Una teoría sugiere que es el resultado de un mecanismo de “respuesta de asco” que permite a los humanos evitar la enfermedad. Otra idea sostiene que el fenómeno es un indicador de las capacidades altamente evolucionadas para el reconocimiento de caras que tenemos los humanos. Otros han sugerido que la apariencia de cadáver de algunas imágenes provoca un miedo innato a la muerte. Y hay quien afirma que la respuesta ilustra lo que se percibe como una amenaza a la identidad humana. Por otra parte, el resultado tiene implicaciones prácticas inmediatas para etólogos, psicólogos cognitivos que estudien la percepción humana, neurocientíficos cognitivos que estudien el comportamiento social de los primates, diseñadores de robots humanoides y, por supuesto, diseñadores de personajes humanos de dibujos animados. Referencia: Steckenfinger, S., & Ghazanfar, A. (2009). Monkey visual behavior falls into the uncanny valley Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.0910063106

... Read more »

Steckenfinger, S., & Ghazanfar, A. (2009) Monkey visual behavior falls into the uncanny valley. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.0910063106  

  • May 4, 2010
  • 03:49 PM
  • 651 views

El cerebro usa estructuras primitivas para interpretar el lenguaje.

by César Tomé López in Experientia docet

Un estudio publicado en los Proceedings of the National Academy of Sciences viene a cofirmar algo que se sospechaba desde hace tiempo: no existe ningún área avanzada en el cerebro humano para el procesamiento del lenguaje. Es decir, no existe ninguna zona en el cerebro humano, que se use para la interpretación del lenguaje, distinta de las que ya están presentes en otras especies. El equipo de investigadores, de la Universidad de Rochester (EE.UU.), afirma en el artículo que los humanos usamos distintas regiones cerebrales, cada una de ellas evolutivamente preparada para realizar una tarea primitiva, para encontrar el sentido de una frase. La hipótesis que el equipo quería comprobar era, muy simplificada, la siguiente: si existiese un área especial para el procesamiento del lenguaje, aquel debería activarse independientemente de la gramática de la lengua que se perciba. Si, por el contrario, no existe un área específica, dependiendo del tipo de gramática que se use para formar una frase, el cerebro activará un determinado conjunto de regiones para procesarla, de la misma manera que un mecánico no usa las mismas herramientas para desmontar un radiador que para cambiar una rueda. Para que el experimento fuese realmente fiable lo único que debería cambiar debería ser la gramática, siendo todo lo demás igual. ¿Qué lenguas usar entonces? La lengua ideal no resulta ser una lengua verbal, sino la de signos americana. Para entender la elección es necesario diferenciar, siquiera groseramente, entre dos tipos de gramática. Algunas lenguas, como el inglés, se basan en el orden de las palabras en una frase para deducir las relaciones entre los elementos de la misma. Cuando un hablante inglés oye la frase “Molly sees Rob”, es evidente por el orden de palabras que Sally es el sujeto que realiza la acción del verbo y Rob es el objeto de dicha acción y no al contrario. En alemán (o en latín), por otro lado, la función gramatical de una palabra en una frase depende de su flexión, es decir, de cómo está declinada (qué sufijo se le ha añadido), por lo que el orden puede ser alterado sin cambio de significado. La lengua de signos americana (ASL, por sus siglas en inglés) tiene la característica de que las relaciones sujeto-objeto pueden ser expresadas de las dos maneras: usando el orden de las palabras o la flexión. En lengua de signos esto quiere decir que, o bien se realizan los signos de “Molly”, “sees” y “Rob" en ese orden, o el comunicante puede usar variaciones físicas (movimiento de las manos en el espacio, realización de los signos a un lado del cuerpo) para establecer el sentido de la frase. Para este estudio, los investigadores construyeron 24 frases y expresaron cada una de esas frases usando ambos métodos. Los videos de las frases expresadas en lengua de signos fueron proyectados ante sujetos, para los que la ASL es su forma de comunicación primaria, mientras se les tomaban imágenes por resonancia magnética funcional (fMRI) de su cerebro. Los dos tipos de frases activaron una red de regiones cerebrales coincidente, pero con diferentes patrones de actividad. Las frases de orden de palabras activaron áreas del hemisferio izquierdo implicadas en la memoria de trabajo y el acceso al léxico, entre ellas el córtex prefrontal dorsolateral. Por otro lado, las frases que usaban la flexión activaban los áreas que participan en construir y analizar la estructura combinatoria (esto es, dividir la información en las partes que la constituyen) en ambos hemisferios, como la región frontal inferior bilateral y los ganglios basales. Estos resultados sugieren que, para una función lingüística dada, la activación de una estructura neuronal podría depender de los recursos cognitivos específicamente requeridos para procesar características lingüísticas concretas. Dicho de otra forma, el cerebro rentabiliza estructuras preexistentes para interpretar el lenguaje. Referencia: Newman, A., Supalla, T., Hauser, P., Newport, E., & Bavelier, D. (2010). Dissociating neural subsystems for grammar by contrasting word order and inflection Proceedings of the National Academy of Sciences, 107 (16), 7539-7544 DOI: 10.1073/pnas.1003174107La imagen "Deaf Clubs" es cortesía de Caseykins.

... Read more »

Newman, A., Supalla, T., Hauser, P., Newport, E., & Bavelier, D. (2010) Dissociating neural subsystems for grammar by contrasting word order and inflection. Proceedings of the National Academy of Sciences, 107(16), 7539-7544. DOI: 10.1073/pnas.1003174107  

  • November 13, 2009
  • 01:48 PM
  • 650 views

Flora intestinal y obesidad.

by César Tomé López in Experientia docet

Para la obesidad se han encontrado muchos culpables: los huesos grandes, la comida basura, los genes o unos padres incompetentes. En los últimos años ha aparecido un nuevo responsable: la flora bacteriana del intestino. Los intestinos humanos están llenos de microorganismos que ayudan a la digestión y también evitan que sus homólogos patógenos nos invadan. En esta simbiosis algunas bacterias son mejores que otras a la hora de suministrar alimento a sus huéspedes humanos, y también parece que, por mecanismos que aún no se conocen, son capaces de hacer que los cuerpos de su simbionte almacenen la energía como grasa y que esa grasa se mantenga. En el pasado, cuando había suministros limitados de alimento, habrían sido unas valiosas aliadas. En una época de abundancia, sin embargo, se han vuelto problemáticas. En concreto, estudios hechos con ratones sugieren que la obesidad está asociada con tener una alta proporción de un grupo de bacterias llamado Firmicutes, mientras que en los ratones no obesos abundan las de otro grupo, las Bacteroidetes [1]. Estos trabajos también han sugerido que transplantar microbios de “ratones delgados” a ratones obesos podría hacer que éstos fuesen más delgados, al menos durante un tiempo. Lo que es cierto para los ratones puede que no lo sea para los humanos, por lo que claramente hace falta más investigación. Pero encontrar voluntarios dispuestos a que se les pongan las bacterias de otro en su intestino parece complicado. Por ello, en un artículo [2] que ha aparecido en Science Translational Medicine, Peter Turnbaugh de la Universidad Washington en San Luis (EE.UU.) y sus colegas describen un término medio. Han creado un ratón gnotobiótico con una flora intestinal humanizada. Lo hicieron tomando ratones de diez semanas de edad que habían sido criados para que estuviesen libres de microbios y colonizaron sus intestinos alimentándolos con heces humanas (nota: los ratones, según el artículo son coprófagos). Después de este tratamiento, se podía experimentar con los ratones alimentándolos con distintas dietas y viendo cómo respondían las bacterias. Los resultados indican que el comportamiento es similar al encontrado en ratones normales, incluyendo el aumento de obesidad asociado a Firmicutes. A la vista de estos resultados sospechamos que dentro de poco podremos ver nuevos alimentos “probióticos”, para “equilibrar” la flora intestinal, anunciados en televisión.Referencias:[1] Turnbaugh, P., Ley, R., Mahowald, M., Magrini, V., Mardis, E., & Gordon, J. (2006). An obesity-associated gut microbiome with increased capacity for energy harvest Nature, 444 (7122), 1027-131 DOI: 10.1038/nature05414[2] Turnbaugh, P., Ridaura, V., Faith, J., Rey, F., Knight, R., & Gordon, J. (2009). The Effect of Diet on the Human Gut Microbiome: A Metagenomic Analysis in Humanized Gnotobiotic Mice Science Translational Medicine, 1 (6), 6-6 DOI: 10.1126/scitranslmed.3000322

... Read more »

  • December 7, 2009
  • 10:14 AM
  • 650 views

Relación entre encefalograma y actividad neuronal.

by César Tomé López in Experientia docet

Kevin Whittingstall y Nikos Logothetis del Instituto Max Planck de Cibernética Biológica de Tubinga (Alemania) publican un artículo en Neuron en el que establecen por primera vez una correlación entre datos del electroencefalograma (EEG) y la actividad de neuronas concretas del córtex visual. Este hallazgo supone la primera comprobación experimental de que un método no invasivo como el EEG puede emplearse para saber cómo está funcionando el cerebro. El electroencefalograma (EEG) se ha usado ampliamente en la investigación y en la medicina durante más de ochenta años. La capacidad para medir la actividad eléctrica del cerebro por medio de electrodos colocados sobre la cabeza es una herramienta muy práctica para estudiar la función cerebral ya que no es invasiva y fácil de aplicar. La interpretación de la señal del EEG, sin embargo, sigue siendo difícil. La principal razón para esto es que la relación exacta entre la actividad generada en el cerebro comparada con la medida en el cuero cabelludo no está clara. Por lo tanto, una cuestión de importancia práctica primordial es conocer cómo el EEG puede usarse para deducir la actividad neuronal en el cerebro. Combinando los registros tanto del EEG como de neuronas individuales, los investigadores han encontrado una combinación de ondas específicas (un acoplamiento entre bandas de frecuencia) que puede predecir con fidelidad la actividad de las células en el cerebro. Whittingstall y Logothetis mostraron a monos entrenados diferentes videos de escenas de la vida cotidiana de los monos. Mientras los monos miraban los videos, la actividad de su cerebro era registrada tanto por EEG como por electrodos colocados directamente sobre las neuronas, lo que permitía la comparación directa entre los dos conjuntos de datos. Específicamente, observaron que la activación de pautas neuronales era más alta durante los períodos en los que los brotes de actividad “rápida” del EEG (ondas gamma) aparecían durante las ondas lentas del EEG (ondas delta). Este es un primer paso que permitirá en un futuro comprender mejor la causa de las ondas anormales de los EEG en pacientes con ciertos desórdenes neurológicos y, de esta manera, disponer de una herramienta no invasiva para medir su evolución.Referencia: Whittingstall, K., & Logothetis, N. (2009). Frequency-Band Coupling in Surface EEG Reflects Spiking Activity in Monkey Visual Cortex Neuron, 64 (2), 281-289 DOI: 10.1016/j.neuron.2009.08.016

... Read more »

  • August 25, 2009
  • 03:20 PM
  • 649 views

El Proyecto Conectoma Humano, comienza el espectáculo.

by César Tomé López in Experientia docet

Olaf Sporns, profesor de neurociencias en la Universidad de Indiana (EE.UU.), publicó un artículo en 2005 en el que atribuía los defectos a gran escala de la investigación en neurociencia general a la ausencia de una descripción anatómica de base, “fundacional”, del cerebro. Antes de ponerse a investigar, era necesario hacer un mapa. Sporns propuso llamar a este mapa el “conectoma”. El nombre, obviamente, hace recordar a un proyecto importantísimo que había concluido dos años antes con éxito, el Proyecto Genoma Humano. El proyecto al que estaba dando nombre no era menos ambicioso: un atlas sistemático y completo de todas las conexiones del cerebro. Cuatro años después, Los Institutos Nacionales de la Salud (NIH, por sus siglas en inglés) de los Estados Unidos han anunciado en su Anteproyecto para la Investigación en Neurociencia el lanzamiento del Proyecto Conectoma Humano (HCP, por sus siglas en inglés), dotado inicialmente con 30 millones de dólares, con la esperanza de crear un mapa completo del cerebro adulto sano para 2015. El cerebro humano se suele dividir en varios cientos de pequeñas áreas a las que se atribuyen funciones altamente especializadas. Vistas bajo el microscopio, muchas de estas áreas, que tienen un ancho de centímetros, presentan patrones de células claramente visibles. Cada una de estas áreas está conectada por millones de proyecciones neuronales con forma de hilo, los llamados axones, que corren en paralelo, enrollándose para formar lo que parece un cable grueso de fibra óptica. El cerebro funciona en base a procesos y estos procesos tienen lugar porque existen estas conexiones entre áreas especializadas. La lógica tras el proyecto HCP está en que se cree que las diferentes áreas cerebrales adquieren sus características funcionales dependiendo de cómo se conectan unas con otras. Son las entradas y salidas de una neurona lo que determina qué función tiene. Por ello, como en otras ocasiones en biología, la estructura directamente define la función: las neuronas muy próximas procesarán la misma clase de información, y la conectividad entre estas regiones nos puede informar de cómo operan procesos más amplios. Sin embargo, hay otros neurocientíficos para los que “conectoma” tiene un significado completamente diferente. Mientras que el proyecto de los NIH intenta trazar las conexiones a gran escala entre regiones cerebrales, algunos científicos, como los del Connectomeproject de Harvard, quieren escarbar más profundamente: aspiran a trazar en última instancia el cerebro humano neurona a neurona, construyendo un “diagrama de cableado” con todo detalle. De cierta forma el HCP es una respuesta a la perspectiva desalentadora de tener que determinar las miles de millones de conexiones neuronales del cerebro humano. Lo que han hecho estos puristas ha sido tomar otro camino: ciñéndose a la idea del mapa neurona a neurona, simplemente se han centrado en organismos más simples, para ir creciendo desde ahí. Hasta ahora, el único conectoma completo que ha sido determinado es el de nuestro viejo amigo el nemátodo Caenorhabditis elegans que, con sólo 302 neuronas, es uno de los organismos modelo más simples con un sistema nervioso. En cualquier caso, ambos grupos están de acuerdo en que, al final, la microescala y la macroescala se encontrarán en un enorme conjunto de datos, idealmente con cada capa de complejidad informando a la siguiente. Por ahora, el NIH espera conseguir su objetivo a cinco años de tener completado un mapa región a región potenciando la colaboración entre científicos, muchos de los cuales han pasado años trabajando aisladamente, usando técnicas no verificadas y con pocas reproducciones de los datos obtenidos en laboratorios diferentes. El impacto del HCP sobre la neurociencia será importantísimo, similar al Proyecto Genoma Humano. De hecho, habrá un antes y un después del HCP. [En la imagen, interpretación de una imagen por difusión del córtex humano; mayor implica mayor número de conexiones]Referencia: Sporns, O., Tononi, G., & Kötter, R. (2005). The Human Connectome: A Structural Description of the Human Brain PLoS Computational Biology, 1 (4) DOI: 10.1371/journal.pcbi.0010042... Read more »

  • October 8, 2009
  • 09:33 AM
  • 648 views

La actividad cerebral se incrementa en el momento de la muerte.

by César Tomé López in Experientia docet

Las lecturas eléctricas de siete pacientes que murieron en la unidad de cuidados intensivos del Centro Médico de la Universidad George Washington (EE.UU.) sugieren que el cerebro sufre un aumento acusado de actividad en el momento de la muerte, según un estudio publicado en el Journal of Palliative Medicine por el equipo médico que les atendió, dirigido por Lakhmir S. Chawla. Este resultado sugiere una posible explicación de las llamadas experiencias cercanas a la muerte. El principal objetivo de los cuidados paliativos es hacer el fallecimiento de los pacientes lo menos doloroso y angustioso posible. Dentro de los cuidados paliativos que se estaban dando a los pacientes del estudio, el equipo médico usó para monitorizar su estado monitores de alerta. Estos monitores son dispositivos comerciales diseñados para ayudar a los anestesistas a controlar lo “despiertos” que están los pacientes, y combinan las lecturas electroencefálicas de los lóbulos centrales en una sola señal que refleja el estado de alerta del paciente. En cada uno de los siete pacientes, neurológicamente intactos, el equipo médico se dio cuenta de que en el momento en el que la presión sanguínea caía a cero había un incremento repentino de la actividad cerebral. Esta no es la primera vez que este fenómeno se detecta, pero los informes anteriores eran casos aislados en los que el incremento de actividad podría haber sido debido a una interferencia eléctrica de otras fuentes. En los casos que nos ocupan, los médicos adoptaron las medidas oportunas para garantizar que las fuentes mencionadas como origen de las interferencias no estuviesen presentes. Como explicación del fenómeno sugieren que el incremento repentino fue debido a una despolarización anóxica: un proceso en el que la falta de oxígeno desestabiliza el equilibrio químico a ambos lados de las membranas de las neuronas, lo que conlleva un último estallido de actividad. En este punto es a lo mejor conveniente recalcar que estamos hablando de siete casos, y que no se han empleado equipos de medición neuroeléctrica de un nivel suficiente como para hacer mediciones de precisión, aunque, claro está, tampoco era este el objetivo en una unidad de cuidados intensivos. Es necesaria pues una investigación planificada, con instrumentos adecuados, para poder conocer mejor el fenómeno antes de dar ninguna explicación como totalmente válida. No obstante lo anterior, los investigadores sí se atreven a lanzar una hipótesis sobre las “experiencias cercanas a la muerte”: “Especulamos que aquellos pacientes que sufren un paro cardiaco y que son resucitados con éxito podrían recordar las imágenes y recuerdos provocados por esta cascada [la despolarización anóxica]. Ofrecemos esto como una explicación potencial de la claridad con la que muchos pacientes tienen 'experiencias fuera del cuerpo' cuando se les resucita con éxito de un suceso cercano a la muerte”. Referencia: Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009). Surges of Electroencephalogram Activity at the Time of Death: A Case Series Journal of Palliative Medicine DOI: 10.1089/jpm.2009.0159

... Read more »

Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009) Surges of Electroencephalogram Activity at the Time of Death: A Case Series. Journal of Palliative Medicine, 2147483647. DOI: 10.1089/jpm.2009.0159  

  • May 17, 2010
  • 05:40 PM
  • 648 views

Un método de computación analógico para la fuerza de Casimir.

by César Tomé López in Experientia docet

Un equipo de investigadores del Instituto de Tecnología de Massachusetts (M.I.T., por sus siglas en inglés) ha desarrollado un método para encontrar soluciones a las ecuaciones de la fuerza de Casimir para cualquier geometría. Los resultados se publican en los Proceedings of the National Academy of Sciences. Imaginemos dos placas metálicas no cargadas eléctricamente, separadas unos micrometros, en ausencia de campo electromagnético y en reposo. ¿Existe alguna fuerza neta en el sistema? Desde un punto de vista clásico la respuesta es un contundente no. Sin embargo, desde el punto de vista cuántico la respuesta es sí: la existencia de esta fuerza neta la predijeron Hendrik Casimir y Dirk Polder en 1948 y su existencia ha sido comprobada experimentalmente. De hecho, esta fuerza que, aparentemente viene de la nada y disminuye rápidamente con la distancia, puede alcanzar valores sorprendentes a distancias muy pequeñas. Así, en placas separadas 10 nm la fuerza de Casimir-Polder (Casimir, de ahora en adelante), dependiendo de la geometría de las placas, llega a 1 atmósfera de presión. Esto quiere decir que esta fuerza anti-intuitiva se convierte en la dominante en la nanoescala entre conductores no cargados. La mecánica cuántica ha puesto de manifiesto que nuestro universo es mucho más raro de lo que imaginamos. Una de estas características extrañas es la confirmación de la realidad de todo un abanico de nuevas partículas subatómicas que están constantemente apareciendo y desapareciendo de la existencia en un lapso de tiempo prácticamente indetectable. Hay tantas de estas partículas efímeras en el espacio, incluso en el vacío, moviéndose en todas direcciones, que las fuerzas que ejercen se contrarrestan unas a otras. A efectos prácticos en la mayoría de los casos pueden ignorarse. Pero cuando los objetos se aproximan mucho, hay poco hueco entre ellos como para que las partículas comiencen a existir. Consecuentemente, hay menos de estas partículas efímeras entre los objetos para contrarrestar las fuerzas que ejercen las partículas que aparecen alrededor de ellos, y la diferencia de presión termina empujando a los objetos el uno contra el otro. Este es el origen de la fuerza de Casimir.En los años 60 del siglo XX se desarrolló una fórmula que, en principio, describe los efectos de las fuerzas de Casimir en cualquier número de objetos pequeños, con cualquier forma. Pero en la inmensa mayoría de los casos, la fórmula era imposible de resolver en la práctica. Se consiguió encontrar una solución para un número muy limitado de casos, como el de dos placas paralelas. En años recientes se han encontrado maneras de obtener soluciones para otras configuraciones. Así, en 2006 se resolvió para una placa y un cilindro y, en 2007, para esferas múltiples. Pero no se conseguía encontrar una solución general. Esto es precisamente lo que han logrado los miembros del equipo encabezado por Alejandro W. Rodríguez: un método para resolver las ecuaciones de las fuerzas de Casimir para cualquier número de objetos, con cualquier forma concebible. La aproximación de los investigadores al problema ha sido la de reducirlo a otro análogo, matemáticamente equivalente, pero resoluble. En concreto, demuestran que objetos del orden de centímetros separados también del orden de centímetros, dentro de un fluido conductor de la electricidad, constituyen un modelo preciso del nanosistema en lo que respecta a las fuerzas de Casimir. En vez de calcular las fuerzas ejercidas por pequeñas partículas que aparecen alrededor de pequeños objetos, los investigadores calculan la fuerza de un campo electromagnético en varios puntos alrededor de otros objetos mucho más grandes. Para objetos con formas raras, como una rueda dentada, el cálculo de la fuerza electromagnética en un fluido conductor sigue siendo algo bastante complicado. Pero nada que no pueda arreglarse usando software de ingeniería estándar. El encontrar una solución a las ecuaciones de las fuerzas de Casimir es algo que va mucho más allá del mero conocimiento teórico: poder calcular las fuerzas de Casimir para distintas geometrías se ha convertido en algo imprescindible en nanotecnología. Dado que las fuerzas de Casimir pueden hacer que las partes móviles de los sistemas electromecánicos a nanoescala se queden pegadas, es necesario encontrar geometrías donde en vez de atracción haya repulsión, y esto es lo que permite la nueva técnica. Eso sí, la creatividad humana está llamada a jugar un gran papel para encontrar estas formas con fuerzas repulsivas: todavía es necesario el uso de la intuición para imaginar qué formas pueden tener repulsión. La técnica de Rodríguez et al. solo nos dirá si estamos en lo cierto a posteriori.[Esta es la participación de Experientia docet en el VII Carnaval de la Física, que este mes acoge El navegante.]Referencia: Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010). Theoretical ingredients of a Casimir analog computer Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1003894107

... Read more »

Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010) Theoretical ingredients of a Casimir analog computer. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.1003894107  

  • July 17, 2009
  • 07:19 AM
  • 646 views

LIGO: relatividad y mecánica cuántica se dan la mano.

by César Tomé López in Experientia docet

Los requerimientos técnicos para realizar las observaciones previstas en el Observatorio de Ondas Gravitacionales Interferómetro Láser (LIGO, por sus siglas en inglés) preparan el camino para algo para lo que, en principio, no se diseñó el equipo: experimentos cuánticos a escala macroscópica. Un artículo publicado ayer en el New Journal of Physics por el equipo del LIGO informa de la observación de un oscilador con una masa de más de dos kilos cercano a su estado cuántico fundamental. El LIGO es un experimento a gran escala, implica a 600 científicos en todo el mundo (en España participa la Universidad de las Islas Baleares), diseñado para detectar ondas gravitacionales y permitirnos observar el espacio desde la nueva perspectiva de la radiación gravitacional. En el proyecto también participan muchos particulares (incluido un servidor) cediendo sus ordenadores domésticos a través del proyecto Einstein@home. El LIGO espera detectar esta radiación directamente midiendo pequeñísimos movimientos de masas causados por el paso de ondas gravitacionales, que se piensa que se originan en las supernovas o en algo tan exótico como las colisiones de estrellas de neutrones y agujeros negros. La luz láser se usa para monitorizar los desplazamientos relativos de dos espejos interferométricos, que están suspendidos como si fueran péndulos para que puedan actuar como masas de ensayo casi libres. Dado que el efecto de las ondas gravitacionales se espera que sea muy pequeño, los detectores del LIGO están preparados para medir desplazamientos inferiores a una milésima del diámetro de un protón, y estos por espejos que están separados entre sí 4 Km [como se aprecia en la imagen]. La sensibilidad de los instrumentos del LIGO se ve limitada para diferentes bandas de frecuencia por el ruido causado bien por la naturaleza cuántica de la luz láser bien por la energía térmica de los espejos. La observación del comportamiento mecanocuántico de los espejos del LIGO requiere reducir el ruido térmico, lo que se puede conseguir enfriando los espejos con técnicas similares al enfriamiento de átomos por láser. Sin embargo las temperaturas deben llevarse extremadamente cerca al cero absoluto (0 Kelvin ó -273,15 ºC). El cero absoluto es una temperatura caracterizada por una configuración de entropía cero. Es la temperatura más fría teóricamente posible y no se puede alcanzar ni natural ni artificialmente. Una partícula en el cero absoluto estaría en reposo, por lo que tanto su posición como su momento serían conocidos simultáneamente, lo que violaría el principio de incertidumbre de Heisenberg. El objeto más frío conocido en el espacio está a 1K, la temperatura de operación del Instrumento de Alta Frecuencia (HFI, por sus siglas en inglés) del Planck es de 0,1 K y la más baja jamás conseguida ha sido de 0,0000000001K ó 100 pK (pico kelvins). Aunque el cero absoluto no se puede alcanzar, los científicos del LIGO han usado tanto una fuerza de amortiguamiento sin fricción, que quita energía al espejo, y una fuerza restauradora magnética, que incrementa la frecuencia del oscilador con objeto de evitar las perturbaciones causadas por los movimientos del terreno, para enfriar el oscilador especular, que tiene una masa de 2,7 Kg., a 1,4 microkelvins (0,0000014 K). Este resultado sugiere que es posible usar el aparato para observar comportamientos mecanocuánticos, como el entrelazamiento, a escalas de masa que antes se pensaba que eran imposibles de conseguir en la práctica. Lo que se diseñó para medir la relatividad y fenómenos astrofísicos, puede convertirse en un valioso instrumento de la investigación en mecánica cuántica. Referencia:... Read more »

Abbott, B., Abbott, R., Adhikari, R., Ajith, P., Allen, B., Allen, G., Amin, R., Anderson, S., Anderson, W., Arain, M.... (2009) Observation of a kilogram-scale oscillator near its quantum ground state. New Journal of Physics, 11(7), 73032. DOI: 10.1088/1367-2630/11/7/073032  

  • June 10, 2009
  • 09:23 AM
  • 645 views

Cómo las proteínas recorren el ADN casi sin fricción.

by César Tomé López in Experientia docet

El ADN puede contener el listado de los componentes para construir una célula, pero hacen falta proteínas para leerlo. En el número del 5 de junio de Physical Review Letters, un equipo francés informa de que han encontrado un mecanismo físico por el cual las proteínas pueden deslizarse fácilmente a lo largo del ADN a la búsqueda de sus dianas. Los investigadores emplearon simulaciones basadas en el método de Monte Carlo y cálculos analíticos para mostrar que un modelo simplificado de una proteína era atraído al ADN hasta que está a medio nanómetro, poco más o menos. En esta posición, la proteína es repelida, de tal manera que puede deslizarse libremente hasta que encuentra la secuencia diana y se une más fuertemente. Los resultados dan un cuadro más completo de este importante proceso biológico. Las proteínas que interactúan con el ADN, conocidas como proteínas de unión a ADN, son esenciales para las operaciones de la célula. Copian el ADN, activan y desactivan genes y traducen los genes en plantillas para la formación de proteínas. Cada proteína que realiza una de estas funciones tiene afinidad por una secuencia particular del ADN, su región diana. To find its target, a DNA-binding protein is thought to first bind loosely to a random point on the DNA and then slide along the strand, rather than randomly binding and unbinding until it hits the right spot by luck. However, researchers have not identified the interaction that allows proteins to slide along DNA. Para encontrar su diana, una proteína de unión a ADN se piensa que primero se une lábilmente a un punto al azar del ADN y después se desliza a lo largo de la cadena, en vez de enlazarse y desenlazarse al azar hasta que encuentra el lugar correcto por pura suerte. Para estudiar esta interacción, Vincent Dahirel de la Universidad Pierre y Marie Curie de París (Francia) y sus colegas se centraron en las cargas y formas generales de las proteínas y del ADN pero ignoraron los detalles de las estructuras atómicas completas. En las simulaciones el ADN consistía en un cilindro largo y la proteína era una de cuatro figuras: una esfera, un cilindro, un cubo con muesca o un cilindro con muesca. Las formas con muesca se suponía que eran las que enlazaban con el ADN. Los diámetros de las proteínas eran todos de 5 nanómetros, el diámetro del ADN 2 nanómetros. Las simulaciones se basaron en el método Monte Carlo, un tipo de algoritmo de cálculo que se basa en calcular resultados del modelo para valores iniciales escogidos al azar o casi al azar. Se emplean cuando hay mucha incertidumbre en los datos de entrada. El equipo calculó las fuerzas puestas en juego cuando la proteína, cargada positivamente, se acercaba al ADN, cargado negativamente. Para las proteínas cilíndricas o esféricas, la atracción hacia el ADN se mantenía conforme se acercaban. Pero, en contra de lo que se esperaba, la cilíndrica con muesca era repelida cuando llegaba a una distancia de entre 0,1 y 0,75 nanómetros del ADN, dependiendo de la carga que se atribuyese a la proteína. Las simulaciones mostraban que, en tanto en cuanto la proteína estuviese a la distancia correcta, con la atracción y la repulsión en equilibrio (en lenguaje más técnico, la energía libre tenía un mínimo a una separación dada entre superficies), tenía libertad para deslizarse arriba y abajo por la cadena de ADN como un disco en una mesa de hockey de aire. Para explicar esta fuerza repulsiva, el equipo centró sus cálculos analíticos en los iones disueltos en la solución que contiene las moléculas biológicas. Si la superficie del ADN tiene más carga negativa que la proteína tiene positiva (resultando una carga neta negativa), algunos de los iones de la solución son atraídos hacia su superficie. Conforme la distancia entre la proteína y el ADN disminuye, algunos de estos iones quedan atrapados, creando una región de alta concentración de iones. El agua intenta entrar en estas regiones (una especie de ósmosis), por lo que ejerce una presión alrededor de los bordes de la interfase, creando una presión osmótica en el espacio entre el ADN y la proteína que empuja a ésta hacia fuera. Quedaba comprobar si las proteínas de unión al ADN efectivamente tienen menos carga en valor absoluto que el ADN. Dahirel et al. analizaron los datos estructurales de 77 proteínas. Encontraron que la proteína de unión al ADN promedio tiene sólo el 17% de la carga superficial que posee el ADN. Para este grado de desequilibrio en la carga, su modelo predice que la proteína debe revolotear aproximadamente a medio nanómetro de la superficie del ADN. Este número cuadra bastante bien con la estructura medida de una proteína de unión al ADN de una bacteria llamada EcoRV. ¿Qué ocurre cuando la proteína llega a su secuencia diana? En ese momento los puentes de hidrógeno que se forman rompen la barrera de la energía libre y tiene lugar el reconocimiento. La importancia del trabajo está, por lo tanto, en que es capaz de dar una explicación a cómo se puede desplazar una proteína a lo largo del ADN sin demasiada fricción.Referencia:Dahirel, V., Paillusson, F., Jardat, M., Barbi, M., & Victor, J. (2009). Nonspecific DNA-Protein Interaction: Why Proteins Can Diffuse along DNA Physical Review Letters, 102 (22) DOI: 10.1103/PhysRevLett.102.228101... Read more »

Dahirel, V., Paillusson, F., Jardat, M., Barbi, M., & Victor, J. (2009) Nonspecific DNA-Protein Interaction: Why Proteins Can Diffuse along DNA. Physical Review Letters, 102(22). DOI: 10.1103/PhysRevLett.102.228101  

  • October 2, 2009
  • 09:37 AM
  • 645 views

Identificado otro fármaco que podría prevenir las enfermedades del envejecimiento y alargar la vida.

by César Tomé López in Experientia docet

Inutilizando un gen implicado en una importante vía de comunicación bioquímica en ratones se ha descubierto una forma de imitar los conocidos efectos antienvejecimiento de la restricción calórica: vida más larga y más saludable. Este hallazgo, publicado en Science por un equipo liderado por Dominic Withers del University College de Londres, ofrece una prometedora diana terapéutica para los muchos problemas asociados con la edad. Hace ya tiempo que es conocido que la restricción calórica alarga la vida y reduce la incidencia de las enfermedades relacionadas con la edad en una amplia variedad de organismos, desde las levaduras y los nemátodos (gusanos redondos) a los roedores y primates. No está claro, sin embargo, cómo una dieta nutricionalmente completa pero radicalmente restringida logra estos beneficios. Pero recientemente varios estudios han dado pruebas de que un proceso de transmisión de señales bioquímicas en concreto, que implica a una proteína llamada diana de la rapamicina (TOR, por sus siglas en inglés), puede jugar un papel clave. Este proceso actúa como una especie de sensor de comida, ayudando a regular la respuesta metabólica del cuerpo a la disponibilidad de nutrientes. El equipo científico se percató de que los ratones jóvenes con una versión inactiva de la enzima cinasa S6-1 (S6K1), que es activada directamente por la TOR, mostraban mucho parecido con los ratones que seguían una dieta restringida calóricamente: eran más delgados y tenían mayor sensibilidad a la insulina que los ratones normales. Para averiguar si estos beneficios persistían en edades más avanzadas y si los ratones vivirían más, los investigadores criaron dos grandes grupos de ratones modificados genéticamente que carecían de una versión funcional del gen de la S6K1. Un grupo vivió sus vidas tranquilamente, dando una medida de la duración natural de su vida. El otro grupo fue sometido a una amplia batería de pruebas de estado metabólico y de rendimiento cognitivo y motor. En las hembras, los resultados fueron importantes. Las ratonas modificadas genéticamente vivieron sustancialmente más que las normales. Con una edad de 600 días (sobre los 40 años humanos) obtenían resultados excelentes en las pruebas de rendimiento motor, superando a las ratonas normales en equilibrio, fuerza y coordinación. También eran más curiosas y capaces a la hora de explorar nuevos entornos, lo que sugiere una mejor función cognitiva. Las medidas fisiológicas también indicaban una salud mejor: las modificadas genéticamente tenían huesos más fuertes, mejor sensibilidad a la insulina y células inmunitarias más robustas. Aunque los machos modificados genéticamente no tenían una vida más larga, sí que compartían los beneficios para la salud de las hembras. Los efectos de la inactivación de la S6K1 fueron similares a los de la restricción calórica, aunque menos pronunciados. Las hembras sin S6K1 vivieron hasta un 20% más que las ratonas normales; el incremento de la longevidad con restricción calórica puede llegar al 50%. La importancia de estos resultados se comprende mejor si tenemos en cuenta el descubrimiento hecho en julio de que la rapamicina alarga la vida de los ratones, interfiriendo en la misma ruta bioquímica inhibiendo la TOR. Aunque la rapamicina tenía un efecto pronunciado en la longevidad y la salud, su uso en humanos está limitadísimo por los riesgos que supone su potente capacidad inmunodepresora. Los resultados de Withers et al. indican que el tener como diana a la S6K1 directamente puede evitar estos efectos secundarios, con similares efectos. El nuevo estudio también señala a otra proteína del proceso bioquímico de transmisión de señales de la TOR, la AMPK (proteincinasa activada por AMP), aún más aguas abajo que la S6K1, como una diana terapéutica potencial clave. El papel de la AMPK es extremadamente ilusionante ya que es activada por la metformina [en la imagen], un conocido fármaco para el tratamiento de la diabetes tipo 2. Esto significaría que sería posible en los próximos años diseñar ensayos clínicos para comprobar la capacidad de la metformina para prevenir las enfermedades relacionadas con la edad. Por favor, tenga en cuenta que esto es sólo un primer resultado de la investigación con ratones. NO SE AUTOMEDIQUE. Consulte a su médico. Referencia: Selman, C., Tullet, J., Wieser, D., Irvine, E., Lingard, S., Choudhury, A., Claret, M., Al-Qassab, H., Carmignac, D., Ramadani, F., Woods, A., Robinson, I., Schuster, E., Batterham, R., Kozma, S., Thomas, G., Carling, D., Okkenhaug, K., Thornton, J., Partridge, L., Gems, D., & Withers, D. (2009). Ribosomal Protein S6 Kinase 1 Signaling Regulates Mammalian Life Span Science, 326 (5949), 140-144 DOI: 10.1126/science.1177221

... Read more »

Selman, C., Tullet, J., Wieser, D., Irvine, E., Lingard, S., Choudhury, A., Claret, M., Al-Qassab, H., Carmignac, D., Ramadani, F.... (2009) Ribosomal Protein S6 Kinase 1 Signaling Regulates Mammalian Life Span. Science, 326(5949), 140-144. DOI: 10.1126/science.1177221  

  • April 10, 2012
  • 05:36 AM
  • 645 views

Una estructura tipo grafeno para el hidrógeno sólido.

by César Tomé López in Experientia docet




Diagrama de fases del hidrógeno





Estamos tan acostumbrados a ver la posición del hidrógeno en la
tabla periódica en lo más alto de la columna de metales alcalinos
que no nos paramos a pensar en lo que esto significa: ni más ni
menos que debería ser, en determinadas condiciones, un metal. El
hidrógeno metálico consistiría en protones muy próximos entre sí
(por debajo de la distancia de Bohr) con los electrones compartidos
entre todos; si los protones forman una red cristalina hablamos de
hidrógeno metálico sólido y si no existe esta red, de líquido.
Este estado sólo se alcanzaría a muy altas presiones y se cree que
podría existir en el interior de Júpiter, Saturno y algunos
planetas extrasolares recientemente descubiertos.



La búsqueda del hidrógeno metálico comenzó en el siglo XIX. En
1935 los físicos Eugene Wigner y Hillard Huntington predijeron que
el hidrógeno debería convertirse en un sólido metálico a altas
presiones, aproximadamente de 25 GPa (gigapascales), pero
experimentos posteriores no encontraron trazas de una transición
metálica. Experimentos más recientes han empleado presiones mucho
mayores. Destaca el experimento que en 2011 realizaron Mijail Eremets
e Ivan Troyan del Instituto Max Planck (Alemania) y en el que los
autores afirmaron haber encontrado la presencia del hidrógeno
metálico a 260 GPa; estos resultados, sin embargo, no han sido
confirmados y han sido recibidos, en general, con escepticismo.



El reto de conseguir hidrógeno metálico no sólo tiene interés
desde el punto de vista puramente científico, también desde el
técnico ya que sus aplicaciones potenciales son muy interesantes.
Por ejemplo, se cree que el conocimiento de la estructura y
características de este material podría ayudar a conseguir
superconductores a temperatura ambiente o, dicho más
propagandísticamente, la transmisión de energía eléctrica sin
pérdidas.



En este camino hacia el hidrógeno metálico el grupo de
investigadores encabezado por Ross Howie, de la Universidad de
Edimburgo (Reino Unido), ha descubierto una nueva fase de hidrógeno
sólido. Publican sus resultados en Physical Review Letters.



Se conocen tres fases sólidas del hidrógeno que pueden crearse
superenfriando el gas:


la fase I es una estructura de alto empaquetamiento de
moléculas de hidrógeno que conservan la capacidad de rotar
libremente


la fase II es similar a la I pero con menor libertad de
rotación, lo que describiríamos como ordenación de la orientación


la fase III se caracteriza por un debilitamiento de los
enlaces H-H por lo que puede considerarse parcialmente atómica, es
decir, no completamente molecular.



El punto crítico en el que estas tres fases se intersectan está
muy bien definido pero nadie sabe con seguridad qué ocurre más allá
de la fase III, a presiones más altas. Esta zona es la que han
explorado Howie et al.



Los investigadores sometieron muestras de hidrógeno y deuterio a
presiones de hasta 315 GPa en un yunque de diamante a una temperatura
de 300K. Empleando espectroscopia Raman midieron las variaciones en la frecuencia
del vibrón (vibración intramolecular), esto es, determinaron la
fortaleza de los enlaces H-H y, por tanto, hasta qué punto el
hidrógeno seguía siendo molecular. A 220 GPa detectaron que la
frecuencia del vibrón principal disminuía rápidamente a la vez que
aparecía un segundo vibrón que mantenía la frecuencia original.
¿Cómo interpretar estos resultados? Para eso están los teóricos.



Los investigadores encontraron en la teoría de las fases sólidas
del hidrógeno de Chris Pickard y Richard Needs publicada en 2007
una predicción que encajaba bastante bien con los datos
experimentales: capas de hidrógeno formando anillos irregulares con
la estructura del grafeno, lo que explicaría la baja frecuencia del
vibrón principal, salpicadas con moléculas de hidrógeno diatómico sin
enlazar, que corresponderían a la frecuencia original del vibrón
secundario. Según la teoría, a más altas presiones los anillos se
harían simétricos y adquirirían un comportamiento semimetálico.



Estructura propuesta para la fase IV del hidrógeno sólido





Para producir estos resultados los científicos desarrollaron
métodos para impedir la difusión del hidrógeno en los yunques de
diamante realmente novedosos y que serán de gran utilidad en
posteriores investigaciones.

Esta entrada es una participación de Experientia docet en la XIV Edición del Carnaval de Química que organiza Educación química.



Referencia:


Ross T. Howie, Christophe L. Guillaume, Thomas Scheler, Alexander F. Goncharov, & Eugene Gregoryanz (2012). Mixed Molecular and Atomic Phase of Dense Hydrogen Physical Review Letters, 108 (12)

... Read more »

Ross T. Howie, Christophe L. Guillaume, Thomas Scheler, Alexander F. Goncharov, & Eugene Gregoryanz. (2012) Mixed Molecular and Atomic Phase of Dense Hydrogen. Physical Review Letters, 108(12). info:/

  • July 20, 2009
  • 10:58 AM
  • 643 views

Una red neuronal artificial es capaz de predicir las apuestas de un jugador de póquer.

by César Tomé López in Experientia docet

Śrī Pandit Jawāharlāl Nehru, el que fuera primer ministro de la India e iniciador de una saga política, dijo una vez “La vida es como una partida de cartas. La mano que te reparten es el determinismo; la forma en que la juegas es el libre albedrío”. Un nuevo estudio publicado en el Journal of Gambling Studies recoge que una red neuronal artificial predice las apuestas de un jugador de póquer y cuánto ganará o perderá en acumulado con una precisión de tres cifras decimales. El estudio de sistemas complejos que no pertenecen al campo tradicional de la ciencia está a la orden del día. El póquer es uno especialmente interesante. A diferencia, por ejemplo, de la bolsa de valores, en la que influyen factores como la política, la guerra o el tiempo atmosférico, los torneos de póquer no están afectados por fenómenos externos. Además, se considera que es uno de los juegos de apuestas dónde la habilidad de los jugadores influye más en el resultado final. Haciendo buena la primera parte de la frase de Nehru, Clément Sire de la Universidad de Toulouse (Francia), demostró que su modelo [1], en el que empleó las herramientas de la mecánica estadística, de la variante del póquer Texas Hold’Em era capaz de predecir muchas de las características de un torneo de póquer, lo que implica que estas características tomadas como un todo son predecibles. Así, por ejemplo, Sire descubrió que tanto el número máximo de fichas (de casino, dinero) que tiene el jugador con más fichas en cada momento como el número total de líderes en fichas de un torneo, son proporcionales al logaritmo del número inicial de jugadores del torneo. Esto es un resultado típico de modelos que reproducen sistemas en los que hay agentes que compiten, como los de la evolución biológica. Si dadas unas condiciones iniciales podemos predecir el resultado en términos estadísticos, tenemos el determinismo del que hablaba Nehru. Pero, siempre podemos decir que esos son los grandes números, que cada jugador toma cada una de sus decisiones libremente en cada momento. Pero ¿qué ocurre si las apuestas que va a hacer un jugador concreto son predecibles? Eso es lo que consigue la red neuronal artificial (RNA) que ha creado Víctor Chan del Instituto Politécnico de Macao (China) [2]. La RNA que ha creado Chan es relativamente sencilla. Se trata de una RNA de retropropagación. La RNA toma un conjunto de datos de resultados obtenidos y los compara con los que ella misma ha suministrado partiendo de los mismos datos de partida, determinando así el error de la capa de nodos más externa, la de salida [S en la imagen]. Sabiendo el peso [W en la imagen] que en cada nodo de salida tiene cada nodo de la capa oculta anterior, se le asigna una “culpa” a cada uno, siendo esta culpa el error asignado a ese nodo. De esta forma el error viaja hacia atrás (de ahí el nombre), pasando por las distintas capas ocultas [O en la imagen] hasta llegar a los nodos de entrada [E en la imagen]. Las conexiones se reajustan usando esta información, calculando cuál debía haber sido su peso para minimizar el error de salida. Tras un período de “aprendizaje”, una iteración del procedimiento anterior, la RNA está lista para ser usada. Chan usó los patrones de juego de 6 jugadores online de Texas Hold’Em, cada uno de los cuales había jugado más de 100 partidas. Introdujo en la RNA sólo las primeras partidas y le pidió que predijese cómo jugaría cada uno a continuación en función de dos modelos, M1 y M2. M1 es el modelo para el valor de la apuesta sucesiva, que modela sucesivamente y debe predecir los valores de las apuestas en cada una de las partidas que cada jugador realiza en función de sus pérdidas/ganancias en una serie de partidas inmediatamente precedentes y de su resultado neto en el juego. Tras el entrenamiento, M1 fue capaz de predecir el valor de las apuestas de un jugador en juegos sucesivos con una precisión de al menos tres cifras decimales de dólar en promedio, para cada uno de los seis jugadores. M2 es el modelo para la trayectoria temporal de las pérdidas/ganancias acumuladas, que modela y predice la trayectoria temporal de las pérdidas/ganancias acumuladas de un jugador en función de las pérdidas/ganancias en una serie de partidas inmediatamente precedentes. Increíblemente, este modelo también fue capaz de predecir la trayectoria temporal de las pérdidas/ganancias y, por lo tanto, las pérdidas o ganancias acumuladas, con una precisión similar. La influencia de las habilidades de cada jugador, sus estrategias y personalidad está prácticamente reflejada en el patrón de su trayectoria de pérdidas/ganancias de las partidas anteriores. En resumen, a partir de una muestra de partidas iniciales, el comportamiento de cada jugador era casi completamente predecible matemáticamente de la misma manera en 6 personas. Me imagino a algún jugador profesional o al jefe de sala de un casino leyendo esto y corriendo a buscar aplicaciones prácticas; sin embargo, más trascendentemente, ¿qué significa este resultado para el libre albedrío? Referencias:[1] Sire, C. (2007). Universal statistical properties of poker tournaments Journal of Statistical Mechanics: Theory and Experiment, 2007 (08) DOI: 10.1088/1742-5468/2007/08/P08013[2] Chan, V. (2009). Using Neural Networks to Model the Behavior and Decisions of Gamblers, in Particular, Cyber-Gamblers Journal of Gambling Studies DOI: 10.1007/s10899-009-9139-7... Read more »

  • August 16, 2009
  • 06:23 AM
  • 643 views

Einstein y el experimento de Michelson-Morley

by César Tomé López in Experientia docet

Llevado a cabo en 1887, el experimento de Michelson-Morley se considera el trabajo definitivo que terminó eliminando la creencia decimonónica de que las ondas luminosas viajaban a través de un medio llamado éter. La historia estándar que se cuenta es que una vez que el experimento de Michelson-Morley probó que el éter era falso, todo el mundo supo que había una crisis, a la que puso fin Einstein cuando intervino resueltamente para resolver el problema con la teoría especial de la relatividad en 1905. Pero esta es una versión demasiado simplificada de lo que realmente ocurrió... Albert Abraham Michelson comenzó a trabajar en la búsqueda del éter cuando era un joven estudiante en Berlín con permiso de la Marina de los Estados Unidos. Más tarde, cuando se convirtió en profesor de física en el Colegio Case de Ciencia Aplicada de Cleveland, formó equipo con Edward Williams Morley, un químico también estadounidense que trabajaba en la cercana Universidad Western Reserve. Morley tenía fama de gran experimentador, y a Michelson le atraía el reto de crear un experimento meticuloso para medir la velocidad de la Tierra a través del éter que se suponía que llenaba el espacio. Las mediciones tenían que ser tan precisas que muchos dijeron que no podían hacerse. (Más tarde Michelson le diría a Einstein que había empleado tanta energía para conseguir la precisión necesaria simplemente porque era “divertido”). James Clerk Maxwell fue el primero en describir la luz como una onda electromagnética. En esa época, los físicos comprendían las ondas bastante bien. Las ondas del sonido, por ejemplo, se crean cuando un objeto que vibra comprime y descomprime alternativamente el medio que le rodea. En el aire, paquetes de aire más y menos densos viajan al oído y son interpretados por el cerebro. Las ondas en el agua tienen crestas y valles en vez de diferencias de densidad. Pero tanto el agua como el aire son medios necesarios para la propagación del sonido. Maxwell creía que la luz igualmente debía emplear un medio, una misteriosa sustancia llamada éter. Según la teoría, el éter estaría en reposo con respecto a un espacio absoluto del universo, y la Tierra, naturalmente, viajaría por él. Maxwell propuso que, por lo tanto, debería existir un “viento de éter” de algún tipo, que soplaría en la cara de un observador que mirase en el sentido del movimiento de la Tierra, y en su espalda si miraba en sentido contrario. Cabría esperar entonces que la luz viajase a diferentes velocidades dependiendo de la dirección en la que se moviese a través del éter, parecido a una persona que se mueve más fácilmente con el viento a favor que en contra. La idea de que la luz se pude mover con velocidades diferentes, en un mismo medio en idénticas condiciones, dependiendo sólo de la dirección de propagación, está en el corazón mismo del experimento de Michelson-Morley. Y esta es la idea que Einstein terminaría haciendo desaparecer. El experimento que se cita oficialmente como el experimento de Michelson-Morley tuvo lugar en 1887 [1] y utilizaba un diseño bastante innovador que se basaba en una técnica desarrollada por Michelson, la interferometría (Michelson recibiría el premio Nobel de física en 1907 por sus instrumentos ópticos de precisión y las mediciones realizadas con ellos). La interferometría depende del hecho de que cuando dos ondas se cruzan forman patrones muy concretos. Un experimento de interferometría comienza dividiendo un haz de luz, haciendo después que cada uno de los dos nuevos rayos viajen caminos distintos, para luego unirlos en una pantalla. Analizando los patrones resultantes se puede obtener información sobre la velocidad y la distancia recorrida por la luz. Michelson ya había usado la interferometría tanto para conseguir la medición más precisa hasta la fecha de la velocidad de la luz como para determinar la longitud oficial del metro para la Oficina Nacional de Estándares de los Estados Unidos. Para su experimento, Michelson y Morley hicieron que dos rayos de luz viajasen en ángulo recto uno del otro: uno viajaba en la misma dirección que el éter y el otro la cruzaba. Imaginemos dos personas nadando en un río, una va corriente arriba y luego a favor de corriente, mientras que la otra nada directamente a un punto al otro lado del río y vuelta. Ambos nadadores se tienen que enfrentar a la corriente pero de forma diferente y, consecuentemente, el tiempo que emplean para recorrer exactamente la misma distancia será diferente. Si la Tierra viaja a través del éter, el éter crea una corriente (como un río), y un rayo de luz que viaje en contra y luego a favor debería tardar menos en recorrer una distancia determinada que otro que la atraviese en ángulo recto. Esta era la hipótesis que Michelson y Morley intentaban confirmar con su experimento. El experimento estaba muy bien diseñado, pero por mucho que repitieron la medición, ambos rayos empleaban la misma cantidad de tiempo en sus viajes. La pareja comprobó y recomprobó el dispositivo experimental y repitieron las mediciones varias veces después de cada comprobación, siempre con el mismo resultado. El dispositivo, que se encontraba en un sótano con paredes de ladrillo [en la imagen], estaba instalado sobre un bloque de mármol que flotaba sobre una balsa de mercurio, lo que permitía girarlo para estudiar todos los ángulos posibles con respecto al “viento de éter”; ningún ángulo probado dio un resultado diferente. La reputación enorme de la que gozaban Michelson y Morley en la comunidad científica hizo que los físicos más famosos de la época aceptaran como válido un resultado tan inesperado. Claramente, había un problema con la teoría del éter. Sin embargo, el concepto del éter, no fue completamente descartado en ese momento. El consenso era que la hipótesis no estaba completa. El mismo Michelson repitió el experimento en numerosas ocasiones a lo largo de su vida, cambiando incluso la localización del dispositivo (lo llevó a lo alto de una montaña) para ver si había variaciones en la intensidad del presunto “viento de éter” que permitiesen detectar diferencias en las mediciones. Aunque había físicos que conocían el trabajo de Michelson y Morley, y sabían que sus resultados debían incorporarse a una nueva teoría de la luz, no está claro que Einstein, el que finalmente proporcionó esa teoría, tuviese conocimiento de él. Su artículo sobre la relatividad especial está claro que no hace referencia a los resultados del experimento, si bien es cierto que este artículo no hace referencia a casi nada ya que lo que se proponía era tan novedoso que Einstein podía afirmar que no se basaba en el trabajo de nadie (aunque a lo mejor Poincaré pensase otra cosa). Años más tarde Einstein se contradiría a sí mismo sobre el asunto de si conocía el experimento de Michelson-Morley. Dijo muchas veces que no tenía noticias de él y, de hecho, no lo menciona en sus Notas autobiográficas en las que describe cómo desarrolló sus teorías. Ya mayor afirmó, sin embargo, que la primera referencia del experimento la obtuvo del estudio del trabajo de Lorentz en 1895, y en algunas de sus primeras cartas (1899) que se conservan discute un artículo de Wien que contiene una referencia al experimento. Independientemente de si Einstein conocía el mismo experimento de Michelson-Morley, lo que si parece claro es que desarrolló su teoría de la relatividad especial creyendo firmemente que el éter no existía. Esta convicción no fue apriorística. La lectura de otros grandes científicos de su época, muchos de los cuales ciertamente conocían el experimento, habría influido con toda seguridad en las convicciones de Einstein. Después de la publicación por parte de Einstein de la teoría especial de la relatividad, Einstein tuvo conocimiento fehaciente del trabajo de Michelson y Morley (ver [2]) y, de hecho, estuvo en contacto con Michelson. Poco antes de su fallecimiento, en 1931, Michelson asistió a una cena en honor a Einstein en California. En su discurso Einstein dijo: “Usted, honorable Dr. Michelson, comenzó este trabajo cuando yo era un jovenzuelo que no levantaba 1 metro... Read more »

Michelson,AA, & Morley,EW. (1887) On the Relative Motion of the Earth and the Luminiferous Ether. The American Journal of Science, 34(203), 833-845. info:/

  • January 25, 2011
  • 11:41 AM
  • 643 views

¿Una cuantificación de la belleza musical?

by César Tomé López in Experientia docet


No hace mucho participé en un debate sobre enfermedad mental y creatividad artística. Una de las impresiones que saqué es que algunas personas consideran que la belleza es algo objetivo e independiente del cerebro humano, una idea a la que no es difícil encontrar sus orígenes en Platón, y que la creatividad es una especie de don divino, una capacidad superior para encontrar esas “realidades artísticas”. Sin embargo, cada vez hay más evidencias de que “lo bello” no sería más que una adecuación de las características del objeto al cerebro en general y al estado del cerebro de un individuo en particular.
Una investigación realizada por Nicholas Hudson, de la Organización de Investigación y Ciencia Australiana (CSIRO, por sus siglas en inglés), cuyos resultados se publican en BMC Research Notes viene a profundizar en esta idea. Hudson ha comprobado algo muy simple: cuanto más compresible es una pieza musical más bella se considera. Esta hipótesis supone, por así decirlo, una cuantificación de la belleza musical. Partiendo de la base de que el cerebro tiende a simplificar la complejidad de los datos que recibe, el autor establece un paralelismo con el funcionamiento de los formatos de compresión  musical “sin pérdida” a la hora de reducir los archivos de audio quitando los datos redundantes e identificando pautas.
Hace mucho tiempo que existe la teoría de que la mente subconsciente puede reconocer pautas existentes en conjuntos complejos de datos y que nuestro cerebro habría evolucionado para encontrar las pautas sencillas como placenteras. Como decíamos antes, Hudson ha usado los programas de compresión musical “sin pérdidas” para imitar la capacidad del cerebro para condensar la información de audio. Ha comparado la capacidad de compresibilidad del ruido aleatorio con la de distintos estilos de música (clásica, pop, rock, tecno), encontrando que mientras que el ruido sólo puede reducirse a un 86% de su tamaño original, el pop, el rock y el tecno eran compresibles hasta alrededor del 60%, pero obras maestras aparentemente complejas como la Tercera Sinfonía de Beethoven podía ser comprimida hasta el 40%.
Hudson concluye que el máximo placer se extraería de composiciones musicales complejas para el oído pero que pueden ser descompuestas en pautas sencillas por el cerebro. Hasta aquí el estudio.
Asumiendo que esta correlación es, efectivamente causal, nos aventuramos a conjeturar que estos resultados serían un indicio de que nuestra apreciación por la música dependería de dos factores: la posibilidad de una composición para ser comprimida y de nuestra capacidad para poder comprimirla. Porque no todos los programas son iguales, podría ocurrir que hubiese composiciones que se pudiesen comprimir fácilmente al 60% y, otras, compresibles al 40%, a cuyo máximo sólo algunos podrían llegar. En esta línea, la escucha repetida de una obra permitiría un aprendizaje que facilitaría acercarse al máximo de compresibilidad para la misma; por tanto, aquellas obras cuyas escuchas repetidas permiten seguir comprimiéndolas serían las composiciones llamadas a convertirse en “clásicos”. Pero esto, como siempre, son nuevas preguntas en busca de una respuesta.  
Referencia:

Hudson NJ (2011). Musical beauty and information compression: complex to the ear but simple to the mind? BMC research notes, 4 (1) PMID: 21251325

... Read more »

  • July 28, 2010
  • 05:46 PM
  • 642 views

Adaptación por simbiosis: un mecanismo alternativo para la evolución.

by César Tomé López in Experientia docet

Cuando se habla de los mecanismos de la evolución se suelen enumerar dos: la selección natural y la deriva genética. La selección natural favorece a los genes que mejoran la capacidad de supervivencia y reproducción del organismo. La deriva genética es el cambio aleatorio en la frecuencia de cada una de las formas alternativas que puede tener un gen (estas formas alternativas se llaman alelos). Pero, como acaban de ilustrar espectacularmente unos investigadores encabezados por John Jaenike, de la Universidad de Rochester (EE.UU.), existe otro que no usa a los genes en absoluto, sino la simbiosis. El artículo aparece en Science. En síntesis se trata de un caso en el que una bacteria infecta a un animal, esta infección confiere al animal que la tiene una ventaja reproductiva y la bacteria termina “heredándose” de la madre a las crías (la madre infecta a las crías). Esta relación simbiótica entre el animal huésped y la bacteria le proporciona al huésped una defensa lista para su uso contra un peligro de su entorno y, por lo tanto, se ha extendido en la población por selección natural, de la misma manera en la que lo haría una mutación genética favorable. El trabajo de Jaenike y sus colegas representa la primera vez que se informa de este efecto con este nivel de detalle en animales que viven en libertad. Sin embargo, no debe ser algo tan raro en la naturaleza. Aparte de lo que este estudio supone para un mejor conocimiento de los mecanismos de la evolución, también puede representar una ayuda a la hora del desarrollo de bacterias para combatir enfermedades en los humanos. Los investigadores han estudiado una especie de mosca, Drosophila neotestacea, que se vuelve estéril por un nemátodo (un gusano redondo) parásito llamado Howardula aoronymphium. Los nemátodos invaden las moscas hembra cuando son jóvenes, horadando su piel mientras se alimentan de setas, e impidiendo que puedan producir huevos cuando maduran. Sin embargo, cuando una mosca también está infectada por una especie de bacteria llamada Spiroplasma, los nemátodos no crecen bien y no esterilizan a las hembras. Los investigadores también han podido constatar que, a resultas del impacto beneficioso de Spiroplasma, la bacteria se ha estado expandiendo por América del Norte y aumentando la frecuencia con la que aparece en las moscas al pasar de madres a hijos. La comprobación de ejemplares guardados desde los primeros años ochenta del siglo XX demostró que la bacteria sólo estaba presente en alrededor del diez por ciento de las moscas del oriente de Estados Unidos. Para 2008 la frecuencia de la infección por Spiroplasma había alcanzado el ochenta por ciento. Los científicos deducen que este crecimiento tan sustancial es una respuesta evolutiva a la reciente colonización de América del Norte por los nemátodos. Cuando los gusanos invadieron el subcontinente la bacteria demostró ser una defensa práctica y potente contra el efecto esterilizador de los nemátodos. En la actualidad la mayoría de las moscas del este de Estados Unidos portan la bacteria, y la infección bacteriana parece estar extendiéndose hacia el oeste. Sin ninguna mutación en sus propios genes, las moscas han desarrollado rápidamente una defensa contra un parásito tremendamente pernicioso simplemente incorporando otro organismo y pasándolo de generación en generación. Este trabajo también puede tener implicaciones para el control de enfermedades en humanos. Los nemátodos portan y transmiten enfermedades muy graves, incluyendo la segunda causa de ceguera en el mundo, la oncocercosis, y la elefantiasis. La investigación de Jaenike es la primera prueba de la existencia de una defensa natural bacteriana contra un nemátodo, lo que abre una nueva vía de investigación para el control de estas enfermedades.Referencia: Jaenike, J., Unckless, R., Cockburn, S., Boelio, L., & Perlman, S. (2010). Adaptation via Symbiosis: Recent Spread of a Drosophila Defensive Symbiont Science, 329 (5988), 212-215 DOI: 10.1126/science.1188235Imagen: disección de un ejemplar de D. neotestacea; se aprecia el nemátodo y la descendencia de éste. Cortesía de J. Adam Fenster, Universidad de Rochester.

... Read more »

Jaenike, J., Unckless, R., Cockburn, S., Boelio, L., & Perlman, S. (2010) Adaptation via Symbiosis: Recent Spread of a Drosophila Defensive Symbiont. Science, 329(5988), 212-215. DOI: 10.1126/science.1188235  

  • June 8, 2011
  • 10:09 AM
  • 642 views

El cerebro abstracto: ¿obedecen matemáticas, lenguaje y música las mismas reglas sintácticas?

by César Tomé López in Experientia docet




Imagínate por un segundo que la estructura de la ecuación matemática que acabas de resolver condicione el tipo de frase que vayas a decir a continuación. Ello indicaría que existe una conexión profunda entre matemáticas y lenguaje. Pues bien, esto es lo que acaba de demostrar experimentalmente un equipo de investigadores encabezado por Christoph Scheepers, de la Universidad de Glasgow (Reino Unido). Sus resultados aparecen en Psychological Science.
Reflexionemos un momento sobre nuestro uso del idioma (no digamos ya si eres políglota): no tenemos manera de poder anticipar o memorizar todas las combinaciones posibles de palabras, grupos de palabras u oraciones. Y sin embargo no tenemos ninguna dificultad a la hora de construir y comprender una enorme cantidad de expresiones diariamente. ¿Cómo lo hacemos? Los lingüistas dicen que de forma natural e inconsciente empleamos unas reglas abstractas. Es lo que llamamos sintaxis.
Pero, ¿hasta qué punto es abstracto el lenguaje? ¿Cuál es la naturaleza de estas representaciones abstractas? ¿Se aplican estas reglas a distintos dominios cognitivos? El trabajo de Scheepers et al. apunta a que el proceso de almacenamiento y reuso de la sintaxis funciona transversalmente en los distintos dominios cognitivos.
El estudio hizo uso de un proceso cognitivo llamado primado estructural. Simplificando, si usas una determinada estructura en una oración es probable que la uses de nuevo en la siguiente. Para averiguar hasta qué punto es abstracto este proceso, además de general desde el punto de vista cognitivo, los experimentadores le dieron a los sujetos, que eran estudiantes con el inglés como lengua nativa, un test que consistía en una serie de problemas matemáticos emparejados con frases incompletas.
Cada problema matemático podía tener tres estructuras posibles:· 80-(5+15)*5, denominada de conexión “larga” porque la última operación (*5) se aplica a un trozo largo anterior (5+15).· 80-5+15*5, conexión “corta” (*5 sólo se aplica a 15)· 80-5, control
Tras cada ecuación cada participante encontraba una oración que podía completar usando una conexión larga o una corta. Por ejemplo, “El guía turístico mencionó que las campanas de la iglesia que...” puede completarse con una conexión larga que hace referencia a “las campanas de la iglesia” como “las campanas de la iglesia que sonaban en la distancia”; o con una conexión corta que haría referencia solamente a “la iglesia”, como “la iglesia que está en la plaza”.
Los resultados (a pesar de un par de inconvenientes que apuntamos a continuación) muestran de foma estadísticamente significativa que los problemas matemáticos de conexión larga primaban oraciones de conexión larga, y los de conexión corta hacían más probables que las frases se completasen con conexiones cortas.
Aunque parece que los autores han sabido discriminar adecuadamente, hemos de mencionar dos factores que pueden afectar a la robustez de los resultados. Uno es la habilidad matemática de los probandos: hubo un número suficientemente alto de respuestas incorrectas como para tener un efecto en las conclusiones. Otro es el idioma nativo, el inglés, que prima las conexiones cortas.
El resultado es muy interesante y, por ello mismo, debería repetirse el experimento con personas de habilidad matemática suficiente y con un amplio espectro de lenguas nativas, con objeto de universalizar los resultados. Si, efectivamente, nuestros procesos cognitivos operan con un alto nivel de abstracción y esta abstracción afecta a todos nuestros dominios cognitivos, como concluyen los autores, quizá también merecería la pena una tanda de experimentos en los que en vez de matemáticas y lengua se sustituya una de ellas por música.  
Referencia:
Scheepers C., Sturt P., Martin C.J., Myachykov A., Teevan K., Viskupova I. (2011). Structural priming across cognitive domains: From simple arithmetic to relative clause attachment Psychological Science : In Press

... Read more »

Scheepers C., Sturt P., Martin C.J., Myachykov A., Teevan K. . (2011) Structural priming across cognitive domains: From simple arithmetic to relative clause attachment. Psychological Science. info:/In Press

join us!

Do you write about peer-reviewed research in your blog? Use ResearchBlogging.org to make it easy for your readers — and others from around the world — to find your serious posts about academic research.

If you don't have a blog, you can still use our site to learn about fascinating developments in cutting-edge research from around the world.

Register Now

Research Blogging is powered by SMG Technology.

To learn more, visit seedmediagroup.com.