César Tomé López

400 posts · 246,552 views

Experientia docet
400 posts

Sort by Latest Post, Most Popular

View by Condensed, Full

  • October 20, 2009
  • 10:20 AM
  • 731 views

De cómo el área de Broca procesa el lenguaje .

by César Tomé López in Experientia docet

Un método invasivo, usado por primera vez en humanos, demuestra que una pequeña parte del cerebro puede procesar tres tipos de datos diferentes, en tres momentos distintos, en un cuarto de segundo. Además revela que el área de Broca realiza más de una función en el procesamiento del lenguaje. El trabajo, encabezado por Ned T. Sahin de la Universidad de California en San Diego, se ha publicado en Science. Este interesantísimo trabajo aborda dos cuestiones importantes: una, la forma en que los procesos cognitivos superiores, como el lenguaje, se implementan en el cerebro y, otra, la naturaleza de la que es, quizás, la región más estudiada de la corteza cerebral, el área de Broca. La primera prueba de que partes del cerebro se correspondían con partes de la mente fue el descubrimiento, por parte de Broca hace 150 años, de que pacientes con una parte concreta del cerebro dañada, lo que hoy se conoce como área de Broca, eran incapaces de hablar, pero el resto de sus funciones cognitivas no estaban afectadas aparentemente. En todos estos años no se ha avanzado demasiado en el conocimiento de cómo el área de Broca contribuye al lenguaje. Los resultados del estudio que nos ocupa sugieren que el área de Broca consiste realmente se distintas partes superpuestas, que desarrollan distintos pasos de procesamiento con un ajuste temporal en una fracción de segundo. Esta forma de funcionamiento ha podido pasar desapercibida hasta ahora debido al nivel de resolución de los métodos empleados. Los resultados de Sahin et ál. se han conseguido mediante el uso de electrodos colocados en los cerebros de los pacientes [véase la imagen, tomada por rayos X, cortesía del Dr. Sahin]. Esta técnica permite a los cirujanos conocer qué pequeña porción del cerebro deben extirpar para aliviar los ataques que sufren los pacientes a la vez que salvaguardan la integridad de las partes sanas necesarias para el lenguaje. Los registros para la investigación se pudieron hacer, pues, mientras los pacientes estaban despiertos y receptivos. Este procedimiento, llamado electrofisiología intracraneal (ICE, por sus siglas en inglés), permitió al equipo de investigadores terner una resolución en la actividad del cerebro relacionada con el lenguaje con una precisión de un milímetro, espacialmente, y un milisegundo, temporalmente. Este ha sido el primer experimento que emplea la ICE para documentar cómo el cerebro humano procesa la gramática y produce palabras. Dado que el lenguaje complejo es una característica humana, ha sido muy difícil investigar sus mecanismos neuronales. Los métodos de imágenes del cerebro, como los escáneres de resonancia magnética funcional (fMRI, por sus siglas en inglés) son, en la práctica, todo lo que es posible usar en humanos, pero emborronan la actividad de miles de millones de neuronas en períodos de exposición largos. Como consecuencia, no se ha podido determinar en detalle si los mecanismos usados por los modelos lingüísticos o computacionales para producir un discurso gramaticalmente correcto se corresponden con el mecanismo que el cerebro usa realmente. Para este estudio, los investigadores registraron la actividad de los cerebros de los pacientes mientras repetían palabras al pie de la letra o las producían en formas gramaticales (plural, pasado, etc.), una tarea que los humanos hacemos sin esfuerzo cada vez que pronunciamos una frase.. La ICE permitió a los autores estudiar tres componentes del procesamiento del lenguaje en tiempo real, determinar si actividades neuronales relacionadas se ponían en ejecución en serie o en paralelo, y si los patrones de actividad eran locales o distribuidos. Los resultados muestran que procesos lingüísticos diferenciados se procesan en pequeñas regiones al área de Broca, separados en el tiempo y coincidiendo parcialmente en el espacio. Específicamente, los investigadores encontraron patrones de actividad neuronal que indicaban procesamiento léxico, gramatical y articulatorio (fonológico) a, aproximadamente, 200, 320 y 450 milisegundos después de la presentación de la palabra. Estos patrones eran idénticos independientemente de las palabras, ya fuesen sustantivos o verbos, y eran consistentes entre los distintos pacientes. Se pudo comprobar que la identidad de una palabra impresa llega al área de Broca muy rápidamente después de haber sido vista, en paralelo a su llegada al área de Wernicke. Por lo tanto, los resultados contribuyen a descartar por incorrecta una idea que aparece en muchos libros de texto: que el área de Broca se encarga del lenguaje expresivo (hablar) mientras que el área de Wernicke se encarga del lenguaje receptivo (leer y escuchar). El área de Broca juega, pues, diferentes papeles, tanto en el lenguaje expresivo como en el receptivo.Referencia: Sahin, N., Pinker, S., Cash, S., Schomer, D., & Halgren, E. (2009). Sequential Processing of Lexical, Grammatical, and Phonological Information Within Broca's Area Science, 326 (5951), 445-449 DOI: 10.1126/science.1174481

... Read more »

  • July 18, 2012
  • 06:21 AM
  • 730 views

El agua y otros volátiles terráqueos proceden de asteroides (y no de cometas)

by César Tomé López in Experientia docet





Estos días han aparecido en distintos
medios noticias que afirman que “un nuevo estudio apunta a que elorigen del agua y de los componentes orgánicos que dieron origen ala vida procede del interior del Sistema Solar” como hace Materia o que “los meteoritos sonla fuente más probable del agua de la Tierra”  como afirma Astrobiology Magazine de la
NASA. Todas estas noticias se hacen eco de un estudio que publica en
Science un equipo encabezado por Conel Alexander, de la
Institución Carnegie (EE.UU.). Sin embargo, al leerlas uno se queda
con la sensación de que falta algo, de que se produce un salto en el
vacío hacia unas conclusiones que los datos presentados no sustentan
o que, directamente, el titular es erróneo. Vamos a intentar
solucionar el problema.



Parto de la base de que el inteligente
lector leerá los artículos enlazados más arriba en algún momento,
por lo que me limitaré a señalar lo importante del estudio con
énfasis en la secuencia lógica que, entiendo yo, falta en esas
noticias. Señalo con un * las discrepancias con esos artículos.




Aún no está claro cómo determinados compuestos volátiles,
mayormente de H, N y C llegaron a la Tierra primitiva. Estos
compuestos, entre los que se encuentra el agua, es evidente que son
críticos en la aparición de la vida.




Las fuentes que se barajan como origen de esos compuestos
son:



2.1. Asteroides: están en órbitas entre las de Marte y Júpiter



2.2. Cometas: provienen del exterior del Sistema Solar




Los modelos actuales sugieren que en un momento dado un
cambio en las órbitas de Saturno Y Júpiter habría propiciado que
material cometario llegase en primer lugar a lo que hoy es el
cinturón de asteroides y, de ahí, a la Tierra aportando los
volátiles.




El estudio de Alexander et al. intenta comprobar si
esto es así. Para ello emplean el análisis isotópico de muestras
de meteoritos (condritas carbonáceas).




El equipo de investigadores comparó en primer lugar la
proporción entre deuterio e hidrógeno (PDH). En el exterior del
Sistema Solar, lugar de procedencia de los cometas, el frío extremo
hace que el hielo de agua tenga una proporción de deuterio mayor
que el que se forma en regiones menos frías. La PDH se mide en los
meteoritos tomando muestras de ellos y analizándolas por
espectrometría de masas* y en los cometas por espectroscopia*. El
hidrógeno en los meteoritos se encuentra en forma de silicatos
hidratados, restos del agua primitiva* que contenían. Un análisis
de la PDH indicará si estos meteoritos* provenían de cometas o
asteroides.




El análisis de 85 meteoritos indica que la PDH es menor que
la medida en cometas. De aquí el equipo concluye que el origen de
los meteoritos está en los asteroides.




Un análisis isotópico adicional* del nitrógeno junto a sus
PDH pone de manifiesto que un tipo concreto de condrita carbonácea,
las CI o Ivuna, posee la composición isotópica más parecida a la que hay
en la Tierra, lo que indicaría que serían los asteroides de origen
de este tipo de meteoritos la fuente principal de los compuestos
volátiles terráqueos de los que hablábamos en 1.




Esto es lo que dice el estudio, y no otra cosa.



Cabe resaltar que el hecho de que asteroides y cometas tengan una
PDH diferente ya es un hallazgo significativo. No debe extrañarnos
que el artículo aparezca en Science : tanto metodológicamente
como desde el punto de vista de resultados, además de las cuestiones
que plantea, es muy interesante. Lástima que no se tenga todo el
cuidado en divulgarlo bien.



Esta entrada es una participación de Experientia docet en la XVII Edición del Carnaval de Química que organiza Un geólogo en apuros









Referencia:


Alexander CM, Bowden R, Fogel ML, Howard KT, Herd CD, & Nittler LR (2012). The Provenances of Asteroids, and Their Contributions to the Volatile Inventories of the Terrestrial Planets. Science PMID: 22798405

... Read more »

  • December 10, 2010
  • 10:33 AM
  • 729 views

Es el placer de comer, no qué se come, lo que reduce el estrés.

by César Tomé López in Experientia docet

Muchas personas cuando se encuentran nerviosas, ansiosas, comen. Nos da la impresión de que comer nos tranquiliza y ayuda a sobrellevar mejor el estrés. Pero, ¿por qué? ¿Se debe a una respuesta fisiológica como el incremento del nivel de azúcar en sangre o es el mero placer de comer lo que tiene efecto? ¿Y efecto sobre qué? Según un equipo de investigadores encabezados por Yvonne Ulrich-Lai, de la Universidad de Cincinnati (EE.UU.), las actividades que proporcionan placer, como pueden ser la comida o el sexo, reducen el estrés porque inhiben las respuestas de ansiedad del cerebro. Ésta es una de las conclusiones de un estudio publicado en la revista Proceedings National Academy of Sciences , en el que se muestra además que esta reducción del estrés se prolonga a lo largo de varios días, lo que sugiere un beneficio a largo plazo. El experimento se realizó en ratas de laboratorio a las que se administró una solución de sacarosa dos veces al día durante dos semanas y se estudió su comportamiento, así como su respuesta al estrés. En comparación con las ratas del grupo de control, estos animales exhibían un ritmo cardíaco y unos niveles de hormonas del estrés menores. También mostraban una mayor predisposición a explorar ambientes no familiares y a interaccionar socialmente con otras ratas. Este efecto también se observó en ratas a las que se les administró una disolución de sacarina en vez de azúcar, pero no en las que la disolución azucarada se les introdujo mediante una sonda directamente en el estómago. Con este hecho se puede deducir que el comportamiento observado depende de la sensación de placer obtenida por la comida y no de las calorías o de la nutrición conseguida. Los resultados obtenidos señalan además que las propiedades placenteras de la sacarosa son suficientes para la disminución del estrés. Apoya esta afirmación el hecho de que otro tipo de recompensa natural (la actividad sexual) reduce de forma similar las respuestas de estrés. Con objeto de averiguar la implicación neurológica del mecanismo, los investigadores comprobaron el efecto que tenían distintas lesiones neurológicas. Pudieron comprobar que las lesiones en la amígdala basolateral (ABL; estrictamente hablando, grupo complejo basolateral de la amígdala), el circuito de recompensas del cerebro, de las ratas impedía el efecto de disminución del estrés por parte de la sacarosa, lo que indicaría que la actividad de la ABL es necesaria para que se produzca el efecto. No sólo eso, pudieron comprobar además que el efecto de disminución del estrés de la sacarosa es persistente, lo que es consistente con cambios a largo plazo en la actividad neurológica después de una remodelación sináptica. En conclusión, los placeres “naturales” (la comida apetitosa, el sexo) nos proporcionan un método general para reducir el estrés que funciona, probablemente, por la plasticidad estructural y/o funcional de la ABL. Referencia: Ulrich-Lai, Y., Christiansen, A., Ostrander, M., Jones, A., Jones, K., Choi, D., Krause, E., Evanson, N., Furay, A., Davis, J., Solomon, M., de Kloet, A., Tamashiro, K., Sakai, R., Seeley, R., Woods, S., & Herman, J. (2010). Pleasurable behaviors reduce stress via brain reward pathways Proceedings of the National Academy of Sciences, 107 (47), 20529-20534 DOI: 10.1073/pnas.1007740107

... Read more »

Ulrich-Lai, Y., Christiansen, A., Ostrander, M., Jones, A., Jones, K., Choi, D., Krause, E., Evanson, N., Furay, A., Davis, J.... (2010) Pleasurable behaviors reduce stress via brain reward pathways. Proceedings of the National Academy of Sciences, 107(47), 20529-20534. DOI: 10.1073/pnas.1007740107  

  • November 13, 2009
  • 01:48 PM
  • 727 views

Flora intestinal y obesidad.

by César Tomé López in Experientia docet

Para la obesidad se han encontrado muchos culpables: los huesos grandes, la comida basura, los genes o unos padres incompetentes. En los últimos años ha aparecido un nuevo responsable: la flora bacteriana del intestino. Los intestinos humanos están llenos de microorganismos que ayudan a la digestión y también evitan que sus homólogos patógenos nos invadan. En esta simbiosis algunas bacterias son mejores que otras a la hora de suministrar alimento a sus huéspedes humanos, y también parece que, por mecanismos que aún no se conocen, son capaces de hacer que los cuerpos de su simbionte almacenen la energía como grasa y que esa grasa se mantenga. En el pasado, cuando había suministros limitados de alimento, habrían sido unas valiosas aliadas. En una época de abundancia, sin embargo, se han vuelto problemáticas. En concreto, estudios hechos con ratones sugieren que la obesidad está asociada con tener una alta proporción de un grupo de bacterias llamado Firmicutes, mientras que en los ratones no obesos abundan las de otro grupo, las Bacteroidetes [1]. Estos trabajos también han sugerido que transplantar microbios de “ratones delgados” a ratones obesos podría hacer que éstos fuesen más delgados, al menos durante un tiempo. Lo que es cierto para los ratones puede que no lo sea para los humanos, por lo que claramente hace falta más investigación. Pero encontrar voluntarios dispuestos a que se les pongan las bacterias de otro en su intestino parece complicado. Por ello, en un artículo [2] que ha aparecido en Science Translational Medicine, Peter Turnbaugh de la Universidad Washington en San Luis (EE.UU.) y sus colegas describen un término medio. Han creado un ratón gnotobiótico con una flora intestinal humanizada. Lo hicieron tomando ratones de diez semanas de edad que habían sido criados para que estuviesen libres de microbios y colonizaron sus intestinos alimentándolos con heces humanas (nota: los ratones, según el artículo son coprófagos). Después de este tratamiento, se podía experimentar con los ratones alimentándolos con distintas dietas y viendo cómo respondían las bacterias. Los resultados indican que el comportamiento es similar al encontrado en ratones normales, incluyendo el aumento de obesidad asociado a Firmicutes. A la vista de estos resultados sospechamos que dentro de poco podremos ver nuevos alimentos “probióticos”, para “equilibrar” la flora intestinal, anunciados en televisión.Referencias:[1] Turnbaugh, P., Ley, R., Mahowald, M., Magrini, V., Mardis, E., & Gordon, J. (2006). An obesity-associated gut microbiome with increased capacity for energy harvest Nature, 444 (7122), 1027-131 DOI: 10.1038/nature05414[2] Turnbaugh, P., Ridaura, V., Faith, J., Rey, F., Knight, R., & Gordon, J. (2009). The Effect of Diet on the Human Gut Microbiome: A Metagenomic Analysis in Humanized Gnotobiotic Mice Science Translational Medicine, 1 (6), 6-6 DOI: 10.1126/scitranslmed.3000322

... Read more »

  • June 26, 2009
  • 09:15 AM
  • 724 views

El origen evolutivo de la depresión: a veces es bueno renunciar a los sueños.

by César Tomé López in Experientia docet

La depresión clínica es una enfermedad grave, pero casi todo el mundo se deprime levemente de vez en cuando. Randolph Nesse, un psicólogo e investigador en medicina evolutiva de la Universidad de Michigan, compara la relación entre la depresión leve y la clínica con la que existe entre el dolor normal y el crónico. Desde su punto de vista tanto el dolor como el estado de ánimo bajo son mecanismos de alarma y piensa que, de la misma manera que comprender el dolor crónico implica conocer primero el dolor normal, comprender la depresión clínica significa comprender primero la depresión leve. La hipótesis de Nesse es que, análogamente al dolor que te impide hacer actividades físicas que te dañan, el estado de ánimo bajo hace que dejes de hacer actividades mentales dañinas, particularmente, perseguir metas inalcanzables. Perseguir estas metas es un gasto de energía y recursos. Por lo tanto, según Nesse, es probable que exista un mecanismo, consecuencia de la evolución de la especie, que identifique determinadas metas como inalcanzables e inhiba su persecución. El estado de ánimo bajo sería al menos parte de ese mecanismo. Es una hipótesis ingeniosa pero, ¿es cierta? Un estudio publicado en el número de este mes de Journal of Personality and Social Psychology [1] sugiere que puede que lo sea. Carsten Wrosch de la Universidad Concordia (Canadá) y Gregory Miller de la Universidad de British Columbia (Canadá) estudiaron la depresión en chicas adolescentes. Midieron las “capacidades de ajuste de metas” de 97 chicas de entre 15 y 19 años durante 19 meses. Se las sometió a cuestionarios acerca de su capacidad de desengancharse de metas inalcanzables y reengancharse con otras nuevas. También se investigaron varios síntomas asociados con la depresión, y se siguió su evolución durante el periodo investigado. La conclusión fue que las que habían experimentado síntomas leves de depresión podían, de hecho, desengancharse más fácilmente de las metas inalcanzables. Esto apoya la hipótesis de Nesse. Pero el estudio también encontró un corolario digno de destacarse: aquellas mujeres que podían desengancharse de lo no conseguible era menos probable que sufrieran depresiones graves en el largo plazo. Los síntomas leves de depresión pueden verse por lo tanto como una parte natural de la gestión del fracaso en los adultos jóvenes. Aparecen cuando se identifica una meta como inalcanzable y llevan a una bajada de la motivación. En este período de baja motivación se ahorra energía y se pueden encontrar nuevas metas. Sin embargo, si este mecanismo no funciona adecuadamente la depresión clínica puede ser la consecuencia. La importancia de abandonar las metas inapropiadas ya había sido demostrada por Wrosch y Miller. Hace dos años publicaron un estudio [2] en el que mostraban que los adolescentes que eran buenos a la hora de decidir abandonar una meta tenían una concentración menor de la proteína C-reactiva, una sustancia que se genera en respuesta a las inflamaciones y que está asociada a un alto riesgo de diabetes y enfermedades cardiovasculares. Los investigadores por ello concluyen que es más saludable abandonar las metas demasiado ambiciosas, esas que a veces llamamos sueños. La perseverancia, aunque necesaria para el éxito y considerada una virtud por muchos, también puede tener su impacto negativo en la salud. Referencias:[1] Wrosch, Carsten, & Miller, Gregory E. (2009). Depressive symptoms can be useful: Self-regulatory and emotional benefits of dysphoric mood in adolescence. Journal of Personality and Social Psychology, 96 (6), 1181-1190[2] Miller, Gregory E., & Wrosch, Carsten (2007). You've Gotta Know When to Fold 'Em: Goal Disengagement and Systemic Inflammation in Adolescence Psychological Science, 18 (9)... Read more »

  • November 26, 2012
  • 06:15 AM
  • 724 views

El óxido de magnesio y la probabilidad de vida alienígena

by César Tomé López in Experientia docet







¿Qué tendrán que ver los cambios de fase a altas
presiones y temperaturas del óxido de magnesio con la probabilidad
de que exista vida en otros planetas? O, si se prefiere algo menos
dramático, ¿qué relación existe entre el diagrama de fases del
óxido de magnesio y las posibilidades de supervivencia de moléculas
complejas en la superficie de un planeta?




La respuesta está en que experimentos recientes
apuntan a que a altas presiones y temperaturas el óxido de magnesio
se convierte en un líquido metálico y, como este óxido es
representativo de los materiales rocosos en los mantos de los
planetas similares a la Tierra, se concluye que el interior de los
exoplanetas rocosos podría ser conductor eléctrico. Si el interior
es conductor eléctrico y líquido, sus movimientos generan un campo
magnético para el planeta, lo que protege su superficie del
bombardeo de partículas cargadas provenientes de su estrella que
tendrían la capacidad de destruir las posibles moléculas complejas
que pudieran formarse. Por tanto, los resultados que Stewart
Williams, de la Universidad Howard (EE.UU.), y sus colegas publican
en Science, apuntan a que la probabilidad de que los
exoplanetas rocosos, especialmente las supertierras, tengan un campo
magnético es mayor de lo que se suponía.



El óxido de magnesio es uno de los óxidos más
sencillos que están presentes en planetas rocosos como la Tierra y
que se especula con que puedan estar en el núcleo de algunos
planetas gaseosos como Júpiter. Se estima que su comportamiento
puede ser representativo de una amplia variedad de materiales, por lo
que el estudio de su comportamiento a altas presiones y temperaturas
es de gran interés para la comprensión de la geología de los
exoplanetas rocosos.



Existían una serie de predicciones teóricas que,
variando en los detalles (rangos de las variables), venían a
coincidir en dos puntos:


Alrededor de los 0,33 TPa y a unos 8100 K la
estructura cristalina del óxido de magnesio pasaría de ser la del
cloruro sódico NaCl (cada átomo forma una celdilla cúbica
centrada en las caras y ambas celdillas están interpenetradas o, lo
que es más intuitivo, cada ión magnesio está rodeado por seis
iones oxígeno y viceversa) a la del cloruro de cesio CsCl (cada
átomo forma una celdilla cúbica simple y ambas celdillas están
interpenetradas o cada ión magnesio está rodeado por ocho iones
óxido y viceversa).





NaCl



CsCl







En el entorno de los 0,59 TPa y a una
temperatura cercana a 13600 K el óxido de magnesio pasaría a ser
un líquido metálico





Como es comprensible, alcanzar estas presiones y
temperaturas en un laboratorio para dibujar experimentalmente el
diagrama de fases del óxido de magnesio no es tarea fácil. Y esto
es lo que ha conseguido precisamente el equipo de Williams usando una
técnica de ondas de choque generadas por láser. Sometieron pequeñas
muestras de óxido de magnesio a la presión generada por láseres de
alta potencia, llegando a sobrepasar los 1,5 TPa y los 50.000 K. La
iluminación de los láseres genera una onda de choque a través del
material que los investigadores son capaces de monitorizar, incluso
fotografiar (a la derecha).




Los resultados dejan en muy buen lugar a los
teóricos. Las dos transiciones de fase predichas se detectaron. La
transición cristalina NaCl a CsCl se encontró que se produce a
0,44 TPa y a una temperatura de 9000 K. Por otro lado la transición
a líquido metálico tiene lugar a una presión de 0,65 TPa y a una
temperatura de 14000 K.



Tanto el campo magnético terrestre como el de
Mercurio (el otro planeta rocoso con campo magnético del sistema
solar) se producen porque ambos planetas tendrían un núcleo de
hierro fundido en constante movimiento, lo que generaría el campo
magnético por el efecto dinamo. Si un planeta no tiene un interior conductor en movimiento, no
tendrá un campo magnético que lo proteja del viento solar de su
estrella, con lo que, por una parte, su superficie se verá
bombardeada por las partículas energéticas que constituyen el
viento solar y, por otra, parte de su atmósfera se perderá por la
erosión que genera la interacción del viento con la atmósfera.
Marte, por ejemplo, no tiene campo magnético en la actualidad, por
lo que una de las misiones de Curiosity es medir el nivel de
incidencia en la superficie del viento solar, clave para determinar
la habitabilidad actual del planeta.



El resultado de Williams et al. hace que
podamos interpretar la expresión “interior conductor” del
párrafo anterior en un sentido más amplio del que se venía
considerando. Puede que un planeta no tenga una dinamo en su núcleo,
pero podría tener suficiente óxido de magnesio para realizar la
misma función en su manto, siempre y cuando las temperaturas y
presiones sean lo suficientemente elevadas. Y aquí es donde entran
las supertierras, ya que su tamaño de hasta 15 veces la Tierra les
permite generar las condiciones para que este fenómeno ocurra.



En definitiva, el diagrama de fases del óxido de
magnesio nos dice que es más probable que las supertierras tengan
campos magnéticos, lo que implica que sus superficies y atmósferas
estarían más preservadas de los vientos solares de sus estrellas.
Y, aunque sea muy poco, también aumenta la probabilidad de que
exista vida alienígena.




Esta entrada es una participación de Experientia
docet en la XIX Edición del Carnaval de Química que organiza Leet mi explain  





Referencia:

... Read more »

  • September 25, 2009
  • 10:26 AM
  • 722 views

La falta de sueño puede favorecer la aparición de Alzheimer.

by César Tomé López in Experientia docet

Un nuevo estudio ha encontrado una conexión entra la falta de sueño y los niveles de beta amiloide, la molécula que juega un papel fundamental en el desarrollo de la enfermedad de Alzheimer. El estudio, liderado por David Holtzman de la Universidad Washington en San Luis (EE.UU.), aparece publicado en Science. Tanto en humanos como en ratones, los niveles del péptido beta amiloide [en la imagen] aumentan durante las horas de vigilia y disminuyen durante el sueño, según han podido comprobar los investigadores. También han podido constatar que los ratones a los que se privaba de sueño tenían una tendencia mayor a desarrollar placas (depósitos) de beta amiloide, iguales a las que se encuentran en los cerebros de pacientes con Alzheimer. Aunque no está probado de forma concluyente, estos hallazgos sugieren que los trastornos del sueño podrían ser un factor de riesgo para el Alzheimer. Desde un punto de vista más positivo, también apuntan a nuevas formas de tratamiento. Existen bastantes indicios que sugieren que beta amiloide natural se va acumulando en el cerebro durante muchos años en la gente que termina desarrollando la enfermedad de Alzheimer, comenzando mucho antes de que la persona empiece a mostrar síntomas de pérdida de memoria. Sin embargo, se sabe muy poco de qué factores podrían influir en los niveles de este péptido en el cerebro. Para conocer más sobre estos factores el equipo de Holtzman llevó a cabo una serie de experimentos con ratones a los que insertaron un pequeño tubo en el cerebro para recoger muestras del fluido que circula por el espacio intercelular. En las muestras tomadas en el hipocampo, una zona del cerebro que es crítica para la memoria y que es una de las primeras en verse afectadas por el Alzheimer, los investigadores encontraron que los niveles de beta amiloide alcanzaban un máximo cuando los animales estaban despiertos y caían cuando estaban dormidos. La misma pauta se encontró en 10 voluntarios humanos que accedieron a que se tomaran muestras de su líquido cerebroespinal. Los investigadores también comprobaron los efectos de la privación crónica de sueño en ratones que están genéticamente predispuestos a desarrollar placas de beta amiloide. Para mantener a los ratones despiertos, los colocaban en pequeñas plataformas rodeadas de agua, sin espacio para tumbarse a dormir. Los ratones que permanecieron despiertos durante 20 horas al día durante 3 semanas desarrollaron más placas de beta amiloide que los que habían descansado bien. Por otra parte un fármaco que bloquea los receptores de las hipocretinas A y B, unas hormonas que ayudan a permanecer despierto y que se producen en el hipotálamo, reducía la formación de placas en la misma cepa de ratones. Estos hallazgos sugieren que las personas que sufren de privación de sueño crónica podrían tener niveles más altos de beta amiloide, lo que las haría más susceptibles de padecer la enfermedad de Alzheimer. Hemos de recalcar que estos interesantes resultados son muy preliminares y dan sólo otro rayito de esperanza. Pero es muy importante comprender que aún no se pueden sacar conclusiones para los humanos. No se automedique. En caso de duda, consulte con su médico.Referencia: Kang, J., Lim, M., Bateman, R., Lee, J., Smyth, L., Cirrito, J., Fujiki, N., Nishino, S., & Holtzman, D. (2009). Amyloid- Dynamics Are Regulated by Orexin and the Sleep-Wake Cycle Science DOI: 10.1126/science.1180962

... Read more »

Kang, J., Lim, M., Bateman, R., Lee, J., Smyth, L., Cirrito, J., Fujiki, N., Nishino, S., & Holtzman, D. (2009) Amyloid-  Dynamics Are Regulated by Orexin and the Sleep-Wake Cycle. Science. DOI: 10.1126/science.1180962  

  • September 26, 2009
  • 02:56 PM
  • 720 views

El impacto de un cometa explicaría el origen de las primeras proteínas y por qué los aminoácidos terrestres son de izquierdas.

by César Tomé López in Experientia docet

A la hora de explicar el origen químico de la vida, salvada la aparición de las primeras moléculas, destacan dos dificultades importantes: por un lado cómo se originaron las primeras moléculas complejas, los primeros polímeros que darían lugar a las proteínas, y por otro por qué la vida en la Tierra sólo emplea aminoácidos levógiros. Un equipo del Instituto SETI aporta una posible solución a ambas preguntas: el impacto de un cometa.Cuando se discute las distintas posibilidades del origen de la vida en la Tierra, tarde o temprano se termina hablando de los aminoácidos. La vida en la Tierra usa 20 de ellos para construir miles y miles de proteínas diferentes que realizan un número proporcional de funciones diferentes en las células, por lo que su importancia es evidente. En muchos de los experimentos que se hacen para intentar averiguar cuales fueron los primeros pasos de la evolución química, los investigadores se dan por muy satisfechos si en alguno de ellos aparece alguno de estos aminoácidos. Las noticias de su detección en un cometa o en una nube interestelar copan los titulares de los medios de divulgación científica, siempre acompañados por la coletilla “posibilidad de la existencia de vida” Y, sin embargo, la mera presencia de aminoácidos no es suficiente, es necesario que se unan entre sí y esto, aparentemente tan sencillo, no lo es. El enlace peptídico, el que se produce entre la parte amino de un aminoácido con la ácido de otro para formar las cadenas (péptidos) que terminarán formando proteínas, no es espontáneo a las temperaturas ordinarias, existe una barrera energética, es decir, una cantidad de energía que hay que aportar para que la reacción tenga lugar, es lo que se llama energía de activación. Los químicos emplean para facilitar las reacciones en los laboratorios unas sustancias llamadas catalizadores cuya función es reducir la energía de activación. Los organismos vivos recurren al uso de catalizadores naturales, llamados enzimas. Pero los enzimas son ellos mismos proteínas. ¿Cómo empezó pues la polimerización de los aminoácidos? Otro misterio es por qué la vida usa aminoácidos levógiros cuando de forma natural existen dextrógiros (giran la luz polarizada a la derecha) y levógiros (giran la luz polarizada a la izquierda). Esto es a lo que nos referimos cuando hablamos de quiralidad. Una respuesta a ambas preguntas puede que venga del espacio exterior: Jennifer Blank y sus colegas del Instituto SETI (EE.UU.) estudian los cometas y el efecto de sus impactos en la formación de moléculas complejas de una quiralidad determinada. Una forma de conseguir estas moléculas es hacer los aminoácidos en el espacio y que vengan a la Tierra a bordo de meteoritos y cometas. Hay muchas pruebas de que los meteoritos transportan aminoácidos. Y hace muy poco, se descubrió un aminoácido en el material de un cometa que fue traído por la sonda Stardust de la NASA. El equipo de Blank quería saber qué les pasaba a estas biomoléculas cuando su “cápsula espacial” cometaria se estrellaba en la Tierra. ¿Por qué un cometa y no un meteorito? Para empezar, porque el impacto de un cometa es menos “agresivo” que el de un meteorito, ya que los meteoritos son menos densos, lo que significa que el impacto genera temperaturas y presiones menores. En segundo lugar, los cometas transportan agua, que es clave para las reacciones químicas que dan lugar a la vida tal y como la conocemos. Cuando el cometa se estrella, su hielo se derrite formando un charco en el lugar del impacto, si éste es terreno seco (en el mar toda los productos se diluyen y no hacemos nada). Hasta aquí la teoría, ¿cómo se puede confirmar la validez de esta hipótesis a nivel experimental? Para simular un cometa impactando con la Tierra, Blank et. al disparan una bala dentro de un contenedor de metal del tamaño de una lata de conservas. En esta situación, el contenedor es el cometa y la bala la dura tierra. Dentro del contenedor hay una pequeña cámara del tamaño de una moneda, en la que se deposita una muestra líquida de moléculas orgánicas. Tras el impacto y tras asegurarse de que no ha habido filtraciones, la cámara se extrae con mucho cuidado a través de un dispositivo que garantiza que no se contamina. En 2001 el equipo ya informó en un artículo publicado en Origins of Life and Evolution of Biospheres, para sorpresa de muchos, que los aminoácidos colocados en el simulador cometario estaban todavía intactos tras el impacto. Normalmente, las temperaturas cercanas a los 600 º C dentro del “cometa estrellado” destruirían los aminoácidos. Pero, aparentemente, la temperatura sube y baja tan rápidamente que a las moléculas nos le da tiempo de reaccionar. La altísima presión, 10.000 atmósferas, también puede contribuir a que la descomposición no tenga lugar. Sin embargo, los aminoácidos hicieron algo más que sobrevivir. También comenzaron a reaccionar entre sí para formar cadenas de hasta 5 aminoácidos de largo. Es concebible que el impacto de un cometa produjese las primeras piezas rudimentarias de las proteínas, los péptidos, y que de esta forma se echase a rodar la bola. En lo que respecta a la quiralidad, Blank piensa que podría haber una diferencia en cómo se enlazan los aminoácidos en las condiciones del impacto. Los aminoácidos levógiros (de izquierdas) tendrían mayor facilidad para enlazarse a otros levógiros que a un dextrógiro o que los dextrógiros entre sí. Esta preferencia, si existe, explicaría el exceso enantiomérico (hay más de izquierdas que de derechas) en los restos del impacto. Según esta hipótesis en este hecho estribaría la explicación de porqué la vida en la Tierra usa abrumadoramente aminoácidos levógiros. Los trabajos para la confirmación experimental de la hipótesis están en marcha.Referencia: Blank, J., Miller, G., Ahrens, M., & Winans, R. (2001). Experimental Shock Chemistry of Aqueous Amino Acid Solutions and the Cometary Delivery of Prebiotic Compounds Origins of Life and Evolution of the Biosphere, 31 (1/2), 15-51 DOI: 10.1023/A:1006758803255
... Read more »

  • May 23, 2010
  • 02:00 PM
  • 719 views

Einstein y...el condensado de Bose-Einstein.

by César Tomé López in Experientia docet

En los años 20 del siglo XX, Albert Einstein amplió las ideas del físico indio Satyendra Nath Bose para predecir que, a temperaturas extremadamente frías, los átomos se unirían en una nueva fase de la materia (diferente a líquido, gas, sólido o plasma) conocida como condensado de Bose-Einstein. En 1924, Bose vivía en Calcuta y no conseguía llamar la atención de sus colegas europeos sobre su trabajo. Se decidió a escribir a Einstein, adjuntándole un artículo que usaba una nueva forma de estadística para deducir la ley de Planck, la famosa ecuación que representa la intensidad de la radiación de un cuerpo negro como función de la temperatura. Einstein quedó impresionado con la mecánica estadística de fotones de Bose, calificándola como “una avance significativo”. Tradujo personalmente el artículo al alemán e intervino para que se publicase [1] en Zeitschrift Für Physik en 1924. La nueva estadística de Bose ofrecía más información sobre cómo comprender el comportamiento de los fotones. Bose demostró que si un fotón alcanzaba un estado cuántico específico (un conjunto de variables que incluye la energía que tiene el fotón), entonces existía una pequeña tendencia a que el siguiente fotón alcanzase el mismo estado. Es como si cada vez que golpeases una bola de billar americano hubiese más probabilidad de que fuese a la tronera (bolsillo) donde ya hay una bola. Bose había aplicado su estadística a un “gas” de fotones. Esto indujo a Einstein a considerar la aplicación de la estadística de Bose a un gas ideal de átomos o moléculas; Einstein quería ver qué pasaba cuando uno trataba con materia de verdad. Basándose en el trabajo de Bose, Einstein terminó deduciendo un conjunto de fórmulas que predecían cómo los átomos de un gas deberían comportarse, que resulta ser correcto para cierto tipo de partículas, entre ellas protones y neutrones, que ahora se conocen, apropiadamente, como bosones. Como consecuencia de estas nuevas ideas surgía una predicción de lo que les ocurriría a los átomos a temperaturas extremadamente bajas, cercanas al cero absoluto. En 1925, Einstein descubrió que si a un gas se le baja la temperatura hasta aproximarla al cero absoluto, una temperatura a la que los átomos casi no se muevan, todos alcanzarán exactamente el mismo estado cuántico. Volviendo a la mesa de billar, podemos imaginar que dejamos caer 20 bolas sobre la mesa y vemos cómo ruedan cada una hasta terminar en troneras diferentes. Esta clase de rodar aleatorio es lo que ocurre a temperaturas normales: cada átomo en un estado cuántico específico. Pero cerca del cero absoluto, esas bolas dejadas caer irían, una tras otra, a la misma tronera. En el cero absoluto, los átomos se “bloquean” en el mismo estado cuántico y van uno detrás de otro sin discusión. Se unen en un nuevo estado de la materia que se denomina condensado de Bose-Einstein. Todos los átomos en un condensado de Bose-Einstein pierden su identidad individual. Marchan al unísono, actuando como un solo superátomo. De hecho, los condensados de Bose-Einstein interaccionan entre sí como una partícula con otra: se repelen o atraen igual que los átomos individuales. Einstein publicó su trabajo en dos artículos en 1925 [2][3], cuando tenía 46 años. No es habitual que un científico haga una contribución de este calibre en un campo completamente nuevo cuando ya tiene más de 40 años y, de hecho, esta fue la última gran contribución de Einstein a la física. Setenta años más tarde el condensado de Bose-Einstein fue observado experimentalmente en átomos de rubidio.Referencias:[1]Bose, S.N . (1924). Plancks Gesetz und Lichtquantenhypothese Zeitschrift für Physik, 26 (1), 178-181 DOI: 10.1007/BF01327326[2] Einstein, A. (1925). Quantentheorie des einatomigen idealen Gases.I Sitzungsberichte Akad. Berlin DOI: 10.1002/3527608958.ch27[3]Einstein, A. (1925). Quantentheorie des einatomigen idealen Gases.II Sitzungsberichte Akad. Berlin DOI: 10.1002/3527608958.ch28
... Read more »

  • October 26, 2011
  • 05:55 AM
  • 718 views

Probada experimentalmente la hipótesis ergódica para la difusión en disoluciones.

by César Tomé López in Experientia docet





Cada vez que percibes un olor, ya sea el de una flor o el de un
cadáver putrefacto, moléculas de estos cuerpos han llegado a tu
pituitaria a través del aire gracias al fenómeno de la difusión:
el hecho de que las partículas (en nuestros ejemplos moléculas)
moviéndose al azar bajo la influencia de las leyes de la
termodinámica se terminan dispersando. Es el proceso que ves cuando
metes una bolsita de té en agua hirviendo y no remueves con la
cucharilla.




La difusión está detrás de una cantidad enorme de procesos,
desde la digestión a la distribución de las manchas en las pieles
de los animales, y se ha estudiado mucho en los últimos 150 años.
Sin embargo, una hipótesis que está en la base misma del fenómeno
no ha podido probarse experimentalmente hasta ahora: la hipótesis
ergódica. A pesar del nombre es muy fácil de entender, si bien
tiene sus sutilezas.




Ludwig Boltzman demostró que la segunda lay de la termodinámica
es solamente un hecho estadístico. Y es desde el punto de vista
estadístico como hay que entender la hipótesis ergódica. Cuando se
estudia la difusión se asume que una foto de todo el sistema de
partículas en un instante determinado nos dice algo acerca de cómo
una sola partícula se comportará en un período de tiempo más
largo, y viceversa, siempre y cuando el sistema esté en equilibrio.
Para ser más precisos, si medimos un aspecto concreto del movimiento
de todas y cada una de las partículas, por ejemplo su velocidad, en
un momento dado y hacemos la media, obtenemos el mismo resultado que
si cogemos una partícula durante un período largo de tiempo,
medimos repetidamente su velocidad y hallamos el promedio de estos
valores. En términos matemáticos esta idea es la que establece el
teorema ergódico de Birkhof.



Podemos tener una comprensión más intuitiva de la idea si
consideramos que las partículas se mueven al azar y que una es igual
que otra, esto es, son análogas a dados. Si lanzamos 1000 dados
idénticos y hacemos la media de los valores de cada uno, esperamos
obtener el mismo resultado que si lanzamos un dado 1000 veces.



Si bien parece lógico o, al menos, intuitivo, pensar que la
hipótesis se cumple en los procesos difusivos, no existía hasta
ahora una confirmación experimental. Un experimento que pruebe la
hipótesis ergódica debe, por un lado, seguir el movimiento de
partículas individuales, lo que conlleva una dificultad importante y
la necesidad de usar técnicas ópticas muy sofisticadas, y, por
otro, seguir el conjunto de partículas mientras se mueven en un
fluido sin confundirlas con el medio, lo que tampoco es tan
inmediato.



Un equipo de investigadores encabezados por Florian Feil, de la
Universidad Ludwig Maximilian de Múnich (Alemania) ha desarrollado
un sistema para seguir moléculas individuales de tinte disueltas en
alcohol: se trata de un dispositivo óptico que es capaz de seguir
las señales fluorescentes de las moléculas individuales al ser
iluminadas convenientemente. Usando este sistema en conjunción con
resonancia magnética nuclear para seguir el conjunto de partículas,
el equipo de investigadores han obtenido datos que confirman la
validez de la hipótesis ergódica para el sistema estudiado y
similares. Los resultados se publican en Angewandte Chemie.



Los investigadores aplicaron las dos técnicas a muestras
idénticas en disolución. De esta forma consiguieron medir el
coeficiente de difusión, que describe el comportamiento difusivo del
sistema, a partir de dos conjuntos de datos: de la trayectoria de una
sola partícula y de la foto fija de todas las partículas a la vez.
Los resultados coinciden adecuadamente, confirmando la hipótesis
ergódica, recalcamos, para este experimento y sistemas similares.




¿Por qué incidimos tanto en que los resultados tienen un campo
de aplicación limitado? Pues porque existen sistemas, muy
importantes además, en los que parece ser que la hipótesis ergódica
no se cumple, caso de la difusión de nanopartículas en las células.
Y la cuestión es precisamente esa, ¿por qué?




Esta entrada es una participación de Experientia docet en la XXIV Edición del Carnaval de la Física que acoge Últimas noticias del cosmos y en la VIII Edición del Carnaval de Química que alberga Caja de Ciencia. 


Referencia:

Feil, F., Naumov, S., Michaelis, J., Valiullin, R., Enke, D., Kärger, J., & Bräuchle, C. (2011). Single-Particle and Ensemble Diffusivities-Test of Ergodicity Angewandte Chemie International Edition DOI: 10.1002/anie.201105388





... Read more »

Feil, F., Naumov, S., Michaelis, J., Valiullin, R., Enke, D., Kärger, J., & Bräuchle, C. (2011) Single-Particle and Ensemble Diffusivities-Test of Ergodicity. Angewandte Chemie International Edition. DOI: 10.1002/anie.201105388  

  • September 29, 2009
  • 01:28 PM
  • 717 views

Duplicación y evolución, los mecanismos de la vida, ya habrían estado presentes en la química prebiótica.

by César Tomé López in Experientia docet

El que la vida se base en la duplicación de macromoléculas es algo que damos por sentado. Pero ¿Por qué es esto así habiendo otras alternativas? Hisashi Ohtsuki de la Agencia de Ciencia y Tecnología de Japón y Martin Nowak de la Universidad de Harvard (EE.UU.) han presentado la comparación entre dos modelos en los que un sistema puramente químico en el que tienen lugar procesos de polimerización al azar (a este sistema lo llaman previda) da lugar a, por un lado, moléculas catalizadoras (previda catalítica) y, por otro, construye cadenas que se duplican (duplicadores). Los resultados explican por qué la duplicación es más eficiente y es la opción de crecimiento molecular en la que se basa la vida. Por otra parte muestra que la selección natural, la evolución, empezó antes que la propia vida. Su trabajo ha sido publicado en los Proceedings of the Royal Society B. En este modelo, la previda está constituida por dos tipos de monómeros (0 y 1) que se unen al azar para formar cadenas de polímeros. Añadiendo un 0 ó un 1, se producen cadenas más largas a partir de otras más cortas. Los investigadores crearon un árbol de la previda sencillo basándose en este proceso de crecimiento, donde un 0 ó un 1 se añade al final de la cadena precedente para crear una más larga [en la imagen]. Aunque comienza con un solo monómero, este árbol de la previda tiene infinitas estirpes. En la primera variante del modelo algunas de estas secuencias de la previda serán catalizadores, y podrán mejorar ciertas reacciones en la previda. Los catalizadores más abundantes serán aquellos que, específicamente, incrementen la velocidad a la que los monómeros se añaden a las cadenas en las reacciones específicas que los crean. Por ejemplo, si 0100 es un catalizador que cataliza los procesos 0 -01, 01-010 y 010 - 0100, será más abundante que otro como 1000 que sólo catalice 10-100 y 100-1000. A los catalizadores como 0100 los llaman los investigadores “cadenas prebióticas perfectamente catalizadas” (CPPC). La competencia entre la previda y la previda catalítica por los monómeros disponibles crea unos determinados umbrales de selección que limitan el tamaño de las cadenas. Los investigadores determinaron que la actividad catalítica de una cadena debe aumentar exponencialmente con la longitud de la propia cadena para permitir que mantenga unos niveles altos de abundancia; si no se incrementa la actividad catalítica la cadena más larga se hace menos abundante. En la segunda variante algunas cadenas de la previda llegarán a ser duplicadores. La diferencia de funcionamiento entre un duplicador y un CPPC es que el catalizador se une a una cadena incrementando la velocidad a la que se añade un monómero para después separarse, mientras que un duplicador se mantiene unido a la cadena en crecimiento. En la competencia entre la previda y los duplicadores, el umbral de actividad duplicadora converge en un valor fijo, lo que sugiere que incluso los duplicadores largos pueden mantener su abundancia alta. Si la previda da lugar a catalizadores y duplicadores provocando la competencia entre los sistemas, la capacidad de alcanzar mayor longitud de los duplicadores, o lo que es lo mismo, la existencia de mayor número de duplicadores activos en competencia con los catalizadores, es lo que daría su ventaja a los duplicadores. Esto no es más que una forma de la selección natural. La selección natural ya estaba pues presente cuando la química se convirtió en vida, una vida que se basaría en la duplicación y la evolución.[Imagen cortesía de Ohtsuki y Nowak]Referencia: Ohtsuki, H., & Nowak, M. (2009). Prelife catalysts and replicators Proceedings of the Royal Society B: Biological Sciences, 276 (1674), 3783-3790 DOI: 10.1098/rspb.2009.1136

... Read more »

Ohtsuki, H., & Nowak, M. (2009) Prelife catalysts and replicators. Proceedings of the Royal Society B: Biological Sciences, 276(1674), 3783-3790. DOI: 10.1098/rspb.2009.1136  

  • June 18, 2009
  • 01:24 PM
  • 716 views

Una mutación, ¿una nueva especie?

by César Tomé López in Experientia docet

La mutación de un solo gen vuelve completamente negro un pequeño pájaro de vientre marrón y este cambio parece alterar el reconocimiento de la especie. Esto podría significar que somos testigos del momento en que una especie comienza a diferenciarse de otra. Las investigaciones aparecerán publicadas en el número de agosto de The American Naturalist. Ernst Mayr, un famoso biólogo de Harvard, fue el primero en darse cuenta del potencial para la especiación que presentaban los pájaros papamoscas en las Islas Salomón, en le Pacífico sur. Durante los años 40, describió diferencias en el tamaño corporal y en el plumaje de distintas poblaciones de papamoscas (Monarcha castaneiventris, monarca de vientre castaño) y afirmó que existían, al menos, cinco subespecies. J. Albert Uy de la Universidad de Siracusa (Nueva Cork, EE.UU.) y sus colegas decidieron ver hasta qué punto son diferentes dos de estas subespecies. Una (Monarcha castaneiventris megarhyncus) vive en la isla más grande, Makira, y es la que da a la especie su nombre científico: las partes superiores son negro azuladas y el vientre es castaño [a la izquierda en la imagen]. La (Monarcha castaneiventris uginensis) vive en la pequeña isla de Santa Ana, a unos 10 kilómetros de la anterior, y es completamente negra azulada [a la derecha]. Sabiendo que las ovejas y cerdos negros presentan una mutación en el gen del receptor de la melanocortina-1 (MCR1), los investigadores secuenciaron parte de este gen para 28 pájaros negros y 19 de vientre castaño. Se encontraron pocas diferencias pero sólo una que importase: un cambio genético que alteraba un solo aminoácido en la proteína resultante. Aparentemente este cambio activa permanentemente la proteína de manera que se produce más pigmento negro que marrón. También se pudo verificar que esta variante del gen no está tan asociada al melanismo (negritud) en la población de otra isla (Ugi). Por lo tanto debe haber un mecanismo alternativo para el melanismo en esta isla. A continuación, los investigadores evaluaron si este cambio de color podría alterar el comportamiento de los pájaros. En concreto investigaron si influía en el reconocimiento de la especie. Pusieron pájaros disecados de ambos colores en los distintos territorios. Los pájaros negros falsos recibieron ataques de los pájaros negros pero indiferencia de los de vientre marrón y viceversa, confirmando de esta forma la hipótesis. Los investigadores aún deben comprobar directamente si los pájaros negros prefieren parejas negras, un comportamiento que haría que la especie se dividiese, pero investigaciones anteriores indican que al menos algunos pájaros territoriales se basan en las mismas claves para seleccionar pareja que para detectar posibles rivales. Si esto se confirma, entonces la sustitución de un solo aminoácido contribuye a la especiación.Referencia: Uy, J., Moyle, R., Filardi, C., & Cheviron, Z. (2009). Difference in Plumage Color Used in Species Recognition between Incipient Species Is Linked to a Single Amino Acid Substitution in the Melanocortin‐1 Receptor The American Naturalist DOI: 10.1086/600084... Read more »

  • May 26, 2009
  • 05:19 AM
  • 713 views

90 años de un eclipse histórico

by César Tomé López in Experientia docet

Un eclipse solar total ocurre cada par de años, pero son solamente visibles desde las regiones ecuatoriales. El eclipse solar del 29 de mayo de 1919 tuvo lugar por suerte frente a una brillante constelación de estrellas y dio la oportunidad perfecta para comprobar experimentalmente la nueva teoría de la gravedad de Albert Einstein, propuesta por primera vez en 1911 [1].  Tanto la vieja teoría de la gravedad de Newton como la nueva de Einstein predecían que la luz no viaja necesariamente en líneas rectas, sino que puede ser desviada cuando pasa cerca de algo tan pesado como el Sol. Sin embargo Einstein predecía que se desviaba más: lo suficiente como para que las posiciones aparentes de las estrellas detrás del Sol se desplazasen de forma detectable con respecto a las posiciones conocidas y verdaderas.  Desde Oxford, Arthur Eddington observó cuidadosamente la posición de las estrellas en enero y febrero de 1919. El eclipse sería visible desde ambos lados del Atlántico por lo que, para asegurarse buen tiempo en al menos en un punto de observación, Eddington mandó un equipo de observación a Sobral (Brasil) y él mismo se fue a Príncipe (São Tomé e Príncipe). Los cielos estuvieron despejados en ambas localizaciones y, durante cinco minutos en total, ambos equipos se las arreglaron para tomar varía fotografías nítidas de las estrellas.  Cuando Eddington volvió a casa y comparó las posiciones aparentes de las estrellas detrás del Sol con las reales, ambos conjuntos de datos confirmaron que la teoría de Einstein era correcta. El descubrimiento fue publicado  en  Philosophical Transactions of the Royal Society [2] y en la edición del 22 de noviembre de 1919 de Illustrated London News [en la imagen].  El fenómeno predicho por Einstein y comprobado por Eddington es conocido hoy día como lente gravitacional. El efecto se usa a diario por parte de los astrónomos y en él se basa mucha de la investigación sobre la materia y energía oscuras. Esta primera demostración de la teoría general de la relatividad de Einstein se considera uno de los puntos culminantes de la ciencia del siglo XX.   Referencias:  [1] Einstein, A. (1911). Über den Einfluß der Schwerkfraft auf die Ausbreitung des Lichtes Annalen der Physik (ser. 4), 35, 898–908  [2] Dyson, F., Eddington, A., & Davidson, C. (1920). A Determination of the Deflection of Light by the Sun's Gravitational Field, from Observations Made at the Total Eclipse of May 29, 1919 Philosophical Transactions of the Royal Society of London. Series A, Containing Papers of a Mathematical or Physical Character (1896-1934), 220 (1), 291-333 DOI: 10.1098/rsta.1920.0009[3] Celebrating the 1919 Eclipse at Príncipe... Read more »

Dyson, F., Eddington, A., & Davidson, C. (1920) A Determination of the Deflection of Light by the Sun's Gravitational Field, from Observations Made at the Total Eclipse of May 29, 1919. Philosophical Transactions of the Royal Society of London. Series A, Containing Papers of a Mathematical or Physical Character (1896-1934), 220(1), 291-333. DOI: 10.1098/rsta.1920.0009  

  • October 8, 2009
  • 09:33 AM
  • 713 views

La actividad cerebral se incrementa en el momento de la muerte.

by César Tomé López in Experientia docet

Las lecturas eléctricas de siete pacientes que murieron en la unidad de cuidados intensivos del Centro Médico de la Universidad George Washington (EE.UU.) sugieren que el cerebro sufre un aumento acusado de actividad en el momento de la muerte, según un estudio publicado en el Journal of Palliative Medicine por el equipo médico que les atendió, dirigido por Lakhmir S. Chawla. Este resultado sugiere una posible explicación de las llamadas experiencias cercanas a la muerte. El principal objetivo de los cuidados paliativos es hacer el fallecimiento de los pacientes lo menos doloroso y angustioso posible. Dentro de los cuidados paliativos que se estaban dando a los pacientes del estudio, el equipo médico usó para monitorizar su estado monitores de alerta. Estos monitores son dispositivos comerciales diseñados para ayudar a los anestesistas a controlar lo “despiertos” que están los pacientes, y combinan las lecturas electroencefálicas de los lóbulos centrales en una sola señal que refleja el estado de alerta del paciente. En cada uno de los siete pacientes, neurológicamente intactos, el equipo médico se dio cuenta de que en el momento en el que la presión sanguínea caía a cero había un incremento repentino de la actividad cerebral. Esta no es la primera vez que este fenómeno se detecta, pero los informes anteriores eran casos aislados en los que el incremento de actividad podría haber sido debido a una interferencia eléctrica de otras fuentes. En los casos que nos ocupan, los médicos adoptaron las medidas oportunas para garantizar que las fuentes mencionadas como origen de las interferencias no estuviesen presentes. Como explicación del fenómeno sugieren que el incremento repentino fue debido a una despolarización anóxica: un proceso en el que la falta de oxígeno desestabiliza el equilibrio químico a ambos lados de las membranas de las neuronas, lo que conlleva un último estallido de actividad. En este punto es a lo mejor conveniente recalcar que estamos hablando de siete casos, y que no se han empleado equipos de medición neuroeléctrica de un nivel suficiente como para hacer mediciones de precisión, aunque, claro está, tampoco era este el objetivo en una unidad de cuidados intensivos. Es necesaria pues una investigación planificada, con instrumentos adecuados, para poder conocer mejor el fenómeno antes de dar ninguna explicación como totalmente válida. No obstante lo anterior, los investigadores sí se atreven a lanzar una hipótesis sobre las “experiencias cercanas a la muerte”: “Especulamos que aquellos pacientes que sufren un paro cardiaco y que son resucitados con éxito podrían recordar las imágenes y recuerdos provocados por esta cascada [la despolarización anóxica]. Ofrecemos esto como una explicación potencial de la claridad con la que muchos pacientes tienen 'experiencias fuera del cuerpo' cuando se les resucita con éxito de un suceso cercano a la muerte”. Referencia: Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009). Surges of Electroencephalogram Activity at the Time of Death: A Case Series Journal of Palliative Medicine DOI: 10.1089/jpm.2009.0159

... Read more »

Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009) Surges of Electroencephalogram Activity at the Time of Death: A Case Series. Journal of Palliative Medicine, 2147483647. DOI: 10.1089/jpm.2009.0159  

  • October 14, 2009
  • 03:14 PM
  • 712 views

Los macacos también caen en el valle inquietante.

by César Tomé López in Experientia docet

La gente que suele ver cine lo más probable es que no conozca el término, pero sí sabe que es mucho más fácil emocionarse con los dibujos desproporcionados de humanos de “Los Increíbles”, por ejemplo, que con los casi realistas de The Polar Express [en la imagen; cortesía de Warner Bros.]. Los espectadores se sienten emocionalmente desestabilizados por las imágenes de humanos artificiales que se han diseñado para que parezcan lo más humanas posible y que parecen realistas y no-realistas al mismo tiempo. Esta sensación es lo que se llama el “valle inquietante”. Los investigadores de la Universidad de Princeton (EE.UU.) Asif Ghazanfar y Shawn Steckenfinger han descubierto que los macacos también lo sienten. Es la primera vez que se descubre en un animal no humano. Sus resultados aparecen publicados en los Proceedings of the National Academy of Sciences. La hipótesis del valle inquietante fue propuesta por el especialista en robótica japonés Masahiro Mori en 1970. Lo de “valle” se refiere a un brusco descenso en la gráfica que representa la reacción positiva de un humano como respuesta a una imagen (“familiaridad”) en un eje y el antropomorfismo (“parecido humano”) de un robot en el otro. A las personas nos gusta estudiar otras caras humanas así como los rostros que son claramente no humanos, como el de una muñeca o un dibujo animado. Pero cuando la imagen no es una cosa ni la otra (cerca de lo humano pero claramente sin serlo) causa una sensación de repugnancia. Así, por ejemplo, hubo críticos que calificaron The Polar Express como “escalofriante” o “inquietante”. En los experimentos, los monos, que normalmente arrullan y se relamen los labios para llamar la atención de los otros monos, apartan rápidamente la mirada y se muestran asustados cuando se enfrentan a las imágenes casi reales. Cuando se les induce a que miren detenidamente tanto a las caras reales como a las casi reales, sin embargo, miran éstas más a menudo y durante más tiempo. El trabajo es importante porque indica que existe una base biológica para el valle inquietante y apoya las teorías que proponen que los mecanismos cerebrales tras el valle inquietante son adaptaciones evolutivas. A pesar del amplio reconocimiento del valle inquietante como un fenómeno real, no existe una explicación convincente del mismo. Una teoría sugiere que es el resultado de un mecanismo de “respuesta de asco” que permite a los humanos evitar la enfermedad. Otra idea sostiene que el fenómeno es un indicador de las capacidades altamente evolucionadas para el reconocimiento de caras que tenemos los humanos. Otros han sugerido que la apariencia de cadáver de algunas imágenes provoca un miedo innato a la muerte. Y hay quien afirma que la respuesta ilustra lo que se percibe como una amenaza a la identidad humana. Por otra parte, el resultado tiene implicaciones prácticas inmediatas para etólogos, psicólogos cognitivos que estudien la percepción humana, neurocientíficos cognitivos que estudien el comportamiento social de los primates, diseñadores de robots humanoides y, por supuesto, diseñadores de personajes humanos de dibujos animados. Referencia: Steckenfinger, S., & Ghazanfar, A. (2009). Monkey visual behavior falls into the uncanny valley Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.0910063106

... Read more »

Steckenfinger, S., & Ghazanfar, A. (2009) Monkey visual behavior falls into the uncanny valley. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.0910063106  

  • December 7, 2009
  • 10:14 AM
  • 711 views

Relación entre encefalograma y actividad neuronal.

by César Tomé López in Experientia docet

Kevin Whittingstall y Nikos Logothetis del Instituto Max Planck de Cibernética Biológica de Tubinga (Alemania) publican un artículo en Neuron en el que establecen por primera vez una correlación entre datos del electroencefalograma (EEG) y la actividad de neuronas concretas del córtex visual. Este hallazgo supone la primera comprobación experimental de que un método no invasivo como el EEG puede emplearse para saber cómo está funcionando el cerebro. El electroencefalograma (EEG) se ha usado ampliamente en la investigación y en la medicina durante más de ochenta años. La capacidad para medir la actividad eléctrica del cerebro por medio de electrodos colocados sobre la cabeza es una herramienta muy práctica para estudiar la función cerebral ya que no es invasiva y fácil de aplicar. La interpretación de la señal del EEG, sin embargo, sigue siendo difícil. La principal razón para esto es que la relación exacta entre la actividad generada en el cerebro comparada con la medida en el cuero cabelludo no está clara. Por lo tanto, una cuestión de importancia práctica primordial es conocer cómo el EEG puede usarse para deducir la actividad neuronal en el cerebro. Combinando los registros tanto del EEG como de neuronas individuales, los investigadores han encontrado una combinación de ondas específicas (un acoplamiento entre bandas de frecuencia) que puede predecir con fidelidad la actividad de las células en el cerebro. Whittingstall y Logothetis mostraron a monos entrenados diferentes videos de escenas de la vida cotidiana de los monos. Mientras los monos miraban los videos, la actividad de su cerebro era registrada tanto por EEG como por electrodos colocados directamente sobre las neuronas, lo que permitía la comparación directa entre los dos conjuntos de datos. Específicamente, observaron que la activación de pautas neuronales era más alta durante los períodos en los que los brotes de actividad “rápida” del EEG (ondas gamma) aparecían durante las ondas lentas del EEG (ondas delta). Este es un primer paso que permitirá en un futuro comprender mejor la causa de las ondas anormales de los EEG en pacientes con ciertos desórdenes neurológicos y, de esta manera, disponer de una herramienta no invasiva para medir su evolución.Referencia: Whittingstall, K., & Logothetis, N. (2009). Frequency-Band Coupling in Surface EEG Reflects Spiking Activity in Monkey Visual Cortex Neuron, 64 (2), 281-289 DOI: 10.1016/j.neuron.2009.08.016

... Read more »

  • August 25, 2009
  • 03:20 PM
  • 709 views

El Proyecto Conectoma Humano, comienza el espectáculo.

by César Tomé López in Experientia docet

Olaf Sporns, profesor de neurociencias en la Universidad de Indiana (EE.UU.), publicó un artículo en 2005 en el que atribuía los defectos a gran escala de la investigación en neurociencia general a la ausencia de una descripción anatómica de base, “fundacional”, del cerebro. Antes de ponerse a investigar, era necesario hacer un mapa. Sporns propuso llamar a este mapa el “conectoma”. El nombre, obviamente, hace recordar a un proyecto importantísimo que había concluido dos años antes con éxito, el Proyecto Genoma Humano. El proyecto al que estaba dando nombre no era menos ambicioso: un atlas sistemático y completo de todas las conexiones del cerebro. Cuatro años después, Los Institutos Nacionales de la Salud (NIH, por sus siglas en inglés) de los Estados Unidos han anunciado en su Anteproyecto para la Investigación en Neurociencia el lanzamiento del Proyecto Conectoma Humano (HCP, por sus siglas en inglés), dotado inicialmente con 30 millones de dólares, con la esperanza de crear un mapa completo del cerebro adulto sano para 2015. El cerebro humano se suele dividir en varios cientos de pequeñas áreas a las que se atribuyen funciones altamente especializadas. Vistas bajo el microscopio, muchas de estas áreas, que tienen un ancho de centímetros, presentan patrones de células claramente visibles. Cada una de estas áreas está conectada por millones de proyecciones neuronales con forma de hilo, los llamados axones, que corren en paralelo, enrollándose para formar lo que parece un cable grueso de fibra óptica. El cerebro funciona en base a procesos y estos procesos tienen lugar porque existen estas conexiones entre áreas especializadas. La lógica tras el proyecto HCP está en que se cree que las diferentes áreas cerebrales adquieren sus características funcionales dependiendo de cómo se conectan unas con otras. Son las entradas y salidas de una neurona lo que determina qué función tiene. Por ello, como en otras ocasiones en biología, la estructura directamente define la función: las neuronas muy próximas procesarán la misma clase de información, y la conectividad entre estas regiones nos puede informar de cómo operan procesos más amplios. Sin embargo, hay otros neurocientíficos para los que “conectoma” tiene un significado completamente diferente. Mientras que el proyecto de los NIH intenta trazar las conexiones a gran escala entre regiones cerebrales, algunos científicos, como los del Connectomeproject de Harvard, quieren escarbar más profundamente: aspiran a trazar en última instancia el cerebro humano neurona a neurona, construyendo un “diagrama de cableado” con todo detalle. De cierta forma el HCP es una respuesta a la perspectiva desalentadora de tener que determinar las miles de millones de conexiones neuronales del cerebro humano. Lo que han hecho estos puristas ha sido tomar otro camino: ciñéndose a la idea del mapa neurona a neurona, simplemente se han centrado en organismos más simples, para ir creciendo desde ahí. Hasta ahora, el único conectoma completo que ha sido determinado es el de nuestro viejo amigo el nemátodo Caenorhabditis elegans que, con sólo 302 neuronas, es uno de los organismos modelo más simples con un sistema nervioso. En cualquier caso, ambos grupos están de acuerdo en que, al final, la microescala y la macroescala se encontrarán en un enorme conjunto de datos, idealmente con cada capa de complejidad informando a la siguiente. Por ahora, el NIH espera conseguir su objetivo a cinco años de tener completado un mapa región a región potenciando la colaboración entre científicos, muchos de los cuales han pasado años trabajando aisladamente, usando técnicas no verificadas y con pocas reproducciones de los datos obtenidos en laboratorios diferentes. El impacto del HCP sobre la neurociencia será importantísimo, similar al Proyecto Genoma Humano. De hecho, habrá un antes y un después del HCP. [En la imagen, interpretación de una imagen por difusión del córtex humano; mayor implica mayor número de conexiones]Referencia: Sporns, O., Tononi, G., & Kötter, R. (2005). The Human Connectome: A Structural Description of the Human Brain PLoS Computational Biology, 1 (4) DOI: 10.1371/journal.pcbi.0010042... Read more »

  • September 30, 2010
  • 05:23 PM
  • 709 views

Por qué autolesionarse alivia a algunas personas.

by César Tomé López in Experientia docet

La idea de que el cortarse o quemarse uno mismo pudiera suponer algún tipo de alivio de la angustia emocional es difícil de entender para la mayoría de nosotros, pero es algo que afirman experimentar las personas que se autolesionan compulsivamente. Los individuos que padecen trastorno límite de personalidad (TLP) experimentan emociones intensas y presentan a menudo carencias en la capacidad de regularlas. Estas personas también muestran altas tasas de prevalencia de la autolesión, comportamiento que podría ayudarles a reducir los estados emocionales negativos. El grupo de Inga Niedtfeld, de la Universidad de Heidelberg (Alemania), ha estudiado los efectos de varios estímulos emocionales y un estímulo térmico en personas con y sin TLP y publica sus resultados en Biological Psychiatry. Usaron resonancia magnética funcional para detectar las áreas del cerebro que se activaban durante la presentación de imágenes que evocaban sentimientos negativos o neutros o durante la inducción de dolor o una sensación térmica por aplicación de calor. Los estímulos dolorosos fueron ajustados a los umbrales personales de cada sujeto. En los sujetos con TLP el equipo de investigadores constató una mayor activación que en el grupo de control de la amígdala, la ínsula y el córtex cingulado anterior como respuesta a los estímulos emocionales, tanto negativos como neutros; lo que es consistente con los problemas que afirmaban padecer de regulación de las emociones. Sin embargo frente a los estímulos sensoriales, los voluntarios con TLP presentaban una disminución de la actividad de la amígdala y el córtex cingulado anterior, independientemente de lo doloroso que fuese el estímulo (dentro de los límites del estudio), disminuyendo de esta manera la reactividad emocional. En otras palabras, estos datos son consistentes con la hipótesis de que los estímulos dolorosos físicamente aportan algo de alivio al estrés emocional en las personas con TLP porque, paradójicamente, inhiben las regiones cerebrales implicadas en la regulación de las emociones.Referencia: Niedtfeld, I., Schulze, L., Kirsch, P., Herpertz, S., Bohus, M., & Schmahl, C. (2010). Affect Regulation and Pain in Borderline Personality Disorder: A Possible Link to the Understanding of Self-Injury Biological Psychiatry, 68 (4), 383-391 DOI: 10.1016/j.biopsych.2010.04.015

... Read more »

  • July 30, 2009
  • 05:02 PM
  • 708 views

Microorganismos que pueden predecir cambios en el ambiente: implicaciones y usos.

by César Tomé López in Experientia docet

Un equipo de científicos del Instituto Weizmann (Israel) ha descubierto dos casos en los que un microorganismo hace predicciones acerca de cómo su entorno puede cambiar en el futuro, basándose en cómo ha cambiado en el pasado. Las noticias sobre este hallazgo han hablado de “aprendizaje”, y hay quien ha llegado a referirse a este fenómeno como “inteligencia no-neuronal”. Los resultados, que han aparecido publicados en Nature [1], podrían poner fin a algunos principios centenarios de la biología. El equipo examinó en primer lugar la bacteria Escherichia coli [en la imagen], una de los varios cientos de especies microbianas que, sin causar daño, habitan en nuestro intestino. La E. coli se instala en el intestino grueso tras atravesar el resto del sistema digestivo. Este desplazamiento implica pasar de un entorno rico en lactosa a otro rico en maltosa o, en otras palabras, un cambio en los nutrientes disponibles para la bacteria. Los investigadores encontraron que en el momento en que se ve expuesta a la lactosa, la E. coli comienza inmediatamente a activar pequeñas cantidades de genes para digerir la maltosa también, aunque todavía no haya nada presente. En otras palabras, la E. coli es capaz de comprender de alguna manera que hay presencia de lactosa y predecir que la siguiente comida será maltosa. El biólogo molecular de Princeton Saeed Tavazoie comenzó a investigar este tipo de fenómeno en 2002, tras la publicación de un artículo en el que se demostraba que la levadura, cuando se la somete a un estímulo estresante como la alta temperatura, activa un gran conjunto de genes que no tienen ninguna función a la hora de combatir el stress. Era evidente que había una desconexión, que era necesario por tanto repensar todos los principios que se suponen rigen la respuesta de los microorganismos a sus entornos. Lo que Tavazoie demostró en un estudio publicado el año pasado en Science [2], y que el equipo del Weizmann también argumenta en el artículo de Nature, es que los microorganismos son capaces de interactuar con sus alrededores de una manera que va más allá de un simple comportamiento reflejo. Aunque pre-inducir la expresión de genes desvía recursos en el primer ambiente y, por lo tanto, temporalmente dificulta la supervivencia del organismo, confiere sin embargo una ventaja adaptativa en el futuro. Dicho de otra manera, la previsión es un gasto de energía a corto plazo con miras a ganancias en supervivencia a largo plazo. La E. coli es unicelular y no tiene, obviamente, un sistema nervioso capaz de realizar funciones tan elaboradas como aprender, anticiparse o hacer predicciones, no digamos hacer un balance coste-beneficio. ¿Cómo, entonces, son capaces de realizar asociaciones tan complejas y “preparase” para acontecimientos futuros? La respuesta, simplemente, es que no lo hacen. El hablar de aprendizaje, y todas las ideas asociadas, es sólo una analogía para describir cómo estos microorganismos “representan” sus entornos. Mucha de la motivación de los investigadores parte de esta analogía, según reconoce Amir Mitchell, autor principal del estudio del Weizmann. Si no es aprendizaje, entonces ¿qué? En una palabra, evolución. Millones de generaciones de microorganismos que evolucionan rápidamente. Y que mediante la mutación y la selección natural se han convertido en seres altamente aptos que interaccionan de forma optimizada con sus ambientes. Si estos ambientes presentan pautas consistentes y repetitivas, la adaptación a estos ciclos se puede describir como “anticipación de fenómenos futuros”. En posteriores experimentos el equipo de Mitchell estudió la levadura, que se usa ampliamente en investigación como organismo modelo. Simularon para ello las condiciones que tienen lugar repetidamente en el proceso de la fermentación alcohólica (de cerveza) y que suponen una serie de estreses para este hongo unicelular. Los investigadores demuestran que la levadura presenta una mejor supervivencia cuando los estreses se presentan en el orden habitual, en comparación con la que presentan si los mismos estreses se presentan en el orden inverso. En otras palabras, la levadura también tiene un “comportamiento predictivo”. A diferencia de la E. coli, que ha vivido en los sistemas digestivos millones de años, la levadura a desarrollado esta adaptación en los más o menos 7.000 que el hombre lleva fabricando cerveza. Las implicaciones de los trabajos de Tavazoie y Mitchell son importantes, teórica y prácticamente. Teóricamente, porque el concepto mismo de homeostasis es puesto en cuestión. Durante más de un siglo se ha asumido que cuando se le hace algo a un organismo, como someterlo a calor o bañarlo en azúcares, la respuesta del organismo está directamente relacionada con el estímulo. Esta idea sería incorrecta de una forma fundamental, de tal manera que se haría necesaria una revisión de todos los resultados de la investigación con microorganismos a la luz de estos nuevos datos. Prácticamente, porque tiene aplicaciones directas en la biología de síntesis. Existe ahora la posibilidad de forzar a un microorganismo a aprender, pudiendo programar sus respuestas genéticas en un período relativamente corto de meses o años. No sólo esto, también estudiando las respuestas genéticas de un organismo se podrá inferir en qué ambientes ha evolucionado.Referencias:[1] Mitchell, A., Romano, G., Groisman, B., Yona, A., Dekel, E., Kupiec, M., Dahan, O., & Pilpel, Y. (2009). Adaptive prediction of environmental changes by microorganisms Nature, 460 (7252), 220-224 DOI: 10.1038/nature08112[2] Tagkopoulos, I., Liu, Y., & Tavazoie, S. (2008). Predictive Behavior Within Microbial Genetic Networks Science, 320 (5881), 1313-1317 DOI: 10.1126/Science.1154456... Read more »

Mitchell, A., Romano, G., Groisman, B., Yona, A., Dekel, E., Kupiec, M., Dahan, O., & Pilpel, Y. (2009) Adaptive prediction of environmental changes by microorganisms. Nature, 460(7252), 220-224. DOI: 10.1038/nature08112  

Tagkopoulos, I., Liu, Y., & Tavazoie, S. (2008) Predictive Behavior Within Microbial Genetic Networks. Science, 320(5881), 1313-1317. DOI: 10.1126/Science.1154456  

  • July 17, 2009
  • 07:19 AM
  • 707 views

LIGO: relatividad y mecánica cuántica se dan la mano.

by César Tomé López in Experientia docet

Los requerimientos técnicos para realizar las observaciones previstas en el Observatorio de Ondas Gravitacionales Interferómetro Láser (LIGO, por sus siglas en inglés) preparan el camino para algo para lo que, en principio, no se diseñó el equipo: experimentos cuánticos a escala macroscópica. Un artículo publicado ayer en el New Journal of Physics por el equipo del LIGO informa de la observación de un oscilador con una masa de más de dos kilos cercano a su estado cuántico fundamental. El LIGO es un experimento a gran escala, implica a 600 científicos en todo el mundo (en España participa la Universidad de las Islas Baleares), diseñado para detectar ondas gravitacionales y permitirnos observar el espacio desde la nueva perspectiva de la radiación gravitacional. En el proyecto también participan muchos particulares (incluido un servidor) cediendo sus ordenadores domésticos a través del proyecto Einstein@home. El LIGO espera detectar esta radiación directamente midiendo pequeñísimos movimientos de masas causados por el paso de ondas gravitacionales, que se piensa que se originan en las supernovas o en algo tan exótico como las colisiones de estrellas de neutrones y agujeros negros. La luz láser se usa para monitorizar los desplazamientos relativos de dos espejos interferométricos, que están suspendidos como si fueran péndulos para que puedan actuar como masas de ensayo casi libres. Dado que el efecto de las ondas gravitacionales se espera que sea muy pequeño, los detectores del LIGO están preparados para medir desplazamientos inferiores a una milésima del diámetro de un protón, y estos por espejos que están separados entre sí 4 Km [como se aprecia en la imagen]. La sensibilidad de los instrumentos del LIGO se ve limitada para diferentes bandas de frecuencia por el ruido causado bien por la naturaleza cuántica de la luz láser bien por la energía térmica de los espejos. La observación del comportamiento mecanocuántico de los espejos del LIGO requiere reducir el ruido térmico, lo que se puede conseguir enfriando los espejos con técnicas similares al enfriamiento de átomos por láser. Sin embargo las temperaturas deben llevarse extremadamente cerca al cero absoluto (0 Kelvin ó -273,15 ºC). El cero absoluto es una temperatura caracterizada por una configuración de entropía cero. Es la temperatura más fría teóricamente posible y no se puede alcanzar ni natural ni artificialmente. Una partícula en el cero absoluto estaría en reposo, por lo que tanto su posición como su momento serían conocidos simultáneamente, lo que violaría el principio de incertidumbre de Heisenberg. El objeto más frío conocido en el espacio está a 1K, la temperatura de operación del Instrumento de Alta Frecuencia (HFI, por sus siglas en inglés) del Planck es de 0,1 K y la más baja jamás conseguida ha sido de 0,0000000001K ó 100 pK (pico kelvins). Aunque el cero absoluto no se puede alcanzar, los científicos del LIGO han usado tanto una fuerza de amortiguamiento sin fricción, que quita energía al espejo, y una fuerza restauradora magnética, que incrementa la frecuencia del oscilador con objeto de evitar las perturbaciones causadas por los movimientos del terreno, para enfriar el oscilador especular, que tiene una masa de 2,7 Kg., a 1,4 microkelvins (0,0000014 K). Este resultado sugiere que es posible usar el aparato para observar comportamientos mecanocuánticos, como el entrelazamiento, a escalas de masa que antes se pensaba que eran imposibles de conseguir en la práctica. Lo que se diseñó para medir la relatividad y fenómenos astrofísicos, puede convertirse en un valioso instrumento de la investigación en mecánica cuántica. Referencia:... Read more »

Abbott, B., Abbott, R., Adhikari, R., Ajith, P., Allen, B., Allen, G., Amin, R., Anderson, S., Anderson, W., Arain, M.... (2009) Observation of a kilogram-scale oscillator near its quantum ground state. New Journal of Physics, 11(7), 73032. DOI: 10.1088/1367-2630/11/7/073032  

join us!

Do you write about peer-reviewed research in your blog? Use ResearchBlogging.org to make it easy for your readers — and others from around the world — to find your serious posts about academic research.

If you don't have a blog, you can still use our site to learn about fascinating developments in cutting-edge research from around the world.

Register Now

Research Blogging is powered by SMG Technology.

To learn more, visit seedmediagroup.com.