César Tomé López

400 posts · 177,613 views

Experientia docet
400 posts

Sort by Latest Post, Most Popular

View by Condensed, Full

  • July 31, 2009
  • 03:52 PM
  • 545 views

¿Puede un puente estar en dos lugares a la vez?

by César Tomé López in Experientia docet

Físicos del Caltech diseñan un método para detectar efectos mecanocuánticos en objetos ordinarios. Los resultados han aparecido publicados en Nature. Desde el nivel de la existencia humana hasta la nanoescala, estamos gobernados por las leyes de Newton. Sueltas algo desde una altura y, si no hay nada que lo evite, cae al suelo; empujas algo con suficiente fuerza y se mueve. A nivel atómico, estas reglas dejan de aplicarse: las partículas atómicas pueden existir en dos estados al mismo tiempo, mantienen conexiones con partículas hermanas a kilómetros de distancia, y pasan a través de superficies por unos túneles que antes no estaban allí. Las reglas que rigen lo atómico, la física cuántica, son especialmente extrañas para nosotros porque, si bien estamos hechos de átomos, no parece que tengamos estas propiedades. ¿Cómo podríamos averiguar si cualquier colección de átomos (un teclado, mi dedo, esa mesa) tiene las mismas propiedades que los átomos que la constituyen? Esta cuestión nos ha perseguido desde el descubrimiento de la mecánica cuántica. El problema siempre ha sido encontrar una manera de medir los efectos cuánticos más allá de la escala atómica, lo que nos permitiría ver a qué tamaño la mecánica cuántica da paso a la clásica, o si las propiedades cuánticas se las arreglan de alguna manera para persistir hasta la escala humana. El físico vienés Antón Zeilinger, en experimentos pioneros realizados en 1999 [1], encontró que moléculas tan grandes como las buckyesferas (fulereno esférico, 60 átomos de carbono) presentan la dualidad onda-corpúsculo de las partículas atómicas. Desde entonces los físicos han intentado ver quién observa el objeto más grande con efectos cuánticos (como ejemplo, El universo cuántico se amplía: entrelazamiento entre osciladores mecánicos.).Ahora, un equipo del Instituto de Tecnología de California – Caltech (EE.UU.), en un trabajo cuyo autor principal es Matt LaHaye, ha construido una estructura en miniatura (2 micras de longitud, 0,2 micras de ancho) que puede detectar si un objeto hecho de diez mil millones de átomos presenta propiedades cuánticas, en concreto, si presenta estados energéticos cuantizados. A escala humana, los objetos que oscilan, como un péndulo, tienen una curva de energía continua, van del 100 por ciento del valor posible de energía a cero y a la inversa. Pero los átomos oscilan entre estados energéticos definidos; así, por ejemplo, un átomo podría tener 100 por cien de energía o cero, pero ningún otro valor intermedio. La energía varía en paquetes indivisibles llamados cuantos y por eso decimos que la energía está cuantizada. Keith Schwab, uno de los coautores del estudio, propuso hace algunos años que si los osciladores mayores que los átomos tenían también niveles de energía cuantizados, se debería poder detectarlos diseñando una interacción con un sistema “equivalente a un átomo”. En otras palabras, fijándonos en cómo cambian los niveles de energía de un átomo cuando se acopla con un oscilador, podríamos deducir los niveles cuánticos de energía del oscilador. Esto es lo que han construido Schwab, LaHaye y sus colegas. En un chip de silicona, han conseguido colocar muy próximos (300 nanometros) un puente de aluminio a nanoescala y una isla superconductora, una caja de un par de Cooper, que actúa como una “partícula atómica” artificial [en la imagen, el puente es lo que parece un puente y la caja del par de Cooper el depósito en el borde a su izquierda]. Esta “partícula atómica” puede tomar uno de dos estados posibles; la información que representa este hecho es la versión cuántica de los bits binarios de un ordenador, lo que se conoce como qubit. El puente, hecho de 10 mil millones de átomos, vibra cuando se le aplica una corriente, mientras que la “partícula atómica” salta entre sus niveles de energía. Ambos dispositivos generan campos electromagnéticos que interactúan entre sí, lo que permitiría deducir el estado de uno en función del estado del otro. El primer ensayo de los investigadores, publicado en Nature [2], es una prueba de concepto: Si se puede deducir el estado cuántico de la “partícula atómica” a partir de las vibraciones del puente, sería posible lo contrario, y usar las vibraciones de la “partícula atómica” para medir los posibles estados cuánticos del puente. Y eso es precisamente lo que han encontrado, las firmas de los estados cuánticos de la “partícula atómica” en las lecturas del puente, tan claras como el día. Con mejoras en su técnica, los investigadores esperan poder explorar los cuantos del puente procedentes de la influencia de la “partícula atómica”. Si encuentran efectos cuánticos en el puente, sería el objeto más grande que los mostrase, un logro importante. Y, a partir de ahí, los experimentos futuros no podrían ser más excitantes. Por ejemplo, ¿tendría el puente superposición cuántica, existir en dos lugares a la vez? Si se observan efectos cuánticos a nanoescala, que son objetos macroscópicos después de todo, ello sería signo de que nos hace falta una comprensión más profunda y fundamental de cómo está constituido el universo. Referencias:[1] Arndt, M., Nairz, O., Vos-Andreae, J., Keller, C., van der Zouw, G., & Zeilinger, A. (1999). Wave–particle duality of C60 molecules Nature, 401 (6754), 680-682 DOI: 10.1038/44348[2] LaHaye, M., Suh, J., Echternach, P., Schwab, K., & Roukes, M. (2009). Nanomechanical measurements of a superconducting qubit Nature, 459 (7249), 960-964 DOI: 10.1038/nature08093... Read more »

Arndt, M., Nairz, O., Vos-Andreae, J., Keller, C., van der Zouw, G., & Zeilinger, A. (1999) Wave–particle duality of C60 molecules. Nature, 401(6754), 680-682. DOI: 10.1038/44348  

LaHaye, M., Suh, J., Echternach, P., Schwab, K., & Roukes, M. (2009) Nanomechanical measurements of a superconducting qubit. Nature, 459(7249), 960-964. DOI: 10.1038/nature08093  

  • September 17, 2009
  • 01:12 PM
  • 545 views

La revolución optogenética: del comportamiento a la neurona que lo gobierna.

by César Tomé López in Experientia docet

Hay una nueva forma de explorar los secretos de la biología. Un equipo de investigadores liderados por Ehud Y. Isacoff, de la Universidad de California en Berkeley, ha conseguido mediante el uso de proteínas activadas por la luz y técnicas de expresión genética que un pez cebra inicie un movimiento lateral de su cola cuando una neurona concreta recibe, no una descarga eléctrica o una dosis de neurotransmisores, sino un simple destello de luz. Este espectacular resultado doble, la detección de la neurona concreta y la técnica empleada, se publica hoy en Nature. Nos atrevemos a decir que habrá un antes y un después de este hallazgo. Desde el ratón Brainbow esto es lo más excitante y lleno de posibilidades que hemos visto. A poco que se confirmen las expectativas aquí huele a Nobel. Pero vamos por partes. Ya mencionábamos ayer que los científicos determinan las funciones de las neuronas vía correlación. Si un grupo de neuronas se activa cada vez que un animal realiza un cierto comportamiento, entonces lo más probable es que esas neuronas controlen ese comportamiento. Lo mismo ocurre si el funcionamiento de las neuronas se ve interrumpido: si el comportamiento cesa, entonces es probable que las neuronas afectadas por la interrupción sean las que lo controlan. Pero era necesario ir más allá de la correlación y comprobar de verdad la causalidad. Ir del comportamiento al sistema nervioso y allí determinar las neuronas individuales directamente responsables. Y esto, que parecía poco menos que imposible, es lo que ha conseguido el equipo de Isacoff. La clave del éxito de los científicos está en una proteína artificial activada por la luz (PAL) que desarrollaron hace unos años. Se puede conseguir mediante ingeniería genética que la PAL se exprese en una neurona (o en cualquier otro tipo de célula) y que funcione como un interruptor óptico. Ilumina la PAL con luz de un color y la neurona se activa, ilumina la PAL con luz de otro color y la neurona se desactiva. Este tipo de método se llama optogenético, por la combinación de óptica y genética. Para comprobar el funcionamiento de la PAL, Isacoff y sus colegas la usaron para buscar la célula exacta que regula el circuito neuronal que media en los movimientos natatorios de la larva del pez cebra. En primer lugar, expresaron la PAL al azar en el genoma de cientos de larvas de pez cebra. Algunas PAL aparecieron en células musculares, otras en células óseas y otras en el sistema nervioso central. Seleccionaron entonces los ejemplares en los que la PAL aparecía en las neuronas de la médula espinal, algunas de las cuales se sabe que controlan la locomoción. Al iluminar estos peces, un puñado de ellos empezaron a mover sus colas de lado a lado. Un análisis posterior, en el que se fueron descartando distintas candidatas, llevó a los investigadores a la fuente neuronal de este comportamiento: todos los nadadores tenían la PAL expresada en una célula llamada neurona de Kolmer-Agduhr, cuya existencia se conocía desde hace 75 años pero cuya función era un misterio. Lo que el equipo de Isacoff ha mostrado en la locomoción se puede hacer para cualquier otro tipo de comportamiento; esto constituye una nueva forma de hacer neurociencia. Pero las aplicaciones no se constriñen a la investigación del sistema nervioso, también tiene aplicaciones evidentes en la biología de síntesis, como herramienta para identificar redes proteínicas útiles para su posterior importación a otro microorganismo y crear de esta manera aplicaciones microbiológicas ad-hoc, ya sea para la eliminación de toxinas, la generación de energía o biomasa, o el tratamiento de enfermedades.[En la imagen, larva de pez cebra usando la técnica brainbow]Referencia: Wyart, C., Bene, F., Warp, E., Scott, E., Trauner, D., Baier, H., & Isacoff, E. (2009). Optogenetic dissection of a behavioural module in the vertebrate spinal cord Nature, 461 (7262), 407-410 DOI: 10.1038/nature08323

... Read more »

Wyart, C., Bene, F., Warp, E., Scott, E., Trauner, D., Baier, H., & Isacoff, E. (2009) Optogenetic dissection of a behavioural module in the vertebrate spinal cord. Nature, 461(7262), 407-410. DOI: 10.1038/nature08323  

  • April 26, 2010
  • 04:05 PM
  • 544 views

Telómero largo, memoria corta.

by César Tomé López in Experientia docet

Un grupo de investigadores de varias universidades suecas, encabezado por Michael Wikgren publica en Neurobiology of Aging que los telómeros largos pueden asociarse en adultos y ancianos no dementes con una memoria más débil. Las partes finales de los cromosomas (en gris en la imagen), los telómeros (en blanco), son importantes a la hora de proteger los genes que hay dentro. Cada vez que una célula se divide, estos telómeros se hacen más cortos. Tras múltiples divisiones celulares, los telómeros se hacen tan cortos que la célula o bien sufre una muerte programada (apoptosis) o pasa a un estado envejecido parecido a una invernación. Por lo tanto, las longitudes de los telómeros nos dan información sobre cuántas veces se han dividido las células en el pasado. El estudio sueco es parte de un proyecto muy ambicioso de investigación sobre cómo la memoria cambia con el envejecimiento, el proyecto Betula. Este estudio, en el que participaron personas de edades entre los 41 y los 81 años, se centra en el estudio de si los individuos con diferentes variantes de apolipoproteína E (APOE) tenían diferentes longitudes teloméricas en sus células sanguíneas y si las variaciones en la longitud del telómero estaban relacionadas con la capacidad memorística, evaluada mediante pruebas de memoria. La apolipoproteína E es una proteína con 299 aminoácidos de largo y transporta lipoproteínas, vitaminas liposolubles y colesterol hacia el sistema linfático y luego a la sangre. Es sintetizada principalmente en el hígado, aunque se ha encontrado también en otros tejidos, como el cerebro, el riñón y el bazo. En el sistema nervioso, los tipos de células que no son neuronas, mayormente los astrocitos y la microglía, son los principales productores de APOE. Investigaciones anteriores habían puesto de manifiesto una conexión entre la variante epsilon 4 de la APOE (APOE4) y las enfermedades cardiovasculares y la demencia. También se había encontrado que esta variante incrementa el riesgo de un tipo de degradación de la memoria que se produce en los individuos de más edad que no padecen demencia. Esta degradación se produce en la memoria episódica que, simplificando, es la que almacena las experiencias vividas por la persona. Los resultados no podían ser más interesantes ni suscitar más preguntas: los individuos con APOE4 tienen los telómeros más largos que aquellos con otras variantes de APOE; también se encontró que la diferencia en longitud del telómero entre APOE 4 y otras variantes se incrementaba conforme los individuos comparados eran más jóvenes. En el grupo que tenía la variante APOE 4 los individuos con los telómeros más largos eran los que peores resultados obtenían en las pruebas de memoria episódica pero no en otras pruebas. La proteína APOE, como decíamos más arriba, juega un papel central en el transporte y metabolización de las grasas sanguíneas, pero las diferentes variantes parecen tener distintos efectos sobre otros procesos del cuerpo. La variante 4 está relacionada con peores grasas sanguíneas, más inflamación y un exceso de estrés oxidativo comparada con las variantes 2 y 3. Se ha demostrado que tanto la inflamación como el estrés oxidativo llevan a telómeros más cortos, por lo que resulta sorprendente que los individuos con APOE4 tengan telómeros más largos que los que tienen otras variantes. Los telómeros más largos apoyan la idea de que las células han sufrido un menor número de mitosis (divisiones celulares) y que esa diferencia en longitud surgió en algún momento anterior al límite inferior de edad del estudio. Esta actividad mitótica reducida a edad temprana podría ser una explicación de la peor memoria episódica de los sujetos con variante 4 comparada con los individuos con las otras variantes. Referencia: Wikgren, M., Karlsson, T., Nilbrink, T., Nordfjäll, K., Hultdin, J., Sleegers, K., Van Broeckhoven, C., Nyberg, L., Roos, G., & Nilsson, L. (2010). APOE ε4 is associated with longer telomeres, and longer telomeres among ε4 carriers predicts worse episodic memory Neurobiology of Aging DOI: 10.1016/j.neurobiolaging.2010.03.004

... Read more »

Wikgren, M., Karlsson, T., Nilbrink, T., Nordfjäll, K., Hultdin, J., Sleegers, K., Van Broeckhoven, C., Nyberg, L., Roos, G., & Nilsson, L. (2010) APOE ε4 is associated with longer telomeres, and longer telomeres among ε4 carriers predicts worse episodic memory. Neurobiology of Aging. DOI: 10.1016/j.neurobiolaging.2010.03.004  

  • August 10, 2009
  • 12:16 PM
  • 543 views

El ADN de las neuronas es diferente.

by César Tomé López in Experientia docet

Las células cerebrales humanas albergan una increíble variabilidad en el genoma, según los investigadores del Instituto Salk de Estudios Biológicos (EE.UU.). El equipo liderado por Fred Gage, el mismo que descubrió la neurogénesis en adultos, ha publicado en Nature que las neuronas poseen un número inesperado de elementos móviles (transposones o genes saltarines), trozos del ADN que son capaces de insertar copias extras de sí mismos en el genoma usando un mecanismo de “corta y pega” (usando ARN como portapapeles en algunos casos). El descubrimiento podría ayudar a explicar el desarrollo e individualidad del cerebro así como a una mejor comprensión de las enfermedades mentales. En un trabajo anterior, Gage ya había demostrado que elementos móviles del ADN conocidos como Elementos Largos Intercalados -1 (LINE-1, por sus siglas en inglés) añaden copias extras (“saltos”) al azar al genoma de las células cerebrales de los ratones. El que esto sucediese también en los humanos era objeto de controversia. Se sabe que estos elementos móviles son importantes en organismos inferiores, como las plantas o las levaduras, pero se considera que en los mamíferos son restos del pasado evolutivo. Sin embargo, son extraordinariamente abundantes. Aproximadamente el 50% del total del genoma humano está constituido por restos de elementos móviles. Si fuesen inservibles, nos habríamos desecho de ellos. Pero, ¿para qué sirven? El objetivo original de los investigadores del Instituto Salk era simplemente identificar “saltos” en células cerebrales humanas cultivadas in vitro, como se había hecho con los ratones. Una vez verificado, el paso siguiente para Gage y Nicole Coufal (autora principal del trabajo que ahora se publica) fue verificar que lo mismo ocurría in vivo. In mice, gene jumping is limited to the brain and to germ cells, the reproductive cells in our bodies, since these kinds of rapid changes would be detrimental in essential organs such as the heart or kidneys. If LINE-1 elements were indeed on the move in humans, there should be more copies in the brain than in the heart or liver, where Gage and Coufal did not expect LINE-1 jumping to occur. En los ratones los saltos de genes se limitan al cerebro y a las células germinales ya que, en las células de otros órganos como el corazón o los riñones, estos cambios rápidos podrían ser potencialmente muy perjudiciales. Si los elementos LINE-1 se transponen en los humanos debería haber más copias en el cerebro que en el corazón o en el hígado, según la hipótesis de Gage y Coufal. El equipo de investigadores desarrolló una reacción en cadena basada en la polimerasa que permitió determinar cuantitativamente el incremento del número de copias en tejidos cerebrales (del hipocampo y otras áreas) con respecto a las presentes en tejidos de otros órganos (corazón e hígado, entre otros). Las muestras del cerebro tenían hasta 100 copias extra por célula, con lo que quedaba probada la hipótesis. Los investigadores comprobaron asimismo que el promotor del LINE-1, el interruptor genético que hace que haya o no LINE-1, está habitualmente en “on” en las células cerebrales y en “off” en las células de otros órganos. Este hallazgo implica que no todas las células son creadas iguales: el ADN de las células del cerebro es diferente del ADN del resto de células del organismo, o casi. Existe otro tipo de célula humana que es conocida por remodelar su genoma: las del sistema inmunitario. En ellas los genes que codifican los anticuerpos se combinan para crear la variedad necesaria de éstos que haga frente a un infinito número de diferentes antígenos. La variabilidad que este descubrimiento asigna a las células cerebrales provee un mecanismo potencial para explicar la diversidad neuronal que hace a cada persona única. Por otra parte, la desregulación de las copias podría contribuir a la aparición de desórdenes neurológicos. Finalmente, un cerebro que es capaz de vivir 80 años en un entorno cambiante e impredecible tiene, de esta manera, un plus de adaptabilidad: los elementos móviles impulsarían la evolución.Referencia: Coufal NG, Garcia-Perez JL, Peng GE, Yeo GW, Mu Y, Lovci MT, Morell M, O'Shea KS, Moran JV, & Gage FH (2009). L1 retrotransposition in human neural progenitor cells. Nature PMID: 19657334... Read more »

Coufal NG, Garcia-Perez JL, Peng GE, Yeo GW, Mu Y, Lovci MT, Morell M, O'Shea KS, Moran JV, & Gage FH. (2009) L1 retrotransposition in human neural progenitor cells. Nature. PMID: 19657334  

  • August 24, 2009
  • 05:28 PM
  • 543 views

Transplantes de genoma sin rechazo: un paso hacia la vida artificial.

by César Tomé López in Experientia docet

En su camino hacia la creación de una célula sintética, investigadores del Instituto J. Craig Venter (EE.UU.) han desarrollado una técnica para generar cepas bacterianas modificadas a partir de genomas clonados y modificados en levaduras. Informan de todo ello en Science. El año pasado, Venter, uno de los autores del artículo [*], informó de que su equipo había creado un genoma bacteriano sintético y lo había clonado en una célula de levadura. Sin embargo, fueron incapaces de transferir el genoma a una célula que lo usase para producir la versión operativa de un organismo. En este artículo, los investigadores presentan la técnica para hacer exactamente eso. El equipo del Venter primero clonó el genoma de la bacteria Mycoplasma mycoides dentro de una levadura. Alteraron entonces el genoma, usando algunas del montón de herramientas que existen para la manipulación de los genes de la levadura. En el paso más crítico, transplantaron ese genoma bacteriano ligado a la levadura a una bacteria relacionada Mycoplasma capricolum, acuciándola para que tomara este “programa genético y lo cargase”, en palabras del autor destacado para recibir la correspondencia Sanjay Vashee, generando de esta forma una cepa mutante.La dificultad que Vashee y el equipo tuvieron que superar para conseguir este logro estribaba principalmente en esquivar el equivalente bacteriano a un sistema inmunitario: las enzimas de restricción [en la imagen en verde y violeta, enlazada a una hélice de ADN]. Estas enzimas, que se cree que evolucionaron como forma efectiva de eliminar los genomas de los virus invasores de las células bacterianas, impedían el transplante del genoma modificado de M. mycoides al tipo salvaje de M. capricolum. El grupo realizó dos ajustes que solucionaron el problema. En primer lugar inactivaron las enzimas de restricción de M. capricolum. Por si esto no fuese suficiente, modificaron químicamente el genoma mutante de M. mycoides en los lugares donde las enzimas rompen habitualmente los genomas de los intrusos. Décadas de investigación en la genética de las levaduras han proporcionado un amplio conocimiento de cómo realizar manipulaciones genómicas en éstas, un conocimiento que no existe para otros microorganismos. Esta técnica permite usar lo que se sabe de manipulación genética en levaduras para alterar los genomas de esos otros microorganismos.El quipo del Instituto Venter está aplicando esta técnica a su objetivo a largo plazo de construir la “célula mínima”. Quitan trozos del código genético de M. mycoides y M. genitalium, y los genomas sin estos trozos se reimplantan para ver si las células todavía “funcionan”, de esta forma intentan averiguar qué es lo mínimo para la existencia de la vida... y después crearla desde cero. [*] Y un personaje interesantísimo; responsable de que el genoma humano se completase en el 2000, entre otras cosas; si no le dan el Nobel será por motivos políticos; su autobiografía, A Life Decoded, se lee como una novela de acción trepidante, pero en vez de tiros hay cromosomas. No es la primera vez que recogemos en Experienta docet sus logros, por ejemplo Vida de síntesis.Referencia: Lartigue, C., Vashee, S., Algire, M., Chuang, R., Benders, G., Ma, L., Noskov, V., Denisova, E., Gibson, D., Assad-Garcia, N., Alperovich, N., Thomas, D., Merryman, C., Hutchison, C., Smith, H., Venter, J., & Glass, J. (2009). Creating Bacterial Strains from Genomes That Have Been Cloned and Engineered in Yeast Science DOI: 10.1126/science.1173759... Read more »

Lartigue, C., Vashee, S., Algire, M., Chuang, R., Benders, G., Ma, L., Noskov, V., Denisova, E., Gibson, D., Assad-Garcia, N.... (2009) Creating Bacterial Strains from Genomes That Have Been Cloned and Engineered in Yeast. Science. DOI: 10.1126/science.1173759  

  • October 8, 2009
  • 09:33 AM
  • 542 views

La actividad cerebral se incrementa en el momento de la muerte.

by César Tomé López in Experientia docet

Las lecturas eléctricas de siete pacientes que murieron en la unidad de cuidados intensivos del Centro Médico de la Universidad George Washington (EE.UU.) sugieren que el cerebro sufre un aumento acusado de actividad en el momento de la muerte, según un estudio publicado en el Journal of Palliative Medicine por el equipo médico que les atendió, dirigido por Lakhmir S. Chawla. Este resultado sugiere una posible explicación de las llamadas experiencias cercanas a la muerte. El principal objetivo de los cuidados paliativos es hacer el fallecimiento de los pacientes lo menos doloroso y angustioso posible. Dentro de los cuidados paliativos que se estaban dando a los pacientes del estudio, el equipo médico usó para monitorizar su estado monitores de alerta. Estos monitores son dispositivos comerciales diseñados para ayudar a los anestesistas a controlar lo “despiertos” que están los pacientes, y combinan las lecturas electroencefálicas de los lóbulos centrales en una sola señal que refleja el estado de alerta del paciente. En cada uno de los siete pacientes, neurológicamente intactos, el equipo médico se dio cuenta de que en el momento en el que la presión sanguínea caía a cero había un incremento repentino de la actividad cerebral. Esta no es la primera vez que este fenómeno se detecta, pero los informes anteriores eran casos aislados en los que el incremento de actividad podría haber sido debido a una interferencia eléctrica de otras fuentes. En los casos que nos ocupan, los médicos adoptaron las medidas oportunas para garantizar que las fuentes mencionadas como origen de las interferencias no estuviesen presentes. Como explicación del fenómeno sugieren que el incremento repentino fue debido a una despolarización anóxica: un proceso en el que la falta de oxígeno desestabiliza el equilibrio químico a ambos lados de las membranas de las neuronas, lo que conlleva un último estallido de actividad. En este punto es a lo mejor conveniente recalcar que estamos hablando de siete casos, y que no se han empleado equipos de medición neuroeléctrica de un nivel suficiente como para hacer mediciones de precisión, aunque, claro está, tampoco era este el objetivo en una unidad de cuidados intensivos. Es necesaria pues una investigación planificada, con instrumentos adecuados, para poder conocer mejor el fenómeno antes de dar ninguna explicación como totalmente válida. No obstante lo anterior, los investigadores sí se atreven a lanzar una hipótesis sobre las “experiencias cercanas a la muerte”: “Especulamos que aquellos pacientes que sufren un paro cardiaco y que son resucitados con éxito podrían recordar las imágenes y recuerdos provocados por esta cascada [la despolarización anóxica]. Ofrecemos esto como una explicación potencial de la claridad con la que muchos pacientes tienen 'experiencias fuera del cuerpo' cuando se les resucita con éxito de un suceso cercano a la muerte”. Referencia: Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009). Surges of Electroencephalogram Activity at the Time of Death: A Case Series Journal of Palliative Medicine DOI: 10.1089/jpm.2009.0159

... Read more »

Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009) Surges of Electroencephalogram Activity at the Time of Death: A Case Series. Journal of Palliative Medicine, 2147483647. DOI: 10.1089/jpm.2009.0159  

  • June 1, 2010
  • 05:39 PM
  • 541 views

Redox en el espacio.

by César Tomé López in Experientia docet

De vez en cuando aparecen noticias sobre el descubrimiento de tal o cual compuesto en una nube interestelar y, habitualmente, se aporta una explicación más o menos alambicada para poder hablar de la posibilidad de que dicho compuesto tenga alguna relación con el origen de la vida, por remota que ésta sea. Y, sin embargo, aún no se ha hecho una identificación positiva de una molécula que pueda ser considerada como precursora de los organismos vivos, al menos de los terrícolas. Desde un punto de vista objetivo, el hecho cierto es que existe una colección de compuestos bastante rica en los espacios entre las estrellas, lo que nos lleva a la pregunta, ¿cómo se sintetizan estos compuestos en unas condiciones que, en principio, no favorecen las reacciones químicas termodinámicamente? Daren Caruana y Katherine Holt, del University College de Londres, afirman, en un artículo que aparece en Physical Chemistry Chemical Physics, que la clave está en el polvo interestelar y su participación en reacciones de oxidación-reducción. En su mayor parte el espacio entre las estrellas (espacio interestelar, EIE) es un vacío salpimentado ligeramente con átomos y moléculas. Sin embargo, en ciertas regiones se forman altas concentraciones de especies químicas formando nubes densas que también contienen polvo. Estas nubes de polvo parecen ser un centro de incubación para la síntesis de una gran variedad de especies moleculares. Se han identificado más de 140 especies moleculares en nubes de polvo usando una variedad de técnicas espectroscópicas. Para el estudio de la formación de estas especies se han desarrollado modelos por ordenador muy sofisticados, que describen la abundancia de especies químicas presentes en las nubes. A pesar de ello, estos modelos son incapaces de describir la formación de muchas moléculas poliatómicas, y su origen sigue siendo uno de los grandes enigmas de la química interestelar. En astroquímica está generalmente aceptado que los granos de polvo están implicados en la síntesis de moléculas poliatómicas complejas. Así, por ejemplo, el hidrógeno molecular (H2), la molécula más abundante en el EIE, se forma en la superficie de los granos. Hasta ahora los modelos por ordenador asumen que los granos de polvo actúan sólo como superficies propicias, en las que los reactivos son adsorbidos [con D de Dinamarca] antes de reaccionar. Pero es posible que los granos de polvo tengan un papel más activo según Caruana y Holt. La hipótesis que plantean estos investigadores se basa en la relación entre la síntesis química en la superficie de los granos con la carga eléctrica que los granos adquieren mediante conocidos fenómenos físicos del EIE. Los granos individuales pueden ser cargados negativamente por electrones en áreas de fuerte ionización del gas de la nube, o cargados positivamente en la periferia de la nube de polvo donde la radiación electromagnética es lo suficientemente potente como para expulsar los electrones de los granos. Desde un punto de vista químico, las superficies cargadas eléctricamente pueden ser reductoras cuando son negativas y oxidantes cuando son positivas. Por tanto, dependiendo de los procesos de carga, el equilibrio de electrones en la superficie de los granos puede provocar reacciones de reducción o de oxidación, reacciones que de otra forma estarían impedidas termodinámicamente. Por el momento se sabe poco de las reacciones redox (oxidación-reducción) en la interfase sólido gas, pero combinando lo que sí se conoce de los procesos redox en la interfase sólido-líquido, esta hipótesis puede desarrollarse para formular un mecanismo que implique a los granos de polvo del EIE. En éste los granos individuales actuarían como un reactor electroquímico de “un solo electrodo” en la fase gas. El número de electrones en el grano cambiaría el potencial químico global (el nivel de Fermi); por ejemplo, para un grano de polvo de 10 nm de diámetro la unión de 32 electrones cambia el potencial químico en 1 eV. Un voltaje de esta magnitud aplicado a una superficie conductora sólida se sabe que es capaz de producir muchas reacciones electroquímicas en fase líquida. Por lo tanto, es probable que una interfaz polarizada en la fase gas pueda provocar reacciones químicas similares. Los autores también especulan con la posibilidad de que la síntesis de las moléculas más grandes (de más de 6 átomos) se produzca en lugares distintos de la nube de polvo en una sucesión de reacciones redox (oxidaciones unas veces, reducciones otras). Una vez que se desarrolle completamente este mecanismo electroquímico, en conjunción con otros modelos para la fase gaseosa, quizás sea capaz de explicar las inesperadas abundancias observadas de algunas especies químicas poliatómicas. Y, ¿por qué no también la química de las capas altas de la atmósfera?Referencia: Caruana, D., & Holt, K. (2010). Astroelectrochemistry: the role of redox reactions in cosmic dust chemistry Physical Chemistry Chemical Physics, 12 (13) DOI: 10.1039/b917817a

... Read more »

  • May 17, 2010
  • 05:40 PM
  • 540 views

Un método de computación analógico para la fuerza de Casimir.

by César Tomé López in Experientia docet

Un equipo de investigadores del Instituto de Tecnología de Massachusetts (M.I.T., por sus siglas en inglés) ha desarrollado un método para encontrar soluciones a las ecuaciones de la fuerza de Casimir para cualquier geometría. Los resultados se publican en los Proceedings of the National Academy of Sciences. Imaginemos dos placas metálicas no cargadas eléctricamente, separadas unos micrometros, en ausencia de campo electromagnético y en reposo. ¿Existe alguna fuerza neta en el sistema? Desde un punto de vista clásico la respuesta es un contundente no. Sin embargo, desde el punto de vista cuántico la respuesta es sí: la existencia de esta fuerza neta la predijeron Hendrik Casimir y Dirk Polder en 1948 y su existencia ha sido comprobada experimentalmente. De hecho, esta fuerza que, aparentemente viene de la nada y disminuye rápidamente con la distancia, puede alcanzar valores sorprendentes a distancias muy pequeñas. Así, en placas separadas 10 nm la fuerza de Casimir-Polder (Casimir, de ahora en adelante), dependiendo de la geometría de las placas, llega a 1 atmósfera de presión. Esto quiere decir que esta fuerza anti-intuitiva se convierte en la dominante en la nanoescala entre conductores no cargados. La mecánica cuántica ha puesto de manifiesto que nuestro universo es mucho más raro de lo que imaginamos. Una de estas características extrañas es la confirmación de la realidad de todo un abanico de nuevas partículas subatómicas que están constantemente apareciendo y desapareciendo de la existencia en un lapso de tiempo prácticamente indetectable. Hay tantas de estas partículas efímeras en el espacio, incluso en el vacío, moviéndose en todas direcciones, que las fuerzas que ejercen se contrarrestan unas a otras. A efectos prácticos en la mayoría de los casos pueden ignorarse. Pero cuando los objetos se aproximan mucho, hay poco hueco entre ellos como para que las partículas comiencen a existir. Consecuentemente, hay menos de estas partículas efímeras entre los objetos para contrarrestar las fuerzas que ejercen las partículas que aparecen alrededor de ellos, y la diferencia de presión termina empujando a los objetos el uno contra el otro. Este es el origen de la fuerza de Casimir.En los años 60 del siglo XX se desarrolló una fórmula que, en principio, describe los efectos de las fuerzas de Casimir en cualquier número de objetos pequeños, con cualquier forma. Pero en la inmensa mayoría de los casos, la fórmula era imposible de resolver en la práctica. Se consiguió encontrar una solución para un número muy limitado de casos, como el de dos placas paralelas. En años recientes se han encontrado maneras de obtener soluciones para otras configuraciones. Así, en 2006 se resolvió para una placa y un cilindro y, en 2007, para esferas múltiples. Pero no se conseguía encontrar una solución general. Esto es precisamente lo que han logrado los miembros del equipo encabezado por Alejandro W. Rodríguez: un método para resolver las ecuaciones de las fuerzas de Casimir para cualquier número de objetos, con cualquier forma concebible. La aproximación de los investigadores al problema ha sido la de reducirlo a otro análogo, matemáticamente equivalente, pero resoluble. En concreto, demuestran que objetos del orden de centímetros separados también del orden de centímetros, dentro de un fluido conductor de la electricidad, constituyen un modelo preciso del nanosistema en lo que respecta a las fuerzas de Casimir. En vez de calcular las fuerzas ejercidas por pequeñas partículas que aparecen alrededor de pequeños objetos, los investigadores calculan la fuerza de un campo electromagnético en varios puntos alrededor de otros objetos mucho más grandes. Para objetos con formas raras, como una rueda dentada, el cálculo de la fuerza electromagnética en un fluido conductor sigue siendo algo bastante complicado. Pero nada que no pueda arreglarse usando software de ingeniería estándar. El encontrar una solución a las ecuaciones de las fuerzas de Casimir es algo que va mucho más allá del mero conocimiento teórico: poder calcular las fuerzas de Casimir para distintas geometrías se ha convertido en algo imprescindible en nanotecnología. Dado que las fuerzas de Casimir pueden hacer que las partes móviles de los sistemas electromecánicos a nanoescala se queden pegadas, es necesario encontrar geometrías donde en vez de atracción haya repulsión, y esto es lo que permite la nueva técnica. Eso sí, la creatividad humana está llamada a jugar un gran papel para encontrar estas formas con fuerzas repulsivas: todavía es necesario el uso de la intuición para imaginar qué formas pueden tener repulsión. La técnica de Rodríguez et al. solo nos dirá si estamos en lo cierto a posteriori.[Esta es la participación de Experientia docet en el VII Carnaval de la Física, que este mes acoge El navegante.]Referencia: Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010). Theoretical ingredients of a Casimir analog computer Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1003894107

... Read more »

Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010) Theoretical ingredients of a Casimir analog computer. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.1003894107  

  • October 26, 2011
  • 06:08 AM
  • 539 views

Los campos magnéticos estáticos afectan a la excitabilidad del cerebro.

by César Tomé López in Experientia docet





¿Qué ocurre si coges un imán potente
y te lo pones encima de la cabeza durante un rato largo? A priori
habrá quien pueda argumentar que, en principio, no debería
pasar nada si se trata de un campo magnético estático. Sin embargo,
un equipo de investigadores encabezado por Antonio Oliviero, del
Hospital Nacional de Parapléjicos (España), ha demostrado
experimentalmente que el contacto de un imán de suficiente potencia
aplicado durante 10 minutos directamente sobre el cuero cabelludo
puede provocar una disminución del 25% de la excitabilidad del
córtex motor que se mantiene durante varios minutos tras retirar el
imán. Este resultado puede llegar a tener aplicaciones terapéuticas
no invasivas, indoloras y reversibles. Los resultados se publican en The Journal of Physiology.



Cuando un conductor se expone a un
campo magnético que cambia, ya sea porque hay variaciones del propio
campo magnético con el tiempo o porque conductor y campo están en
movimiento relativo, se producen en el conductor unas corrientes
eléctricas inducidas, llamadas corrientes de Foucoult. Estas
corrientes, a su vez, producen campos magnéticos, por lo que la
interacción de éstos con el original puede dar lugar a efectos
atractivos, repulsivos, de propulsión o de resistencia al
movimiento. Basándose en este fenómeno se desarrolló la
estimulación magnética transcraneal (TMS, por sus siglas en
inglés), un método no invasivo que, empleando un campo magnético
pulsante provoca cambios eléctricos en las neuronas encefálicas,
alterando de distintas formas su funcionamiento normal. La TMS, por
su capacidad para interferir localizadamente, tiene un amplio uso en
los estudios neurocientíficos.



La TMS hace que las neuronas del córtex
justo debajo del lugar donde se está aplicando se despolaricen y
emitan un potencial de acción, en otras palabras, que se activen. Si
se aplica sobre el córtex motor primario esto se traduce en
actividad muscular, técnicamente llamada potencial motor evocado
(MEP, por sus siglas en inglés), que puede registrarse mediante
electromiografía (detección de la actividad eléctrica muscular). A
poco que reflexionemos, nos daremos cuenta de que la inversa también
es cierta, si se producen alteraciones eléctricas en el córtex
motor, se puede usar un dispositivo TMS para detectarlas.





Esto es lo que ha usado el equipo de
investigadores para medir el efecto del campo magnético de dos
imanes de neodimio distintos sobre el córtex motor, concretamente el
área correspondiente a la mano, en el giro precentral. Los imanes
(uno u otro) se colocaron directamente sobre el cuero cabelludo de
los voluntarios, alterando la polaridad y el tamaño (potencia) y
repitiendo los experimentos con un cilindro metálico para corregir
el efecto placebo. La técnica se conoce como estimulación
transcraneal por campo magnético estático (tSMS, por sus siglas en
inglés)



Los resultados obtenidos indican que
las amplitudes medias del MEP permanecen durante 6 minutos por debajo
de lo normal tras la aplicación del más potente de los dos imanes
durante 10 minutos, independientemente de la polaridad. Los
investigadores concluyen que se debe a una excitabilidad reducida del
córtex motor. Es la primera vez que se afirma la existencia de un
efecto de un campo magnético estático sobre la excitabilidad del
cerebro.




Pero, ¿cómo es posible que un campo
magnético estático afecte al cerebro? Hay cuatro factores a tener
en cuenta a la hora de sugerir explicaciones: es necesario un campo
magnético con una intensidad umbral para producir efectos, es decir,
por debajo de esa intensidad no hay efectos apreciables; es
necesario, asimismo, mantener el campo magnético durante un tiempo
mínimo; los efectos permanecen durante un tiempo tras cesar el campo
magnético; y, finalmente, la polaridad, polo norte o sur del imán
en contacto con la cabeza, no tiene influencia.



Empezando por este último factor,
vemos que las estructuras o especies químicas afectadas por la tSMS
deben responder igual a ambas polaridades, lo que implica que las
dianas deben ser ferromagnéticas (ambos polos atraen) o
diamagnéticas (ambos polos repelen). Por otra parte, el hecho de que
el efecto se extienda más allá de la presencia del campo magnético
sugiere que debe ser una estructura la afectada y no una especie
química (moléculas o iones), probablemente que se vea deformada
reversiblemente por la tSMS.



Teniendo en cuenta todo lo anterior,
los autores proponen como mecanismo de actuación de la tSMS la
deformación de los canales iónicos de calcio y sodio debido a que,
en presencia del campo magnético, las anisotropías diamagnéticas
de los fosfolípidos de membrana hace que éstos se puedan reorientar
reversiblemente.



Independientemente de que, obviamente,
es necesario investigar más los efectos de la tSMS, este trabajo
tiene, en nuestra opinión, tres potencialidades evidentes. La
primera es su uso científico médico, se trata de un método barato,
no invasivo y portátil de influir en la actividad cortical. La
segunda es reabrir el debate sobre los efectos de las resonancias
magnéticas sobre la actividad encefálica y la posible alteración
de los diagnósticos/resultados que ello pudiese acarrear (véase El escáner afecta al metabolismo del cerebro);
los autores discuten este aspecto en el artículo y, si bien señalan
las diferencias entre tSMS y MRI, también ponen en evidencia la
falta de estudios adecuados. La tercera es el uso magufo de estos
hallazgos: prevenido queda, querido lector.   



Referencia:

Oliviero, A., Mordillo-Mateos, L., Arias, P., Panyavin, I., Foffani, G., & Aguilar, J. (2011). Transcranial static magnetic field stimulation (tSMS) of the human motor cortex The Journal of Physiology DOI: 10.1113/jphysiol.2011.211953

... Read more »

Oliviero, A., Mordillo-Mateos, L., Arias, P., Panyavin, I., Foffani, G., & Aguilar, J. (2011) Transcranial static magnetic field stimulation (tSMS) of the human motor cortex. The Journal of Physiology. DOI: 10.1113/jphysiol.2011.211953  

  • October 2, 2009
  • 09:37 AM
  • 538 views

Identificado otro fármaco que podría prevenir las enfermedades del envejecimiento y alargar la vida.

by César Tomé López in Experientia docet

Inutilizando un gen implicado en una importante vía de comunicación bioquímica en ratones se ha descubierto una forma de imitar los conocidos efectos antienvejecimiento de la restricción calórica: vida más larga y más saludable. Este hallazgo, publicado en Science por un equipo liderado por Dominic Withers del University College de Londres, ofrece una prometedora diana terapéutica para los muchos problemas asociados con la edad. Hace ya tiempo que es conocido que la restricción calórica alarga la vida y reduce la incidencia de las enfermedades relacionadas con la edad en una amplia variedad de organismos, desde las levaduras y los nemátodos (gusanos redondos) a los roedores y primates. No está claro, sin embargo, cómo una dieta nutricionalmente completa pero radicalmente restringida logra estos beneficios. Pero recientemente varios estudios han dado pruebas de que un proceso de transmisión de señales bioquímicas en concreto, que implica a una proteína llamada diana de la rapamicina (TOR, por sus siglas en inglés), puede jugar un papel clave. Este proceso actúa como una especie de sensor de comida, ayudando a regular la respuesta metabólica del cuerpo a la disponibilidad de nutrientes. El equipo científico se percató de que los ratones jóvenes con una versión inactiva de la enzima cinasa S6-1 (S6K1), que es activada directamente por la TOR, mostraban mucho parecido con los ratones que seguían una dieta restringida calóricamente: eran más delgados y tenían mayor sensibilidad a la insulina que los ratones normales. Para averiguar si estos beneficios persistían en edades más avanzadas y si los ratones vivirían más, los investigadores criaron dos grandes grupos de ratones modificados genéticamente que carecían de una versión funcional del gen de la S6K1. Un grupo vivió sus vidas tranquilamente, dando una medida de la duración natural de su vida. El otro grupo fue sometido a una amplia batería de pruebas de estado metabólico y de rendimiento cognitivo y motor. En las hembras, los resultados fueron importantes. Las ratonas modificadas genéticamente vivieron sustancialmente más que las normales. Con una edad de 600 días (sobre los 40 años humanos) obtenían resultados excelentes en las pruebas de rendimiento motor, superando a las ratonas normales en equilibrio, fuerza y coordinación. También eran más curiosas y capaces a la hora de explorar nuevos entornos, lo que sugiere una mejor función cognitiva. Las medidas fisiológicas también indicaban una salud mejor: las modificadas genéticamente tenían huesos más fuertes, mejor sensibilidad a la insulina y células inmunitarias más robustas. Aunque los machos modificados genéticamente no tenían una vida más larga, sí que compartían los beneficios para la salud de las hembras. Los efectos de la inactivación de la S6K1 fueron similares a los de la restricción calórica, aunque menos pronunciados. Las hembras sin S6K1 vivieron hasta un 20% más que las ratonas normales; el incremento de la longevidad con restricción calórica puede llegar al 50%. La importancia de estos resultados se comprende mejor si tenemos en cuenta el descubrimiento hecho en julio de que la rapamicina alarga la vida de los ratones, interfiriendo en la misma ruta bioquímica inhibiendo la TOR. Aunque la rapamicina tenía un efecto pronunciado en la longevidad y la salud, su uso en humanos está limitadísimo por los riesgos que supone su potente capacidad inmunodepresora. Los resultados de Withers et al. indican que el tener como diana a la S6K1 directamente puede evitar estos efectos secundarios, con similares efectos. El nuevo estudio también señala a otra proteína del proceso bioquímico de transmisión de señales de la TOR, la AMPK (proteincinasa activada por AMP), aún más aguas abajo que la S6K1, como una diana terapéutica potencial clave. El papel de la AMPK es extremadamente ilusionante ya que es activada por la metformina [en la imagen], un conocido fármaco para el tratamiento de la diabetes tipo 2. Esto significaría que sería posible en los próximos años diseñar ensayos clínicos para comprobar la capacidad de la metformina para prevenir las enfermedades relacionadas con la edad. Por favor, tenga en cuenta que esto es sólo un primer resultado de la investigación con ratones. NO SE AUTOMEDIQUE. Consulte a su médico. Referencia: Selman, C., Tullet, J., Wieser, D., Irvine, E., Lingard, S., Choudhury, A., Claret, M., Al-Qassab, H., Carmignac, D., Ramadani, F., Woods, A., Robinson, I., Schuster, E., Batterham, R., Kozma, S., Thomas, G., Carling, D., Okkenhaug, K., Thornton, J., Partridge, L., Gems, D., & Withers, D. (2009). Ribosomal Protein S6 Kinase 1 Signaling Regulates Mammalian Life Span Science, 326 (5949), 140-144 DOI: 10.1126/science.1177221

... Read more »

Selman, C., Tullet, J., Wieser, D., Irvine, E., Lingard, S., Choudhury, A., Claret, M., Al-Qassab, H., Carmignac, D., Ramadani, F.... (2009) Ribosomal Protein S6 Kinase 1 Signaling Regulates Mammalian Life Span. Science, 326(5949), 140-144. DOI: 10.1126/science.1177221  

  • June 20, 2010
  • 11:54 AM
  • 538 views

Einstein y...el movimiento browniano.

by César Tomé López in Experientia docet

El mismo año en el que Einstein publicó la teoría especial de la relatividad, también publicó un artículo igualmente revolucionario sobre los movimientos aleatorios de las moléculas, algo habitualmente conocido como movimiento browniano. El movimiento de una partícula en un líquido es algo mucho menos sexy que los movimientos en el espaciotiempo o la afirmación de que la masa es una forma de energía o que la luz está constituida por partículas, por lo que la explicación de Einstein del movimiento browniano ha sido completamente eclipsada por sus otras teorías. Sin embargo, si Einstein sólo hubiese publicado el por qué las partículas se mueven como lo hacen, habría merecido el premio Nobel por ello. En 1827 Robert Brown estudió el movimiento de los granos de polen en un líquido usando un microscopio. Descubrió que se movían al azar y sin nada aparentemente que les hiciese moverse. Antes ya había habido observaciones de este movimiento (entre ellas las realizadas por Jan Ingenhousz en 1785), pero nadie lo había estudiado de forma tan amplia, probando que los granos no se movían porque estuviesen vivos, y que partículas de vidrio o de granito exhibían el mismo comportamiento. Hoy, la idea de que las partículas intercambien el sitio con las moléculas en un líquido y, como consecuencia, se mueven al azar no parece tan extraña. Ello se debe a que estamos familiarizados con las ideas de molécula y átomo, pero en la época de Brown los científicos desconocían su existencia. En los años en los que Einstein comenzó a estudiar ciencia, la física y la química, en ese momento campos con relativamente poco en común, habían comenzado a incorporar la idea de átomo en sus teorías, pero había una gran división entre los científicos sobre si realmente existían. Quizás, pensaban algunos, los átomos y las moléculas eran simplemente una forma matemáticamente conveniente de describir ciertos fenómenos, pero no eran una representación verdadera de la realidad. Einstein tenía muy claro que los átomos existían. Tanto es así que muchos de sus primeros trabajos de investigación asumían que la materia podía dividirse en partículas discretas. Hizo su tesis doctoral “Una nueva determinación de las dimensiones moleculares” sobre cómo determinar el tamaño de las moléculas midiendo su movimiento browniano en un líquido. Una versión de esta tesis se publicó en Annalen der Physik en abril de 1905, y es uno de los primeros artículos en mostrar de forma definitiva que las moléculas no son artificios matemáticos, sino entes reales. Once días más tarde, Einstein publicó un artículo sobre el movimiento browniano mismo. El artículo se titulaba “Sobre el movimiento de pequeñas partículas suspendidas en líquidos en reposo requerido por la teoría cinético-molecular del calor”, por lo que no indicaba que se tratase del movimiento browniano. Simplemente decía en su párrafo de apertura que iba a describir el movimiento de las moléculas suspendidas en un líquido, y que quizás este fenómeno era idéntico a un fenómeno químico del que había oído hablar, el movimiento browniano. Desde ese punto de partida, continuó demostrando que podía usar las teorías del calor en vigor para describir cómo el calor, incluso a temperatura ambiente, provocaría que las moléculas del líquido estuviesen en continuo movimiento. Este movimiento haría a su vez que cualquier partícula suspendida en el líquido resultase empujada. Einstein acababa de ofrecer la primera explicación del movimiento browniano (Marian Smoluchowski llegaría a un resultado similar en 1906 de forma independiente). A continuación Einstein daba una descripción matemática de cómo se moverían las partículas en el seno del líquido. Usó el análisis estadístico para calcular el camino promedio de dichas partículas. Si bien el movimiento de la partícula sería al azar, desplazándose brevemente a la izquierda para hacerlo después hacia la derecha, Einstein demostró que se podía determinar una dirección básica para el movimiento. Es análogo al movimiento de un borracho, que va para allá y después para acá, tropieza con el banco, cruza la calle tres veces, se abraza a la farola, pero en términos generales se dirige hacia su casa. Una observación del borracho permite determinar la zona hacia la que se dirige y hacer predicciones sobre el tiempo que tardará en llegar incluso sin saber exactamente con cuantos objetos tropezará durante el trayecto. Se puede obviar el azar a corto plazo para hacer predicciones acerca de lo que sucederá a largo. El artículo de Einstein ofrecía una explicación del movimiento browniano, pero fueron otros científicos los que llevaron a cabo los experimentos que demostraron que las moléculas existían realmente, y que era la transmisión de calor la que causaba su movimiento en un líquido. En 1908, Jean Baptiste Perrin estudió la forma en la que las partículas sedimentan en el agua por la influencia de la gravedad. La sedimentación encuentra la oposición de los choques de las moléculas desde abajo, por lo que el movimiento browniano se opone a la atracción gravitatoria. Perrin usó este descubrimiento para calcular el tamaño de las moléculas de agua basándose en las ecuaciones de Einstein. Por este trabajo recibió el premio Nobel de física en 1926. Toda esta investigación sobre el movimiento browniano resolvió el problema que enfrentaba a físicos y químicos sobre si la materia era fundamentalmente continua o estaba constituida por partículas. Con su tesis doctoral, su trabajo sobre el movimiento browniano, y su artículo sobre el efecto fotoeléctrico, Einstein fue crucial para la creciente aceptación de la existencia de átomos y moléculas. Y, sin embargo, Einstein no volvería a trabajar con nada relacionado directamente con moléculas en el resto de su carrera científica. Referencia: Einstein, A. Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. AdP 17, 549 (1905) Annalen der Physik, 14 (S1), 182-193 DOI: ... Read more »

  • May 4, 2010
  • 03:49 PM
  • 537 views

El cerebro usa estructuras primitivas para interpretar el lenguaje.

by César Tomé López in Experientia docet

Un estudio publicado en los Proceedings of the National Academy of Sciences viene a cofirmar algo que se sospechaba desde hace tiempo: no existe ningún área avanzada en el cerebro humano para el procesamiento del lenguaje. Es decir, no existe ninguna zona en el cerebro humano, que se use para la interpretación del lenguaje, distinta de las que ya están presentes en otras especies. El equipo de investigadores, de la Universidad de Rochester (EE.UU.), afirma en el artículo que los humanos usamos distintas regiones cerebrales, cada una de ellas evolutivamente preparada para realizar una tarea primitiva, para encontrar el sentido de una frase. La hipótesis que el equipo quería comprobar era, muy simplificada, la siguiente: si existiese un área especial para el procesamiento del lenguaje, aquel debería activarse independientemente de la gramática de la lengua que se perciba. Si, por el contrario, no existe un área específica, dependiendo del tipo de gramática que se use para formar una frase, el cerebro activará un determinado conjunto de regiones para procesarla, de la misma manera que un mecánico no usa las mismas herramientas para desmontar un radiador que para cambiar una rueda. Para que el experimento fuese realmente fiable lo único que debería cambiar debería ser la gramática, siendo todo lo demás igual. ¿Qué lenguas usar entonces? La lengua ideal no resulta ser una lengua verbal, sino la de signos americana. Para entender la elección es necesario diferenciar, siquiera groseramente, entre dos tipos de gramática. Algunas lenguas, como el inglés, se basan en el orden de las palabras en una frase para deducir las relaciones entre los elementos de la misma. Cuando un hablante inglés oye la frase “Molly sees Rob”, es evidente por el orden de palabras que Sally es el sujeto que realiza la acción del verbo y Rob es el objeto de dicha acción y no al contrario. En alemán (o en latín), por otro lado, la función gramatical de una palabra en una frase depende de su flexión, es decir, de cómo está declinada (qué sufijo se le ha añadido), por lo que el orden puede ser alterado sin cambio de significado. La lengua de signos americana (ASL, por sus siglas en inglés) tiene la característica de que las relaciones sujeto-objeto pueden ser expresadas de las dos maneras: usando el orden de las palabras o la flexión. En lengua de signos esto quiere decir que, o bien se realizan los signos de “Molly”, “sees” y “Rob" en ese orden, o el comunicante puede usar variaciones físicas (movimiento de las manos en el espacio, realización de los signos a un lado del cuerpo) para establecer el sentido de la frase. Para este estudio, los investigadores construyeron 24 frases y expresaron cada una de esas frases usando ambos métodos. Los videos de las frases expresadas en lengua de signos fueron proyectados ante sujetos, para los que la ASL es su forma de comunicación primaria, mientras se les tomaban imágenes por resonancia magnética funcional (fMRI) de su cerebro. Los dos tipos de frases activaron una red de regiones cerebrales coincidente, pero con diferentes patrones de actividad. Las frases de orden de palabras activaron áreas del hemisferio izquierdo implicadas en la memoria de trabajo y el acceso al léxico, entre ellas el córtex prefrontal dorsolateral. Por otro lado, las frases que usaban la flexión activaban los áreas que participan en construir y analizar la estructura combinatoria (esto es, dividir la información en las partes que la constituyen) en ambos hemisferios, como la región frontal inferior bilateral y los ganglios basales. Estos resultados sugieren que, para una función lingüística dada, la activación de una estructura neuronal podría depender de los recursos cognitivos específicamente requeridos para procesar características lingüísticas concretas. Dicho de otra forma, el cerebro rentabiliza estructuras preexistentes para interpretar el lenguaje. Referencia: Newman, A., Supalla, T., Hauser, P., Newport, E., & Bavelier, D. (2010). Dissociating neural subsystems for grammar by contrasting word order and inflection Proceedings of the National Academy of Sciences, 107 (16), 7539-7544 DOI: 10.1073/pnas.1003174107La imagen "Deaf Clubs" es cortesía de Caseykins.

... Read more »

Newman, A., Supalla, T., Hauser, P., Newport, E., & Bavelier, D. (2010) Dissociating neural subsystems for grammar by contrasting word order and inflection. Proceedings of the National Academy of Sciences, 107(16), 7539-7544. DOI: 10.1073/pnas.1003174107  

  • November 25, 2009
  • 11:58 AM
  • 534 views

Terremoto en la investigación del Alzheimer: la beta amiloide es esencial para el cerebro.

by César Tomé López in Experientia docet

La enfermedad de Alzheimer está causada, aparentemente, por la acumulación de placas de una proteína llamada beta amiloide [en la imagen, en azul], por lo que la eliminación de esta proteína se ha convertido en el objetivo de casi toda la investigación que busca una cura para esta enfermedad. Pero, y este es un gran pero, según los resultados que publica en Nature neuroscience el equipo de Inna Slutsky de la Universidad de Tel Aviv (Israel) la beta amiloide es esencial para el correcto funcionamiento del cerebro.Según el estudio, la proteína, producto del metabolismo normal de la célula, es esencial para la transmisión de información entre las neuronas. Si se eliminase del cerebro, como muchos fármacos en desarrollo pretenden hacer, podría causar problemas en la capacidad de aprendizaje y memorización, así como una mayor y más rápida acumulación de placas en la enfermedad de Alzheimer. Por otra parte el estudio de Slutsky et ál. también supone un salto hacia delante en la comprensión de la causa y desarrollo de la enfermedad, por lo que abre otras vías de investigación para nuevos fármacos más efectivos. El equipo de Slutsky se centró en el estudio de tomos cerebrales de ratones sanos y en redes neuronales in vitro, también de ratones. Los investigadores pudieron determinar que había una cantidad óptima de beta amiloide necesaria para mantener las neuronas funcionando correctamente. Si este equilibrio se veía perturbado, siquiera ligeramente, la efectividad de la transferencia de información entre las neuronas se veía enormemente disminuida. Por otra parte, el estudio sugiere que la proteína beta amiloide pertenecería a un grupo de moléculas endógenas que regulan la transmisión sináptica normal en el hipocampo, una región del cerebro que participa en las funciones memorísticas y de aprendizaje. La regulación es dependiente de la actividad de la neurona y actúa sobre la liberación de las vesículas de neurotransmisores. Tras la aparición de beta amiloide extracelular la actividad sináptica se incrementa a través de un ciclo de retroalimentación positiva. La interrupción de dicho ciclo, que aparecería con los primeros síntomas del Alzheimer, podría ser la clave para una posible intervención terapéutica. Cuando una puerta se cierra, se abre una ventana. En cualquier caso, esperemos confirmaciones antes de tirar todo a la basura y empezar de nuevo. Referencia: Abramov, E., Dolev, I., Fogel, H., Ciccotosto, G., Ruff, E., & Slutsky, I. (2009). Amyloid-β as a positive endogenous regulator of release probability at hippocampal synapses Nature Neuroscience, 12 (12), 1567-1576 DOI: 10.1038/nn.2433

... Read more »

Abramov, E., Dolev, I., Fogel, H., Ciccotosto, G., Ruff, E., & Slutsky, I. (2009) Amyloid-β as a positive endogenous regulator of release probability at hippocampal synapses. Nature Neuroscience, 12(12), 1567-1576. DOI: 10.1038/nn.2433  

  • December 10, 2009
  • 04:58 PM
  • 533 views

Síntesis estructural y funcional de una metaloproteína.

by César Tomé López in Experientia docet

Un equipo de investigadores dirigido por Yi Lu, de la Universidad de Illinois en Urbana-Champaign, ha diseñado una proteína sintética que es un modelo tanto funcional como estructural de una proteína natural, la enzima óxido nítrico reductasa (NOR). El logro se publica en Nature. Es muy difícil estudiar una molécula biológica tan compleja como la NOR si ésta no es soluble en agua. Cualquier ensayo debe realizarse en un medio graso, por tanto orgánico, que influirá en las reacciones que se estén estudiando. La NOR es una proteína de membrana (celular) y, por tanto, es liposoluble (no hidrosoluble). Tener un modelo de la proteína que es reflejo estructural y funcional de ella es tremendamente interesante. Sintetizar una proteína no es nada fácil. Sintetizar una proteína que contenga átomos metálicos en su estructura es mucho más difícil debido a la variabilidad en estados de oxidación y geometrías que presentan los átomos metálicos. La NOR es una metaloproteína, contiene hierro al igual que la hemoglobina de la sangre. Para imitar la estructura [en la imagen] y función de la NOR, los investigadores partieron de una pequeña proteína muscular, la mioglobina. Aunque es más pequeña que la NOR y soluble en agua, la mioglobina puede reproducir características claves de la NOR. Basándose en estos cimientos, los investigadores crearon un nuevo lugar para el enlace del hierro consistente en tres histidinas y un glutamato. Aparte de su papel estructural, las histidinas y el glutamato pueden proporcionar los protones (H+) necesarios para la reducción del óxido nítrico en el sitio activo. ¿Qué importancia puede tener que se sintetice una proteína? Mucha. Empezando por el final, esta proteína sintética es un excelente modelo para crear biocatalizadores para uso biotecnológico, medioambiental y farmacéutico. Desde un punto de vista más básico, más fundamental, las posibilidades de estudio de la NOR que aportará este nuevo modelo permitirán conocer mejor el ciclo del óxido nítrico (NO) en los mamíferos, y las patologías asociadas. Este ciclo es crítico para la vida. El NO es un importante regulador y mediador en numerosos procesos en los sistemas cardiovascular, nervioso e inmune. Así, participa en la relajación de los músculos lisos lo que resulta en la vasodilatación de las arterias e incremento del flujo sanguíneo (es crítico en el mantenimiento de la erección). En el sistema nervioso actúa como neurotransmisor, capaz de introducirse en las neuronas sin necesidad de sinapsis, pudiendo activar un grupo local de neuronas rápidamente. El NO es citotóxico para los microbios y las células tumorales, por lo que los macrófagos lo usan como arma de defensa en el sistema inmunitario. Por otra parte, el NO está implicado en los choques sépticos, la hipertensión, los infartos o las enfermedades neurodegenerativas.Referencia: Yeung N, Lin YW, Gao YG, Zhao X, Russell BS, Lei L, Miner KD, Robinson H, & Lu Y (2009). Rational design of a structural and functional nitric oxide reductase. Nature PMID: 19940850

... Read more »

Yeung N, Lin YW, Gao YG, Zhao X, Russell BS, Lei L, Miner KD, Robinson H, & Lu Y. (2009) Rational design of a structural and functional nitric oxide reductase. Nature. PMID: 19940850  

  • July 9, 2010
  • 03:28 PM
  • 533 views

Carbono: de tetraedro a plano.

by César Tomé López in Experientia docet

Cualquiera que haya estudiado un poco de química sabe que si un átomo de carbono en una molécula está unido a cuatro átomos diferentes, es decir, no tiene ningún doble ni triple enlace, estos cuatro enlaces se forman a lo largo de los segmentos que van del centro de un tetraedro (ocupado por el carbono) a los vértices, ocupados por los ligandos. Es lo que se llama estructura tetraédrica. Ahora investigadores de la Universidad de Nottingham (Reino Unido) informan en Angewandte Chemie que han conseguido sintetizar una molécula con un carbono enlazado a cuatro átomos distintos, dos litios y dos ligandos orgánicos, con una estructura prácticamente plana (todos los enlaces están en el mismo plano). En química orgánica, como decíamos arriba, los átomos de carbono enlazados a cuatro grupos orgánicos son casi invariablemente tetraédricos, a no ser que se les fuerce estéricamente (una forma de decir que se les empuja) a que adopten otras formas. El equipo, encabezado por Stephen Liddle, consiguió estabilizar la estructura plana cambiando dos grupos orgánicos por litio La idea de usar metales alcalinos (el litio es uno) para estabilizar la configuración plana no es nueva. Fue Paul von Schleyer, actualmente en la Universidad de Georgia (EE.UU.), el que demostró teóricamente que esto era posible en los años 70 del siglo pasado. Desde entonces varios grupos han conseguido moléculas con carbonos tetracoordinados planos, pero siempre con los átomos de litio (en rojo) dispuestos en cis (contiguos) y las moléculas agregándose para formar dímeros, lo que hace que el enlace no se pueda determinar concluyentemente. El compuesto que han conseguido ahora es claramente monomérico, según se ha establecido por difracción de rayos-X, con lo que no hay dudas de a qué átomo de carbono pertenece cada átomo de litio. Por otra parte en esta molécula los litios están en disposición trans (a lados opuestos del carbono central). Los ligandos orgánicos son moléculas de tetrametiletilendiamina unidas a un átomo de fósforo (en púrpura) que es el que se une al carbono (en negro). El nitrógeno de la amina (en azul) ayuda a bloquear la estructura. Hemos de hacer notar, siendo muy estrictos, que la estructura no es cien por cien plana, y de que ha sido necesario hacer modelizaciones por ordenador para estar seguros de que ambos litios estén enlazados a la vez al carbono. Y, ¿cuál es la aplicación de este hallazgo? A priori ninguna más allá de la expansión del conocimiento. Es el tipo de cosas que se hacen porque alguien dijo que no podían hacerse y otro dijo que a lo mejor sí. La situación es parecida a las matemáticas y la física. Alguien desarrolla toda una teoría matemática, Ricci-Curbastro los tensores por ejemplo, sin tener en mente una aplicación física o de cualquier otra índole; entonces llega otro alguien, un científico, en este ejemplo Einstein, y decide que esa teoría que no servía para nada le puede ser útil para explicar la relatividad general. Las necesidades farmacéuticas, químico industriales, biotecnológicas o de cualquier otro tipo pueden que encuentre un uso de este logro dentro de algún tiempo. De momento nos quedamos con un rotundo “se puede hacer y sabemos como hacerlo”.Referencia: Cooper OJ, Wooles AJ, McMaster J, Lewis W, Blake AJ, & Liddle ST (2010). A Monomeric Dilithio Methandiide with a Distorted trans-Planar Four-Coordinate Carbon. Angewandte Chemie (International ed. in English) PMID: 20589822

... Read more »

Cooper OJ, Wooles AJ, McMaster J, Lewis W, Blake AJ, & Liddle ST. (2010) A Monomeric Dilithio Methandiide with a Distorted trans-Planar Four-Coordinate Carbon. Angewandte Chemie (International ed. in English). PMID: 20589822  

  • September 15, 2009
  • 06:13 AM
  • 532 views

Pruebas de metacognición consciente en animales no humanos.

by César Tomé López in Experientia docet

En una revisión publicada en Trends in Cognitive Sciences, J. David Smith, de la Universidad del Estado de Nueva York en Buffalo, afirma que cada vez hay más pruebas de que algunas especies animales presentan metacognición consciente, es decir, pueden, al igual que los humanos, monitorizar, regular y reflexionar sobre sus estados mentales. Entre estas especies estarían los delfines y los macacos [en la imagen]. Smith repasa los experimentos llevados a cabo con delfines, palomas, ratas, monos y primates usando modelos de percepción, memoria u ocultación de comida, para llegar a afirmar que cada vez existen más pruebas de la existencia de formas de pensamiento paralelas a la consciencia y a la autoconciencia cognitiva humanas, si bien no se ha confirmado aún la existencia de un paralelo experiencial completo. La metacognición, también llamada teoría de la mente, es una capacidad humana compleja ligada a varios aspectos psicológicos. Por una parte a la estructura jerárquica de la mente, dado que los procesos de control ejecutivo metacognitivos supervisan la cognición de menor nivel. La metacognición también está unida a la consciencia de sí mismo, la incertidumbre y la duda, por ejemplo, son estados personales y subjetivos. Y, por último, a la consciencia declarativa, ya que los humanos son conscientes de sus estados de conocimiento y pueden “declararlos” a los demás. En los aspectos biológicos existe una continuidad entre las distintas especies, incluida la humana. Si se considera a la psicología como una rama de la biología, como lo hace la psicología evolutiva, se entiende que sea un objetivo fundamental de la psicología comparada establecer firmemente si los animales no humanos comparten la capacidad metacognitiva humana. Si esto es así, esta capacidad podría estar apoyada en su consciencia y la consciencia de sí mismos. En esta búsqueda de continuidades o discontinuidades, la metacognición se une al estudio del uso de herramientas o del lenguaje. En su revisión del estado de la cuestión, Smith se detiene en algunos estudios sobresalientes, como el del delfín Natua. Cuando no estaba seguro, el delfín dudaba claramente y titubeaba entre las opciones ofrecidas (recordemos que la incertidumbre es un estado personal y subjetivo); cuando, por el contrario, estaba seguro nadaba hacia la respuesta elegida a toda velocidad. En abierto contraste con el comportamiento de los delfines, las palomas de varios estudios no han expresado ninguna capacidad para la metacognición. Asimismo los monos capuchinos, en varios estudios, tampoco expresan muchos atisbos de metacognición. Este último resultado invita a una reflexión y suscita muchas preguntas importantes sobre la emergencia filogenética de la mente reflexiva en el orden primates.Referencia: Smith, J. (2009). The study of animal metacognition Trends in Cognitive Sciences, 13 (9), 389-396 DOI: 10.1016/j.tics.2009.06.009

... Read more »

Smith, J. (2009) The study of animal metacognition. Trends in Cognitive Sciences, 13(9), 389-396. DOI: 10.1016/j.tics.2009.06.009  

  • October 15, 2009
  • 02:02 PM
  • 530 views

De cómo cambia el cerebro cuando se aprende a leer.

by César Tomé López in Experientia docet

Un estudio publicado en Nature por un equipo internacional dirigido por Manuel Carreiras de la Universidad de la Laguna (España) pone de manifiesto por primera vez qué cambia en el cerebro cuando se aprende a leer. El lenguaje hablado es una capacidad característica de los humanos que evolucionó en algún momento de los seis millones de años que han transcurrido desde que nos separamos evolutivamente de los chimpancés. Incluso sin que se les enseñe, o sin tener adultos a los que imitar, los niños desarrollan sistemas lingüísticos sofisticados. Por el contrario, leer es una habilidad aprendida que no se aprehende sin una enseñanza y una práctica intensivas. Comprender cómo cambia el cerebro cuando se aprende a leer no es tarea fácil. La mayor parte de las personas aprende a leer siendo niños, a la vez que aprende muchas otras habilidades. Separar esos cambios causados por la lectura de los causados por el aprendizaje de las habilidades sociales, o de cómo jugar al fútbol, es casi imposible. El estudio de los que aprenden de adultos también es complicado porque en la mayor parte de las sociedades cultas el analfabetismo total adulto es resultado de dificultades de aprendizaje o de problemas de salud. Es fácilmente comprensible, pues, que el equipo aprovechase una oportunidad única: grupos de guerrilleros colombianos que, como parte de su programa de reintegración a la sociedad, asistieron a cursos de alfabetización, algunos para aprender a leer por primera vez en su vida. Los investigadores examinaron imágenes de escáneres por resonancia magnética (MRI, por sus siglas en inglés) de los cerebros de 20 guerrilleros que habían completado un programa de alfabetización de adultos en español. Compararon estas imágenes con los de otros 22 guerrilleros adultos, similares en edad y capacidades mentales, antes de comenzar el mismo programa de alfabetización. Los resultados muestran que en aquellos participantes que habían aprendido a leer, la densidad de la materia gris (donde se hace el “procesamiento”) era mayor en cinco áreas del cerebro. Estas áreas son responsables de reconocer las formas de las letras y de traducir las letras en los sonidos del discurso y su significado. La lectura también incrementó la fuerza de las conexiones de la materia blanca entre las distintas regiones de procesamiento. Usando una técnica llamada imágenes por tensor de difusión (una variante de la MRI de difusión) que mide las conexiones entre las diferentes partes del cerebro, el equipo de Carreiras demuestra que las áreas de materia gris a ambos lados del cerebro (especialmente el giro angular y el giro dorsal occipital) están unidas entre sí a través del esplenio (la parte posterior del cuerpo calloso) [arriba, imagen por tensor de difusión del esplenio]. El aprender a leer implica reforzar estas conexiones. Los investigadores llegaron a esta conclusión tras comparar la actividad cerebral de 20 adultos (que sabían leer) cuando leían nombres de varios objetos y cuando nombraban cosas a partir de fotografías. El estudio mostró que leer, comparado con simplemente nombrar, implicaba conexiones más fuertes entre las cinco áreas de materia gris identificadas previamente, particularmente el giro dorsal occipital (implicado en el procesamiento de imágenes) y el giro supramarginal (implicado en el procesamiento de los sonidos) Las conexiones que parten y llegan al giro angular demostraron ser especialmente importantes. Desde hace más de 150 años se sabe que esta región del cerebro es importante para la lectura, pero esta investigación muestra que su papel era distinto del que se creía. Anteriormente, se pensaba que el giro angular reconocía las formas de las palabras antes de encontrar sus sonidos y significados. El equipo de Carreiras ha demostrado que el giro angular no está implicado en traducir las palabras escritas en sus sonidos y significados. En vez de eso, apoyaría este proceso suministrando predicciones de lo que el cerebro espera ver. Estos hallazgos es probable que resulten útiles para los investigadores que tratan de entender la dislexia. Varios estudios de la dislexia indican que existen zonas con materias gris y blanca reducidas y estas zonas están localizadas en regiones que crecen tras aprender a leer. Este estudio sugiere, por tanto, que algunas de las diferencias vistas en la dislexia podrían ser una consecuencia de dificultades lectoras más que la causa. Referencia: Carreiras, M., Seghier, M., Baquero, S., Estévez, A., Lozano, A., Devlin, J., & Price, C. (2009). An anatomical signature for literacy Nature, 461 (7266), 983-986 DOI: 10.1038/nature08461

... Read more »

Carreiras, M., Seghier, M., Baquero, S., Estévez, A., Lozano, A., Devlin, J., & Price, C. (2009) An anatomical signature for literacy. Nature, 461(7266), 983-986. DOI: 10.1038/nature08461  

  • August 16, 2009
  • 06:23 AM
  • 528 views

Einstein y el experimento de Michelson-Morley

by César Tomé López in Experientia docet

Llevado a cabo en 1887, el experimento de Michelson-Morley se considera el trabajo definitivo que terminó eliminando la creencia decimonónica de que las ondas luminosas viajaban a través de un medio llamado éter. La historia estándar que se cuenta es que una vez que el experimento de Michelson-Morley probó que el éter era falso, todo el mundo supo que había una crisis, a la que puso fin Einstein cuando intervino resueltamente para resolver el problema con la teoría especial de la relatividad en 1905. Pero esta es una versión demasiado simplificada de lo que realmente ocurrió... Albert Abraham Michelson comenzó a trabajar en la búsqueda del éter cuando era un joven estudiante en Berlín con permiso de la Marina de los Estados Unidos. Más tarde, cuando se convirtió en profesor de física en el Colegio Case de Ciencia Aplicada de Cleveland, formó equipo con Edward Williams Morley, un químico también estadounidense que trabajaba en la cercana Universidad Western Reserve. Morley tenía fama de gran experimentador, y a Michelson le atraía el reto de crear un experimento meticuloso para medir la velocidad de la Tierra a través del éter que se suponía que llenaba el espacio. Las mediciones tenían que ser tan precisas que muchos dijeron que no podían hacerse. (Más tarde Michelson le diría a Einstein que había empleado tanta energía para conseguir la precisión necesaria simplemente porque era “divertido”). James Clerk Maxwell fue el primero en describir la luz como una onda electromagnética. En esa época, los físicos comprendían las ondas bastante bien. Las ondas del sonido, por ejemplo, se crean cuando un objeto que vibra comprime y descomprime alternativamente el medio que le rodea. En el aire, paquetes de aire más y menos densos viajan al oído y son interpretados por el cerebro. Las ondas en el agua tienen crestas y valles en vez de diferencias de densidad. Pero tanto el agua como el aire son medios necesarios para la propagación del sonido. Maxwell creía que la luz igualmente debía emplear un medio, una misteriosa sustancia llamada éter. Según la teoría, el éter estaría en reposo con respecto a un espacio absoluto del universo, y la Tierra, naturalmente, viajaría por él. Maxwell propuso que, por lo tanto, debería existir un “viento de éter” de algún tipo, que soplaría en la cara de un observador que mirase en el sentido del movimiento de la Tierra, y en su espalda si miraba en sentido contrario. Cabría esperar entonces que la luz viajase a diferentes velocidades dependiendo de la dirección en la que se moviese a través del éter, parecido a una persona que se mueve más fácilmente con el viento a favor que en contra. La idea de que la luz se pude mover con velocidades diferentes, en un mismo medio en idénticas condiciones, dependiendo sólo de la dirección de propagación, está en el corazón mismo del experimento de Michelson-Morley. Y esta es la idea que Einstein terminaría haciendo desaparecer. El experimento que se cita oficialmente como el experimento de Michelson-Morley tuvo lugar en 1887 [1] y utilizaba un diseño bastante innovador que se basaba en una técnica desarrollada por Michelson, la interferometría (Michelson recibiría el premio Nobel de física en 1907 por sus instrumentos ópticos de precisión y las mediciones realizadas con ellos). La interferometría depende del hecho de que cuando dos ondas se cruzan forman patrones muy concretos. Un experimento de interferometría comienza dividiendo un haz de luz, haciendo después que cada uno de los dos nuevos rayos viajen caminos distintos, para luego unirlos en una pantalla. Analizando los patrones resultantes se puede obtener información sobre la velocidad y la distancia recorrida por la luz. Michelson ya había usado la interferometría tanto para conseguir la medición más precisa hasta la fecha de la velocidad de la luz como para determinar la longitud oficial del metro para la Oficina Nacional de Estándares de los Estados Unidos. Para su experimento, Michelson y Morley hicieron que dos rayos de luz viajasen en ángulo recto uno del otro: uno viajaba en la misma dirección que el éter y el otro la cruzaba. Imaginemos dos personas nadando en un río, una va corriente arriba y luego a favor de corriente, mientras que la otra nada directamente a un punto al otro lado del río y vuelta. Ambos nadadores se tienen que enfrentar a la corriente pero de forma diferente y, consecuentemente, el tiempo que emplean para recorrer exactamente la misma distancia será diferente. Si la Tierra viaja a través del éter, el éter crea una corriente (como un río), y un rayo de luz que viaje en contra y luego a favor debería tardar menos en recorrer una distancia determinada que otro que la atraviese en ángulo recto. Esta era la hipótesis que Michelson y Morley intentaban confirmar con su experimento. El experimento estaba muy bien diseñado, pero por mucho que repitieron la medición, ambos rayos empleaban la misma cantidad de tiempo en sus viajes. La pareja comprobó y recomprobó el dispositivo experimental y repitieron las mediciones varias veces después de cada comprobación, siempre con el mismo resultado. El dispositivo, que se encontraba en un sótano con paredes de ladrillo [en la imagen], estaba instalado sobre un bloque de mármol que flotaba sobre una balsa de mercurio, lo que permitía girarlo para estudiar todos los ángulos posibles con respecto al “viento de éter”; ningún ángulo probado dio un resultado diferente. La reputación enorme de la que gozaban Michelson y Morley en la comunidad científica hizo que los físicos más famosos de la época aceptaran como válido un resultado tan inesperado. Claramente, había un problema con la teoría del éter. Sin embargo, el concepto del éter, no fue completamente descartado en ese momento. El consenso era que la hipótesis no estaba completa. El mismo Michelson repitió el experimento en numerosas ocasiones a lo largo de su vida, cambiando incluso la localización del dispositivo (lo llevó a lo alto de una montaña) para ver si había variaciones en la intensidad del presunto “viento de éter” que permitiesen detectar diferencias en las mediciones. Aunque había físicos que conocían el trabajo de Michelson y Morley, y sabían que sus resultados debían incorporarse a una nueva teoría de la luz, no está claro que Einstein, el que finalmente proporcionó esa teoría, tuviese conocimiento de él. Su artículo sobre la relatividad especial está claro que no hace referencia a los resultados del experimento, si bien es cierto que este artículo no hace referencia a casi nada ya que lo que se proponía era tan novedoso que Einstein podía afirmar que no se basaba en el trabajo de nadie (aunque a lo mejor Poincaré pensase otra cosa). Años más tarde Einstein se contradiría a sí mismo sobre el asunto de si conocía el experimento de Michelson-Morley. Dijo muchas veces que no tenía noticias de él y, de hecho, no lo menciona en sus Notas autobiográficas en las que describe cómo desarrolló sus teorías. Ya mayor afirmó, sin embargo, que la primera referencia del experimento la obtuvo del estudio del trabajo de Lorentz en 1895, y en algunas de sus primeras cartas (1899) que se conservan discute un artículo de Wien que contiene una referencia al experimento. Independientemente de si Einstein conocía el mismo experimento de Michelson-Morley, lo que si parece claro es que desarrolló su teoría de la relatividad especial creyendo firmemente que el éter no existía. Esta convicción no fue apriorística. La lectura de otros grandes científicos de su época, muchos de los cuales ciertamente conocían el experimento, habría influido con toda seguridad en las convicciones de Einstein. Después de la publicación por parte de Einstein de la teoría especial de la relatividad, Einstein tuvo conocimiento fehaciente del trabajo de Michelson y Morley (ver [2]) y, de hecho, estuvo en contacto con Michelson. Poco antes de su fallecimiento, en 1931, Michelson asistió a una cena en honor a Einstein en California. En su discurso Einstein dijo: “Usted, honorable Dr. Michelson, comenzó este trabajo cuando yo era un jovenzuelo que no levantaba 1 metro... Read more »

Michelson,AA, & Morley,EW. (1887) On the Relative Motion of the Earth and the Luminiferous Ether. The American Journal of Science, 34(203), 833-845. info:/

  • June 28, 2010
  • 06:36 PM
  • 528 views

Una nueva teoría del envejecimiento: los retrovirus integrados en el genoma como reloj endógeno.

by César Tomé López in Experientia docet

Mientras que la mayoría de las teorías del envejecimiento hacen hincapié en los efectos del estrés, la radiación, la oxidación o la ingesta calórica como los factores principales que controlan la duración de la vida debido a que dañan el ADN, una nueva teoría afirma que el factor determinante viene incorporado al ADN desde el origen. Los autores de la Universidad George Washington (EE.UU.) publican en Mechanisms of Ageing and Development que los posibles responsables de marcar nuestro fin son retrovirus arcaicos (muy parecidos al HIV) presentes en el ADN. La edad avanzada sigue siendo el principal factor de riesgo para muchas enfermedades graves: cardiovasculares, derrames cerebrales y cáncer. Los mecanismos por los que la edad avanzada predispone a la enfermedad están comenzando a comprenderse debido, en parte, a las manipulaciones ambientales y genéticas de organismos modelo. Las datos sugieren que el daño al ADN podría ser la parte final común a varios de los mecanismos de envejecimiento propuestos. Esta nueva teoría supone que hay un mecanismo adicional que implica la existencia de una inestabilidad genética inherente al propio ADN. Los LINE (Long Interspersed Nuclear Elements, elementos nucleares dispersos largos), constituyen el 20% del genoma humano. Son, ahora lo explicamos, retrotransposones no-LTR (Long Terminal Repeat). Un retrotransposón es un transposón, una secuencia de ADN que puede moverse autosuficientemente a diferentes partes del genoma de la célula, que emplea ARN como intermediario en este desplazamiento. Los LTR son secuencias de nucleótidos que se encuentran en los extremos de elementos retrovirales que están integrados en el genoma de la célula. Por tanto, un LINE es una secuencia de ADN que se puede mover a distintos sitios del genoma pero que no es parte de los extremos de un retrovirus integrado en el genoma. Pues bien, la familia de mayor importancia cuantitativa es LINE-1 o L1 que es una secuencia de 6 kilobases repetida unas 800.000 veces de modo disperso por todo el genoma. Dos de los productos de L1 son las proteínas ORF1p y ORF2p. Un ORF (Open Reading Frame), un marco abierto de lectura, en la imagen, es cada una de las secuencias de ADN comprendida entre un codón de inicio(Start) de la traducción y un codón de terminación (Stop). Estas proteínas son capaces de unirse al ARN y tienen una actividad que permite la retrotransposición. Aunque son principalmente activas sólo durante la embriogénesis, estas transcripciones de L1 se detectan en las células somáticas adultas en ciertas condiciones. Lo que los autores plantean es que estos productos de la L1 funcionarían como un “reloj endógeno”, erosionando lentamente la integridad del genoma compitiendo con el mecanismo que vuelve a unir las dos hebras del ADN después de la copia. Así, si bien las transcripciones de la L1 son un mecanismo aceptado de variación genética (un motor de la evolución), se propone que la longevidad se ve negativamente afectada por la actividad somática de la propia L1. Es decir, el mecanismo que ha permitido evolucionar a los humanos sería el mismo que nos hace envejecer.Referencia: St. Laurent III, G., Hammell, N., & McCaffrey, T. (2010). A LINE-1 component to human aging: Do LINE elements exact a longevity cost for evolutionary advantage? Mechanisms of Ageing and Development, 131 (5), 299-305 DOI: 10.1016/j.mad.2010.03.008

... Read more »

  • August 27, 2009
  • 09:16 AM
  • 527 views

Mujeres y altas finanzas: hormonas, no sexismo.

by César Tomé López in Experientia docet

El que la élite a la que los bancos y empresas que invierten en bolsa confían la toma de las decisiones más arriesgadas está dominada por los varones es un hecho incuestionable. ¿Significa esto que se discrimina a las mujeres simplemente por ser mujeres? Podría ser. Pero una investigación que acaba de publicarse en los Proceedings of the Nacional Academy of Sciences por el equipo de Paola Sapienza de la Universidad Northwestern (EE.UU.) da una alternativa: no es el sexo de una persona, per se, la base de la discriminación sino su nivel de testosterona. Aparte de ser una hormona sexual, la testosterona también rige el gusto por el riesgo. Si se tiene en cuenta el nivel de testosterona, al menos en Estados Unidos, el aparente sexismo desaparece. El grupo de Sapienza trabajó con aspirantes a trabajar en bancos e intermediaros financieros (estudiantes de MBA de la Universidad de Chicago). Midieron la cantidad de testosterona en la saliva de los sujetos. También estimaron la exposición a la testosterona antes de nacer de los voluntarios. Esto se hace midiendo la relación entre las longitudes de los dedos índice y anular (un dedo anular largo indica alta exposición a la testosterona) y, y esto puede sorprender a algunos, midiendo la precisión con la que se puede determinar las emociones humanas mirando solamente a los ojos de la gente, que también correlaciona con la exposición prenatal a la testosterona. A los estudiantes se les pidió que tomaran 15 decisiones con un determinado nivel de riesgo cada una. En cada caso había un 50% de probabilidad de ganar 200 dólares o un aumento gradual del resultado asegurado desde 50 dólares hasta 120. Parte del dinero se pagó realmente al final del experimento, para hacer las consecuencias reales. El punto en el cual un participante decidía pasar de la apuesta al resultado asegurado se tomó como una buena aproximación de su apetito de riesgo. Tal y como los investigadores sospechaban, las mujeres y varones con los mismos niveles de testosterona tenían un apetito de riesgo similar. En otras palabras, las mujeres que tenían más testosterona eran más amantes del riesgo que las mujeres con menos, mientras que los datos para varones en la parte baja del espectro mostraban una relación similar. Curiosamente, la relación entre testosterona y toma de riesgos no era tan clara para varones con niveles de la hormona entre moderado y alto, aunque estudios anteriores habían mostrado que esta relación también podía ser significativa. En todos los casos la correlación era mayor cuando se usaba la medición de la testosterona en la saliva, sugiriendo que es el aquí y ahora, más que los efectos de la testosterona en el pasado, en el desarrollo del cerebro, los que son responsables de la diferencia. Para comprobar estos resultados en el mundo real, los investigadores siguieron el progreso de las carreras profesionales de los participantes después de terminar sus estudios. Como se esperaba, los varones escogían más que las mujeres trabajos en instituciones financieras ligados al riesgo. De nuevo, aparecía la correlación con los niveles de testosterona en la saliva. Los investigadores también comprobaron dos veces el nivel de riesgo de las carteras de inversión personales después de graduarse, en junio del 2008 (antes del crash bursátil) y en enero de 2009 (después del crash). Los resultados, que aparecerán en un próximo artículo, indican una fuerte correlación entre el riesgo financiero asumido y los niveles de la hormona. ¿Veremos a las empresas financieras, y no financieras, haciendo tests de testosterona en saliva a sus trabajadores?Referencia: Sapienza, P., Zingales, L., & Maestripieri, D. (2009). Gender differences in financial risk aversion and career choices are affected by testosterone Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.0907352106... Read more »

join us!

Do you write about peer-reviewed research in your blog? Use ResearchBlogging.org to make it easy for your readers — and others from around the world — to find your serious posts about academic research.

If you don't have a blog, you can still use our site to learn about fascinating developments in cutting-edge research from around the world.

Register Now

Research Blogging is powered by SMG Technology.

To learn more, visit seedmediagroup.com.