César Tomé López

400 posts · 193,189 views

Experientia docet
400 posts

Sort by Latest Post, Most Popular

View by Condensed, Full

  • June 9, 2009
  • 10:26 AM
  • 588 views

Cinco factores para mantener la agudeza mental con ochenta años.

by César Tomé López in Experientia docet

Aunque se han identificado varios factores de riesgo para la pérdida de la agudeza mental que conlleva el envejecimiento, se conoce mucho menos sobre los factores que permiten predecir el mantenimiento de la función cognitiva a edad avanzada. Un estudio publicado hoy en Neurology por Alexandra Fiocco de la Universidad de California en San Francisco (EE.UU.) y sus colaboradores, revela qué factores influyen, cuánto influye cada uno y qué se puede hacer para tener un cerebro en forma con ochenta años. No todo el mundo sufre un deterioro de la función cognitiva cuando envejece. La gente mayor que hace ejercicio al menos una vez a la semana, tiene al menos una educación a nivel de bachillerato y una alfabetización a nivel de 3º de la ESO (las competencias que tiene un estudiante que aprueba el nivel educativo correspondiente a 14-15 años), son no fumadores y son socialmente activos tienen mayor probabilidad de mantener sus habilidades hasta los ochenta años. El estudio siguió a 2509 personas con funciones cognitivas buenas de entre 70 y 79 años durante 8 años. La función cognitiva se midió usando el “Examen modificado de estado mental (versión mini)” al principio del estudio y a los 3, 5 y 8 años. Se emplearon métodos estadísticos para clasificar a los participantes en “mantenedores”, “decrecientes leves” y “decrecientes graves” Muchos de los participantes mostraron una disminución en la función cognitiva. El 53% mostró un declive asociado con la edad normal y un 16% un deterioro cognitivo importante. Sin embargo, el 30% de los participantes no mostró cambios, o incluso aumentó, los resultados de los tests a lo largo de los años. Los investigadores examinaron entonces qué factores hacían a las personas que mantenían su agudeza mental diferentes de los que perdían sus capacidades con los años. Los resultados trazan un perfil claro. Exponemos a continuación los cinco factores hallados con la indicación de en qué porcentaje aumenta la probabilidad de mantener la capacidad cognitiva, comparado con alguien que no tenga ese factor: · Ejercicio moderado a vigoroso al menos una vez a la semana: + 30% · Educación al menos a nivel de bachillerato: +300% · Alfabetización al menos a nivel de 3º de ESO: +500% · No fumar: +200% · Trabajar/vivir en pareja: +24% Vemos que los que más influyen son la educación y qué se hace con ella. Otros, como el ejercicio, el fumar, la actividad social son comportamientos que podemos cambiar. En cualquier caso, este estudio supone un paso más en nuestra compresión de los mecanismos del envejecimiento.Referencia: K. Yaffe, A. J. Fiocco, K. Lindquist, E. Vittinghoff, E. M. Simonsick, A. B. Newman, S. Satterfield, C. Rosano, S. M. Rubin, H. N. Ayonayon, T. B. Harris (2009). Predictors of maintaining cognitive function in older adults: The Health ABC Study Neurology, 72 (June), 2029-2035... Read more »

K. Yaffe, A. J. Fiocco, K. Lindquist, E. Vittinghoff, E. M. Simonsick, A. B. Newman, S. Satterfield, C. Rosano, S. M. Rubin, H. N. Ayonayon, T. B. Harris. (2009) Predictors of maintaining cognitive function in older adults: The Health ABC Study. Neurology, 72(June), 2029-2035. DOI: http://www.neurology.org/cgi/content/abstract/72/23/2029?maxtoshow  

  • August 4, 2009
  • 11:48 AM
  • 587 views

Cuando el azar favorece el orden cristalino.

by César Tomé López in Experientia docet

“La naturaleza tiende al desorden”, es una forma popular de expresar la segunda ley de la termodinámica: en un sistema cerrado, ningún proceso puede ocurrir sin que de él resulte un incremento de la entropía total del sistema. Sin embargo, algunas veces una pauta ordenada hace que un sistema aumente su desorden total. En el número del 24 de julio de Physical Review Letters, investigadores de la Universidad Politécnica de Madrid (España) presentan un estudio según el cual un conjunto numeroso de esferas favorece una disposición ordenada frente a otra desordenada, incluso cuando las esferas están unidas en forma de cadenas como si fuesen polímeros. Las partículas individuales como los átomos se disponen a menudo en forma de cristal porque su atracción mutua disminuye la energía total del sistema. Por contra, el azar habitualmente favorece una disposición desordenada, de alta entropía, como la de las moléculas en un líquido. Sin embargo, hace mucho tiempo se descubrió, tanto en simulaciones como experimentalmente, que las esferas sin atracción (sin carga) también cristalizaban cuando se las empaquetaba con densidad suficiente. Esta cristalización impulsada por el principio de maximización de la entropía ocurre porque el cristal le deja espacio a cada esfera para vibrar. Por contra, una disposición aleatoria resulta en un “atasco” rígido de esferas en contacto con sus vecinas. La entropía de las pocas esferas que todavía pueden vibrar es menor que la pérdida de entropía que supone la rigidez del resto. Pero muchos investigadores pensaban que conectar las esferas, como si fueran cuentas de un collar, para simular polímeros restringiría tanto su movimiento que el espacio de vibración individual del cristal no lo compensaría, con lo que predominarían las disposiciones al azar. Para comprobar esta idea, Manuel Laso y su equipo de la UPM simularon un modelo idealizado en el que las esferas en la misma cadena deben permanecer en contacto pero pueden por lo demás moverse libremente. Sin ninguna resistencia a doblarse o retorcerse en estos puntos de conexión, y sin ninguna otra fuerza entre las esferas, la simulación era similar al caso de las esferas individuales sin carga en el sentido de que la evolución del sistema está guiada exclusivamente por el principio de maximización de entropía. Un problema al que se enfrentaron los investigadores fue que las cadenas empaquetadas densamente tienden a enredarse lo que implica que es necesaria una cantidad de tiempo enorme para ver la evolución del sistema hacia un cristal, aunque sea esta la forma preferida. Para reducir el tiempo necesario en varios órdenes de magnitud permitieron que las esferas pudiesen intercambiar cadenas. Las simulaciones mostraron que las esferas individuales adoptan una disposición cristalina, tal y como lo hacen las que no están conectadas, aunque las cadenas no siguen ninguna pauta regular [en la imagen; esferas de una cadena de un mismo color]. La cristalización de los polímeros ocurre por la misma razón que ocurre con las esferas sin conectar. Estos resultados muestran que es posible que la maximización de la entropía impulse la cristalización, aunque modelos más realistas de polímeros deberían incluir la influencia de las fuerzas como la atracción (o repulsión) mutua de las esferas y la resistencia a ser doblados y retorcidos que presentan los enlaces químicos. Estos resultados también podrían ser interesantes para el estudio del plegamiento natural de proteínas en estructuras tridimensionales, en los que las interacciones entre partes de la molécula son análogas a las que se dan entre polímeros que cristalizan. El estudio del plegamiento de proteínas es fundamental en la investigación de enfermedades y en los fármacos para combatirlas.Referencia: Karayiannis, N., Foteinopoulou, K., & Laso, M. (2009). Entropy-Driven Crystallization in Dense Systems of Athermal Chain Molecules Physical Review Letters, 103 (4) DOI: 10.1103/PhysRevLett.103.045703... Read more »

  • May 4, 2010
  • 03:49 PM
  • 586 views

El cerebro usa estructuras primitivas para interpretar el lenguaje.

by César Tomé López in Experientia docet

Un estudio publicado en los Proceedings of the National Academy of Sciences viene a cofirmar algo que se sospechaba desde hace tiempo: no existe ningún área avanzada en el cerebro humano para el procesamiento del lenguaje. Es decir, no existe ninguna zona en el cerebro humano, que se use para la interpretación del lenguaje, distinta de las que ya están presentes en otras especies. El equipo de investigadores, de la Universidad de Rochester (EE.UU.), afirma en el artículo que los humanos usamos distintas regiones cerebrales, cada una de ellas evolutivamente preparada para realizar una tarea primitiva, para encontrar el sentido de una frase. La hipótesis que el equipo quería comprobar era, muy simplificada, la siguiente: si existiese un área especial para el procesamiento del lenguaje, aquel debería activarse independientemente de la gramática de la lengua que se perciba. Si, por el contrario, no existe un área específica, dependiendo del tipo de gramática que se use para formar una frase, el cerebro activará un determinado conjunto de regiones para procesarla, de la misma manera que un mecánico no usa las mismas herramientas para desmontar un radiador que para cambiar una rueda. Para que el experimento fuese realmente fiable lo único que debería cambiar debería ser la gramática, siendo todo lo demás igual. ¿Qué lenguas usar entonces? La lengua ideal no resulta ser una lengua verbal, sino la de signos americana. Para entender la elección es necesario diferenciar, siquiera groseramente, entre dos tipos de gramática. Algunas lenguas, como el inglés, se basan en el orden de las palabras en una frase para deducir las relaciones entre los elementos de la misma. Cuando un hablante inglés oye la frase “Molly sees Rob”, es evidente por el orden de palabras que Sally es el sujeto que realiza la acción del verbo y Rob es el objeto de dicha acción y no al contrario. En alemán (o en latín), por otro lado, la función gramatical de una palabra en una frase depende de su flexión, es decir, de cómo está declinada (qué sufijo se le ha añadido), por lo que el orden puede ser alterado sin cambio de significado. La lengua de signos americana (ASL, por sus siglas en inglés) tiene la característica de que las relaciones sujeto-objeto pueden ser expresadas de las dos maneras: usando el orden de las palabras o la flexión. En lengua de signos esto quiere decir que, o bien se realizan los signos de “Molly”, “sees” y “Rob" en ese orden, o el comunicante puede usar variaciones físicas (movimiento de las manos en el espacio, realización de los signos a un lado del cuerpo) para establecer el sentido de la frase. Para este estudio, los investigadores construyeron 24 frases y expresaron cada una de esas frases usando ambos métodos. Los videos de las frases expresadas en lengua de signos fueron proyectados ante sujetos, para los que la ASL es su forma de comunicación primaria, mientras se les tomaban imágenes por resonancia magnética funcional (fMRI) de su cerebro. Los dos tipos de frases activaron una red de regiones cerebrales coincidente, pero con diferentes patrones de actividad. Las frases de orden de palabras activaron áreas del hemisferio izquierdo implicadas en la memoria de trabajo y el acceso al léxico, entre ellas el córtex prefrontal dorsolateral. Por otro lado, las frases que usaban la flexión activaban los áreas que participan en construir y analizar la estructura combinatoria (esto es, dividir la información en las partes que la constituyen) en ambos hemisferios, como la región frontal inferior bilateral y los ganglios basales. Estos resultados sugieren que, para una función lingüística dada, la activación de una estructura neuronal podría depender de los recursos cognitivos específicamente requeridos para procesar características lingüísticas concretas. Dicho de otra forma, el cerebro rentabiliza estructuras preexistentes para interpretar el lenguaje. Referencia: Newman, A., Supalla, T., Hauser, P., Newport, E., & Bavelier, D. (2010). Dissociating neural subsystems for grammar by contrasting word order and inflection Proceedings of the National Academy of Sciences, 107 (16), 7539-7544 DOI: 10.1073/pnas.1003174107La imagen "Deaf Clubs" es cortesía de Caseykins.

... Read more »

Newman, A., Supalla, T., Hauser, P., Newport, E., & Bavelier, D. (2010) Dissociating neural subsystems for grammar by contrasting word order and inflection. Proceedings of the National Academy of Sciences, 107(16), 7539-7544. DOI: 10.1073/pnas.1003174107  

  • June 28, 2010
  • 06:36 PM
  • 584 views

Una nueva teoría del envejecimiento: los retrovirus integrados en el genoma como reloj endógeno.

by César Tomé López in Experientia docet

Mientras que la mayoría de las teorías del envejecimiento hacen hincapié en los efectos del estrés, la radiación, la oxidación o la ingesta calórica como los factores principales que controlan la duración de la vida debido a que dañan el ADN, una nueva teoría afirma que el factor determinante viene incorporado al ADN desde el origen. Los autores de la Universidad George Washington (EE.UU.) publican en Mechanisms of Ageing and Development que los posibles responsables de marcar nuestro fin son retrovirus arcaicos (muy parecidos al HIV) presentes en el ADN. La edad avanzada sigue siendo el principal factor de riesgo para muchas enfermedades graves: cardiovasculares, derrames cerebrales y cáncer. Los mecanismos por los que la edad avanzada predispone a la enfermedad están comenzando a comprenderse debido, en parte, a las manipulaciones ambientales y genéticas de organismos modelo. Las datos sugieren que el daño al ADN podría ser la parte final común a varios de los mecanismos de envejecimiento propuestos. Esta nueva teoría supone que hay un mecanismo adicional que implica la existencia de una inestabilidad genética inherente al propio ADN. Los LINE (Long Interspersed Nuclear Elements, elementos nucleares dispersos largos), constituyen el 20% del genoma humano. Son, ahora lo explicamos, retrotransposones no-LTR (Long Terminal Repeat). Un retrotransposón es un transposón, una secuencia de ADN que puede moverse autosuficientemente a diferentes partes del genoma de la célula, que emplea ARN como intermediario en este desplazamiento. Los LTR son secuencias de nucleótidos que se encuentran en los extremos de elementos retrovirales que están integrados en el genoma de la célula. Por tanto, un LINE es una secuencia de ADN que se puede mover a distintos sitios del genoma pero que no es parte de los extremos de un retrovirus integrado en el genoma. Pues bien, la familia de mayor importancia cuantitativa es LINE-1 o L1 que es una secuencia de 6 kilobases repetida unas 800.000 veces de modo disperso por todo el genoma. Dos de los productos de L1 son las proteínas ORF1p y ORF2p. Un ORF (Open Reading Frame), un marco abierto de lectura, en la imagen, es cada una de las secuencias de ADN comprendida entre un codón de inicio(Start) de la traducción y un codón de terminación (Stop). Estas proteínas son capaces de unirse al ARN y tienen una actividad que permite la retrotransposición. Aunque son principalmente activas sólo durante la embriogénesis, estas transcripciones de L1 se detectan en las células somáticas adultas en ciertas condiciones. Lo que los autores plantean es que estos productos de la L1 funcionarían como un “reloj endógeno”, erosionando lentamente la integridad del genoma compitiendo con el mecanismo que vuelve a unir las dos hebras del ADN después de la copia. Así, si bien las transcripciones de la L1 son un mecanismo aceptado de variación genética (un motor de la evolución), se propone que la longevidad se ve negativamente afectada por la actividad somática de la propia L1. Es decir, el mecanismo que ha permitido evolucionar a los humanos sería el mismo que nos hace envejecer.Referencia: St. Laurent III, G., Hammell, N., & McCaffrey, T. (2010). A LINE-1 component to human aging: Do LINE elements exact a longevity cost for evolutionary advantage? Mechanisms of Ageing and Development, 131 (5), 299-305 DOI: 10.1016/j.mad.2010.03.008

... Read more »

  • August 2, 2009
  • 12:44 PM
  • 583 views

El color del pecado: negritud e inmoralidad están psicológicamente unidas.

by César Tomé López in Experientia docet

La asociación de los colores con las emociones es un hecho conocido y explotado hasta la saciedad por los expertos en publicidad y diseñadores de identidades corporativas. En cualquier manual de estas especialidades encontramos que el blanco se asocia a la pureza, la limpieza o la luminosidad y el negro a muerte, rebeldía o maldad [como puede apreciarse en la imagen, también se usa en el cine]. Estas asociaciones pueden tener y, de hecho tienen, un sesgo cultural, así que nos centraremos en la llamada cultura de base judeo-cristiana occidental. En este contexto, ¿hasta qué nivel llega esta asociación de colores y emociones? ¿Llegaría hasta el punto de contribuir a formar actitudes racistas? Esto es lo que han empezado a explorar Gary Sherman y Gerald Clore, ambos de la Universidad de Virginia (EE.UU.) en un artículo publicado recientemente en Psychological Science. El efecto Macbeth es la tendencia, muy conocida, de querer lavarse, limpiarse, físicamente cuando se ha actuado en contra de las normas establecidas o, en algunos casos, si se ha considerado seriamente tener una conducta inapropiada a los ojos del sujeto. El nombre viene de la escena de la obra de Shakespeare en la que Lady Macbeth, desesperadamente, trata de lavar manchas de sangre imaginarias tras animar a su marido a que mate al rey. Esta asociación de limpieza con rectitud moral está unida a la conexión, bien establecida, que existe entre el asco moral (por ejemplo, cuando se consiente realizar prácticas sexuales inusuales, no deseadas íntimamente por el sujeto) y el asco físico (por ejemplo, el que se siente al tomar excrementos frescos con las manos o comer comida podrida). Los investigadores, interesados en explorar la extensión de estas conexiones, se preguntaron si los papeles morales del color negro y del blanco estaban conectados con el efecto Macbeth. Para hacer esta exploración diseñaron un experimento en el que participaron estudiantes universitarios de distintos extractos raciales. A todos se les pidió que dijesen en qué color estaban escritas las palabras que se les enseñaban tan rápido como pudiesen. Esta técnica no es nueva. Los psicólogos hace mucho que conocen el efecto Stroop: si a la gente se le presenta, por ejemplo, la palabra “azul” escrita en letras azules, serán capaces de decir mucho más rápidamente el color de las letras que si es la palabra “rojo” la que está escrita en letras azules [para hacer una prueba pulsa aquí]. En el experimento de Sherman y Clore se presentaban palabras de corrección moral, (“virtuoso”, “honestidad”) e incorrección (“engañar”, “pecado”), en letras negras o blancas en la pantalla de un ordenador. Cuando las palabras “buenas” se presentaban en letras negras los participantes empleaban 510 milisegundos en decir el color de la palabra. Cuando estas mismas palabras se presentaban en blanco usaban 480 milisegundos para identificarlo, una diferencia significativa. Un efecto similar se aprecia con las palabras “malas”. Responder a las blancas, 525 milisegundos, a las negras 500. Estos resultados son marcadamente parecidos a los que se obtienen en los tests del efecto Stroop, en los que los colores chocan con el significado de las palabras. Por si esto fuese poco significativo, en una variante del experimento, los investigadores comprobaron que existía priming, el hecho de que un estímulo anterior influye en la respuesta a un estímulo posterior. Para ello hicieron que los participantes copiasen a mano una declaración inmoral previamente al experimento, lo que tuvo como resultado un aumento en la velocidad de identificación de las palabras escritas en negro, incluso en los participantes que en la prueba anterior no habían mostrado diferencias entre los colores. Aparte de la aportación que estos resultados suponen para el conocimiento del efecto Macbeth, los autores sugieren que sus hallazgos pueden tener implicaciones para la comprensión de los prejuicios raciales. Dado que su trabajo apunta a que la negritud y la inmoralidad están psicológicamente unidas, y que las etiquetas “negro” y “blanco” se aplican habitualmente a la raza, la piel oscura podría por tanto ser asociada con la inmoralidad y la impureza. Como la mayoría del grupo objeto del estudio era blanco, no hay manera de detectar a partir de los datos originales si la gente de raza negra reacciona de la misma manera que los demás y, por lo tanto, el efecto es independiente del color de piel. Para comprobarlo los investigadores están realizando los experimentos pertinentes. Los resultados preliminares indicarían que el efecto no está confinado a los blancos.Referencia: Sherman, G., & Clore, G. (2009). The Color of Sin: White and Black Are Perceptual Symbols of Moral Purity and Pollution Psychological Science DOI: 10.1111/j.1467-9280.2009.02403.x... Read more »

  • September 27, 2010
  • 10:05 AM
  • 583 views

Nacido para dirigir, o no.

by César Tomé López in Experientia docet

Cuando las palabras “biología” y “comportamiento” aparecen en la misma frase casi automáticamente pensamos en la genética y en la antigua cuestión de si son los genes o el ambiente los principales responsables de nuestra forma de ser. En lo que respecta al mundo laboral, Scott Shane, de la Case Western Reserve University (EE.UU.), ha realizado una exhaustiva revisión de los distintos estudios realizados sobre cómo afecta la genética al desempeño en el trabajo, que ha terminado recogiendo en un libro [*]. Muchos de los datos de Shane provienen de estudios de parejas de gemelos, una herramienta tradicional para los investigadores de la genética humana, privados de las posibilidades experimentales de los que estudian moscas, gusanos o ratones. Las conclusiones de Shane son, como mínimo, llamativas. El consenso de los estudios con gemelos es que los genes sí son responsables de una proporción sustancial de las diferencias entre individuos; y ello aplica tanto al mundo laboral como al resto de la vida. Se observa una influencia genética tanto en los trabajos que la gente escoge (el 75% de la diferencia en las preferencias laborales de un individuo por las artes plásticas se explica por los genes, el 65% si hablamos de las ciencias fisicoquímicas, más del 50% si de la enseñanza o el periodismo y un 25% si de las ventas), como en lo satisfecho que está el individuo con el trabajo que realiza, en lo frecuentemente que cambia de empleo o en lo importante que es el trabajo para él. También se ha determinado la influencia genética en lo importante que es para una persona realizar bien el trabajo o, estrictamente hablando, en lo mal que lo puede llegar a hacer: los genes explican más de un tercio de la variación entre individuos en “actuación laboral censurada”, un índice que engloba amonestaciones, suspensiones temporales y despidos relacionados con el rendimiento. El sueldo también depende de la genética. Alrededor del 40% de la variación entre los ingresos de las personas es atribuible a los genes. Los genes, sin embargo, no actúan aislados. El ambiente también es importante. Uno de los principales errores de los investigadores sociales es tratar genética y ambiente como dos variables independientes cuando, en realidad, interactúan más de lo que se piensa. Richard Arvey, de la Universidad Nacional de Singapur, ha estado investigando precisamente cómo interactúan los genes con los distintos tipos de ambientes para crear cosas tales como “afán emprendedor” y la capacidad para dirigir a otros. Investigaciones anteriores han demostrado que las personas que exhiben rasgos de personalidad concretos, como la búsqueda de sensaciones, es más probable que se conviertan en empresarios que las personas más equilibradas y menos sociables. Arvey y sus colegas encontraron [1] el mismo efecto para la extroversión (de la que la búsqueda de sensaciones es tan sólo una faceta) en un estudio que publicaron en Organizational Behavior and Human Decision Processes. Sin embargo, detectaron un matiz muy interesante. Su estudio (de 1285 parejas de gemelos idénticos y 849 parejas de hermanos del mismo sexo) sugiere que los genes explican la relación con la extroversión sólo en las mujeres. En los varones, el rasgo se adquiere ambientalmente. Dicho de otra forma: las mujeres de negocios nacen, los varones, se hacen. En un segundo estudio [2] con gemelos, también publicado en Organizational Behavior and Human Decision Processes, esta vez sólo con varones, Arvey y sus colegas se preguntaron hasta qué punto los líderes nacen y hasta cuál se hacen. El equipo de investigadores encontró que los rasgos del liderazgo innatos ciertamente existen pero que el ambiente también influye. La influencia de los genes en el potencial de liderazgo es más débil en los muchachos criados en familias pudientes y que apoyan mucho, y más fuerte en los criados en ambientes más duros. Esto quizás explique en parte la tasa tan enorme de fracasos en el paso a la segunda generación de empresas familiares de éxito.Esta entrada es parte de la serie ¿Un mundo feliz?Referencias:[*] Shane, S. A. (2010). Born Entrepreneurs, Born Leaders: How Your Genes Affect Your Work Life New York, NY: Oxford University Press.[1] Zhang, Z., Zyphur, M., Narayanan, J., Arvey, R., Chaturvedi, S., Avolio, B., Lichtenstein, P., & Larsson, G. (2009). The genetic basis of entrepreneurship: Effects of gender and personality Organizational Behavior and Human Decision Processes, 110 (2), 93-107 DOI: 10.1016/j.obhdp.2009.07.002[2] Zhang, Z., Ilies, R., & Arvey, R. (2009). Beyond genetic explanations for leadership: The moderating role of the social environment Organizational Behavior and Human Decision Processes, 110 (2), 118-128 DOI: 10.1016/j.obhdp.2009.06.004

... Read more »

Zhang, Z., Zyphur, M., Narayanan, J., Arvey, R., Chaturvedi, S., Avolio, B., Lichtenstein, P., & Larsson, G. (2009) The genetic basis of entrepreneurship: Effects of gender and personality. Organizational Behavior and Human Decision Processes, 110(2), 93-107. DOI: 10.1016/j.obhdp.2009.07.002  

  • June 17, 2009
  • 01:46 PM
  • 580 views

Moléculas de Rydberg : el inicio de la química ultrafría.

by César Tomé López in Experientia docet

Un nuevo tipo de enlace químico ha sido encontrado experimentalmente. Dicho enlace se ha producido entre dos átomos de rubidio, uno en estado base y otro un átomo de Rydberg. La existencia del potencial necesario para el enlace fue predicha por Enrico Fermi en 1934; la predicción del enlace en sí fue realizada por Chris Greene, Alan Dickinson y Hossein Sadeghpour en 2000. Los resultados obtenidos por Tilman Pfau y sus colaboradores de la Universidad de Stuttgart han aparecido en Nature. Cuando los astrónomos observan la radiación procedente del espacio encuentran habitualmente una señal correspondiente a una frecuencia de 2,4 GHz (gigaherz). Esta frecuencia corresponde a una transición del hidrógeno entre los niveles electrónicos con números cuánticos principales n=109 y n=108. Para quien haya estudiado algo de química, pero no esté familiarizado con los átomos de Rydberg, pensará que me he vuelto loco al escribir unos valores de n tan descomunales. Para el que no sepa nada de química diremos que el número cuántico principal nos da idea del tamaño de un átomo y que, para el hidrógeno, que tiene un electrón, en su estado base n=1. Los átomos de hidrógeno interestelares son (en un número significativo) átomos de Rydberg. Un átomo de Rydberg es un átomo excitado con uno o más electrones con números cuánticos principales muy altos. Estos átomos tienen características muy peculiares, entre ellas funciones de onda de los electrones que, bajo ciertas condiciones, se aproximan a las órbitas clásicas (las del átomo de Bohr). El radio de la órbita de estos electrones es proporcional al cuadrado del número cuántico principal, por lo que los átomos de Rydberg son enormes (en términos atómicos) y sus electrones de valencia (exteriores, muy alejados del núcleo), por tanto, son muy lábiles frente a colisiones o campos electromagnéticos. ¿Cómo es posible que algo tan frágil como un átomo de Rydberg sobreviva en el espacio? Debido al vacío y a las bajísimas temperaturas. En la Tierra un átomo de Rydberg se vería ionizado inmediatamente debido al calor. El nuevo enlace químico se ha conseguido en condiciones ultrafrías, muy próximas a las necesarias para obtener un condensado de Bose-Einstein. Pfau y sus colaboradores han conseguido formar dímeros (compuestos de 2 átomos) de rubidio, en los que uno de los átomos era de Rydberg. El enlace ha sido detectado vía espectroscópica por la medición del estado base vibracional y del primer excitado del dímero Rb(5s)-Rb(ns) .Los números entre paréntesis indican los orbitales que intervienen, siendo el número el cuántico principal; en el caso del átomo de Rydberg de Rb n ha oscilado entre 34 y 40. El mecanismo subyacente al enlace es la dispersión electrónica de baja energía de los electrones de Rydberg por parte de un átomo polarizable en su estado base. Este proceso de dispersión cuántica puede generar una atracción que es capaz de unir el átomo de Rb en su estado base con el Rb de Rydberg en un punto localizado de la función de onda de éste. El tamaño del dímero descubierto es enorme: 80nm, mayor que un ribosoma celular. El grupo de Pfau ha conseguido el dímero más estable y simple de los que Greene y compañía predijeron. Otros más exóticos, llamados trilobites (en la imagen) y mariposas, son lo próximo a conseguir. Se ha abierto la puerta a la química ultrafría.Referencia: Bendkowsky, V., Butscher, B., Nipper, J., Shaffer, J., Löw, R., & Pfau, T. (2009). Observation of ultralong-range Rydberg molecules Nature, 458 (7241), 1005-1008 DOI: 10.1038/nature07945... Read more »

Bendkowsky, V., Butscher, B., Nipper, J., Shaffer, J., Löw, R., & Pfau, T. (2009) Observation of ultralong-range Rydberg molecules. Nature, 458(7241), 1005-1008. DOI: 10.1038/nature07945  

  • August 10, 2009
  • 12:16 PM
  • 579 views

El ADN de las neuronas es diferente.

by César Tomé López in Experientia docet

Las células cerebrales humanas albergan una increíble variabilidad en el genoma, según los investigadores del Instituto Salk de Estudios Biológicos (EE.UU.). El equipo liderado por Fred Gage, el mismo que descubrió la neurogénesis en adultos, ha publicado en Nature que las neuronas poseen un número inesperado de elementos móviles (transposones o genes saltarines), trozos del ADN que son capaces de insertar copias extras de sí mismos en el genoma usando un mecanismo de “corta y pega” (usando ARN como portapapeles en algunos casos). El descubrimiento podría ayudar a explicar el desarrollo e individualidad del cerebro así como a una mejor comprensión de las enfermedades mentales. En un trabajo anterior, Gage ya había demostrado que elementos móviles del ADN conocidos como Elementos Largos Intercalados -1 (LINE-1, por sus siglas en inglés) añaden copias extras (“saltos”) al azar al genoma de las células cerebrales de los ratones. El que esto sucediese también en los humanos era objeto de controversia. Se sabe que estos elementos móviles son importantes en organismos inferiores, como las plantas o las levaduras, pero se considera que en los mamíferos son restos del pasado evolutivo. Sin embargo, son extraordinariamente abundantes. Aproximadamente el 50% del total del genoma humano está constituido por restos de elementos móviles. Si fuesen inservibles, nos habríamos desecho de ellos. Pero, ¿para qué sirven? El objetivo original de los investigadores del Instituto Salk era simplemente identificar “saltos” en células cerebrales humanas cultivadas in vitro, como se había hecho con los ratones. Una vez verificado, el paso siguiente para Gage y Nicole Coufal (autora principal del trabajo que ahora se publica) fue verificar que lo mismo ocurría in vivo. In mice, gene jumping is limited to the brain and to germ cells, the reproductive cells in our bodies, since these kinds of rapid changes would be detrimental in essential organs such as the heart or kidneys. If LINE-1 elements were indeed on the move in humans, there should be more copies in the brain than in the heart or liver, where Gage and Coufal did not expect LINE-1 jumping to occur. En los ratones los saltos de genes se limitan al cerebro y a las células germinales ya que, en las células de otros órganos como el corazón o los riñones, estos cambios rápidos podrían ser potencialmente muy perjudiciales. Si los elementos LINE-1 se transponen en los humanos debería haber más copias en el cerebro que en el corazón o en el hígado, según la hipótesis de Gage y Coufal. El equipo de investigadores desarrolló una reacción en cadena basada en la polimerasa que permitió determinar cuantitativamente el incremento del número de copias en tejidos cerebrales (del hipocampo y otras áreas) con respecto a las presentes en tejidos de otros órganos (corazón e hígado, entre otros). Las muestras del cerebro tenían hasta 100 copias extra por célula, con lo que quedaba probada la hipótesis. Los investigadores comprobaron asimismo que el promotor del LINE-1, el interruptor genético que hace que haya o no LINE-1, está habitualmente en “on” en las células cerebrales y en “off” en las células de otros órganos. Este hallazgo implica que no todas las células son creadas iguales: el ADN de las células del cerebro es diferente del ADN del resto de células del organismo, o casi. Existe otro tipo de célula humana que es conocida por remodelar su genoma: las del sistema inmunitario. En ellas los genes que codifican los anticuerpos se combinan para crear la variedad necesaria de éstos que haga frente a un infinito número de diferentes antígenos. La variabilidad que este descubrimiento asigna a las células cerebrales provee un mecanismo potencial para explicar la diversidad neuronal que hace a cada persona única. Por otra parte, la desregulación de las copias podría contribuir a la aparición de desórdenes neurológicos. Finalmente, un cerebro que es capaz de vivir 80 años en un entorno cambiante e impredecible tiene, de esta manera, un plus de adaptabilidad: los elementos móviles impulsarían la evolución.Referencia: Coufal NG, Garcia-Perez JL, Peng GE, Yeo GW, Mu Y, Lovci MT, Morell M, O'Shea KS, Moran JV, & Gage FH (2009). L1 retrotransposition in human neural progenitor cells. Nature PMID: 19657334... Read more »

Coufal NG, Garcia-Perez JL, Peng GE, Yeo GW, Mu Y, Lovci MT, Morell M, O'Shea KS, Moran JV, & Gage FH. (2009) L1 retrotransposition in human neural progenitor cells. Nature. PMID: 19657334  

  • June 1, 2010
  • 05:39 PM
  • 579 views

Redox en el espacio.

by César Tomé López in Experientia docet

De vez en cuando aparecen noticias sobre el descubrimiento de tal o cual compuesto en una nube interestelar y, habitualmente, se aporta una explicación más o menos alambicada para poder hablar de la posibilidad de que dicho compuesto tenga alguna relación con el origen de la vida, por remota que ésta sea. Y, sin embargo, aún no se ha hecho una identificación positiva de una molécula que pueda ser considerada como precursora de los organismos vivos, al menos de los terrícolas. Desde un punto de vista objetivo, el hecho cierto es que existe una colección de compuestos bastante rica en los espacios entre las estrellas, lo que nos lleva a la pregunta, ¿cómo se sintetizan estos compuestos en unas condiciones que, en principio, no favorecen las reacciones químicas termodinámicamente? Daren Caruana y Katherine Holt, del University College de Londres, afirman, en un artículo que aparece en Physical Chemistry Chemical Physics, que la clave está en el polvo interestelar y su participación en reacciones de oxidación-reducción. En su mayor parte el espacio entre las estrellas (espacio interestelar, EIE) es un vacío salpimentado ligeramente con átomos y moléculas. Sin embargo, en ciertas regiones se forman altas concentraciones de especies químicas formando nubes densas que también contienen polvo. Estas nubes de polvo parecen ser un centro de incubación para la síntesis de una gran variedad de especies moleculares. Se han identificado más de 140 especies moleculares en nubes de polvo usando una variedad de técnicas espectroscópicas. Para el estudio de la formación de estas especies se han desarrollado modelos por ordenador muy sofisticados, que describen la abundancia de especies químicas presentes en las nubes. A pesar de ello, estos modelos son incapaces de describir la formación de muchas moléculas poliatómicas, y su origen sigue siendo uno de los grandes enigmas de la química interestelar. En astroquímica está generalmente aceptado que los granos de polvo están implicados en la síntesis de moléculas poliatómicas complejas. Así, por ejemplo, el hidrógeno molecular (H2), la molécula más abundante en el EIE, se forma en la superficie de los granos. Hasta ahora los modelos por ordenador asumen que los granos de polvo actúan sólo como superficies propicias, en las que los reactivos son adsorbidos [con D de Dinamarca] antes de reaccionar. Pero es posible que los granos de polvo tengan un papel más activo según Caruana y Holt. La hipótesis que plantean estos investigadores se basa en la relación entre la síntesis química en la superficie de los granos con la carga eléctrica que los granos adquieren mediante conocidos fenómenos físicos del EIE. Los granos individuales pueden ser cargados negativamente por electrones en áreas de fuerte ionización del gas de la nube, o cargados positivamente en la periferia de la nube de polvo donde la radiación electromagnética es lo suficientemente potente como para expulsar los electrones de los granos. Desde un punto de vista químico, las superficies cargadas eléctricamente pueden ser reductoras cuando son negativas y oxidantes cuando son positivas. Por tanto, dependiendo de los procesos de carga, el equilibrio de electrones en la superficie de los granos puede provocar reacciones de reducción o de oxidación, reacciones que de otra forma estarían impedidas termodinámicamente. Por el momento se sabe poco de las reacciones redox (oxidación-reducción) en la interfase sólido gas, pero combinando lo que sí se conoce de los procesos redox en la interfase sólido-líquido, esta hipótesis puede desarrollarse para formular un mecanismo que implique a los granos de polvo del EIE. En éste los granos individuales actuarían como un reactor electroquímico de “un solo electrodo” en la fase gas. El número de electrones en el grano cambiaría el potencial químico global (el nivel de Fermi); por ejemplo, para un grano de polvo de 10 nm de diámetro la unión de 32 electrones cambia el potencial químico en 1 eV. Un voltaje de esta magnitud aplicado a una superficie conductora sólida se sabe que es capaz de producir muchas reacciones electroquímicas en fase líquida. Por lo tanto, es probable que una interfaz polarizada en la fase gas pueda provocar reacciones químicas similares. Los autores también especulan con la posibilidad de que la síntesis de las moléculas más grandes (de más de 6 átomos) se produzca en lugares distintos de la nube de polvo en una sucesión de reacciones redox (oxidaciones unas veces, reducciones otras). Una vez que se desarrolle completamente este mecanismo electroquímico, en conjunción con otros modelos para la fase gaseosa, quizás sea capaz de explicar las inesperadas abundancias observadas de algunas especies químicas poliatómicas. Y, ¿por qué no también la química de las capas altas de la atmósfera?Referencia: Caruana, D., & Holt, K. (2010). Astroelectrochemistry: the role of redox reactions in cosmic dust chemistry Physical Chemistry Chemical Physics, 12 (13) DOI: 10.1039/b917817a

... Read more »

  • June 2, 2009
  • 06:00 AM
  • 577 views

Llegaron del espacio exterior (al menos en parte).

by César Tomé López in Experientia docet

Una nueva técnica de análisis químico cuantitativo permite hacer una determinación experimental de qué gases y qué cantidad de ellos desprende un meteorito como consecuencia del incremento de temperatura por rozamiento a la hora de entrar en la atmósfera terrestre. La extrapolación al período denominado gran bombardeo tardío hace unos 4.000 millones de años, permite deducir que la aportación de dióxido de carbono y agua a las atmósferas de Marte y la Tierra por parte de los meteoritos pudo ser lo suficientemente significativa como para haber contribuido a generar las condiciones que favorecieron la aparición de la vida, al menos en la Tierra.  El estudio, que se publica hoy en Geochimica et Cosmochima Acta, emplea una técnica analítica ya conocida, espectrofotometría infrarroja de transformada de Fourier (FTIR, por sus siglas en inglés), acoplada a un horno pirolítico capaz de subir 20.000 grados centígrados en 1 segundo.    Los investigadores, dirigidos por Richard Court, del Imperial College de Londres, aplicaron la técnica al análisis de 15 trozos de condritas carbonáceas, un tipo de meteoritos caracterizados por la presencia de compuestos de carbono y la proporción más alta de compuestos volátiles. Esta mayor presencia de volátiles (agua y dióxido de carbono fundamentalmente) se asocia con el origen de los propios meteoritos: en regiones alejadas del Sol, en las que la presencia de agua en su composición inicial podría haber alterado ésta.  Cuando un meteorito entra en la atmósfera de un planeta, el rozamiento provoca un incremento brutal de temperatura que provoca la vaporización de parte de sus minerales y del material orgánico que pueda llevar antes de que el meteorito se rompa y caiga a Tierra. Por lo tanto la técnica empleada en este estudio puede considerarse adecuada para determinar qué cantidad de volátiles desprende un meteorito en su caída, aunque las mediciones se hagan en un meteorito que ya ha caído. Los resultados indican que un meteorito puede aportar a la atmósfera del planeta al que cae del orden del 12% de su masa de vapor de agua y un 6% de dióxido de carbono. Si aporta metano, éste está por debajo del límite de detección de la técnica (100 ppm). Con estos datos se puede concluir que, a largo plazo, las contribuciones de los meteoritos a la atmósfera de la Tierra no fueron significativas. Pero, estas contribuciones no fueron homogéneas y aquí sí podemos encontrar un hecho interesante. Hablábamos no hace mucho en este blog del último bombardeo intenso del periodo hadeico (se puede leer en “El infierno en la Tierra no fue tan malo”). En esta época de intensa caída de meteoritos, hace 3.900 millones de años, se pudo alcanzar un promedio de  10.000 millones de toneladas de vapor de agua y otras tantas de dióxido de carbono al año, tanto en Marte como en la Tierra. Los investigadores sugieren que este suministro de agua pudo hacer las atmósferas de la Tierra y Marte más húmedas, dando un impulso al ciclo del agua, y el de dióxido de carbono pudo contribuir al aumento de la temperatura global, permitiendo la existencia de océanos líquidos. Vemos pues que este período pudo ser un punto de inflexión en la historia prebiótica de la Tierra. ¿Y Marte? Entre las diferencias que encontramos entre la Tierra y Marte está el que ésta posee un campo magnético que la protege del viento solar. Marte perdió por esta causa la mayor parte de su atmósfera. Por otra parte, la disminución de la actividad volcánica en Marte también contribuyó al enfriamiento del planeta, razón por la que el agua en Marte está helada. Si alguna vez existió (o existe) vida en ese planeta puede que estuviese relacionada con el agua que un día llegó con los meteoritos (a este respecto puede ser interesante leer “La creciente popularidad de la panspermia”).   Referencias:Court, R., & Sephton, M. (2009). Meteorite ablation products and their contribution to the atmospheres of terrestrial planets: An experimental study using pyrolysis-FTIR Geochimica et Cosmochimica Acta, 73 (11), 3512-3521 DOI: 10.1016/j.gca.2009.03.006... Read more »

  • February 22, 2011
  • 09:43 AM
  • 577 views

¿Transferencias laterales o genomas contaminados?

by César Tomé López in Experientia docet



Más del 20 por ciento de las secuencias genómicas de no primates de las principales bases de datos están contaminadas con ADN humano. El estudio, llevado a cabo por un equipo de la Universidad de Connecticut encabezado por Mark Longo, se publica en PLoS ONE. Este resultado vuelve a señalar la importancia tanto de las medidas de prevención de la contaminación a la hora de secuenciar genomas como del control de la contaminación potencial en los genomas tomados de las bases de datos públicas.
Hace unos días se ha formado un revuelo en distintos ámbitos científicos por la publicación de un informe en mBio en el que se afirmaba haber detectado una transferencia horizontal de genes entre los humanos y gonorrea, con las implicaciones que ello tiene desde el punto de vista evolutivo (más información aquí, aquí y aquí). ¿Podríamos estar ante un caso de contaminación de los datos por ADN humano?
La contaminación puede llegar a una secuencia genómica en varias de las fases de la secuenciación. Podría provenir de bacterias que transporte el aire y que aterricen en la muestra, o incluso fragmentos de ADN que se hayan quedado en los reactivos tras la esterilización. Pero probablemente la fuente de contaminación más común sea el propio científico. Sólo hace falta que una célula de la piel caiga en una muestra antes de la amplificación. 
Mark Longo estaba buscando secuencias conservadas en las bases de datos de genomas y encontró que, sorprendentemente, había secuencias que se repetían en distintas especies. Sin embargo, no pudo replicar los datos en el laboratorio en ningún caso, lo que sugería que los genomas de las bases de datos podían estar contaminados. Vistos los resultados, a continuación decidió comprobar todos los genomas de no primates conservados en cuatro bases de datos públicas, en concreto las ubicadas en: la Universidad de California en Santa Cruz, el GenBank del Centro Nacional para la Información Biotecnológica, el Instituto Genómico Conjunto y Ensembl (los cuatro centros están en los Estados Unidos). Buscó específicamente secuencias repetitivas humanas conocidas como elementos AluY. 
De las 2.057 secuencias comprobadas, 454 contenían esta secuencia de ADN humano, el 22%, un nivel de contaminación como para preocuparse. Y esta es sólo la contaminación de fuentes humanas, ¿cuanta habrá de otras especies comunes en los laboratorios como E. coli? [Los pocos (falsos) positivos de presencia de E. coli en alimentos en el laboratorio de la empresa del que esto escribe han resultado ser contaminaciones de las muestras por manipulación inadecuada durante su toma y/o su preparación para la PCR] 
Esta frecuencia de contaminación humana hace que se hagan imprescindibles mayores controles de calidad, lo que implica recomprobaciones de secuencias para confirmar los resultados. Pero también significa mayores problemas en los estudios de las secuencias humanas: encontrar un elemento Alu humano en el genoma de un pez es fácil, encontrar una contaminación humana en una muestra humana no es tan sencillo.
Por si alguien duda de la importancia de la calidad de los datos, imaginemos que alguien tuviese que tomar decisiones sobre la salud de una persona basándose en su genoma sabiendo que tiene una probabilidad del 20% de que los resultados estén contaminados.
Referencia:

Longo, M., O'Neill, M., & O'Neill, R. (2011). Abundant Human DNA Contamination Identified in Non-Primate Genome Databases PLoS ONE, 6 (2) DOI: 10.1371/journal.pone.0016410

... Read more »

  • June 6, 2009
  • 01:33 PM
  • 576 views

La esencia del comportamiento social humano (1): la guerra nos hizo altruistas.

by César Tomé López in Experientia docet

¿Cómo se desarrolló el comportamiento moderno? ¿Qué factores marcaron la aparición de dos rasgos tan característicamente humanos como el altruismo y la cultura? Dos estudios que se publicaron ayer en Science dan respuestas paradójicas a esta pregunta: somos altruistas porque somos militaristas y desarrollamos la cultura porque nos juntamos en número suficiente. Dos de las cosas más extrañas de los humanos cuando se les compara con otros mamíferos son la moralidad y la cultura. Ninguna es exclusiva de los humanos, pero están presentes en el Homo sapiens en un grado tal que es incomparable con el de otras especies. De hecho, este grado de preocupación por el bienestar de los otros, incluso si no están relacionados con nosotros, y de construcción de objetos materiales, tanto útiles como ornamentales, es visto por muchos como la marca del hombre, lo que verdaderamente nos separa de ser un animal más. Cómo evolucionaron estos rasgos humanos es controvertido. Pero dos artículos que aparecen esta semana en Science pueden que aporten algo de luz. En uno, Samuel Bowles [1] del Instituto Santa Fe de Nuevo México (EE.UU.) expone su teoría según la cual mucha de la virtud humana se originó en el campo de batalla. Los camaradas en la guerra se vuelven camaradas en todo lo demás. En el otro artículo, Mark Thomas y sus colegas del University College de Londres (Reino Unido) sugieren que la sofisticación cultural depende de más cosas que del desarrollo de la inteligencia. También requiere una población densa. Si esto es correcto, explicaría algunos hallazgos sorprendentes de la arqueología que, hasta ahora, no han tenido una explicación satisfactoria. Analizamos hoy el artículo de Bowles, mañana el de Thomas et al. El argumento de Bowles comienza en un oscuro agujero de la teoría evolutiva llamado selección de grupo. Según ésta a los grupos de individuos que colaboran les irá habitualmente mejor que a los grupos de egoístas, por lo que los primeros prosperarán a costa de los segundos. Así pues si la selección de grupo es correcta, los individuos estarían genéticamente predispuestos a actuar autosacrificándose por el bien del grupo. Este argumento del “bien del grupo” se consideraba correcto hasta los años sesenta, cuando fue sometido a un examen riguroso y encontrado deficiente. La nueva teoría no enfrentaba a grupos con grupos, ni siquiera a individuos contra individuos, sino a genes contra genes. El comportamiento altruista en esta visión evolucionaría para favorecer un gen determinado, por ejemplo ayudando a parientes cercanos que también portarían el gen en cuestión. Este análisis del “gen egoísta”, llamado así por el libro de Richard Dawkins, hace casi imposible obtener comportamientos basados en el “bien del grupo”. Unos cuantos investigadores, Bowles entre ellos, han sido reacios a abandonar la selección de grupo completamente. Hacen hincapié en la palabra casi del argumento anterior y afirman, con toda su inteligencia y posesión del lenguaje, y su tendencia a vivir en grupos pequeños y muy cohesionados, los humanos pueden ser la excepción. También piensan que estarían sujetos a una forma de selección de grupo que es genéticamente egoísta. Bowles se ha centrado en la guerra, ya que es tanto una acción muy colaborativa como, a menudo, genéticamente mortal para los perdedores. En el artículo que comentamos analiza la idea recogiendo datos numéricos e incorporándolos a un modelo matemático, con un resultado muy interesante. Para reunir sus datos, Bowles escarbó entre datos etnográficos y arqueológicos los referentes a la guerra entre grupos de recolectores-cazadores. No hay que entender guerra en el sentido moderno del término, sino más bien incursiones, emboscadas y peleas entre grupos que se encuentran accidentalmente. Sí coincide con el sentido moderno en que era bastante mortal. Bowles encontró 8 estudios etnográficos y 15 arqueológicos del pleistoceno tardío y holoceno temprano que respondían a sus criterios de fiabilidad y abundancia de datos. Según los datos así reunidos este tipo de guerra habría tenido una mortalidad de entre el 12 y el 16%. Esta es una cifra mucho mayor de la que hubo en Europa durante las dos guerras mundiales, y más que suficiente para influir en la evolución. La cuestión era si podía ser suficiente para la selección de grupo.   Bowles diseñó su modelo para comprobar esta idea. Aunque enfrenta a grupo contra grupo, está estrictamente basado en la idea de genes egoístas. Se centra en el beneficio del gen que promueve el autosacrificio. La pregunta es: ¿le irá bien a un gen así si los individuos que lo tienen conquistan el territorio y los recursos de un grupo similar vecino pero con el riesgo de que algunos de  esos individuos pierdan su vida? Si los grupos más cooperativos era más probable que ganasen en los conflictos con otros grupos, ¿era el nivel de violencia entre grupos suficiente para influir en la evolución del comportamiento social humano? En ausencia de guerra, un gen que imponga un coste de autosacrificio tan pequeño como el 3% en reproducción perdida, caería del 90% al 10% de la población en 150 generaciones. El modelo de Bowles, sin embargo, predice que niveles mucho mayores de autosacrificio, en un caso hasta el 13%, podrían ser sostenibles en el caso de incorporar la guerra a la ecuación. Esto permitiría la evolución de rasgos altruistas y colaborativos que no serían posibles de otra manera. Además, aunque la guerra es un ejemplo extremo, otros ejemplos menos radicales de autosacrificio tendrían similar capacidad de fortalecer al grupo.  ... Read more »

  • June 3, 2010
  • 05:45 PM
  • 576 views

Cómo identificar gotas de lluvia fosilizadas en este y otros mundos.

by César Tomé López in Experientia docet

Si dos gotas de lluvia golpean arena seca a diferentes velocidades, ¿cuál dejaría una marca menos profunda? Reflexiona un momento antes de seguir leyendo. La intuición indica que sería la gota que se mueve a mayor velocidad la que marcaría más la capa de arena. Sin embargo no son las gotas más lentas las que menos marcan, sino las gotas a velocidades medias, según un estudio realizado por Hiroaki Katsuragi, de la Universidad Kyushu (Japón) y publicado en Physical Review Letters. Katsuragi dejó caer gotas de agua desde diferentes alturas sobre una capa de material granular seco. A partir de aquí fue capaz de encontrar una fórmula para el radio del cráter de impacto de la gota basándose en la densidad del material granular, que podrá ser muy útil a los investigadores que intentan interpretar los posibles signos de agua fósil tanto en la Tierra como en otros miembros del Sistema Solar. Muchos investigadores han estudiado objetos rígidos impactando sobre una capa blanda de granos, imaginemos una bola de golf cayendo en una trampa de arena. Estos estudios han reproducido la clase de cráteres que se ven en las distintas lunas del Sistema Solar. Mucho menos se sabe de lo que ocurre cuando la pelota de golf se sustituye por una gota de agua, que es capaz de cambiar de forma durante el impacto. Ya en 1850 los geólogos habían identificado depresiones con forma de hoyo en arena fina que podrían ser gotas de lluvia fosilizadas. Para estar seguros de que lo son estas depresiones es necesario una mejor comprensión de cómo las gotas de agua forman cráteres de impacto. Para caracterizar los impactos de las gotas líquidas, Katsuragi hizo gotear agua en pequeños recipientes que contenían granos de carburo de silicio, un material abrasivo. Katsuragi varió tanto la altura como el tamaño de los granos, de 4 micras a 50. Cada gota tenía aproximadamente 4,8 milímetros de diámetro y se la dejaba caer desde una altura de entre 10 a 480 milímetros. Con esto Katsuragi obtuvo toda una colección de formas de cráter, dependiendo de la velocidad del impacto y del tamaño de los granos, de los que pudo medir con precisión usando un láser tanto radios como profundidades. A velocidades bajas y pequeños tamaños de grano, las gotas formaban lo que él llama un “cráter de hundimiento”. Éstos se forman cuando una gota permanece intacta en el momento del impacto y comprime lentamente la capa de granos “sueltos” que está debajo de ella conforme el líquido penetra entre los granos, dejando una depresión de 1,5 mm de profundidad. A velocidades medias, la gota comprime los granos que tiene debajo en el momento del impacto, por lo que no pueden comprimirse más durante el proceso de penetración del agua. Estos cráteres de media velocidad eran menos profundos que los de hundimiento. Las gotas de mayor velocidad cayendo sobre los granos más pequeños eran las que dejaban los cráteres más profundos, de alrededor de 2 milímetros. Cuanto mayor era el tamaño de los granos, los cráteres eran menos profundos, y las gotas a alta velocidad dejaban picos en medio de los cráteres en vez de valles. Ello se debe, según Katsuragi, a que la gota recoge granos de un área amplia durante el impacto inicial y su expansión, pero después los deposita en el centro cuando la gota se une y comienza a penetrar. Para saber qué controla el tamaño de un cráter, Katsuragi derivó una fórmula para ajustar sus datos experimentales. Encontró que el radio de un cráter es más o menos proporcional a dos cantidades. La primera es la proporción entre la densidad del grano y la del agua. Si la capa granular es mucho más densa que el agua, la gota se deforma mucho en el impacto y, por tanto, hace un cráter mayor que en los granos de menor densidad. La segunda cantidad es una constante llamada número de Weber, que cuantifica la influencia de la tensión superficial, las gotas mayores o que se mueven más rápidamente tienen números de Weber mayores y es más probable que se rompan durante el impacto. Se deduce de lo anterior que la deformación de la gota es crucial para entender la morfología del cráter. Con esta herramienta, que todavía debe refinarse y ampliarse a distintos sustratos y condiciones de caída, se puede intentar deducir en qué condiciones se produjeron algunos cráteres que hasta hoy no tienen una explicación satisfactoria o establecer la presencia de lluvia fósil en un territorio que en su día fue arenoso, ya sea en la Tierra o en cualquier otro mundo.[Esta es la participación de Experientia docet en el VIII Carnaval de la Física, que este mes acoge Pirulo cósmico.]Referencia: Katsuragi, H. (2010). Morphology Scaling of Drop Impact onto a Granular Layer Physical Review Letters, 104 (21) DOI: 10.1103/PhysRevLett.104.218001

... Read more »

  • December 10, 2009
  • 04:58 PM
  • 573 views

Síntesis estructural y funcional de una metaloproteína.

by César Tomé López in Experientia docet

Un equipo de investigadores dirigido por Yi Lu, de la Universidad de Illinois en Urbana-Champaign, ha diseñado una proteína sintética que es un modelo tanto funcional como estructural de una proteína natural, la enzima óxido nítrico reductasa (NOR). El logro se publica en Nature. Es muy difícil estudiar una molécula biológica tan compleja como la NOR si ésta no es soluble en agua. Cualquier ensayo debe realizarse en un medio graso, por tanto orgánico, que influirá en las reacciones que se estén estudiando. La NOR es una proteína de membrana (celular) y, por tanto, es liposoluble (no hidrosoluble). Tener un modelo de la proteína que es reflejo estructural y funcional de ella es tremendamente interesante. Sintetizar una proteína no es nada fácil. Sintetizar una proteína que contenga átomos metálicos en su estructura es mucho más difícil debido a la variabilidad en estados de oxidación y geometrías que presentan los átomos metálicos. La NOR es una metaloproteína, contiene hierro al igual que la hemoglobina de la sangre. Para imitar la estructura [en la imagen] y función de la NOR, los investigadores partieron de una pequeña proteína muscular, la mioglobina. Aunque es más pequeña que la NOR y soluble en agua, la mioglobina puede reproducir características claves de la NOR. Basándose en estos cimientos, los investigadores crearon un nuevo lugar para el enlace del hierro consistente en tres histidinas y un glutamato. Aparte de su papel estructural, las histidinas y el glutamato pueden proporcionar los protones (H+) necesarios para la reducción del óxido nítrico en el sitio activo. ¿Qué importancia puede tener que se sintetice una proteína? Mucha. Empezando por el final, esta proteína sintética es un excelente modelo para crear biocatalizadores para uso biotecnológico, medioambiental y farmacéutico. Desde un punto de vista más básico, más fundamental, las posibilidades de estudio de la NOR que aportará este nuevo modelo permitirán conocer mejor el ciclo del óxido nítrico (NO) en los mamíferos, y las patologías asociadas. Este ciclo es crítico para la vida. El NO es un importante regulador y mediador en numerosos procesos en los sistemas cardiovascular, nervioso e inmune. Así, participa en la relajación de los músculos lisos lo que resulta en la vasodilatación de las arterias e incremento del flujo sanguíneo (es crítico en el mantenimiento de la erección). En el sistema nervioso actúa como neurotransmisor, capaz de introducirse en las neuronas sin necesidad de sinapsis, pudiendo activar un grupo local de neuronas rápidamente. El NO es citotóxico para los microbios y las células tumorales, por lo que los macrófagos lo usan como arma de defensa en el sistema inmunitario. Por otra parte, el NO está implicado en los choques sépticos, la hipertensión, los infartos o las enfermedades neurodegenerativas.Referencia: Yeung N, Lin YW, Gao YG, Zhao X, Russell BS, Lei L, Miner KD, Robinson H, & Lu Y (2009). Rational design of a structural and functional nitric oxide reductase. Nature PMID: 19940850

... Read more »

Yeung N, Lin YW, Gao YG, Zhao X, Russell BS, Lei L, Miner KD, Robinson H, & Lu Y. (2009) Rational design of a structural and functional nitric oxide reductase. Nature. PMID: 19940850  

  • August 16, 2009
  • 06:23 AM
  • 572 views

Einstein y el experimento de Michelson-Morley

by César Tomé López in Experientia docet

Llevado a cabo en 1887, el experimento de Michelson-Morley se considera el trabajo definitivo que terminó eliminando la creencia decimonónica de que las ondas luminosas viajaban a través de un medio llamado éter. La historia estándar que se cuenta es que una vez que el experimento de Michelson-Morley probó que el éter era falso, todo el mundo supo que había una crisis, a la que puso fin Einstein cuando intervino resueltamente para resolver el problema con la teoría especial de la relatividad en 1905. Pero esta es una versión demasiado simplificada de lo que realmente ocurrió... Albert Abraham Michelson comenzó a trabajar en la búsqueda del éter cuando era un joven estudiante en Berlín con permiso de la Marina de los Estados Unidos. Más tarde, cuando se convirtió en profesor de física en el Colegio Case de Ciencia Aplicada de Cleveland, formó equipo con Edward Williams Morley, un químico también estadounidense que trabajaba en la cercana Universidad Western Reserve. Morley tenía fama de gran experimentador, y a Michelson le atraía el reto de crear un experimento meticuloso para medir la velocidad de la Tierra a través del éter que se suponía que llenaba el espacio. Las mediciones tenían que ser tan precisas que muchos dijeron que no podían hacerse. (Más tarde Michelson le diría a Einstein que había empleado tanta energía para conseguir la precisión necesaria simplemente porque era “divertido”). James Clerk Maxwell fue el primero en describir la luz como una onda electromagnética. En esa época, los físicos comprendían las ondas bastante bien. Las ondas del sonido, por ejemplo, se crean cuando un objeto que vibra comprime y descomprime alternativamente el medio que le rodea. En el aire, paquetes de aire más y menos densos viajan al oído y son interpretados por el cerebro. Las ondas en el agua tienen crestas y valles en vez de diferencias de densidad. Pero tanto el agua como el aire son medios necesarios para la propagación del sonido. Maxwell creía que la luz igualmente debía emplear un medio, una misteriosa sustancia llamada éter. Según la teoría, el éter estaría en reposo con respecto a un espacio absoluto del universo, y la Tierra, naturalmente, viajaría por él. Maxwell propuso que, por lo tanto, debería existir un “viento de éter” de algún tipo, que soplaría en la cara de un observador que mirase en el sentido del movimiento de la Tierra, y en su espalda si miraba en sentido contrario. Cabría esperar entonces que la luz viajase a diferentes velocidades dependiendo de la dirección en la que se moviese a través del éter, parecido a una persona que se mueve más fácilmente con el viento a favor que en contra. La idea de que la luz se pude mover con velocidades diferentes, en un mismo medio en idénticas condiciones, dependiendo sólo de la dirección de propagación, está en el corazón mismo del experimento de Michelson-Morley. Y esta es la idea que Einstein terminaría haciendo desaparecer. El experimento que se cita oficialmente como el experimento de Michelson-Morley tuvo lugar en 1887 [1] y utilizaba un diseño bastante innovador que se basaba en una técnica desarrollada por Michelson, la interferometría (Michelson recibiría el premio Nobel de física en 1907 por sus instrumentos ópticos de precisión y las mediciones realizadas con ellos). La interferometría depende del hecho de que cuando dos ondas se cruzan forman patrones muy concretos. Un experimento de interferometría comienza dividiendo un haz de luz, haciendo después que cada uno de los dos nuevos rayos viajen caminos distintos, para luego unirlos en una pantalla. Analizando los patrones resultantes se puede obtener información sobre la velocidad y la distancia recorrida por la luz. Michelson ya había usado la interferometría tanto para conseguir la medición más precisa hasta la fecha de la velocidad de la luz como para determinar la longitud oficial del metro para la Oficina Nacional de Estándares de los Estados Unidos. Para su experimento, Michelson y Morley hicieron que dos rayos de luz viajasen en ángulo recto uno del otro: uno viajaba en la misma dirección que el éter y el otro la cruzaba. Imaginemos dos personas nadando en un río, una va corriente arriba y luego a favor de corriente, mientras que la otra nada directamente a un punto al otro lado del río y vuelta. Ambos nadadores se tienen que enfrentar a la corriente pero de forma diferente y, consecuentemente, el tiempo que emplean para recorrer exactamente la misma distancia será diferente. Si la Tierra viaja a través del éter, el éter crea una corriente (como un río), y un rayo de luz que viaje en contra y luego a favor debería tardar menos en recorrer una distancia determinada que otro que la atraviese en ángulo recto. Esta era la hipótesis que Michelson y Morley intentaban confirmar con su experimento. El experimento estaba muy bien diseñado, pero por mucho que repitieron la medición, ambos rayos empleaban la misma cantidad de tiempo en sus viajes. La pareja comprobó y recomprobó el dispositivo experimental y repitieron las mediciones varias veces después de cada comprobación, siempre con el mismo resultado. El dispositivo, que se encontraba en un sótano con paredes de ladrillo [en la imagen], estaba instalado sobre un bloque de mármol que flotaba sobre una balsa de mercurio, lo que permitía girarlo para estudiar todos los ángulos posibles con respecto al “viento de éter”; ningún ángulo probado dio un resultado diferente. La reputación enorme de la que gozaban Michelson y Morley en la comunidad científica hizo que los físicos más famosos de la época aceptaran como válido un resultado tan inesperado. Claramente, había un problema con la teoría del éter. Sin embargo, el concepto del éter, no fue completamente descartado en ese momento. El consenso era que la hipótesis no estaba completa. El mismo Michelson repitió el experimento en numerosas ocasiones a lo largo de su vida, cambiando incluso la localización del dispositivo (lo llevó a lo alto de una montaña) para ver si había variaciones en la intensidad del presunto “viento de éter” que permitiesen detectar diferencias en las mediciones. Aunque había físicos que conocían el trabajo de Michelson y Morley, y sabían que sus resultados debían incorporarse a una nueva teoría de la luz, no está claro que Einstein, el que finalmente proporcionó esa teoría, tuviese conocimiento de él. Su artículo sobre la relatividad especial está claro que no hace referencia a los resultados del experimento, si bien es cierto que este artículo no hace referencia a casi nada ya que lo que se proponía era tan novedoso que Einstein podía afirmar que no se basaba en el trabajo de nadie (aunque a lo mejor Poincaré pensase otra cosa). Años más tarde Einstein se contradiría a sí mismo sobre el asunto de si conocía el experimento de Michelson-Morley. Dijo muchas veces que no tenía noticias de él y, de hecho, no lo menciona en sus Notas autobiográficas en las que describe cómo desarrolló sus teorías. Ya mayor afirmó, sin embargo, que la primera referencia del experimento la obtuvo del estudio del trabajo de Lorentz en 1895, y en algunas de sus primeras cartas (1899) que se conservan discute un artículo de Wien que contiene una referencia al experimento. Independientemente de si Einstein conocía el mismo experimento de Michelson-Morley, lo que si parece claro es que desarrolló su teoría de la relatividad especial creyendo firmemente que el éter no existía. Esta convicción no fue apriorística. La lectura de otros grandes científicos de su época, muchos de los cuales ciertamente conocían el experimento, habría influido con toda seguridad en las convicciones de Einstein. Después de la publicación por parte de Einstein de la teoría especial de la relatividad, Einstein tuvo conocimiento fehaciente del trabajo de Michelson y Morley (ver [2]) y, de hecho, estuvo en contacto con Michelson. Poco antes de su fallecimiento, en 1931, Michelson asistió a una cena en honor a Einstein en California. En su discurso Einstein dijo: “Usted, honorable Dr. Michelson, comenzó este trabajo cuando yo era un jovenzuelo que no levantaba 1 metro... Read more »

Michelson,AA, & Morley,EW. (1887) On the Relative Motion of the Earth and the Luminiferous Ether. The American Journal of Science, 34(203), 833-845. info:/

  • September 23, 2009
  • 03:38 PM
  • 572 views

Estructura familiar y madurez sexual temprana de los adolescentes: ¿cuál es la causa y cuál el efecto?

by César Tomé López in Experientia docet

Post hoc ergo propter hoc (después de esto, por tanto a consecuencia de esto) es el nombre que se le da a una falacia lógica que consiste en suponer que una cosa es la causa de otra simplemente porque una pasó después de la otra. Esto es lo que podría haber pasado con los estudios del efecto de la estructura familiar sobre la madurez reproductiva de los adolescentes. Un estudio publicado en Child Development por un equipo dirigido por Jane Mendle, de la Universidad de Oregón (EE.UU.), asegura que la madurez sexual temprana de los adolescentes tiene una base genética más que ambiental y que, de hecho, el ambiente habitualmente considerado como causa, en concreto el abandono del hogar por parte del padre, es también una consecuencia de esos mismos genes. Es un hecho estadístico que las chicas que crecen sin sus padres en casa alcanzan la madurez sexual antes que las chicas que viven con ellos. Las estadísticas también nos dicen que desarrollarse pronto tiene consecuencias negativas para estas chicas: es más probable que sufran de depresión, odien sus cuerpos, se vean implicadas en prácticas sexuales de riesgo y se queden embarazadas cuando aún son adolescentes. Podría ser una simple cuestión de no tener tanta supervisión, en especial los suspicaces ojos de un padre vigilando a su hija. O podría ser una compleja respuesta fisiológica al estrés, en la que las chicas adaptan su estrategia reproductiva a sus circunstancias. Si la vida es dura, dice la teoría, puede que tengan una necesidad evolutiva de reproducirse lo antes posible. No olvidemos que el único objetivo de un ser vivo es que sus genes pasen a la siguiente generación, cuantos más mejor, y que la supervivencia del individuo es sólo un medio para este fin. El mundo animal sugiere que el efecto de la ausencia del progenitor macho no es exclusivo de los humanos. Los ratones, cerdos, cabras e incluso algunos primates jóvenes reciben señales de sus parientes que inhiben el desarrollo sexual; un macho extraño en el grupo, por el contrario, acelera las cosas. La investigación en humanos ha mostrado que las chicas que crecen con padrastros maduran incluso más rápidamente que las niñas sin padre y que los hermanastros también tienen un efecto medible. Frente a estos datos que apuntan a una clara influencia ambiental, Mendle et al. sugieren otra causa: los genes. Específicamente, los mismos genes que podrían hacer que un padre tuviese más probabilidad de ser de los que dejan a su familia podrían estar también detrás del desarrollo sexual temprano. Los investigadores llegaron a esta conclusión tras analizar los datos recogidos a través de la Encuesta Longitudinal de la Juventud de los Estados Unidos (NLSY, por sus siglas en inglés). Se escogieron 1.382 sujetos, chicos y chicas, cada uno de los cuales estaba relacionado al menos con otro sujeto a través de su madre. La mayor parte de las madres eran parejas de hermanas, algunas gemelas idénticas, en este caso los sujetos del estudio eran primos hermanos, o primas hermanas criadas juntas, y en este caso los sujetos del estudio eran primos segundos. Los cuestionarios de la NLSY preguntan a las madres acerca de una amplia variedad de temas, incluyendo si el padre de sus hijos vive con ellas. Fueron encuestadas cada año desde 1979 a 1994 y desde entonces cada dos años. A los niños se les pasan cuestionarios específicos anuales desde que cumplen los 14 años, que incluyen la pregunta de si han mantenido ya relaciones sexuales. Lo que los investigadores querían saber era si la edad a la que un adolescente (ambos sexos incluidos) mantenía relaciones sexuales por primera vez era algo habitual en la familia, independientemente de si el padre la había abandonado o no. Para averiguarlo compararon adolescentes que habían crecido sin sus padres con primos cuyos padres seguían en casa. El razonamiento era que si el efecto ambiental de la ausencia paterna era la causa de la madurez temprana de los niños debería ser visible en los datos. Pero no. De hecho, cuanto más cercano era el parentesco de los primos (por tener madres que eran gemelas, por ejemplo) más próxima era la edad de la primera relación sexual. Esto se comprobaba tanto para varones como para mujeres. Según los autores la causalidad sería la inversa a la que se ha venido suponiendo: los mismos factores genéticos que influyen en la edad a la que un adolescente tiene su primera relación sexual también afectarían a la probabilidad de que crezcan en un hogar sin sus padres. Podría ser algo tan simple como que los genes causen una pubertad temprana, lo que llevaría a una experimentación sexual temprana, embarazos no deseados y a un compañero que realmente no se ha escogido y con el que no se quiere pasar el resto de la vida. Y estos genes serían los que heredan los hijos, iniciando un nuevo ciclo. Lo que parecía la causa, ahora es el efecto. Referencia: Mendle, J., Harden, K., Turkheimer, E., Van Hulle, C., D’Onofrio, B., Brooks-Gunn, J., Rodgers, J., Emery, R., & Lahey, B. (2009). Associations Between Father Absence and Age of First Sexual Intercourse Child Development, 80 (5), 1463-1480 DOI: 10.1111/j.1467-8624.2009.01345.x

... Read more »

Mendle, J., Harden, K., Turkheimer, E., Van Hulle, C., D’Onofrio, B., Brooks-Gunn, J., Rodgers, J., Emery, R., & Lahey, B. (2009) Associations Between Father Absence and Age of First Sexual Intercourse. Child Development, 80(5), 1463-1480. DOI: 10.1111/j.1467-8624.2009.01345.x  

  • October 2, 2009
  • 09:37 AM
  • 572 views

Identificado otro fármaco que podría prevenir las enfermedades del envejecimiento y alargar la vida.

by César Tomé López in Experientia docet

Inutilizando un gen implicado en una importante vía de comunicación bioquímica en ratones se ha descubierto una forma de imitar los conocidos efectos antienvejecimiento de la restricción calórica: vida más larga y más saludable. Este hallazgo, publicado en Science por un equipo liderado por Dominic Withers del University College de Londres, ofrece una prometedora diana terapéutica para los muchos problemas asociados con la edad. Hace ya tiempo que es conocido que la restricción calórica alarga la vida y reduce la incidencia de las enfermedades relacionadas con la edad en una amplia variedad de organismos, desde las levaduras y los nemátodos (gusanos redondos) a los roedores y primates. No está claro, sin embargo, cómo una dieta nutricionalmente completa pero radicalmente restringida logra estos beneficios. Pero recientemente varios estudios han dado pruebas de que un proceso de transmisión de señales bioquímicas en concreto, que implica a una proteína llamada diana de la rapamicina (TOR, por sus siglas en inglés), puede jugar un papel clave. Este proceso actúa como una especie de sensor de comida, ayudando a regular la respuesta metabólica del cuerpo a la disponibilidad de nutrientes. El equipo científico se percató de que los ratones jóvenes con una versión inactiva de la enzima cinasa S6-1 (S6K1), que es activada directamente por la TOR, mostraban mucho parecido con los ratones que seguían una dieta restringida calóricamente: eran más delgados y tenían mayor sensibilidad a la insulina que los ratones normales. Para averiguar si estos beneficios persistían en edades más avanzadas y si los ratones vivirían más, los investigadores criaron dos grandes grupos de ratones modificados genéticamente que carecían de una versión funcional del gen de la S6K1. Un grupo vivió sus vidas tranquilamente, dando una medida de la duración natural de su vida. El otro grupo fue sometido a una amplia batería de pruebas de estado metabólico y de rendimiento cognitivo y motor. En las hembras, los resultados fueron importantes. Las ratonas modificadas genéticamente vivieron sustancialmente más que las normales. Con una edad de 600 días (sobre los 40 años humanos) obtenían resultados excelentes en las pruebas de rendimiento motor, superando a las ratonas normales en equilibrio, fuerza y coordinación. También eran más curiosas y capaces a la hora de explorar nuevos entornos, lo que sugiere una mejor función cognitiva. Las medidas fisiológicas también indicaban una salud mejor: las modificadas genéticamente tenían huesos más fuertes, mejor sensibilidad a la insulina y células inmunitarias más robustas. Aunque los machos modificados genéticamente no tenían una vida más larga, sí que compartían los beneficios para la salud de las hembras. Los efectos de la inactivación de la S6K1 fueron similares a los de la restricción calórica, aunque menos pronunciados. Las hembras sin S6K1 vivieron hasta un 20% más que las ratonas normales; el incremento de la longevidad con restricción calórica puede llegar al 50%. La importancia de estos resultados se comprende mejor si tenemos en cuenta el descubrimiento hecho en julio de que la rapamicina alarga la vida de los ratones, interfiriendo en la misma ruta bioquímica inhibiendo la TOR. Aunque la rapamicina tenía un efecto pronunciado en la longevidad y la salud, su uso en humanos está limitadísimo por los riesgos que supone su potente capacidad inmunodepresora. Los resultados de Withers et al. indican que el tener como diana a la S6K1 directamente puede evitar estos efectos secundarios, con similares efectos. El nuevo estudio también señala a otra proteína del proceso bioquímico de transmisión de señales de la TOR, la AMPK (proteincinasa activada por AMP), aún más aguas abajo que la S6K1, como una diana terapéutica potencial clave. El papel de la AMPK es extremadamente ilusionante ya que es activada por la metformina [en la imagen], un conocido fármaco para el tratamiento de la diabetes tipo 2. Esto significaría que sería posible en los próximos años diseñar ensayos clínicos para comprobar la capacidad de la metformina para prevenir las enfermedades relacionadas con la edad. Por favor, tenga en cuenta que esto es sólo un primer resultado de la investigación con ratones. NO SE AUTOMEDIQUE. Consulte a su médico. Referencia: Selman, C., Tullet, J., Wieser, D., Irvine, E., Lingard, S., Choudhury, A., Claret, M., Al-Qassab, H., Carmignac, D., Ramadani, F., Woods, A., Robinson, I., Schuster, E., Batterham, R., Kozma, S., Thomas, G., Carling, D., Okkenhaug, K., Thornton, J., Partridge, L., Gems, D., & Withers, D. (2009). Ribosomal Protein S6 Kinase 1 Signaling Regulates Mammalian Life Span Science, 326 (5949), 140-144 DOI: 10.1126/science.1177221

... Read more »

Selman, C., Tullet, J., Wieser, D., Irvine, E., Lingard, S., Choudhury, A., Claret, M., Al-Qassab, H., Carmignac, D., Ramadani, F.... (2009) Ribosomal Protein S6 Kinase 1 Signaling Regulates Mammalian Life Span. Science, 326(5949), 140-144. DOI: 10.1126/science.1177221  

  • November 13, 2009
  • 01:48 PM
  • 571 views

Flora intestinal y obesidad.

by César Tomé López in Experientia docet

Para la obesidad se han encontrado muchos culpables: los huesos grandes, la comida basura, los genes o unos padres incompetentes. En los últimos años ha aparecido un nuevo responsable: la flora bacteriana del intestino. Los intestinos humanos están llenos de microorganismos que ayudan a la digestión y también evitan que sus homólogos patógenos nos invadan. En esta simbiosis algunas bacterias son mejores que otras a la hora de suministrar alimento a sus huéspedes humanos, y también parece que, por mecanismos que aún no se conocen, son capaces de hacer que los cuerpos de su simbionte almacenen la energía como grasa y que esa grasa se mantenga. En el pasado, cuando había suministros limitados de alimento, habrían sido unas valiosas aliadas. En una época de abundancia, sin embargo, se han vuelto problemáticas. En concreto, estudios hechos con ratones sugieren que la obesidad está asociada con tener una alta proporción de un grupo de bacterias llamado Firmicutes, mientras que en los ratones no obesos abundan las de otro grupo, las Bacteroidetes [1]. Estos trabajos también han sugerido que transplantar microbios de “ratones delgados” a ratones obesos podría hacer que éstos fuesen más delgados, al menos durante un tiempo. Lo que es cierto para los ratones puede que no lo sea para los humanos, por lo que claramente hace falta más investigación. Pero encontrar voluntarios dispuestos a que se les pongan las bacterias de otro en su intestino parece complicado. Por ello, en un artículo [2] que ha aparecido en Science Translational Medicine, Peter Turnbaugh de la Universidad Washington en San Luis (EE.UU.) y sus colegas describen un término medio. Han creado un ratón gnotobiótico con una flora intestinal humanizada. Lo hicieron tomando ratones de diez semanas de edad que habían sido criados para que estuviesen libres de microbios y colonizaron sus intestinos alimentándolos con heces humanas (nota: los ratones, según el artículo son coprófagos). Después de este tratamiento, se podía experimentar con los ratones alimentándolos con distintas dietas y viendo cómo respondían las bacterias. Los resultados indican que el comportamiento es similar al encontrado en ratones normales, incluyendo el aumento de obesidad asociado a Firmicutes. A la vista de estos resultados sospechamos que dentro de poco podremos ver nuevos alimentos “probióticos”, para “equilibrar” la flora intestinal, anunciados en televisión.Referencias:[1] Turnbaugh, P., Ley, R., Mahowald, M., Magrini, V., Mardis, E., & Gordon, J. (2006). An obesity-associated gut microbiome with increased capacity for energy harvest Nature, 444 (7122), 1027-131 DOI: 10.1038/nature05414[2] Turnbaugh, P., Ridaura, V., Faith, J., Rey, F., Knight, R., & Gordon, J. (2009). The Effect of Diet on the Human Gut Microbiome: A Metagenomic Analysis in Humanized Gnotobiotic Mice Science Translational Medicine, 1 (6), 6-6 DOI: 10.1126/scitranslmed.3000322

... Read more »

  • August 1, 2012
  • 03:41 AM
  • 571 views

La entropía no es desorden: la ordenación espontánea de poliedros.

by César Tomé López in Experientia docet









Hay ocasiones en las que un artículo científico,
independientemente del interés intrínseco del hallazgo o
comprobación que describe, pone de manifiesto cómo las
simplificaciones que se hacen, incluidas las de los libros de texto,
al intentar hacer comprensibles las ideas científicas tienen el
efecto de que después sea mucho más difícil entender nuevos
desarrollos. A éstos se les suele llamar contraintuitivos. Una de
los conceptos más recurrentes entre los afectados es el de entropía
y, por extensión, el de orden.



Un artículo publicado en Science por el equipo encabezado
por Pablo Damasceno, de la Universidad de Michigan en Ann Arbor
(EE.UU.), nos recuerda que ni la entropía, ni los procesos
termodinámicos espontáneos, están relacionados per se con
lo que intuitivamente entendemos por desorden. La entropía está
relacionada con el número de “posibilidades” para un sistema, lo
que muchas veces se traduce en “desorden” pero, como muestra esta
investigación, no siempre.



Y es que la naturaleza no entiende de orden o desorden, que son
conceptos puramente de la mente humana en su afán por hacer
inteligible el entorno. La naturaleza entiende de minimización de la
energía y maximización de posibilidades.



Pero vayamos por partes.




La organización espontánea de
distintas unidades elementales en estructuras ordenadas se encuentra
en todas las escalas. Ejemplos evidentes son los cristales a nivel
atómico, los cristales plásticos y líquidos a nivel molecular o
las superceldillas de nanopartículas o los coloides. En ciencia de
materiales es crítico conocer la relación entre las ordenaciones y
sus constituyentes ya que las propiedades físicas de aquellas
dependen en gran manera de la estructura.









Lo que han conseguido Damasceno et
al. mediante simulaciones por ordenador es poder predecir las
estructuras que formarán partículas de distintas formas, en
concreto 145 poliedros convexos distintos. De hecho, los autores
demuestran que la forma en que se orientan depende sólo de su forma
anisótropa. Pero, y esto es lo que consideramos interesante
resaltar, este estudio demuestra también que existe una llamativa
tendencia a la auto-organización y a la diversidad estructural. Es
decir, que haciendo mediciones simples de la forma de la partícula y
el orden local (orden a corto) en un fluido se puede predecir si esa
forma se organizará espontáneamente como un cristal líquido, como
un cristal plástico, como un cristal en sentido estricto o si no se
organizarán en absoluto.



Pero, ¿cómo se forman estructuras ordenadas espontáneamente?
Muy fácil, diréis algunos, el sistema se enfría, formándose las
estructuras ordenadas y la entropía del universo aumenta aunque la
del sistema disminuya. Pero, no. No existe variación de temperatura.
Tal y como están planteadas las simulaciones, partículas sólidas
que no interactúan más allá de su geometría, no existe variación
energética, tan sólo maximización entrópica. Nos explicamos.



Sabemos por la segunda ley de la termodinámica que, todo lo demás
constante, el sistema evolucionará espontáneamente hacia la
configuración que consiga el máximo incremento en la entropía.
Habitualmente, como decíamos más arriba, esto coincide con el
máximo desorden. Así, un libro de texto puede decir que “los
sistemas evolucionan espontáneamente en el sentido en el que aumenta
el desorden”, en abierta contradicción con lo que vemos aquí.




La clave está en el espacio disponible. Si las partículas
tuviesen todo el espacio del mundo no cabe duda de que se
dispersarían tomando posiciones al azar. Pero si el espacio es muy
limitado la cosa cambia. En estas circunstancias las posibilidades
distintas de acoplamiento aumentan si las partículas se orientan
cara a cara, lo que nosotros interpretamos como orden.



Dado que la eficiencia en el empaquetamiento aumenta con el área
de contacto, la ordenación puede ser interpretada como el resultado
de una fuerza entrópica efectiva, direccional y multicuerpo. Esta
fuerza aparece a partir del mayor número de configuraciones
disponibles para el conjunto del sistema, lo que trae como
consecuencia que los poliedros con un número adecuado de caras se
ordenen de determinada manera. Esta idea de fuerza entrópica
direccional es la que sugiere que la forma de las partículas puede
usarse para predecir las estructuras.



No es que el desorden (entropía) cree orden. Es una cuestión de
opciones disponibles: en este caso las disposiciones ordenadas son
las que producen el máximo número de posibilidades. Pero no hay que
circunscribirse al mundo nanoscópico. Este fenómeno es conocido
para cualquiera que haya trasladado una caja de naranjas (de esferas
en general): si se agita tiende a ordenarse.



Por ello esta sería una buena ocasión para abandonar esa
aproximación a la entropía como desorden y empezar a asimilar la
definición estadística de la entropía, mucho más útil a la larga
aunque menos intuitiva para algunos al principio: la entropía de un
sistema es proporcional* al número de estados posibles en los que
puede estar.









Volviendo a los resultados de Damasceno et al., de los 145
poliedros estudiados el 70 por ciento produjeron estructuras
cristalinas de algún tipo. Algunas de estas estructuras eran
realmente complejas, con hasta 52 partículas en el patrón que se
repetía.



Como siempre con un hallazgo interesante, estos resultados nos
sugieren muchas más preguntas. La más inmediata es ¿por qué el 30
por ciento no forma estructuras ordenadas quedándose con estructura
vítrea (de vidrio)? ¿Por qué se resisten al orden? Un hilo
misterioso del que tirar.

[*] En sentido estricto proporcional logarítmicamente: S = k ln W donde S es entropía, W el número de estados accesibles del sistema y k una constante (de Boltzmann). Esta es la forma de Planck de la ecuación de Boltzmann.

Esta entrada es una participación de Experientia docet en la XVII Edición del Carnaval de Química que organiza Un geólogo en apuros.








Referencia:

... Read more »

Damasceno PF, Engel M, & Glotzer SC. (2012) Predictive self-assembly of polyhedra into complex structures. Science (New York, N.Y.), 337(6093), 453-7. PMID: 22837525  

  • May 11, 2010
  • 09:14 AM
  • 570 views

El amor no es suficiente: las matemáticas de las relaciones sentimentales.

by César Tomé López in Experientia docet

En un artículo publicado en PloS ONE, José Manuel Rey, de la Universidad Complutense de Madrid (España), propone un modelo matemático que explica, como una consecuencia mecanicista de la segunda ley de la termodinámica de las relaciones sentimentales, la aparente paradoja de que una unión entre personas semejantes cuidadosamente planeada para que dure para siempre termine probablemente en ruptura. El enamoramiento es un estado de enajenación mental transitorio con una base bioquímica. Sin embargo, la decisión de mantener una relación sentimental con alguien de quien te has enamorado debería ser una decisión mucho más racional. En general, la gente se embarca en este tipo de relaciones que implican un compromiso, muchas veces en forma de matrimonio, tras una sesuda consideración Y, sin embargo, las tasas de ruptura son increíblemente altas: existe, diríamos, un fracaso en la implementación del programa vital acordado. Esta es la “paradoja del fracaso”: el hecho de que ambos miembros de la pareja han planeado una relación duradera y se comprometen a trabajar para ella y la existencia de unas altas tasas de ruptura. Rey aborda en el artículo una aproximación matemática al problema, centrándose no en el análisis típico de los fallos en la relación, sino tomando la pareja como una unidad y basando su dinámica sentimental en el deseo de ser felices juntos para siempre. Lo que propone es un modelo matemático basado en la teoría del control óptimo para una pareja homógama (los miembros de la pareja se considera que poseen rasgos socioeconómicos semejantes) que se plantea una relación a largo plazo. La teoría del control óptimo, una extensión del cálculo de variaciones, es un método de optimización matemática para deducir políticas de control. Un control óptimo adopta la forma de un conjunto de ecuaciones diferenciales que definen los valores de las variables de control que minimizan un coste, lo que se llama una política de control. Rey define como variables dos funciones dependientes del tiempo: x(t), que representa el estado de la relación en el tiempo t, la sensación de que “la cosa va bien”, y c(t) , que es el esfuerzo hecho para mantener la relación (ésta es la variable de control). En la definición de c(t) Rey asume algo importante, que es continua. Y teniendo en cuenta que incluye cualquier acto diario que sirva para reforzar la relación (hacer preguntas, la escucha activa, hacer planes juntos, etc.), la continuidad de la función a lo mejor no puede asumirse tan alegremente para todo el rango de t. Rey establece en su modelo un sistema de dos ecuaciones diferenciales: la segunda ley de la termodinámica de las relaciones sentimentales, que afirma que una relación sentimental se deteriorará a menos que se aporte “energía” al sistema, y la ley de variación del esfuerzo óptimo, que no es más que la expresión del esfuerzo óptimo en el tiempo t Con las premisas anteriores se alcanzan dos conclusiones matemáticas fundamentales. La primera es que existe un punto de equilibrio (equilibrio sentimental) sensación-esfuerzo (feeling-effort), E, y éste es único. La segunda, que existe una única política de esfuerzo (de la variable de control que hablábamos más arriba) que lleva la sensación inicial x0 al equilibrio único E. Traducido significa que las relaciones a largo plazo con éxito existen y corresponden a las rutas de equilibrio de la dinámica de la relación. El nivel de esfuerzo que mantiene funcionando una relación feliz es siempre mayor que el nivel de esfuerzo que habría sido elegido óptimamente a priori (si solo contase el presente), es decir, si piensas que te esfuerzas es que debes esforzarte más. De aquí se deduce que una relación es viable si la diferencia entre estos dos esfuerzos, el effort gap, es tolerable. Y la principal conclusión, las relaciones sentimentales son intrínsecamente inestables: el amor no es suficiente, es necesario esforzarse.Referencia: Rey, J. (2010). A Mathematical Model of Sentimental Dynamics Accounting for Marital Dissolution PLoS ONE, 5 (3) DOI: 10.1371/journal.pone.0009881Este artículo es la participación de Experientia docet en el IV Carnaval de Matemáticas

... Read more »

join us!

Do you write about peer-reviewed research in your blog? Use ResearchBlogging.org to make it easy for your readers — and others from around the world — to find your serious posts about academic research.

If you don't have a blog, you can still use our site to learn about fascinating developments in cutting-edge research from around the world.

Register Now

Research Blogging is powered by SMG Technology.

To learn more, visit seedmediagroup.com.