César Tomé López

400 posts · 274,523 views

Experientia docet
400 posts

Sort by Latest Post, Most Popular

View by Condensed, Full

  • July 21, 2011
  • 08:33 AM
  • 827 views

Primera red neuronal artificial basada en ADN.

by César Tomé López in Experientia docet




Antes de que evolucionasen los cerebros basados en neuronas las células necesitaban algún tipo de mecanismo que les permitiese adaptarse a un entorno cambiante. Ese mecanismo era lo que podemos llamar un circuito biomolecular, esto es, una serie de interacciones moleculares que arrojaban un resultado u otro dependiendo de los estímulos exteriores, dándole a la célula un comportamiento “inteligente”. Si bien la hipótesis existía de que los sistemas biomoleculares realizaban computaciones in vivo del tipo de las que hacen las redes neuronales, e incluso existían propuestas teóricas de cómo podían sintetizarse sistemas análogos, no existía ninguna evidencia experimental. Ahora, un equipo de investigadores encabezado por Lulu Qian, del Instituto de Tecnología de California (Estados Unidos), presenta la primera red neuronal biomolecular, basada en ADN, que puede acceder a “recuerdos” a partir de patrones incompletos, exactamente como hace un cerebro. Los resultados se publican en Nature.
Los investigadores basaron su red neuronal bioquímica en un modelo simple de neurona: una función de umbral lineal. La neurona modelo recibe señales de entrada, las multiplica por un peso positivo o negativo, y sólo si la suma de los pesos de las entradas sobrepasan un cierto umbral se “activa” la neurona, produciendo una salida. Este modelo es una sobresimplificación de las neuronas reales pero ha probado ser bastante bueno.
Para construir la red neuronal de ADN, consistente en cuatro neuronas y un total de 112 cadenas de ADN, los científicos emplearon un proceso llamado cascada de desplazamiento de la secuencia. Este proceso fue desarrollado para otro de los logros de este equipo, un circuito de ADN que calcula raíces cuadradas. Pero veamos en qué consiste, que tiene más nombre que dificultad de concepto.
Imagina una doble hélice de ADN, son dos cadenas emparejadas perfectamente, como una cremallera. Ahora imagina que pudieses tirar de las dos cadenas en sentido opuesto de tal forma que como resultado por cada extremo sobresale una sola cadena y en la parte central sigues teniendo la cadena doble. Esto es lo que se llama desplazamiento de la secuencia. Mientras flotan estas cadenas “parcialmente dobles” en una disolución acuosa en la que también hay presentes cadenas sencillas, puede ocurrir que una cadena sencilla se una a la cola de una cadena parcialmente doble. Los condicionantes termodinámicos hacen posible que la unión de esta cadena sencilla desplace completamente la otra cadena de la doble hélice, creando una nueva cadena parcialmente doble y una nueva cadena sencilla. La cadena sencilla inicial sería una entrada (input) y la cadena sencilla final sería una salida (output).
Como se pueden sintetizar cadenas de ADN con la secuencia de bases que se quiera, los investigadores pueden programar estas interacciones para que se comporten como una red de neuronas modelo. Ajustando las concentraciones de cada cadena de ADN en la red, los científicos pueden enseñarle a ésta a recordar patrones únicos de respuestas sí/no que caracterizan una salida (output) determinada. A diferencia de otras redes neuronales que pueden aprender de ejemplos, en este caso fueron cálculos por ordenador de las concentraciones necesarias los que se usaron para implantar los “recuerdos” en la red neuronal de ADN.
La red neuronal está de esta manera preparada para jugar a un juego de adivinación en el que trata de identificar a un científico misterioso. Los investigadores “entrenaron” a la red neuronal para que “conociese” a cuatro científicos, cada una de cuyas identidades está representada por un conjunto único y específico de respuestas a cuatro preguntas sí/no (¿es británico?¿tiene un Nobel?, etc.).
¿Cómo funciona en la práctica? Tras pensar en un científico de los cuatro, un jugador humano da un subconjunto de respuestas que identifican parcialmente a un científico. El jugador introduce en el tubo de ensayo esas pistas en forma de cadenas de ADN sencillas (inputs) que corresponden a esas respuestas. La red neuronal realiza sus “cálculos” y comunica su resultado en forma de señales fluorescentes correspondientes a las cadenas de ADN de salida (output) que vendrían a interpretarse como “el científico en el que estás pensando es...”. Si los datos de entrada no son suficientes para dar una respuesta concreta, la red puede “decir” que no tiene información suficiente como para elegir a un científico concreto o que las pistas son contradictorias. Los investigadores jugaron con 27 formas distintas de responder a las preguntas y el sistema dio la respuesta correcta cada vez. El sistema demuestra así su capacidad de “deducir” una respuesta a partir de datos incompletos, algo que habitualmente se atribuye al cerebro como algo característico.
Pongamos el hallazgo un poco en contexto. Si bien el experimento es lo que se llama una prueba de principio, es decir, que esto puede hacerse, esta red neuronal es muy limitada, incluso sus posibilidades de expansión son muy limitadas. Considera que un cerebro humano tiene del orden de cien mil millones de neuronas, por no hablar del número de conexiones entre ellas; crear una red neuronal de ADN de 40 neuronas, 10 veces el tamaño de la que estamos hablando, ya representa un reto gigantesco. Además, el sistema es muy lento: emplea ocho horas para dar una respuesta. Por si fuera poco el sistema es de un sólo uso. Por lo tanto, esto es muy interesante, tremendamente interesante, pero dentro de un orden.
Pero las limitaciones del sistema para crear una superinteligencia en un tubo de ensayo no nos deben ocular las posibilidades más realistas que tienen los sistemas bioquímicos con inteligencia artificial (como puede que el nombre quede grande, digamos capacidades básicas de toma de decisiones). Podemos pensar en aplicaciones en la investigación médica, biológica o química. Estos sistemas podrían operar dentro de las células dando pistas sobre qué está ocurriendo o diagnosticando una enfermedad. Los procesos bioquímicos que pueden responder de forma “inteligente” a la presencia de otras moléculas podría permitir a los químicos producir compuestos cada vez más complejos o construir nuevas estructuras, molécula a molécula.
No podemos negar que el desarrollo de estos sistemas, más allá de los retos tecnológicos, podrían arrojar luz, aunque fuese indirectamente, sobre la evolución de la inteligencia.

Esta entrada es una participación de Experientia docet en la VI Edición del Carnaval de Química que organiza Divagaciones de una investigadora en apuros.
Referencia:

Qian, L., Winfree, E., & Bruck, J. (2011). Neural network computation with DNA strand displacement cascades Nature, 475 (7356), 368-372 DOI: 10.1038/nature10262



... Read more »

  • December 18, 2009
  • 11:55 AM
  • 825 views

Selección en el útero: Las madres estresadas abortan espontáneamente los fetos masculinos.

by César Tomé López in Experientia docet

Se sabe desde hace tiempo que las condiciones estresantes como las hambrunas provocan que nazcan más niñas de las que nacen en épocas de bonanza. La variación en el reparto de sexos es pequeña (alrededor del 1 por ciento) pero en grandes poblaciones es relevante. Una posible explicación evolutiva es que las hijas es probable que se apareen y produzcan nietos independientemente de su estado, mientras que los hijos enclenques puede que fallen en su lucha por tener una oportunidad de reproducirse. En los tiempos duros, por tanto, las hijas serían una apuesta evolutiva más segura. Sea el que fuere el porqué de la variación, sin embargo, se ha dado por sentado que el momento en el que ocurre es el de la concepción o, más probablemente, la implantación. Un útero expuesto a las hormonas del estrés, dice la hipótesis, es menos probable que aloje un feto masculino. Un estudio publicado recientemente afirma que esto no tiene porqué ser así. Según Ralph Catalano, de la Universidad de California en Berkeley (EE.UU.), y sus colegas la selección sexual inducida por el estrés puede tener lugar mucho después de la concepción y la implantación. El artículo aparece en el American Journal of Human Biology. Como las hambrunas no son muy habituales en los Estados Unidos últimamente, Catalano et ál. usaron el desempleo como evento estresante [quizás sería conveniente recordar a los lectores que la protección social en los Estados Unidos es mínima]. Estudiaron los registros de nacimiento del estado de California desde abril de 1995 a diciembre de 2007, y lo compararon con las peticiones de cobertura por desempleo. Basándose en pistas dadas por trabajos previos, se concentraron en las peticiones asociadas a despidos masivos que tuvieron mayor resonancia social, en concreto de al menos 50 trabajadores. Se podrían considerar estos despidos masivos como más parecidos a las catástrofes naturales, como las hambrunas, que a incidentes aislados que hacen que algunas personas lo pasen mal. Los investigadores descubrieron que los despidos masivos llevaban, realmente, a que naciesen menos varones. A lo largo de todo el período el 52,4% de los nacimientos fueron niños. En algunos meses, sin embargo, bajó hasta el 51,2%. Un desmenuzamiento de la estadística sugiere que el estrés de los despidos masivos causó probablemente estas caídas, pero que los despidos en cuestión podían ocurrir meses después de la concepción. Los fetos masculinos eran, en otras palabras, abortados espontáneamente, presumiblemente a consecuencia del estrés. Esto no significa que la hipótesis original esté equivocada. Pero no es toda la verdad. El despiadado descarte de la descendencia inapropiada puede tener lugar, o eso parece, bastante después de que el feto haya comenzado a desarrollarse.[Imagen: Madre e hija de Nelly Drell]Referencia: Catalano, R., Zilko, C., Saxton, K., & Bruckner, T. (2009). Selection in utero: A biological response to mass layoffs American Journal of Human Biology DOI: 10.1002/ajhb.21011

... Read more »

Catalano, R., Zilko, C., Saxton, K., & Bruckner, T. (2009) Selection in utero: A biological response to mass layoffs. American Journal of Human Biology. DOI: 10.1002/ajhb.21011  

  • June 26, 2009
  • 09:15 AM
  • 823 views

El origen evolutivo de la depresión: a veces es bueno renunciar a los sueños.

by César Tomé López in Experientia docet

La depresión clínica es una enfermedad grave, pero casi todo el mundo se deprime levemente de vez en cuando. Randolph Nesse, un psicólogo e investigador en medicina evolutiva de la Universidad de Michigan, compara la relación entre la depresión leve y la clínica con la que existe entre el dolor normal y el crónico. Desde su punto de vista tanto el dolor como el estado de ánimo bajo son mecanismos de alarma y piensa que, de la misma manera que comprender el dolor crónico implica conocer primero el dolor normal, comprender la depresión clínica significa comprender primero la depresión leve. La hipótesis de Nesse es que, análogamente al dolor que te impide hacer actividades físicas que te dañan, el estado de ánimo bajo hace que dejes de hacer actividades mentales dañinas, particularmente, perseguir metas inalcanzables. Perseguir estas metas es un gasto de energía y recursos. Por lo tanto, según Nesse, es probable que exista un mecanismo, consecuencia de la evolución de la especie, que identifique determinadas metas como inalcanzables e inhiba su persecución. El estado de ánimo bajo sería al menos parte de ese mecanismo. Es una hipótesis ingeniosa pero, ¿es cierta? Un estudio publicado en el número de este mes de Journal of Personality and Social Psychology [1] sugiere que puede que lo sea. Carsten Wrosch de la Universidad Concordia (Canadá) y Gregory Miller de la Universidad de British Columbia (Canadá) estudiaron la depresión en chicas adolescentes. Midieron las “capacidades de ajuste de metas” de 97 chicas de entre 15 y 19 años durante 19 meses. Se las sometió a cuestionarios acerca de su capacidad de desengancharse de metas inalcanzables y reengancharse con otras nuevas. También se investigaron varios síntomas asociados con la depresión, y se siguió su evolución durante el periodo investigado. La conclusión fue que las que habían experimentado síntomas leves de depresión podían, de hecho, desengancharse más fácilmente de las metas inalcanzables. Esto apoya la hipótesis de Nesse. Pero el estudio también encontró un corolario digno de destacarse: aquellas mujeres que podían desengancharse de lo no conseguible era menos probable que sufrieran depresiones graves en el largo plazo. Los síntomas leves de depresión pueden verse por lo tanto como una parte natural de la gestión del fracaso en los adultos jóvenes. Aparecen cuando se identifica una meta como inalcanzable y llevan a una bajada de la motivación. En este período de baja motivación se ahorra energía y se pueden encontrar nuevas metas. Sin embargo, si este mecanismo no funciona adecuadamente la depresión clínica puede ser la consecuencia. La importancia de abandonar las metas inapropiadas ya había sido demostrada por Wrosch y Miller. Hace dos años publicaron un estudio [2] en el que mostraban que los adolescentes que eran buenos a la hora de decidir abandonar una meta tenían una concentración menor de la proteína C-reactiva, una sustancia que se genera en respuesta a las inflamaciones y que está asociada a un alto riesgo de diabetes y enfermedades cardiovasculares. Los investigadores por ello concluyen que es más saludable abandonar las metas demasiado ambiciosas, esas que a veces llamamos sueños. La perseverancia, aunque necesaria para el éxito y considerada una virtud por muchos, también puede tener su impacto negativo en la salud. Referencias:[1] Wrosch, Carsten, & Miller, Gregory E. (2009). Depressive symptoms can be useful: Self-regulatory and emotional benefits of dysphoric mood in adolescence. Journal of Personality and Social Psychology, 96 (6), 1181-1190[2] Miller, Gregory E., & Wrosch, Carsten (2007). You've Gotta Know When to Fold 'Em: Goal Disengagement and Systemic Inflammation in Adolescence Psychological Science, 18 (9)... Read more »

  • August 16, 2009
  • 06:23 AM
  • 820 views

Einstein y el experimento de Michelson-Morley

by César Tomé López in Experientia docet

Llevado a cabo en 1887, el experimento de Michelson-Morley se considera el trabajo definitivo que terminó eliminando la creencia decimonónica de que las ondas luminosas viajaban a través de un medio llamado éter. La historia estándar que se cuenta es que una vez que el experimento de Michelson-Morley probó que el éter era falso, todo el mundo supo que había una crisis, a la que puso fin Einstein cuando intervino resueltamente para resolver el problema con la teoría especial de la relatividad en 1905. Pero esta es una versión demasiado simplificada de lo que realmente ocurrió... Albert Abraham Michelson comenzó a trabajar en la búsqueda del éter cuando era un joven estudiante en Berlín con permiso de la Marina de los Estados Unidos. Más tarde, cuando se convirtió en profesor de física en el Colegio Case de Ciencia Aplicada de Cleveland, formó equipo con Edward Williams Morley, un químico también estadounidense que trabajaba en la cercana Universidad Western Reserve. Morley tenía fama de gran experimentador, y a Michelson le atraía el reto de crear un experimento meticuloso para medir la velocidad de la Tierra a través del éter que se suponía que llenaba el espacio. Las mediciones tenían que ser tan precisas que muchos dijeron que no podían hacerse. (Más tarde Michelson le diría a Einstein que había empleado tanta energía para conseguir la precisión necesaria simplemente porque era “divertido”). James Clerk Maxwell fue el primero en describir la luz como una onda electromagnética. En esa época, los físicos comprendían las ondas bastante bien. Las ondas del sonido, por ejemplo, se crean cuando un objeto que vibra comprime y descomprime alternativamente el medio que le rodea. En el aire, paquetes de aire más y menos densos viajan al oído y son interpretados por el cerebro. Las ondas en el agua tienen crestas y valles en vez de diferencias de densidad. Pero tanto el agua como el aire son medios necesarios para la propagación del sonido. Maxwell creía que la luz igualmente debía emplear un medio, una misteriosa sustancia llamada éter. Según la teoría, el éter estaría en reposo con respecto a un espacio absoluto del universo, y la Tierra, naturalmente, viajaría por él. Maxwell propuso que, por lo tanto, debería existir un “viento de éter” de algún tipo, que soplaría en la cara de un observador que mirase en el sentido del movimiento de la Tierra, y en su espalda si miraba en sentido contrario. Cabría esperar entonces que la luz viajase a diferentes velocidades dependiendo de la dirección en la que se moviese a través del éter, parecido a una persona que se mueve más fácilmente con el viento a favor que en contra. La idea de que la luz se pude mover con velocidades diferentes, en un mismo medio en idénticas condiciones, dependiendo sólo de la dirección de propagación, está en el corazón mismo del experimento de Michelson-Morley. Y esta es la idea que Einstein terminaría haciendo desaparecer. El experimento que se cita oficialmente como el experimento de Michelson-Morley tuvo lugar en 1887 [1] y utilizaba un diseño bastante innovador que se basaba en una técnica desarrollada por Michelson, la interferometría (Michelson recibiría el premio Nobel de física en 1907 por sus instrumentos ópticos de precisión y las mediciones realizadas con ellos). La interferometría depende del hecho de que cuando dos ondas se cruzan forman patrones muy concretos. Un experimento de interferometría comienza dividiendo un haz de luz, haciendo después que cada uno de los dos nuevos rayos viajen caminos distintos, para luego unirlos en una pantalla. Analizando los patrones resultantes se puede obtener información sobre la velocidad y la distancia recorrida por la luz. Michelson ya había usado la interferometría tanto para conseguir la medición más precisa hasta la fecha de la velocidad de la luz como para determinar la longitud oficial del metro para la Oficina Nacional de Estándares de los Estados Unidos. Para su experimento, Michelson y Morley hicieron que dos rayos de luz viajasen en ángulo recto uno del otro: uno viajaba en la misma dirección que el éter y el otro la cruzaba. Imaginemos dos personas nadando en un río, una va corriente arriba y luego a favor de corriente, mientras que la otra nada directamente a un punto al otro lado del río y vuelta. Ambos nadadores se tienen que enfrentar a la corriente pero de forma diferente y, consecuentemente, el tiempo que emplean para recorrer exactamente la misma distancia será diferente. Si la Tierra viaja a través del éter, el éter crea una corriente (como un río), y un rayo de luz que viaje en contra y luego a favor debería tardar menos en recorrer una distancia determinada que otro que la atraviese en ángulo recto. Esta era la hipótesis que Michelson y Morley intentaban confirmar con su experimento. El experimento estaba muy bien diseñado, pero por mucho que repitieron la medición, ambos rayos empleaban la misma cantidad de tiempo en sus viajes. La pareja comprobó y recomprobó el dispositivo experimental y repitieron las mediciones varias veces después de cada comprobación, siempre con el mismo resultado. El dispositivo, que se encontraba en un sótano con paredes de ladrillo [en la imagen], estaba instalado sobre un bloque de mármol que flotaba sobre una balsa de mercurio, lo que permitía girarlo para estudiar todos los ángulos posibles con respecto al “viento de éter”; ningún ángulo probado dio un resultado diferente. La reputación enorme de la que gozaban Michelson y Morley en la comunidad científica hizo que los físicos más famosos de la época aceptaran como válido un resultado tan inesperado. Claramente, había un problema con la teoría del éter. Sin embargo, el concepto del éter, no fue completamente descartado en ese momento. El consenso era que la hipótesis no estaba completa. El mismo Michelson repitió el experimento en numerosas ocasiones a lo largo de su vida, cambiando incluso la localización del dispositivo (lo llevó a lo alto de una montaña) para ver si había variaciones en la intensidad del presunto “viento de éter” que permitiesen detectar diferencias en las mediciones. Aunque había físicos que conocían el trabajo de Michelson y Morley, y sabían que sus resultados debían incorporarse a una nueva teoría de la luz, no está claro que Einstein, el que finalmente proporcionó esa teoría, tuviese conocimiento de él. Su artículo sobre la relatividad especial está claro que no hace referencia a los resultados del experimento, si bien es cierto que este artículo no hace referencia a casi nada ya que lo que se proponía era tan novedoso que Einstein podía afirmar que no se basaba en el trabajo de nadie (aunque a lo mejor Poincaré pensase otra cosa). Años más tarde Einstein se contradiría a sí mismo sobre el asunto de si conocía el experimento de Michelson-Morley. Dijo muchas veces que no tenía noticias de él y, de hecho, no lo menciona en sus Notas autobiográficas en las que describe cómo desarrolló sus teorías. Ya mayor afirmó, sin embargo, que la primera referencia del experimento la obtuvo del estudio del trabajo de Lorentz en 1895, y en algunas de sus primeras cartas (1899) que se conservan discute un artículo de Wien que contiene una referencia al experimento. Independientemente de si Einstein conocía el mismo experimento de Michelson-Morley, lo que si parece claro es que desarrolló su teoría de la relatividad especial creyendo firmemente que el éter no existía. Esta convicción no fue apriorística. La lectura de otros grandes científicos de su época, muchos de los cuales ciertamente conocían el experimento, habría influido con toda seguridad en las convicciones de Einstein. Después de la publicación por parte de Einstein de la teoría especial de la relatividad, Einstein tuvo conocimiento fehaciente del trabajo de Michelson y Morley (ver [2]) y, de hecho, estuvo en contacto con Michelson. Poco antes de su fallecimiento, en 1931, Michelson asistió a una cena en honor a Einstein en California. En su discurso Einstein dijo: “Usted, honorable Dr. Michelson, comenzó este trabajo cuando yo era un jovenzuelo que no levantaba 1 metro... Read more »

Michelson,AA, & Morley,EW. (1887) On the Relative Motion of the Earth and the Luminiferous Ether. The American Journal of Science, 34(203), 833-845. info:/

  • May 25, 2009
  • 07:28 AM
  • 818 views

Porqué los opuestos se atraen.

by César Tomé López in Experientia docet

Un nuevo estudio confirma que las mujeres eligen a sus parejas, entre otros factores, por su olor corporal. La preferencia por un determinado olor estaría determinada genéticamente, como una forma de garantizar el éxito evolutivo. En una conferencia dada hoy en la convención anual de la  European Society of Human Genetics , la profesora Maria da Graça Bicalho, de la Universidad del Paraná (Brasil) ha presentado los resultados de un estudio según el cual las mujeres tienen preferencia por parejas con complejos de histocompatibilidad principales (MHC, por sus siglas en inglés) diferentes a los propios. Esta preferencia es probable que sea un mecanismo evolutivo para asegurarse una reproducción sana. La inclinación de las mujeres por parejas con MHC distinto se ha demostrado que existe en muchas especies de vertebrados, incluyendo la humana. También se ha demostrado que el MHC influye en la selección de pareja haciendo que se tenga predilección por determinados olores corporales. En 1995, el equipo del biólogo suizo Claus Wedekind determinó por primera vez esta influencia del MHC. En el experimento, un grupo de estudiantes universitarias olían camisetas que habían sido llevadas por varones durante dos noches, sin desodorantes, colonias ni jabones. La inmensa mayoría de las mujeres eligieron a los varones con MHC distinto al propio. Sin embargo su preferencia se invertía si estaban tomando anticonceptivos orales. El MHC es una región genética situada en el cromosoma 6 y que se encuentra en la mayoría de los vertebrados. Tiene una importante función en el sistema inmunitario Los científicos brasileños han estudiado los datos de MHC de 90 parejas casadas y lo han comparado con 152 parejas virtuales, generadas al azar. Contaron entonces el número de diferencias en MHC entre las que eran parejas reales y lo compararon con el de las parejas virtuales. Si los genes del MHC no tuviesen influencia en la selección de pareja deberían obtenerse resultados similares. Lo que se encontró es que las parejas verdaderas tenían significativamente más diferencias de las que cabría esperar que tuviesen por azar. ¿Qué implica este comportamiento? Por lo pronto desciende la probabilidad de endogamia (emparejarse con parientes) y aumenta la variabilidad genética de la descendencia. La variabilidad genética es un factor importante en la evolución pues afecta a la respuesta diferencial de los individuos ante el estrés ambiental, incluyendo la resistencia a enfermedades. Por lo tanto un aumento en la variabilidad genética de la descendencia es aumentar la probabilidad de que tus genes sobrevivan, pues es más probable que alguno de tus descendientes lo haga y se reproduzca. Muchos factores pueden influir en la selección de una pareja; sociales, culturales, psicológicos o de oportunidad. Pero lo que no se puede negar es el impulso subconsciente que nos lleva a desear hijos sanos.Más información:No puedes ocultárselo a las mujeres¡Qué bien hueles!Wedekind, C., Seebeck, T., Bettens, F., & Paepke, A. (1995). MHC-Dependent Mate Preferences in Humans Proceedings of the Royal Society B: Biological Sciences, 260 (1359), 245-249 DOI: 10.1098/rspb.1995.0087... Read more »

Wedekind, C., Seebeck, T., Bettens, F., & Paepke, A. (1995) MHC-Dependent Mate Preferences in Humans. Proceedings of the Royal Society B: Biological Sciences, 260(1359), 245-249. DOI: 10.1098/rspb.1995.0087  

  • November 13, 2009
  • 01:48 PM
  • 812 views

Flora intestinal y obesidad.

by César Tomé López in Experientia docet

Para la obesidad se han encontrado muchos culpables: los huesos grandes, la comida basura, los genes o unos padres incompetentes. En los últimos años ha aparecido un nuevo responsable: la flora bacteriana del intestino. Los intestinos humanos están llenos de microorganismos que ayudan a la digestión y también evitan que sus homólogos patógenos nos invadan. En esta simbiosis algunas bacterias son mejores que otras a la hora de suministrar alimento a sus huéspedes humanos, y también parece que, por mecanismos que aún no se conocen, son capaces de hacer que los cuerpos de su simbionte almacenen la energía como grasa y que esa grasa se mantenga. En el pasado, cuando había suministros limitados de alimento, habrían sido unas valiosas aliadas. En una época de abundancia, sin embargo, se han vuelto problemáticas. En concreto, estudios hechos con ratones sugieren que la obesidad está asociada con tener una alta proporción de un grupo de bacterias llamado Firmicutes, mientras que en los ratones no obesos abundan las de otro grupo, las Bacteroidetes [1]. Estos trabajos también han sugerido que transplantar microbios de “ratones delgados” a ratones obesos podría hacer que éstos fuesen más delgados, al menos durante un tiempo. Lo que es cierto para los ratones puede que no lo sea para los humanos, por lo que claramente hace falta más investigación. Pero encontrar voluntarios dispuestos a que se les pongan las bacterias de otro en su intestino parece complicado. Por ello, en un artículo [2] que ha aparecido en Science Translational Medicine, Peter Turnbaugh de la Universidad Washington en San Luis (EE.UU.) y sus colegas describen un término medio. Han creado un ratón gnotobiótico con una flora intestinal humanizada. Lo hicieron tomando ratones de diez semanas de edad que habían sido criados para que estuviesen libres de microbios y colonizaron sus intestinos alimentándolos con heces humanas (nota: los ratones, según el artículo son coprófagos). Después de este tratamiento, se podía experimentar con los ratones alimentándolos con distintas dietas y viendo cómo respondían las bacterias. Los resultados indican que el comportamiento es similar al encontrado en ratones normales, incluyendo el aumento de obesidad asociado a Firmicutes. A la vista de estos resultados sospechamos que dentro de poco podremos ver nuevos alimentos “probióticos”, para “equilibrar” la flora intestinal, anunciados en televisión.Referencias:[1] Turnbaugh, P., Ley, R., Mahowald, M., Magrini, V., Mardis, E., & Gordon, J. (2006). An obesity-associated gut microbiome with increased capacity for energy harvest Nature, 444 (7122), 1027-131 DOI: 10.1038/nature05414[2] Turnbaugh, P., Ridaura, V., Faith, J., Rey, F., Knight, R., & Gordon, J. (2009). The Effect of Diet on the Human Gut Microbiome: A Metagenomic Analysis in Humanized Gnotobiotic Mice Science Translational Medicine, 1 (6), 6-6 DOI: 10.1126/scitranslmed.3000322

... Read more »

  • June 15, 2009
  • 12:16 PM
  • 808 views

Sobre la longevidad de los planetas con vida.

by César Tomé López in Experientia docet

Dentro de un millón de años la Tierra se habrá vuelto inhabitable. El incremento constante de la luminosidad del Sol hará que la erosión de origen biológico de los silicatos reduzca la concentración de dióxido de carbono en la atmósfera (como indicaron Lovelock y Whitfield ya en 1982). La desaparición del dióxido de carbono implica la desaparición de las plantas fotosintéticas que lo usan como nutriente. Los océanos se evaporarán. Toda la vida terminará desapareciendo. O no, si tienen razón los investigadores del Instituto de Tecnología de California (más conocido como Caltech). Según un artículo que apareció el día 1 de este mes en Proceedings of the National Academy of Sciences existe un mecanismo que puede duplicar la esperanza de vida en el planeta: la propia vida. Este mecanismo también aumenta las probabilidades de encontrar formas de vida avanzada en el universo. Las temperaturas en la superficie de la Tierra son una consecuencia directa del hecho de tener una atmósfera con una composición en la que intervienen gases que impiden que la radiación infrarroja (vulgo el calor) escape al espacio. Esto es lo que se conoce como efecto invernadero. El vapor de agua, el dióxido de carbono y el metano (los gases de efecto invernadero) son cruciales para la vida. Sin ellos la Tierra recibiría unas radiaciones excesivas durante el día y por la noche perdería todo el calor. Actúan como el aislante de una casa. Conforme el Sol ha ido madurando a lo largo de de los últimos 4.500 millones de años se ha vuelto más brillante y más caliente, incrementando la cantidad de radiación solar que recibía la Tierra y, a la par, las temperaturas en la superficie. En este período la Tierra ha visto reducida la cantidad de dióxido de carbono en la atmósfera (la presión actual de dióxido de carbono en la atmósfera es dos mil veces menor que la que había hace 3.500 millones de años), compensándose de esta manera el incremento de temperaturas. Pero nos estamos acercando al punto donde este mecanismo deja de ser viable por falta de dióxido de carbono. Un mecanismo alternativo para compensar el incremento de temperaturas es reducir la presión atmosférica global. Usando la analogía del aislante de la casa, hacemos que sea menos compacto, permitiendo que haya más huecos por los que pueda escapar la radiación infrarroja. ¿Qué mecanismo proponen los autores para disminuir la presión atmosférica? La idea es la siguiente: las células de los seres vivos incorporan nitrógeno cuando crecen y se entierra con ellos cuando mueren. La biosfera está retirando de hecho nitrógeno molecular del aire por esta vía. El nitrógeno constituye aproximadamente un 78% del aire. De esta manera calculan los investigadores liderados por King-Fa Li, la Tierra podría seguir siendo habitable 1.300 millones de años más. Si la hipótesis es cierta la presión atmosférica debe ser ahora menor de lo que ha sido a lo largo de la historia de la Tierra. La prueba puede venir del estudio de las burbujas de gas de las lavas volcánicas. A mayor presión atmosférica menores son las burbujas que se forman y viceversa. Esta hipótesis tiene sus implicaciones para la búsqueda de inteligencia extraterrestre. Si es cierto el mecanismo para la Tierra, puede ser extrapolable a otros planetas fuera del Sistema Solar. La duración de la existencia de una civilización avanzada es una de las variables de la ecuación de Drake [sugerimos leer “Sobre la probabilidad de detectar inteligencia extraterrestre”]. Doblar la duración de la biosfera terrestre supone doblar la probabilidad de que la inteligencia sobre la Tierra sea detectada por otras civilizaciones y a la recíproca, incrementa la probabilidad de encontrar otras civilizaciones.Referencia: Li, K., Pahlevan, K., Kirschvink, J., & Yung, Y. (2009). Atmospheric pressure as a natural climate regulator for a terrestrial planet with a biosphere Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.0809436106... Read more »

  • October 17, 2009
  • 01:24 PM
  • 805 views

Me fío de ti porque soy guapo.

by César Tomé López in Experientia docet

Una buena apariencia te puede ser muy útil. Los extraños evalúan a la gente atractiva como más digna de confianza y más honesta. Las estadísticas afirman, por si esto fuese poco, que los guapos ganan más dinero. Ahora, el equipo de Lisa DeBruine de la Universidad de Aberdeen (Reino Unido) informa en un artículo en Evolution and Human Behavior que este tratamiento deferencial hacia los guapos puede hacer que éstos se sientan más confiados cuando saben que los demás los pueden ver Los psicólogos y los economistas saben desde hace mucho que la gente actúa de forma distinta cuando se la observa. En los juegos económicos que piden a los participantes que repartan una cantidad de dinero, los sujetos tienden a ser más generosos cuando los experimentadores simplemente colocan fotografías de ojos en la sala de experimentación. Dado que la sociedad trata a la gente atractiva de forma diferente, el equipo de investigadores intentó determinar si el efecto de ser observado dependía de la apariencia de una persona. Para averiguarlo, los investigadores reclutaron 78 estudiantes de psicología de su universidad para que participaran en un juego. A los estudiantes se les presentaba una alternativa: dividir una suma de dinero en dos o confiar en un oponente que iba a dividir una suma mayor. Un jugador podía ganar más dinero confiando en el oponente. Para provocar el efecto de estar siendo observado, los investigadores hicieron fotografías de los estudiantes y les dijeron que en algunas rondas los oponentes verían su foto y en otras no. Pero los investigadores estaban engañando a los sujetos: no existían oponentes. DeBruine y sus colegas se centraban únicamente en la decisión de los estudiantes sobre cuándo tenían que fiarse. El equipo necesitaba una medida objetiva del atractivo de los participantes por lo que se eligió un jurado de 10 personas, no relacionadas con los participantes, para que les diesen una puntuación de 1 (feo) a 7 (guapísimo). Por otra parte los participantes también tenían que evaluarse a sí mismos según la misma escala. Los estudiantes que el jurado consideró que eran más atractivos confiaban más en el oponente cuando se les decía que los oponentes podían ver su foto que cuando no. ¿Cuánto más numéricamente? El tercio considerado más atractivo confió un 69% más cuando suponían que podían ser vistos que cuando se les decía que los oponentes no los podían ver. ¿Y los feos? El tercio considerado menos atractivo confiaba en el oponente un 31% menos cuando suponían que les podían ver. Esto por lo que respecta a las evaluaciones del jurado, porque no se apreciaba correlación estadísticamente significativa entre las autoevaluaciones y los aumentos o disminuciones de confianza. ¿Cómo es esto posible? Es algo aprendido: la gente considerada atractiva, aunque ellos no se estimen en tanto, termina dándose cuenta que le va mejor en las interacciones cara a cara que por teléfono. Así, aunque no estén pensando explícitamente en su atractivo, deciden concertar una cita para negociar algo que perfectamente pueden resolver por teléfono. Porque lo importante no es cómo yo piense que soy, sino cómo pienso que los demás creen que soy. Referencia: Smith, F., Debruine, L., Jones, B., Krupp, D., Welling, L., & Conway, C. (2009). Attractiveness qualifies the effect of observation on trusting behavior in an economic game Evolution and Human Behavior, 30 (6), 393-397 DOI: 10.1016/j.evolhumbehav.2009.06.003

... Read more »

  • February 14, 2013
  • 05:01 AM
  • 804 views

Don Juan en Marte: argumentos para la existencia de agua líquida

by César Tomé López in Experientia docet






Cuando Don Roe y John Hickey sobrevolaban con su helicóptero el
valle Wright de la Antártida en 1961 a una temperatura exterior de
30 grados bajo cero, no pudieron creer lo que vieron: un lago de agua
líquida. El lago Don Juan (llamado así en honor a sus
descubridores) es el charco (porque es poco más que un charco) más
increíble del planeta Tierra y podría dar pistas de cómo podría
haber agua líquida en lugares tan fríos y secos como Marte.



El secreto del lago Don Juan para mantenerse líquido es su alta
salinidad, mayor que la de cualquier otra acumulación natural de
agua de la Tierra. Sin embargo, el origen de esta salinidad era un
misterio. Y decimos era porque un estudio encabezado por James
Dickson, de la Universidad de Brown (EE.UU.), y publicado en
Scientific Reports revela de donde saca el Don Juan sus sales.






Los investigadores usaron time-lapses (16.000 fotografías
en 2 meses) y datos meteorológicos para determinar que el origen del
agua no era subterráneo, sino que provenía de la delicuescencia de
las sales presentes en el suelo, es decir, las sales no son aportadas
al lago por una corriente de agua salada, sino que las sales están
presentes en el suelo y toman agua de la atmósfera disolviéndose.
También se detectó otro pequeño aporte de agua proveniente de la
nieve derretida. Todo junto forma un charco capaz de mantenerse
líquido en uno de los lugares más fríos y secos de la Tierra,
basándose en el efecto de reducción de la temperatura de
congelación que supone la presencia de sal en el agua, tan conocido
en las zonas donde nieva habitualmente.





Lo que las imágenes muestran es que los niveles de agua en el
charco se incrementan coincidiendo con los picos de temperatura
diarios, lo que sugiere que el agua viene en parte de la nieve
calentada justo lo suficiente a mediodía para derretirse. Pero el
aporte de agua fresca no explica el alto contenido salino, que es
ocho veces mayor que el del mar Muerto.

La segunda fuente de aportes al lago viene de un canal de sedimento suelto localizado al oeste del charco. Investigaciones anteriores había encontrado que ese sedimento era rico en cloruro cálcico. Para comprobar que efectivamente esta era la fuente los investigadores colocaron una segunda cámara para monitorizar el canal y sincronizaron los datos, al igual que los de la primera cámara, con los datos de las estaciones meteorológicas cercanas.





Las imágenes muestran marcas oscuras de humedad que se forman en
el suelo cada vez que aumentaba la humedad relativa del aire. Existen
marcas de agua similares en un precipicio al norte del charco. Lo que
forma estas marcas es las sales del suelo absorbiendo la humedad
disponible en el aire, lo que antes hemos llamado delicuescencia.
Estas sales cargadas de humedad atraviesan el suelo suelto hasta
llegar a la capa de permafrost inferior. Y ahí esperan hasta que un
aumento de temperatura suficiente les permitan usar nieve derretida
para llegar al lago a través del canal.



Estos resultados contradicen la hipótesis predominante desde el
descubrimiento del lago en 1961 que afirmaba que las salmueras tenían
un origen subterráneo.



Los aficionados a la exploración marciana ya habrán asociado las
marcas de agua del lago Don Juan a algunos hallazgos hechos en Marte.
En concreto a marcas oscuras que parecen fluir ladera abajo en
algunos cortados y precipicios. Suelen ocurrir en los mismos lugares
en las mismas épocas del año marciano. Se ha especulado con que
estas marcas podrían ser algún tipo de salmuera fluyendo, la mejor
prueba disponible de la existencia de agua líquida en el Marte
actual.



Los resultados de la investigación en el lago Don Juan refuerzan
esta hipótesis. Se ha visto escarcha en Marte, lo que implica que el
aire contiene al menos algo de humedad. También, como son muy
conscientes los lectores habituales de Experientia docet,
existen sales cloradas en superficie que tendrían una capacidad
delicuescente similar a la observada en la Antártida. Finalmente, el
proceso no necesita agua del subsuelo, lo que elimina este
requerimiento en Marte.

Es más plausible, por tanto, que exista agua líquida en Marte en la actualidad y que la hubiese en el pasado.


Esta entrada es una participación de Experientia docet en
la XXII Edición del Carnaval de Química que
organiza Roskiencia.  


Referencia:

Dickson, J., Head, J., Levy, J., & Marchant, D. (2013). Don Juan Pond, Antarctica: Near-surface CaCl2-brine feeding Earth's most saline lake and implications for Mars Scientific Reports, 3 DOI: 10.1038/srep01166

... Read more »

  • October 20, 2009
  • 10:20 AM
  • 803 views

De cómo el área de Broca procesa el lenguaje .

by César Tomé López in Experientia docet

Un método invasivo, usado por primera vez en humanos, demuestra que una pequeña parte del cerebro puede procesar tres tipos de datos diferentes, en tres momentos distintos, en un cuarto de segundo. Además revela que el área de Broca realiza más de una función en el procesamiento del lenguaje. El trabajo, encabezado por Ned T. Sahin de la Universidad de California en San Diego, se ha publicado en Science. Este interesantísimo trabajo aborda dos cuestiones importantes: una, la forma en que los procesos cognitivos superiores, como el lenguaje, se implementan en el cerebro y, otra, la naturaleza de la que es, quizás, la región más estudiada de la corteza cerebral, el área de Broca. La primera prueba de que partes del cerebro se correspondían con partes de la mente fue el descubrimiento, por parte de Broca hace 150 años, de que pacientes con una parte concreta del cerebro dañada, lo que hoy se conoce como área de Broca, eran incapaces de hablar, pero el resto de sus funciones cognitivas no estaban afectadas aparentemente. En todos estos años no se ha avanzado demasiado en el conocimiento de cómo el área de Broca contribuye al lenguaje. Los resultados del estudio que nos ocupa sugieren que el área de Broca consiste realmente se distintas partes superpuestas, que desarrollan distintos pasos de procesamiento con un ajuste temporal en una fracción de segundo. Esta forma de funcionamiento ha podido pasar desapercibida hasta ahora debido al nivel de resolución de los métodos empleados. Los resultados de Sahin et ál. se han conseguido mediante el uso de electrodos colocados en los cerebros de los pacientes [véase la imagen, tomada por rayos X, cortesía del Dr. Sahin]. Esta técnica permite a los cirujanos conocer qué pequeña porción del cerebro deben extirpar para aliviar los ataques que sufren los pacientes a la vez que salvaguardan la integridad de las partes sanas necesarias para el lenguaje. Los registros para la investigación se pudieron hacer, pues, mientras los pacientes estaban despiertos y receptivos. Este procedimiento, llamado electrofisiología intracraneal (ICE, por sus siglas en inglés), permitió al equipo de investigadores terner una resolución en la actividad del cerebro relacionada con el lenguaje con una precisión de un milímetro, espacialmente, y un milisegundo, temporalmente. Este ha sido el primer experimento que emplea la ICE para documentar cómo el cerebro humano procesa la gramática y produce palabras. Dado que el lenguaje complejo es una característica humana, ha sido muy difícil investigar sus mecanismos neuronales. Los métodos de imágenes del cerebro, como los escáneres de resonancia magnética funcional (fMRI, por sus siglas en inglés) son, en la práctica, todo lo que es posible usar en humanos, pero emborronan la actividad de miles de millones de neuronas en períodos de exposición largos. Como consecuencia, no se ha podido determinar en detalle si los mecanismos usados por los modelos lingüísticos o computacionales para producir un discurso gramaticalmente correcto se corresponden con el mecanismo que el cerebro usa realmente. Para este estudio, los investigadores registraron la actividad de los cerebros de los pacientes mientras repetían palabras al pie de la letra o las producían en formas gramaticales (plural, pasado, etc.), una tarea que los humanos hacemos sin esfuerzo cada vez que pronunciamos una frase.. La ICE permitió a los autores estudiar tres componentes del procesamiento del lenguaje en tiempo real, determinar si actividades neuronales relacionadas se ponían en ejecución en serie o en paralelo, y si los patrones de actividad eran locales o distribuidos. Los resultados muestran que procesos lingüísticos diferenciados se procesan en pequeñas regiones al área de Broca, separados en el tiempo y coincidiendo parcialmente en el espacio. Específicamente, los investigadores encontraron patrones de actividad neuronal que indicaban procesamiento léxico, gramatical y articulatorio (fonológico) a, aproximadamente, 200, 320 y 450 milisegundos después de la presentación de la palabra. Estos patrones eran idénticos independientemente de las palabras, ya fuesen sustantivos o verbos, y eran consistentes entre los distintos pacientes. Se pudo comprobar que la identidad de una palabra impresa llega al área de Broca muy rápidamente después de haber sido vista, en paralelo a su llegada al área de Wernicke. Por lo tanto, los resultados contribuyen a descartar por incorrecta una idea que aparece en muchos libros de texto: que el área de Broca se encarga del lenguaje expresivo (hablar) mientras que el área de Wernicke se encarga del lenguaje receptivo (leer y escuchar). El área de Broca juega, pues, diferentes papeles, tanto en el lenguaje expresivo como en el receptivo.Referencia: Sahin, N., Pinker, S., Cash, S., Schomer, D., & Halgren, E. (2009). Sequential Processing of Lexical, Grammatical, and Phonological Information Within Broca's Area Science, 326 (5951), 445-449 DOI: 10.1126/science.1174481

... Read more »

  • May 17, 2010
  • 05:40 PM
  • 802 views

Un método de computación analógico para la fuerza de Casimir.

by César Tomé López in Experientia docet

Un equipo de investigadores del Instituto de Tecnología de Massachusetts (M.I.T., por sus siglas en inglés) ha desarrollado un método para encontrar soluciones a las ecuaciones de la fuerza de Casimir para cualquier geometría. Los resultados se publican en los Proceedings of the National Academy of Sciences. Imaginemos dos placas metálicas no cargadas eléctricamente, separadas unos micrometros, en ausencia de campo electromagnético y en reposo. ¿Existe alguna fuerza neta en el sistema? Desde un punto de vista clásico la respuesta es un contundente no. Sin embargo, desde el punto de vista cuántico la respuesta es sí: la existencia de esta fuerza neta la predijeron Hendrik Casimir y Dirk Polder en 1948 y su existencia ha sido comprobada experimentalmente. De hecho, esta fuerza que, aparentemente viene de la nada y disminuye rápidamente con la distancia, puede alcanzar valores sorprendentes a distancias muy pequeñas. Así, en placas separadas 10 nm la fuerza de Casimir-Polder (Casimir, de ahora en adelante), dependiendo de la geometría de las placas, llega a 1 atmósfera de presión. Esto quiere decir que esta fuerza anti-intuitiva se convierte en la dominante en la nanoescala entre conductores no cargados. La mecánica cuántica ha puesto de manifiesto que nuestro universo es mucho más raro de lo que imaginamos. Una de estas características extrañas es la confirmación de la realidad de todo un abanico de nuevas partículas subatómicas que están constantemente apareciendo y desapareciendo de la existencia en un lapso de tiempo prácticamente indetectable. Hay tantas de estas partículas efímeras en el espacio, incluso en el vacío, moviéndose en todas direcciones, que las fuerzas que ejercen se contrarrestan unas a otras. A efectos prácticos en la mayoría de los casos pueden ignorarse. Pero cuando los objetos se aproximan mucho, hay poco hueco entre ellos como para que las partículas comiencen a existir. Consecuentemente, hay menos de estas partículas efímeras entre los objetos para contrarrestar las fuerzas que ejercen las partículas que aparecen alrededor de ellos, y la diferencia de presión termina empujando a los objetos el uno contra el otro. Este es el origen de la fuerza de Casimir.En los años 60 del siglo XX se desarrolló una fórmula que, en principio, describe los efectos de las fuerzas de Casimir en cualquier número de objetos pequeños, con cualquier forma. Pero en la inmensa mayoría de los casos, la fórmula era imposible de resolver en la práctica. Se consiguió encontrar una solución para un número muy limitado de casos, como el de dos placas paralelas. En años recientes se han encontrado maneras de obtener soluciones para otras configuraciones. Así, en 2006 se resolvió para una placa y un cilindro y, en 2007, para esferas múltiples. Pero no se conseguía encontrar una solución general. Esto es precisamente lo que han logrado los miembros del equipo encabezado por Alejandro W. Rodríguez: un método para resolver las ecuaciones de las fuerzas de Casimir para cualquier número de objetos, con cualquier forma concebible. La aproximación de los investigadores al problema ha sido la de reducirlo a otro análogo, matemáticamente equivalente, pero resoluble. En concreto, demuestran que objetos del orden de centímetros separados también del orden de centímetros, dentro de un fluido conductor de la electricidad, constituyen un modelo preciso del nanosistema en lo que respecta a las fuerzas de Casimir. En vez de calcular las fuerzas ejercidas por pequeñas partículas que aparecen alrededor de pequeños objetos, los investigadores calculan la fuerza de un campo electromagnético en varios puntos alrededor de otros objetos mucho más grandes. Para objetos con formas raras, como una rueda dentada, el cálculo de la fuerza electromagnética en un fluido conductor sigue siendo algo bastante complicado. Pero nada que no pueda arreglarse usando software de ingeniería estándar. El encontrar una solución a las ecuaciones de las fuerzas de Casimir es algo que va mucho más allá del mero conocimiento teórico: poder calcular las fuerzas de Casimir para distintas geometrías se ha convertido en algo imprescindible en nanotecnología. Dado que las fuerzas de Casimir pueden hacer que las partes móviles de los sistemas electromecánicos a nanoescala se queden pegadas, es necesario encontrar geometrías donde en vez de atracción haya repulsión, y esto es lo que permite la nueva técnica. Eso sí, la creatividad humana está llamada a jugar un gran papel para encontrar estas formas con fuerzas repulsivas: todavía es necesario el uso de la intuición para imaginar qué formas pueden tener repulsión. La técnica de Rodríguez et al. solo nos dirá si estamos en lo cierto a posteriori.[Esta es la participación de Experientia docet en el VII Carnaval de la Física, que este mes acoge El navegante.]Referencia: Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010). Theoretical ingredients of a Casimir analog computer Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1003894107

... Read more »

Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010) Theoretical ingredients of a Casimir analog computer. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.1003894107  

  • May 14, 2010
  • 10:27 AM
  • 800 views

Ludopatía, la adicción a casi ganar.

by César Tomé López in Experientia docet

No es la emoción de ganar sino la emoción de casi ganar lo que distingue a un ludópata. Una fuerte reacción en el cerebro en respuesta a las ocasiones percibidas subjetivamente como que "casi se gana" estaría correlacionada con una mayor tendencia al juego compulsivo, según un estudio que se publica en el Journal of Neuroscience. Los juegos de apuestas son algo en lo que participa casi todo el mundo de una forma u otra, desde las tragaperras a las carreras de caballos, desde el fútbol a la lotería. Para la mayoría es una forma de pasar un rato divertido, cuando no es además una forma de afianzar relaciones sociales; pero para algunos se convierte en una adicción que les arruina la vida: cada vez necesitan estímulos mayores en forma de ganancias para encontrar satisfacción y, cuando se ven forzados a parar, sufren síndrome de abstinencia. Antes de entrar en el estudio propiamente dicho quizás sea interesante pararnos un poco en las premisas falsas de las que parten muchos jugadores de azar. Los jugadores creen que en juegos como la ruleta o en las loterías es necesario algún tipo de habilidad a la hora de escoger un número, aunque esta habilidad tenga una componente esotérica sin ningún tipo de conexión con la realidad: este número es bonito, que sea capicúa, que sume trece, que allí hubo una desgracia y este es el código postal, después de tres rojos consecutivos siempre sale un negro, etc. En los juegos donde la habilidad sí importa, como el baloncesto, un tiro a canasta de tres puntos con el balón rebotando en el aro puede ser asociado correctamente con casi una anotación, por lo que asociar un valor a “casi anotar” tiene sentido. Pero en los juegos de azar, perder “por poco” no tiene sentido (da igual tener el 23 o el 93 si el que ha salido es el 24) porque el resultado no dice nada sobre la probabilidad futura de ganar. Esto, que es evidente a poco que se reflexione, no es la forma en que mucha gente piensa. Chase y Clark, de la Universidad de Cambridge (Reino Unido), han encontrado que en voluntarios sanos, las “pérdidas por poco”, que no representaban ni un solo céntimo de ganancia, seguían activando las partes del cerebro asociadas con las ganancias de dinero. En el estudio que han publicado analizan cómo se relaciona la activación del cerebro con la “gravedad” de la afición al juego. Los investigadores invitaron a 20 voluntarios, dos de los cuales eran mujeres, a jugar a una especie de máquina tragaperras mientras que sus cerebros eran analizados por resonancia magnética funcional (fMRI). La fMRI es una máquina que consigue mostrar en una pantalla qué partes del cerebro se iluminan cuando les llega oxígeno con el torrente sanguíneo al activarse. Los voluntarios jugaban todos habitualmente a juegos de azar, desde apuestas hípicas y quinielas de fútbol a tragaperras y loterías. Todos los voluntarios menos uno (que se había abstenido durante un año) jugaban al menos una vez a la semana. Las apuestas iban desde cinco personas que gastaban rutinariamente entre 12 y 120 € al día, a dos que estaban dispuestas a gastar 12.000 €. No parece muy sorprendente que 13 de los voluntarios resultaran considerados personas con demasiada inclinación al juego en una prueba estándar. El juego era simple: en una tragaperras simplificada, de sólo dos ruedas, cuando la figura de la izquierda coincidía con la figura de la derecha, el voluntario ganaba un premio en metálico de 0,60 €. Algunas veces los voluntarios podían elegir la figura de la izquierda. Otras veces era seleccionada por el equipo de investigadores. La “pérdida por poco” se producía cuando la desesperantemente lenta parada de la rueda de la derecha hacía que el ansiado plátano, ancla o bota de cowboy se colocase a sólo una o dos posiciones de la de alineamiento con la figura de la izquierda. De hecho la máquina estaba trucada: todos los voluntarios obtuvieron 30 resultados ganadores, 60 “pérdidas por poco” y 90 claramente perdedores. Los investigadores encontraron que aquellos que habían puntuado más alto en gravedad de afición al juego también presentaban la mayor actividad en el estriado ventral, área del mesencéfalo que se activaba con las “pérdidas por poco”. Significativamente no había diferencias en las respuestas a los resultados ganadores. Este área del cerebro es interesante porque es donde se produce la dopamina, un neurotransmisor. La dopamina aparece frecuentemente cuando se estudian las adicciones. El estudio sugiere que podría ser la “perdida por poco”, el “casi ganar”, la que favorece la transmisión dopaminérgica en los jugadores que tienen los problemas más graves. Lo que significa que podría ser posible encontrar tratamientos que redujesen los efectos de la dopamina en el cerebro para aliviar, al menos en parte, la compulsión de jugar. Referencia: Chase, H., & Clark, L. (2010). Gambling Severity Predicts Midbrain Response to Near-Miss Outcomes Journal of Neuroscience, 30 (18), 6180-6187 DOI: 10.1523/JNEUROSCI.5758-09.2010

... Read more »

  • July 10, 2009
  • 11:48 AM
  • 797 views

Espaciotiempo y neurogénesis.

by César Tomé López in Experientia docet

Aunque el hecho de que generamos nuevas células cerebrales [en verde en la imagen] a lo largo de la vida ya no se discute, su propósito es un tema muy debatido. Ahora, un grupo internacional de investigadores dirigidos por Fred H. Gage del Laboratorio de Genética del Instituto Salk (EE.UU.) y Thimothy J. Bussey de la Universidad de Cambridge (Reino Unido), publica en el número de hoy de Science los resultados de una investigación según la cual las jóvenes neuronas nos permiten mejorar nuestra capacidad de navegación por el espacio. Cuando aparecieron las primeras indicaciones de que los cerebros humanos adultos producían continuamente nuevas neuronas, empezó a desmoronarse uno de los principios básicos de la neurociencia hasta ese momento, el que afirmaba que se nace con todas las células cerebrales que se tendrán durante la vida del individuo. Una década después la cuestión no es si existe la neurogénesis sino para qué sirven todas estas células nuevas. Evolutivamente hablando debe existir un claro beneficio pues los riesgos son evidentes. ¿Qué pasaría si las nuevas células no se integrasen en los circuitos existentes? El área del cerebro más activa en neurogénesis se encuentra en el hipocampo, una pequeña área con forma de caballo de mar localizada en el cerebro profundo. Procesa y distribuye la información a memorizar procedente del córtex a las secciones del cerebro apropiadas, probablemente de vuelta al córtex, después de prepararla para que sea fácil recordarla. El giro dentado es la primera estación de relevo en el hipocampo para la información procedente del córtex. A la vez que la atraviesa, la información de entrada es dividida y distribuida entre 10 veces el número de células que la portaban originalmente. Este proceso, llamado separación de patrones, se piensa que ayuda al cerebro a separar los acontecimientos individuales que forman parte de los recuerdos que entran. La hipótesis que ha probado el equipo, consecuencia del hecho de que la separación de patrones se hace en el giro dentado (el lugar del hipocampo donde tiene lugar la neurogénesis), es que la neurogénesis ayuda a la separación de patrones. Se han llevado a cabo dos grupos de experimentos que pusieron a prueba específicamente esta función del giro dentado usando diferentes tareas de comportamiento y dos estrategias distintas para anular la neurogénesis selectivamente en el giro dentado. En el primer grupo de experimentos, los ratones tenían que aprender la localización de una recompensa (comida) que les había sido enseñada en relación con la localización de una recompensa anterior dentro de un laberinto radial de ocho brazos. Los ratones sin neurogénesis no tuvieron dificultad para encontrar la nueva localización, siempre y cuando estuviese lo suficientemente lejos de la primera, pero no podían diferenciar entre dos que estuviesen cercanas entre sí. Un segundo grupo de experimentos usó una pantalla táctil. Estas pruebas confirmaron la incapacidad de los ratones sin neurogénesis para discriminar entre localizaciones muy próximas, pero también puso de manifiesto que estos ratones no tenían dificultad en acceder a la información espacial en general. Pero la separación de patrones puede que no sea el único papel para las nuevas neuronas en el cerebro adulto. Un modelo de ordenador que simulaba los circuitos neuronales en el giro dentado basándose en toda la información biológica disponible sugirió una función adicional, a confirmar experimentalmente: las nuevas neuronas formarían de hecho una conexión entre elementos individuales de episodios que ocurren cercanos en el tiempo. Así pues, las nuevas neuronas serían las responsables de que seamos conscientes de la continuidad del espaciotiempo. Referencia: Clelland, C., Choi, M., Romberg, C., Clemenson, G., Fragniere, A., Tyers, P., Jessberger, S., Saksida, L., Barker, R., Gage, F., & Bussey, T. (2009). A Functional Role for Adult Hippocampal Neurogenesis in Spatial Pattern Separation Science, 325 (5937), 210-213 DOI: 10.1126/science.1173215... Read more »

Clelland, C., Choi, M., Romberg, C., Clemenson, G., Fragniere, A., Tyers, P., Jessberger, S., Saksida, L., Barker, R., Gage, F.... (2009) A Functional Role for Adult Hippocampal Neurogenesis in Spatial Pattern Separation. Science, 325(5937), 210-213. DOI: 10.1126/science.1173215  

  • December 20, 2010
  • 05:09 PM
  • 795 views

Cómo el campo eléctrico del cerebro afecta al propio cerebro.

by César Tomé López in Experientia docet

Tu cerebro es eléctrico. Existen multitud de pequeñísimos impulsos transmitiéndose entre los miles de millones de neuronas interconectadas que generan un campo eléctrico que rodea el cerebro como una nube invisible. Un estudio realizado por Flavio Fröhlich y David McCormick, ambos de la Universidad de Yale, sugiere que el campo eléctrico del cerebro no es un subproducto pasivo de su actividad neuronal, como se solía pensar. Este campo eléctrico podría ayudar a regular activamente cómo funciona el cerebro, especialmente durante el sueño profundo. Aunque siempre se sabe desde hace mucho tiempo que las fuentes externas de electricidad pueden alterar el funcionamiento del cerebro (de ahí la terapia de electroshocks, por ejemplo), esta es la primera prueba directa de que el propio campo eléctrico del cerebro cambia la forma en la que éste se comporta. Los resultados se publican en Neuron. Los investigadores rodearon un corte de tejido del córtex cerebral de hurón aún vivo con un campo eléctrico que imitaba el campo que un cerebro de hurón intacto produce durante el sueño de ondas lentas (fase 4 del sueño no REM, también llamado sueño delta). El campo aplicado amplificó y sincronizó la actividad neuronal existente en el corte cerebral. Estos resultados indican que el campo eléctrico generado por el cerebro facilita la misma activación neuronal que lo provocó en primer lugar, de la misma forma que el entusiasmo de una masa de personas en un estadio deportivo provoca que cada una siga animando. En otras palabras, el campo eléctrico cerebral no es un subproducto, es un bucle de retroalimentación. Se sabía que los periodos de actividad neuronal altamente sincronizados (como el del sueño profundo) son cruciales para el mantenimiento de un funcionamiento normal del cerebro. Ahora bien, no está claro ni cómo se coordinan estas fases estables, ni por qué se descontrolan en enfermedades como la epilepsia. Este nuevo estudio indica que el campo eléctrico cerebral puede tener mucho que decir a este respecto. Este descubrimiento puede tener también aplicaciones terapéuticas. Concretamente en la mejora de una técnica llamada estimulación por corriente directa transcraneal (tDCS, por sus siglas en inglés), que aplica campos eléctricos débiles al cuero cabelludo para tratar, por ejemplo, la depresión o el dolor crónico. Habitualmente la tDCS usa campos eléctricos estándares que no cambian demasiado, a diferencia de los campos eléctricos dinámicos que se han usado en este estudio para imitar un cerebro vivo. El siguiente paso lógico es usar estas combinaciones de ondas más complejas en un entorno clínico y ver si mejoran el tratamiento.Más información sobre las ondas cerebrales como forma de comunicación intracerebral, aquí. Referencia: Fröhlich, F., & McCormick, D. (2010). Endogenous Electric Fields May Guide Neocortical Network Activity Neuron, 67 (1), 129-143 DOI: 10.1016/j.neuron.2010.06.005

... Read more »

  • September 26, 2009
  • 02:56 PM
  • 793 views

El impacto de un cometa explicaría el origen de las primeras proteínas y por qué los aminoácidos terrestres son de izquierdas.

by César Tomé López in Experientia docet

A la hora de explicar el origen químico de la vida, salvada la aparición de las primeras moléculas, destacan dos dificultades importantes: por un lado cómo se originaron las primeras moléculas complejas, los primeros polímeros que darían lugar a las proteínas, y por otro por qué la vida en la Tierra sólo emplea aminoácidos levógiros. Un equipo del Instituto SETI aporta una posible solución a ambas preguntas: el impacto de un cometa.Cuando se discute las distintas posibilidades del origen de la vida en la Tierra, tarde o temprano se termina hablando de los aminoácidos. La vida en la Tierra usa 20 de ellos para construir miles y miles de proteínas diferentes que realizan un número proporcional de funciones diferentes en las células, por lo que su importancia es evidente. En muchos de los experimentos que se hacen para intentar averiguar cuales fueron los primeros pasos de la evolución química, los investigadores se dan por muy satisfechos si en alguno de ellos aparece alguno de estos aminoácidos. Las noticias de su detección en un cometa o en una nube interestelar copan los titulares de los medios de divulgación científica, siempre acompañados por la coletilla “posibilidad de la existencia de vida” Y, sin embargo, la mera presencia de aminoácidos no es suficiente, es necesario que se unan entre sí y esto, aparentemente tan sencillo, no lo es. El enlace peptídico, el que se produce entre la parte amino de un aminoácido con la ácido de otro para formar las cadenas (péptidos) que terminarán formando proteínas, no es espontáneo a las temperaturas ordinarias, existe una barrera energética, es decir, una cantidad de energía que hay que aportar para que la reacción tenga lugar, es lo que se llama energía de activación. Los químicos emplean para facilitar las reacciones en los laboratorios unas sustancias llamadas catalizadores cuya función es reducir la energía de activación. Los organismos vivos recurren al uso de catalizadores naturales, llamados enzimas. Pero los enzimas son ellos mismos proteínas. ¿Cómo empezó pues la polimerización de los aminoácidos? Otro misterio es por qué la vida usa aminoácidos levógiros cuando de forma natural existen dextrógiros (giran la luz polarizada a la derecha) y levógiros (giran la luz polarizada a la izquierda). Esto es a lo que nos referimos cuando hablamos de quiralidad. Una respuesta a ambas preguntas puede que venga del espacio exterior: Jennifer Blank y sus colegas del Instituto SETI (EE.UU.) estudian los cometas y el efecto de sus impactos en la formación de moléculas complejas de una quiralidad determinada. Una forma de conseguir estas moléculas es hacer los aminoácidos en el espacio y que vengan a la Tierra a bordo de meteoritos y cometas. Hay muchas pruebas de que los meteoritos transportan aminoácidos. Y hace muy poco, se descubrió un aminoácido en el material de un cometa que fue traído por la sonda Stardust de la NASA. El equipo de Blank quería saber qué les pasaba a estas biomoléculas cuando su “cápsula espacial” cometaria se estrellaba en la Tierra. ¿Por qué un cometa y no un meteorito? Para empezar, porque el impacto de un cometa es menos “agresivo” que el de un meteorito, ya que los meteoritos son menos densos, lo que significa que el impacto genera temperaturas y presiones menores. En segundo lugar, los cometas transportan agua, que es clave para las reacciones químicas que dan lugar a la vida tal y como la conocemos. Cuando el cometa se estrella, su hielo se derrite formando un charco en el lugar del impacto, si éste es terreno seco (en el mar toda los productos se diluyen y no hacemos nada). Hasta aquí la teoría, ¿cómo se puede confirmar la validez de esta hipótesis a nivel experimental? Para simular un cometa impactando con la Tierra, Blank et. al disparan una bala dentro de un contenedor de metal del tamaño de una lata de conservas. En esta situación, el contenedor es el cometa y la bala la dura tierra. Dentro del contenedor hay una pequeña cámara del tamaño de una moneda, en la que se deposita una muestra líquida de moléculas orgánicas. Tras el impacto y tras asegurarse de que no ha habido filtraciones, la cámara se extrae con mucho cuidado a través de un dispositivo que garantiza que no se contamina. En 2001 el equipo ya informó en un artículo publicado en Origins of Life and Evolution of Biospheres, para sorpresa de muchos, que los aminoácidos colocados en el simulador cometario estaban todavía intactos tras el impacto. Normalmente, las temperaturas cercanas a los 600 º C dentro del “cometa estrellado” destruirían los aminoácidos. Pero, aparentemente, la temperatura sube y baja tan rápidamente que a las moléculas nos le da tiempo de reaccionar. La altísima presión, 10.000 atmósferas, también puede contribuir a que la descomposición no tenga lugar. Sin embargo, los aminoácidos hicieron algo más que sobrevivir. También comenzaron a reaccionar entre sí para formar cadenas de hasta 5 aminoácidos de largo. Es concebible que el impacto de un cometa produjese las primeras piezas rudimentarias de las proteínas, los péptidos, y que de esta forma se echase a rodar la bola. En lo que respecta a la quiralidad, Blank piensa que podría haber una diferencia en cómo se enlazan los aminoácidos en las condiciones del impacto. Los aminoácidos levógiros (de izquierdas) tendrían mayor facilidad para enlazarse a otros levógiros que a un dextrógiro o que los dextrógiros entre sí. Esta preferencia, si existe, explicaría el exceso enantiomérico (hay más de izquierdas que de derechas) en los restos del impacto. Según esta hipótesis en este hecho estribaría la explicación de porqué la vida en la Tierra usa abrumadoramente aminoácidos levógiros. Los trabajos para la confirmación experimental de la hipótesis están en marcha.Referencia: Blank, J., Miller, G., Ahrens, M., & Winans, R. (2001). Experimental Shock Chemistry of Aqueous Amino Acid Solutions and the Cometary Delivery of Prebiotic Compounds Origins of Life and Evolution of the Biosphere, 31 (1/2), 15-51 DOI: 10.1023/A:1006758803255
... Read more »

  • December 10, 2009
  • 04:58 PM
  • 792 views

Síntesis estructural y funcional de una metaloproteína.

by César Tomé López in Experientia docet

Un equipo de investigadores dirigido por Yi Lu, de la Universidad de Illinois en Urbana-Champaign, ha diseñado una proteína sintética que es un modelo tanto funcional como estructural de una proteína natural, la enzima óxido nítrico reductasa (NOR). El logro se publica en Nature. Es muy difícil estudiar una molécula biológica tan compleja como la NOR si ésta no es soluble en agua. Cualquier ensayo debe realizarse en un medio graso, por tanto orgánico, que influirá en las reacciones que se estén estudiando. La NOR es una proteína de membrana (celular) y, por tanto, es liposoluble (no hidrosoluble). Tener un modelo de la proteína que es reflejo estructural y funcional de ella es tremendamente interesante. Sintetizar una proteína no es nada fácil. Sintetizar una proteína que contenga átomos metálicos en su estructura es mucho más difícil debido a la variabilidad en estados de oxidación y geometrías que presentan los átomos metálicos. La NOR es una metaloproteína, contiene hierro al igual que la hemoglobina de la sangre. Para imitar la estructura [en la imagen] y función de la NOR, los investigadores partieron de una pequeña proteína muscular, la mioglobina. Aunque es más pequeña que la NOR y soluble en agua, la mioglobina puede reproducir características claves de la NOR. Basándose en estos cimientos, los investigadores crearon un nuevo lugar para el enlace del hierro consistente en tres histidinas y un glutamato. Aparte de su papel estructural, las histidinas y el glutamato pueden proporcionar los protones (H+) necesarios para la reducción del óxido nítrico en el sitio activo. ¿Qué importancia puede tener que se sintetice una proteína? Mucha. Empezando por el final, esta proteína sintética es un excelente modelo para crear biocatalizadores para uso biotecnológico, medioambiental y farmacéutico. Desde un punto de vista más básico, más fundamental, las posibilidades de estudio de la NOR que aportará este nuevo modelo permitirán conocer mejor el ciclo del óxido nítrico (NO) en los mamíferos, y las patologías asociadas. Este ciclo es crítico para la vida. El NO es un importante regulador y mediador en numerosos procesos en los sistemas cardiovascular, nervioso e inmune. Así, participa en la relajación de los músculos lisos lo que resulta en la vasodilatación de las arterias e incremento del flujo sanguíneo (es crítico en el mantenimiento de la erección). En el sistema nervioso actúa como neurotransmisor, capaz de introducirse en las neuronas sin necesidad de sinapsis, pudiendo activar un grupo local de neuronas rápidamente. El NO es citotóxico para los microbios y las células tumorales, por lo que los macrófagos lo usan como arma de defensa en el sistema inmunitario. Por otra parte, el NO está implicado en los choques sépticos, la hipertensión, los infartos o las enfermedades neurodegenerativas.Referencia: Yeung N, Lin YW, Gao YG, Zhao X, Russell BS, Lei L, Miner KD, Robinson H, & Lu Y (2009). Rational design of a structural and functional nitric oxide reductase. Nature PMID: 19940850

... Read more »

Yeung N, Lin YW, Gao YG, Zhao X, Russell BS, Lei L, Miner KD, Robinson H, & Lu Y. (2009) Rational design of a structural and functional nitric oxide reductase. Nature. PMID: 19940850  

  • November 10, 2010
  • 04:22 PM
  • 791 views

El catastrofismo episódico de Matthew frente a la evolución gradual de Darwin.

by César Tomé López in Experientia docet

La teoría de Charles Darwin de la evolución gradual no estaría apoyada por la historia geológica, según un ensayo que publica Michael Rampino, de la Universidad de Nueva York (EE.UU.), en Historical Biology. De hecho, Rampino afirma que el punto de vista de Patrick Matthew, anterior al del propio Darwin, en el que la estabilidad evolutiva se ve interrumpida por extinciones masivas catastróficas, estaría más próximo a la visión actual de la evolución biológica.. Matthew (1790-1874) publicó sus ideas sobre la ley de la selección natural en su libro Naval Timber and Arboriculture en 1831. Si bien tanto Darwin como Alfred Russel Wallace reconocieron que Matthew fue el primero en proponer la teoría de la selección natural, tradicionalmente se ha venido atribuyendo su descubrimiento solamente a Darwin y Wallace. Los diarios de Darwin muestran que llegó a esta idea en 1838, y que compuso un primer ensayo sobre la selección natural en 1842. la teoría de Darwin y Wallace fue formalmente presentada en una conferencia en 1858, mientras que “El origen de las especies” se publicaba en 1859. En el apéndice de Naval Timber and Arboriculture, Matthew describía la teoría de la selección natural en términos parecidos a los que después usaría Darwin: “Hay una ley natural universal en la naturaleza, que tiende a hacer a todo ser reproductivo lo más adaptado posible a su condición[...] Como el ámbito de la existencia es limitado y está pre-ocupado, son sólo los individuos más duros, más robustos, mejor adaptados a las circunstancias, los que son capaces de luchar hacia la madurez[...] ” Sin embargo, había un punto en el que los planteamientos de Matthew y Darwin divergían. Al explicar las fuerzas que influían en este proceso, Matthew veía los acontecimientos catastróficos como un factor principal, manteniendo que las extinciones masivas eran cruciales para el proceso de la evolución: “[...] todos los seres vivos deben haber reducido tanto la existencia, que se formaría un nuevo ámbito desocupado para nuevas ramas divergentes de la vida [...] estos restos, acomodándose y amoldándose en el transcurso del tiempo […] al cambio en las circunstancias.” Cuando Darwin publicó su “Origen de las Especies” cerca de tres décadas después, rechazó explícitamente el papel del cambio catastrófico en la selección natural: “ La vieja noción de que todos los habitantes de la Tierra habrían sido barridos por catástrofes en períodos sucesivos se abandona en general”. Así, la teoría de la evolución que Darwin describió se basaba en una lucha continua por la supervivencia entre los individuos dentro de las poblaciones de la especies existentes. Según Darwin, el proceso de selección natural debería llevar a cambios graduales en las características de los organismos supervivientes. La historia geológica se ve actualmente caracterizada por largos periodos de estabilidad puntuada por importantes cambios ecológicos que tienen lugar episódica y rápidamente, lo que no termina de ajustarse a la teoría original de Darwin que afirmaba que: “la mayor parte del cambio evolutivo tuvo lugar muy gradualmente por competición entre organismos y adaptándose mejor a un entorno relativamente estable”. La contribución de Matthew fue mayormente ignorada en su tiempo y, actualmente, solamente amerita alguna nota al pie de página. Su descubrimiento fue enviado a la papelera de las ideas científicas despreciadas por demasiado prematuras. Imagen: marcas de dientes dejadas por un mamífero, probablemente un multituberculado, en una costilla de dinosaurio de hace 75 millones de años.Referencia: Rampino, M. (2010). Darwin's error? Patrick Matthew and the catastrophic nature of the geologic record Historical Biology, 1-1 DOI: 10.1080/08912963.2010.523948

... Read more »

  • March 2, 2011
  • 07:32 AM
  • 790 views

No es tan noble el xenón como lo pintan o por qué hay tan poco xenón en la atmósfera.

by César Tomé López in Experientia docet



Se sabe desde hace décadas que la abundancia en la Tierra del xenón es menor de lo que debería ser según las proporciones observadas del resto de gases nobles. Las abundancias de estos gases se usan por los geoquímicos para evaluar y datar los principales procesos terrestres, incluyendo la formación de la atmósfera. Para poder hacerlo parten de una hipótesis básica: que los gases nobles son inertes en toda circunstancia. Un trabajo realizado por Gary Schrobilgen y David Brock, de la Universidad McMaster (Canadá), cuyos resultados se publican en el Journal of the American Chemical Society explica la baja abundancia del xenón y pone en evidencia que el xenón no es tan noble como se suponía.

Los primeros indicios de la anomalía aparecieron en los años 70 del siglo pasado, cuando se comprobó que el xenón es unas 20 veces menos abundante en la atmósfera que los otros gases nobles. Y eso a pesar de que el estudio de los meteoritos sugiere que su abundancia en el Sistema Solar debería ser aproximadamente la misma. Aparecieron varias hipótesis: que el xenón se había escapado al espacio, o había quedado atrapado en las capas polares o en las rocas sedimentarias. Pero los cálculos indicaban que estos procesos sólo podían justificar, en el mejor de los casos, una quinta parte del gas que faltaba.

En el 2005, sin embargo, se descubrió que a altas presiones y temperaturas el xenón parece que es capaz de desplazar al silicio en el cuarzo (dióxido de silicio cristalino). Los investigadores proponían que al cambiar sitios con el silicio el xenón se uniría a dos oxígenos a ambos lados. Si esto fuese así podría justificar la pérdida de xenón en un pasado distante, quizás durante una época de continuos bombardeos con meteoritos ricos en cuarzo. El problema era que se suponía que el xenón no reacciona con el oxígeno.

Schrobilgen y Brock han venido a reforzar esta hipótesis al demostrar que el xenón puede unirse al oxígeno. Añadieron cristales de tetrafluoruro de xenón (XeF4) a agua en el punto de congelación en presencia de ácido sulfúrico para producir un sólido amarillo-naranja por hidrólisis. Un análisis espectroscópico demuestra que este sólido es óxido de xenón (XeO2). Además, la espectroscopia Raman confirma que la estructura local (debemos tener en cuenta que esto es una red extensa) corresponde a un Xe(IV) unido a cuatro átomos de oxígeno (en la imagen) con una geometría cuadrada y plana. Finalmente los espectros vibracionales del XeO2 casan con la idea del cuarzo dopado con Xe.


Esta entrada participa en la III Edición del Carnaval de Química que organiza Experientia docet y en la I Edición del Carnaval de Geología que organiza Un geólogo en apuros.
Referencia:

Brock, D., & Schrobilgen, G. (2011). Synthesis of the Missing Oxide of Xenon, XeO2, and Its Implications for Earth’s Missing Xenon Journal of the American Chemical Society DOI: 10.1021/ja110618g



... Read more »

  • November 1, 2010
  • 01:54 PM
  • 789 views

Química forense: cómo encontrar huellas en una superficie lavada.

by César Tomé López in Experientia docet

Si pensabas que lavando tus huellas dactilares de las superficies metálicas podrías engañar a los del C.S.I., se acabaron tus días de impunidad. Según un grupo de investigadores de la Universidad de Loughborough (Reino Unido) en colaboración con el Departamento Científico del Home Office británico (ministerio del interior), dirigidos por Paul Kelly, las huellas dactilares dejan una marca sobre las superficies, que permanece incluso si se lavan, que puede ser detectada empleando dinitruro de diazufre (S2N2). La investigación se publica en el Journal of Materials Chemistry. Como es conocido, el análisis de las huellas dactilares de las escenas de actos delictivos se ha convertido en un arma poderosa en el arsenal de los científicos forenses. Las crestas que se encuentran en la punta de los dedos de una persona son únicas. La comparación de la impresión dejada sobre distintos materiales (habitualmente superficies regulares y planas, como el cristal) con la muestra tomada de un sospechoso permite identificar al dueño de las huellas. Pero hay ocasiones en las que las huellas no se pueden ver con facilidad o están fragmentadas. Es necesario entonces recurrir a métodos que permitan mejorar la visibilidad. En 2008 el grupo de Kelly se dio cuenta de que el anillo de cuatro miembros (muy tensionado por tanto) del S2N2 se polimerizaba rápidamente a (SN)x en presencia de las huellas dactilares. La detección de este polímero produce una imagen visual de la huella. En el trabajo que nos ocupa los investigadores demuestran que la polimerización también ocurre cuando las sustancias de las huellas que se pensaba que eran las que provocaban la polimerización, han sido lavadas de la superficie. Resulta que la polimerización se produce por el efecto que esas sustancias provocan sobre la superficie si su interacción con ella dura el tiempo suficiente, y que permanece aún después de lavarlas. La clave del método propuesto desde el punto de vista forense, que todavía no está terminado de pulir, es que se basa en la interacción del vapor de S2N2 con la superficie. El uso de un vapor permite el análisis de muestras que han sido arrugadas o retorcidas, como los restos de un artefacto explosivo.Referencia: Bleay, S., Kelly, P., & King, R. (2010). Polymerisation of S2N2 to (SN)x as a tool for the rapid imaging of fingerprints removed from metal surfaces Journal of Materials Chemistry DOI: 10.1039/c0jm02724c

... Read more »

  • October 8, 2009
  • 09:33 AM
  • 788 views

La actividad cerebral se incrementa en el momento de la muerte.

by César Tomé López in Experientia docet

Las lecturas eléctricas de siete pacientes que murieron en la unidad de cuidados intensivos del Centro Médico de la Universidad George Washington (EE.UU.) sugieren que el cerebro sufre un aumento acusado de actividad en el momento de la muerte, según un estudio publicado en el Journal of Palliative Medicine por el equipo médico que les atendió, dirigido por Lakhmir S. Chawla. Este resultado sugiere una posible explicación de las llamadas experiencias cercanas a la muerte. El principal objetivo de los cuidados paliativos es hacer el fallecimiento de los pacientes lo menos doloroso y angustioso posible. Dentro de los cuidados paliativos que se estaban dando a los pacientes del estudio, el equipo médico usó para monitorizar su estado monitores de alerta. Estos monitores son dispositivos comerciales diseñados para ayudar a los anestesistas a controlar lo “despiertos” que están los pacientes, y combinan las lecturas electroencefálicas de los lóbulos centrales en una sola señal que refleja el estado de alerta del paciente. En cada uno de los siete pacientes, neurológicamente intactos, el equipo médico se dio cuenta de que en el momento en el que la presión sanguínea caía a cero había un incremento repentino de la actividad cerebral. Esta no es la primera vez que este fenómeno se detecta, pero los informes anteriores eran casos aislados en los que el incremento de actividad podría haber sido debido a una interferencia eléctrica de otras fuentes. En los casos que nos ocupan, los médicos adoptaron las medidas oportunas para garantizar que las fuentes mencionadas como origen de las interferencias no estuviesen presentes. Como explicación del fenómeno sugieren que el incremento repentino fue debido a una despolarización anóxica: un proceso en el que la falta de oxígeno desestabiliza el equilibrio químico a ambos lados de las membranas de las neuronas, lo que conlleva un último estallido de actividad. En este punto es a lo mejor conveniente recalcar que estamos hablando de siete casos, y que no se han empleado equipos de medición neuroeléctrica de un nivel suficiente como para hacer mediciones de precisión, aunque, claro está, tampoco era este el objetivo en una unidad de cuidados intensivos. Es necesaria pues una investigación planificada, con instrumentos adecuados, para poder conocer mejor el fenómeno antes de dar ninguna explicación como totalmente válida. No obstante lo anterior, los investigadores sí se atreven a lanzar una hipótesis sobre las “experiencias cercanas a la muerte”: “Especulamos que aquellos pacientes que sufren un paro cardiaco y que son resucitados con éxito podrían recordar las imágenes y recuerdos provocados por esta cascada [la despolarización anóxica]. Ofrecemos esto como una explicación potencial de la claridad con la que muchos pacientes tienen 'experiencias fuera del cuerpo' cuando se les resucita con éxito de un suceso cercano a la muerte”. Referencia: Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009). Surges of Electroencephalogram Activity at the Time of Death: A Case Series Journal of Palliative Medicine DOI: 10.1089/jpm.2009.0159

... Read more »

Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009) Surges of Electroencephalogram Activity at the Time of Death: A Case Series. Journal of Palliative Medicine, 2147483647. DOI: 10.1089/jpm.2009.0159  

join us!

Do you write about peer-reviewed research in your blog? Use ResearchBlogging.org to make it easy for your readers — and others from around the world — to find your serious posts about academic research.

If you don't have a blog, you can still use our site to learn about fascinating developments in cutting-edge research from around the world.

Register Now

Research Blogging is powered by SMG Technology.

To learn more, visit seedmediagroup.com.