César Tomé López

400 posts · 293,548 views

Experientia docet
400 posts

Sort by Latest Post, Most Popular

View by Condensed, Full

  • June 4, 2009
  • 04:09 PM
  • 879 views

El universo cuántico se amplia: entrelazamiento entre osciladores mecánicos.

by César Tomé López in Experientia docet

Los resultados presentados hoy en Nature por un grupo de físicos del NIST (Instituto Nacional de Estándares y Tecnología de los Estados Unidos) confirman experimentalmente que es posible conseguir un entrelazamiento cuántico entre osciladores mecánicos separados, lo que puede considerarse un desplazamiento de la frontera entre lo cuántico y lo clásico. Las técnicas desarrolladas pueden ser importantes para la construcción de procesadores cuánticos de información usando iones atómicos.  ¿Dónde está el límite entre el mundo cuántico y el clásico? ¿En qué sistemas es necesario recurrir a la mecánica cuántica y en qué otros es suficiente hacer uso de la mecánica clásica? Nadie puede decirlo con certeza pero podemos intentar establecer un criterio que, aunque arbitrario, nos permita distinguir entre uno y otro. Podemos usar una propiedad típicamente cuántica, como el entrelazamiento, y aquellos sistemas que la presenten serán cuánticos y los que no, clásicos. Pues bien, si usamos este criterio, la noticia hoy es que el límite entre los dos mundos se ha desplazado.  El entrelazamiento cuántico es una de las propiedades de la mecánica cuántica que hicieron que a Einstein no le gustase la teoría. De hecho este fenómeno fue descrito en un artículo publicado en 1935 por el propio Einstein junto a Podolsky y Rosen como un intento de reducción al absurdo de las posiciones respecto a la teoría cuántica de Niels Bohr.  El entrelazamiento cuántico es un concepto nada intuitivo pero que está comprobado experimentalmente. Consiste en que los estados cuánticos de un objeto están íntimamente relacionados con los de otro objeto con el que está entrelazado, de tal manera que lo que le ocurra a uno tendrá su correlación en el otro, instantáneamente e independientemente de la distancia que los separe. Los objetos entrelazados no tienen necesariamente que tener las mismas propiedades, sino propiedades que estén ligadas de forma predecible.  ¿Por qué no observamos el entrelazamiento cuántico en la naturaleza? Una posible respuesta es por nuestra incapacidad para aislar el sistema objeto de estudio del ambiente, lo que no deja de ser una limitación técnica. Otra es que exista un mecanismo aún por descubrir que impide la formación de estados entrelazados macroscópicos, lo que puede depender del número de constituyentes individuales del sistema o de los tipos de grados de libertad que se entrelazan. Esta última posibilidad es la que se ha explorado en el artículo que nos ocupa.  En la investigación que presentan  John Jost y sus colaboradores dos osciladores mecánicos, constituidos cada uno por un par de iones (berilio y magnesio) que vibran (para visualizarlo: dos bolas conectadas por un muelle que se acercan y se alejan continuamente), aparecen entrelazados, que no sincronizados, vibrando al unísono aunque estén separados físicamente por 240 micras (un mundo a escala atómica, como comparación una tapa de yogur tiene 25 micras de espesor) y ubicados en zonas diferentes de una trampa de iones.  Los investigadores consiguieron reproducir el estado entrelazado un 57% de las veces, lo que ya es significativo, pero han identificado procedimientos para mejorar este porcentaje.  Estos osciladores mecánicos se pueden considerar clásicos o cuánticos en función de su energía y de otras propiedades de la vibración. Por lo tanto, estos resultados muestran la existencia de entrelazamiento cuántico en un grado de libertad que invade el mundo clásico.  Las técnicas empleadas también son todo un avance en sí mismas. Por primera vez se ha conseguido disponer distintos iones en un orden deseado, separándolos y reenfriándolos a la vez que se mantenía el entrelazamiento y realizando después más operaciones cuánticas con los iones. Todas estas técnicas pueden llevar a la generación de osciladores  mecánicos mayores y, en concreto, la capacidad de control desarrollada puede ser muy útil para aumentar el tamaño de los sistemas de procesado de información cuántica que emplean iones atómicos atrapados.Referencia:Jost, J., Home, J., Amini, J., Hanneke, D., Ozeri, R., Langer, C., Bollinger, J., Leibfried, D., & Wineland, D. (2009). Entangled mechanical oscillators Nature, 459 (7247), 683-685 DOI: 10.1038/nature08006... Read more »

Jost, J., Home, J., Amini, J., Hanneke, D., Ozeri, R., Langer, C., Bollinger, J., Leibfried, D., & Wineland, D. (2009) Entangled mechanical oscillators. Nature, 459(7247), 683-685. DOI: 10.1038/nature08006  

  • October 3, 2009
  • 12:25 PM
  • 878 views

Hacia la superposición cuántica en organismos vivos.

by César Tomé López in Experientia docet

Investigadores del Instituto Max Planck de Óptica Cuántica (Alemania) proponen hacer lo que Schrödinger imaginó pero no pudo: poner un organismo vivo en un estado de superposición cuántica. La propuesta, encabezada por Oriol Romero-Isart, ha sido publicada en arXiv. Uno de los experimentos más famosos de la ciencia jamás ha sido realizado: el gato de Schrödinger. En 1935 Erwin Schrödinger, uno de los pioneros de la mecánica cuántica, imaginó lo siguiente: en una caja sellada se colocan un gato, un tarro de ácido prúsico (cianuro de hidrógeno), un átomo radioactivo, un contador Geiger, un relé eléctrico y un martillo. Si el átomo se desintegra, el contador Geiger detecta la radiación resultante y manda una señal que dispara el relé, que suelta el martillo, que rompe el frasco, con lo que el gato muere envenenado. La clave del experimento está en que el proceso de desintegración del átomo es un proceso cuántico. La probabilidad de que el átomo se desintegre en un período determinado es conocida. Lo que no podemos es saber si se ha desintegrado en un momento dado y, por lo tanto, si el gato está vivo o muerto en ese momento; al menos hasta que se abra la caja. El animal existe en una “superposición” en la que está tanto vivo como muerto al mismo tiempo. La intención de Schrödinger era esclarecer las paradojas del mundo cuántico. Pero la superposición (el hecho de que una cosa esté en dos o más estados cuánticos simultáneamente) existe realmente y es, por ejemplo, la base de la computación cuántica. El organismo que el equipo de Romero-Isart tiene en mente es el virus de la gripe. Habrá algún pedante que podría objetar que los virus no están realmente vivos, pero esa sería una argumentación más filosófica que científica, ya que tienen genes y son capaces de reproducirse, una capacidad que pierden si son dañados. La razón para escoger un virus es que es pequeño. La superposición de verdad (a diferencia de la del gato en la caja) es más fácil con objetos pequeños, ya que hay menos vías por las que puede romperse la superposición. Los físicos ya han puesto fotones, electrones, átomos e incluso moléculas enteras en este estado y medido el resultado. Desde la perspectiva de los investigadores un virus no sería otra cosa que una molécula particularmente grande, por lo que podrían usarse las técnicas existentes con éxito. Aparte del tamaño, la otra cosa que ayuda a mantener la superposición es una temperatura muy baja. Cuanto menos se mueva y vibre algo debido a la temperatura (que es una medida del nivel de energía del sistema), más tiempo puede permanecer en superposición. Romero-Isart et al. proponen por tanto poner el virus dentro de una cavidad microscópica y enfriarlo hasta su estado de menor energía (su estado fundamental) usando un dispositivo llamado trampa láser. Esta ingeniosa técnica (que supuso el Nobel para sus inventores, entre ellos Steven Chu, actual secretario de energía de los Estados Unidos) funciona bombardeando un objeto con luz láser a una frecuencia justo por debajo de la que absorbería y reemitiría si estuviera estacionario. Esto ralentiza el movimiento, y por consiguiente la temperatura, de sus átomos hasta una fracción de grado por encima del cero absoluto. Una vez que eso esté hecho, otro pulso láser empujará el virus de su estado fundamental a un estado excitado, de la misma forma en que un sólo átomo se excita moviendo uno de sus electrones de un orbital más bajo a otro más alto energéticamente. La clave del experimento está en la aplicación de este pulso láser, si se hace adecuadamente dejaría el virus, según los autores del artículo, en una superposición de sus estados fundamental y excitado. Para poder llevar a cabo el experimento el virus elegido debe reunir ciertas características físicas. Deberá ser un aislante y transparente a la luz láser que deberá aplicarse. Y además debe ser capaz de sobrevivir en el vacío. Esos virus existen. El virus de la gripe es un ejemplo. Su resistencia es legendaria, puede sobrevivir a la exposición al vacío, y parece ser que es aislante, razones por las que los investigadores lo han escogido. Si el experimento funciona con un virus, esperan reproducirlo con algo que, indiscutiblemente, está vivo: un tardígrado. Los tardígrados son poliextremófilos y son capaces de sobrevivir en entornos extremos que matarían a cualquier otro animal. Algunos pueden sobrevivir a temperaturas a décimas del cero absoluto, a temperaturas tan altas como 151ºC, a 1.000 veces más radiación que un humano, a cerca de un año sin agua e incluso al vacío del espacio. A Schrödinger seguramente le habría hecho mucha gracia saber hasta qué extremos llegaría su jeu d’esprit. [Imagen: Schrödinger’s Cat por Jie Qi] Referencia: Oriol Romero-Isart, Mathieu L. Juan, Romain Quidant, & J. Ignacio Cirac (2009). Towards Quantum Superposition of Living Organisms n/a arXiv: 0909.1469v2

... Read more »

Oriol Romero-Isart, Mathieu L. Juan, Romain Quidant, & J. Ignacio Cirac. (2009) Towards Quantum Superposition of Living Organisms. n/a. arXiv: 0909.1469v2

  • December 20, 2010
  • 05:09 PM
  • 877 views

Cómo el campo eléctrico del cerebro afecta al propio cerebro.

by César Tomé López in Experientia docet

Tu cerebro es eléctrico. Existen multitud de pequeñísimos impulsos transmitiéndose entre los miles de millones de neuronas interconectadas que generan un campo eléctrico que rodea el cerebro como una nube invisible. Un estudio realizado por Flavio Fröhlich y David McCormick, ambos de la Universidad de Yale, sugiere que el campo eléctrico del cerebro no es un subproducto pasivo de su actividad neuronal, como se solía pensar. Este campo eléctrico podría ayudar a regular activamente cómo funciona el cerebro, especialmente durante el sueño profundo. Aunque siempre se sabe desde hace mucho tiempo que las fuentes externas de electricidad pueden alterar el funcionamiento del cerebro (de ahí la terapia de electroshocks, por ejemplo), esta es la primera prueba directa de que el propio campo eléctrico del cerebro cambia la forma en la que éste se comporta. Los resultados se publican en Neuron. Los investigadores rodearon un corte de tejido del córtex cerebral de hurón aún vivo con un campo eléctrico que imitaba el campo que un cerebro de hurón intacto produce durante el sueño de ondas lentas (fase 4 del sueño no REM, también llamado sueño delta). El campo aplicado amplificó y sincronizó la actividad neuronal existente en el corte cerebral. Estos resultados indican que el campo eléctrico generado por el cerebro facilita la misma activación neuronal que lo provocó en primer lugar, de la misma forma que el entusiasmo de una masa de personas en un estadio deportivo provoca que cada una siga animando. En otras palabras, el campo eléctrico cerebral no es un subproducto, es un bucle de retroalimentación. Se sabía que los periodos de actividad neuronal altamente sincronizados (como el del sueño profundo) son cruciales para el mantenimiento de un funcionamiento normal del cerebro. Ahora bien, no está claro ni cómo se coordinan estas fases estables, ni por qué se descontrolan en enfermedades como la epilepsia. Este nuevo estudio indica que el campo eléctrico cerebral puede tener mucho que decir a este respecto. Este descubrimiento puede tener también aplicaciones terapéuticas. Concretamente en la mejora de una técnica llamada estimulación por corriente directa transcraneal (tDCS, por sus siglas en inglés), que aplica campos eléctricos débiles al cuero cabelludo para tratar, por ejemplo, la depresión o el dolor crónico. Habitualmente la tDCS usa campos eléctricos estándares que no cambian demasiado, a diferencia de los campos eléctricos dinámicos que se han usado en este estudio para imitar un cerebro vivo. El siguiente paso lógico es usar estas combinaciones de ondas más complejas en un entorno clínico y ver si mejoran el tratamiento.Más información sobre las ondas cerebrales como forma de comunicación intracerebral, aquí. Referencia: Fröhlich, F., & McCormick, D. (2010). Endogenous Electric Fields May Guide Neocortical Network Activity Neuron, 67 (1), 129-143 DOI: 10.1016/j.neuron.2010.06.005

... Read more »

  • September 4, 2009
  • 01:33 PM
  • 870 views

La termodinámica de los tiempos de reacción humanos.

by César Tomé López in Experientia docet

Durante más de un siglo los psicólogos han usado el tiempo de reacción como una ventana al cerebro. A finales del pasado mes de agosto, Fermín Moscoso del Prado Martín de la Universidad de Provenza (Francia), propuso una nueva forma de estudiar los tiempos de reacción ante un estímulo mediante el análisis de la entropía de su distribución, algo muy parecido a lo que se hace en termodinámica. Sus resultados, disponibles en arXiv, pueden alterar principios básicos de la psicología del comportamiento. La idea subyacente a los experimentos de tiempo de reacción es que el procesamiento de la información necesita una determinada cantidad de tiempo, de tal manera que la cantidad media de tiempo que lleva comenzar o completar una tarea es un reflejo de la duración de los procesos cognitivos implicados en ella. Por ejemplo, un experimento típico de tiempo de reacción consistiría en presentarle a un sujeto un grupo de letras en una pantalla y pedirle que presione un botón si las letras forman una palabra válida. Esta clase de experimento se llama tarea de decisión léxico-visual. Este enfoque centrado en la información es fácilmente tratable desde el punto de vista de la teoría de la información. No es de extrañar, por tanto, que nada más publicar Claude Shannon su teoría de la información en 1948, los psicólogos comenzaran a aplicarla al intercambio de información entre el entorno y el cerebro que tiene lugar durante los experimentos de tiempo de reacción. Estos trabajos tuvieron como resultado la ley de Hick, una de las pocas leyes de la psicología experimental. Si entendemos la entropía como una estimación de la cantidad de información necesaria para especificar el estado de un sistema, la ley de Hick afirma que el tiempo que se tarda en hacer una elección está relacionado linealmente con la entropía de las distintas alternativas. Los resultados de varios experimentos de tiempo de reacción parecen confirmar que esta es la realidad. Aunque un subproducto de este enfoque es que los resultados están íntimamente relacionados con el tipo de experimento que se usa para medir el tiempo de reacción. Y esto hace a cada estudio especialmente vulnerable a la idiosincrasia del enfoque experimental. Moscoso del Prado afirma que la entropía de la distribución de los tiempos de reacción es independiente del tipo de experimento y, por lo tanto, proporciona una medida mejor de los procesos cognitivos implicados. La importancia de este resultado estriba en que permite comparar los resultados de diferentes tipos de experimentos. El investigador usa su método para determinar cuánta información puede procesar el cerebro durante las tareas de decisión léxicas. El resultado que obtiene es que, con los datos disponibles, la velocidad de procesamiento no supera los 60 bits por segundo (esto no implica que este valor sea un límite). Por supuesto, este valor no es la velocidad de procesamiento del cerebro completo sino una medida de la capacidad de entrada/salida durante una tarea específica. Por otra parte la aplicación del método al análisis de varios tipos de experimentos de tiempo de reacción le permite a Moscoso del Prado concluir que la velocidad de procesamiento de la información no es constante durante una tarea determinada, en abierta contradicción con la ley de Hick. Según afirma el investigador en el artículo publicado, “Este descubrimiento sugiere un sistema adaptable en el que la cantidad de información que se procesa se ajusta dinámicamente a lo que la tarea demanda”, lo que tiene sentido. No parece muy coherente que el cerebro procese datos a la misma velocidad independientemente de la complejidad de la tarea que realiza. La implicación de este trabajo es evidente: es necesario revisar la ley de Hick, una de las leyes básicas de la psicología del comportamiento, para que incluya esta no linealidad. El cómo hacerlo no está claro todavía pero seguro que implica una forma de mirar al cerebro muy distinta a la imperante cuando se formuló. Referencia: Fermín Moscoso del Prado Martín (2009). The thermodynamics of human reaction times N/D arXiv: 0908.3170v1... Read more »

Fermín Moscoso del Prado Martín. (2009) The thermodynamics of human reaction times. N/D. arXiv: 0908.3170v1

  • August 16, 2009
  • 06:23 AM
  • 869 views

Einstein y el experimento de Michelson-Morley

by César Tomé López in Experientia docet

Llevado a cabo en 1887, el experimento de Michelson-Morley se considera el trabajo definitivo que terminó eliminando la creencia decimonónica de que las ondas luminosas viajaban a través de un medio llamado éter. La historia estándar que se cuenta es que una vez que el experimento de Michelson-Morley probó que el éter era falso, todo el mundo supo que había una crisis, a la que puso fin Einstein cuando intervino resueltamente para resolver el problema con la teoría especial de la relatividad en 1905. Pero esta es una versión demasiado simplificada de lo que realmente ocurrió... Albert Abraham Michelson comenzó a trabajar en la búsqueda del éter cuando era un joven estudiante en Berlín con permiso de la Marina de los Estados Unidos. Más tarde, cuando se convirtió en profesor de física en el Colegio Case de Ciencia Aplicada de Cleveland, formó equipo con Edward Williams Morley, un químico también estadounidense que trabajaba en la cercana Universidad Western Reserve. Morley tenía fama de gran experimentador, y a Michelson le atraía el reto de crear un experimento meticuloso para medir la velocidad de la Tierra a través del éter que se suponía que llenaba el espacio. Las mediciones tenían que ser tan precisas que muchos dijeron que no podían hacerse. (Más tarde Michelson le diría a Einstein que había empleado tanta energía para conseguir la precisión necesaria simplemente porque era “divertido”). James Clerk Maxwell fue el primero en describir la luz como una onda electromagnética. En esa época, los físicos comprendían las ondas bastante bien. Las ondas del sonido, por ejemplo, se crean cuando un objeto que vibra comprime y descomprime alternativamente el medio que le rodea. En el aire, paquetes de aire más y menos densos viajan al oído y son interpretados por el cerebro. Las ondas en el agua tienen crestas y valles en vez de diferencias de densidad. Pero tanto el agua como el aire son medios necesarios para la propagación del sonido. Maxwell creía que la luz igualmente debía emplear un medio, una misteriosa sustancia llamada éter. Según la teoría, el éter estaría en reposo con respecto a un espacio absoluto del universo, y la Tierra, naturalmente, viajaría por él. Maxwell propuso que, por lo tanto, debería existir un “viento de éter” de algún tipo, que soplaría en la cara de un observador que mirase en el sentido del movimiento de la Tierra, y en su espalda si miraba en sentido contrario. Cabría esperar entonces que la luz viajase a diferentes velocidades dependiendo de la dirección en la que se moviese a través del éter, parecido a una persona que se mueve más fácilmente con el viento a favor que en contra. La idea de que la luz se pude mover con velocidades diferentes, en un mismo medio en idénticas condiciones, dependiendo sólo de la dirección de propagación, está en el corazón mismo del experimento de Michelson-Morley. Y esta es la idea que Einstein terminaría haciendo desaparecer. El experimento que se cita oficialmente como el experimento de Michelson-Morley tuvo lugar en 1887 [1] y utilizaba un diseño bastante innovador que se basaba en una técnica desarrollada por Michelson, la interferometría (Michelson recibiría el premio Nobel de física en 1907 por sus instrumentos ópticos de precisión y las mediciones realizadas con ellos). La interferometría depende del hecho de que cuando dos ondas se cruzan forman patrones muy concretos. Un experimento de interferometría comienza dividiendo un haz de luz, haciendo después que cada uno de los dos nuevos rayos viajen caminos distintos, para luego unirlos en una pantalla. Analizando los patrones resultantes se puede obtener información sobre la velocidad y la distancia recorrida por la luz. Michelson ya había usado la interferometría tanto para conseguir la medición más precisa hasta la fecha de la velocidad de la luz como para determinar la longitud oficial del metro para la Oficina Nacional de Estándares de los Estados Unidos. Para su experimento, Michelson y Morley hicieron que dos rayos de luz viajasen en ángulo recto uno del otro: uno viajaba en la misma dirección que el éter y el otro la cruzaba. Imaginemos dos personas nadando en un río, una va corriente arriba y luego a favor de corriente, mientras que la otra nada directamente a un punto al otro lado del río y vuelta. Ambos nadadores se tienen que enfrentar a la corriente pero de forma diferente y, consecuentemente, el tiempo que emplean para recorrer exactamente la misma distancia será diferente. Si la Tierra viaja a través del éter, el éter crea una corriente (como un río), y un rayo de luz que viaje en contra y luego a favor debería tardar menos en recorrer una distancia determinada que otro que la atraviese en ángulo recto. Esta era la hipótesis que Michelson y Morley intentaban confirmar con su experimento. El experimento estaba muy bien diseñado, pero por mucho que repitieron la medición, ambos rayos empleaban la misma cantidad de tiempo en sus viajes. La pareja comprobó y recomprobó el dispositivo experimental y repitieron las mediciones varias veces después de cada comprobación, siempre con el mismo resultado. El dispositivo, que se encontraba en un sótano con paredes de ladrillo [en la imagen], estaba instalado sobre un bloque de mármol que flotaba sobre una balsa de mercurio, lo que permitía girarlo para estudiar todos los ángulos posibles con respecto al “viento de éter”; ningún ángulo probado dio un resultado diferente. La reputación enorme de la que gozaban Michelson y Morley en la comunidad científica hizo que los físicos más famosos de la época aceptaran como válido un resultado tan inesperado. Claramente, había un problema con la teoría del éter. Sin embargo, el concepto del éter, no fue completamente descartado en ese momento. El consenso era que la hipótesis no estaba completa. El mismo Michelson repitió el experimento en numerosas ocasiones a lo largo de su vida, cambiando incluso la localización del dispositivo (lo llevó a lo alto de una montaña) para ver si había variaciones en la intensidad del presunto “viento de éter” que permitiesen detectar diferencias en las mediciones. Aunque había físicos que conocían el trabajo de Michelson y Morley, y sabían que sus resultados debían incorporarse a una nueva teoría de la luz, no está claro que Einstein, el que finalmente proporcionó esa teoría, tuviese conocimiento de él. Su artículo sobre la relatividad especial está claro que no hace referencia a los resultados del experimento, si bien es cierto que este artículo no hace referencia a casi nada ya que lo que se proponía era tan novedoso que Einstein podía afirmar que no se basaba en el trabajo de nadie (aunque a lo mejor Poincaré pensase otra cosa). Años más tarde Einstein se contradiría a sí mismo sobre el asunto de si conocía el experimento de Michelson-Morley. Dijo muchas veces que no tenía noticias de él y, de hecho, no lo menciona en sus Notas autobiográficas en las que describe cómo desarrolló sus teorías. Ya mayor afirmó, sin embargo, que la primera referencia del experimento la obtuvo del estudio del trabajo de Lorentz en 1895, y en algunas de sus primeras cartas (1899) que se conservan discute un artículo de Wien que contiene una referencia al experimento. Independientemente de si Einstein conocía el mismo experimento de Michelson-Morley, lo que si parece claro es que desarrolló su teoría de la relatividad especial creyendo firmemente que el éter no existía. Esta convicción no fue apriorística. La lectura de otros grandes científicos de su época, muchos de los cuales ciertamente conocían el experimento, habría influido con toda seguridad en las convicciones de Einstein. Después de la publicación por parte de Einstein de la teoría especial de la relatividad, Einstein tuvo conocimiento fehaciente del trabajo de Michelson y Morley (ver [2]) y, de hecho, estuvo en contacto con Michelson. Poco antes de su fallecimiento, en 1931, Michelson asistió a una cena en honor a Einstein en California. En su discurso Einstein dijo: “Usted, honorable Dr. Michelson, comenzó este trabajo cuando yo era un jovenzuelo que no levantaba 1 metro... Read more »

Michelson,AA, & Morley,EW. (1887) On the Relative Motion of the Earth and the Luminiferous Ether. The American Journal of Science, 34(203), 833-845. info:/

  • May 25, 2009
  • 07:28 AM
  • 867 views

Porqué los opuestos se atraen.

by César Tomé López in Experientia docet

Un nuevo estudio confirma que las mujeres eligen a sus parejas, entre otros factores, por su olor corporal. La preferencia por un determinado olor estaría determinada genéticamente, como una forma de garantizar el éxito evolutivo. En una conferencia dada hoy en la convención anual de la  European Society of Human Genetics , la profesora Maria da Graça Bicalho, de la Universidad del Paraná (Brasil) ha presentado los resultados de un estudio según el cual las mujeres tienen preferencia por parejas con complejos de histocompatibilidad principales (MHC, por sus siglas en inglés) diferentes a los propios. Esta preferencia es probable que sea un mecanismo evolutivo para asegurarse una reproducción sana. La inclinación de las mujeres por parejas con MHC distinto se ha demostrado que existe en muchas especies de vertebrados, incluyendo la humana. También se ha demostrado que el MHC influye en la selección de pareja haciendo que se tenga predilección por determinados olores corporales. En 1995, el equipo del biólogo suizo Claus Wedekind determinó por primera vez esta influencia del MHC. En el experimento, un grupo de estudiantes universitarias olían camisetas que habían sido llevadas por varones durante dos noches, sin desodorantes, colonias ni jabones. La inmensa mayoría de las mujeres eligieron a los varones con MHC distinto al propio. Sin embargo su preferencia se invertía si estaban tomando anticonceptivos orales. El MHC es una región genética situada en el cromosoma 6 y que se encuentra en la mayoría de los vertebrados. Tiene una importante función en el sistema inmunitario Los científicos brasileños han estudiado los datos de MHC de 90 parejas casadas y lo han comparado con 152 parejas virtuales, generadas al azar. Contaron entonces el número de diferencias en MHC entre las que eran parejas reales y lo compararon con el de las parejas virtuales. Si los genes del MHC no tuviesen influencia en la selección de pareja deberían obtenerse resultados similares. Lo que se encontró es que las parejas verdaderas tenían significativamente más diferencias de las que cabría esperar que tuviesen por azar. ¿Qué implica este comportamiento? Por lo pronto desciende la probabilidad de endogamia (emparejarse con parientes) y aumenta la variabilidad genética de la descendencia. La variabilidad genética es un factor importante en la evolución pues afecta a la respuesta diferencial de los individuos ante el estrés ambiental, incluyendo la resistencia a enfermedades. Por lo tanto un aumento en la variabilidad genética de la descendencia es aumentar la probabilidad de que tus genes sobrevivan, pues es más probable que alguno de tus descendientes lo haga y se reproduzca. Muchos factores pueden influir en la selección de una pareja; sociales, culturales, psicológicos o de oportunidad. Pero lo que no se puede negar es el impulso subconsciente que nos lleva a desear hijos sanos.Más información:No puedes ocultárselo a las mujeres¡Qué bien hueles!Wedekind, C., Seebeck, T., Bettens, F., & Paepke, A. (1995). MHC-Dependent Mate Preferences in Humans Proceedings of the Royal Society B: Biological Sciences, 260 (1359), 245-249 DOI: 10.1098/rspb.1995.0087... Read more »

Wedekind, C., Seebeck, T., Bettens, F., & Paepke, A. (1995) MHC-Dependent Mate Preferences in Humans. Proceedings of the Royal Society B: Biological Sciences, 260(1359), 245-249. DOI: 10.1098/rspb.1995.0087  

  • May 8, 2013
  • 01:44 PM
  • 865 views

Determinación de la composición elemental átomo a átomo usando microscopía electrónica.

by César Tomé López in Experientia docet





Se sabe desde hace mucho tiempo que la resolución espacial que se
puede conseguir con un microscopio óptico, esto es, la
característica más pequeña que se puede observar, es del orden de
la longitud de onda de la luz que se emplee. Para que nos hagamos una
idea del orden de magnitud, la longitud de onda del verde es de 550
nm (nanometros). Una forma de mejorar esta resolución es evidente:
usar partículas con longitudes de onda asociadas más pequeñas o,
lo que es lo mismo, más energéticas. Este es el fundamento de los
microscopios electrónicos, en los que las partículas que se usan
son electrones. Razones de índole puramente ingenieril hacen que la
energía de los electrones empleados en los microscopios electrónicos
de transmisión (MET) esté en el rango de los 100 a 300 keV, lo que
corresponde a una longitud de onda de entre 3,7 y 2 pm (picometros).




Parémonos aquí un momento porque esto es importante. El radio
del átomo de hidrógeno, llamado radio de Bohr (la distancia más
probable entre el protón del núcleo y el electrón en el estado
estacionario) es de 52,9 pm [ojo, el hidrógeno es el átomo más sencillo pero no el más pequeño]. ¿Significa esto que podemos ver
“dentro” de un átomo de hidrógeno usando un MET? Vamos a verlo.


La resolución de un MET está limitada no sólo por la longitud
de onda de los electrones, sino por las imperfecciones de las lentes
electrónicas. Las principales son las aberraciones esférica
y cromática.
Instalando correctores (lentes auxiliares) se puede conseguir una
resolución de 50 pm. Sí existen fotos de átomos, por tanto (véase
por ejemplo aquí).



En la MET lo que se hace es que un haz de electrones atraviese una
capa muy fina de la muestra (de ahí lo de transmisión) y después
medir cómo han sido afectados los electrones por ese paso. De esta
forma podemos saber la posición y más o menos el tamaño de los
átomos que constituyen la muestra. En este sentido, “vemos” los
átomos. Sabemos qué átomos son, qué elementos, por métodos
químicos: bien porque nosotros hemos sintetizado la muestra, bien
porque lo hayamos determinado analíticamente.




En el caso del MET, al atravesar la muestra los electrones pueden
perder una cantidad de energía que es característica del elemento
concreto con el que están interaccionando. Existe una versión de
los MET, la llamada con filtro de energías (MET-FE), que es capaz de
interpretar las energías de los electrones transmitidos y obtener lo
que se llaman mapas químicos de la muestra. Esta técnica ya es
comercial y permite realizar análisis químicos a escala nanométrica
(véase por ejemplo IMP).



Acabamos de decir nanométrica. ¿Pero no decíamos que la
resolución era 50 pm? Efectivamente, pero de nuevo nos encontramos
para las técnicas MET-FE los problemas de las aberraciones,
especialmente la cromática. Por lo tanto la MET-FE aún no ha
conseguido la resolución atómica.



Y aquí es donde interviene el equipo encabezado por Knut Urban,
del centro de investigación Jülich (Alemania). Urban recibió en
2011 el premio Wolf de física precisamente por sus trabajos para
corregir las aberraciones en los MET. En un artículo aparecido en
Physical Review Letters estos investigadores lo que vienen a
decir es que han conseguido corregir la aberración cromática en
MET-FT. Y para ello han usado el mismo razonamiento que se emplea en
astroquímica.



Para determinar que en una nebulosa existe la molécula X, lo que
se hace es tomar una muestra de esa molécula, ponerla en las
condiciones de temperatura y vacío del espacio interestelar, y medir
su espectro en esas condiciones. Después hay que cotejar los
espectros recogidos por los telescopios para comprobar si los picos
característicos de nuestra molécula están presentes. Pero, y esto
es lo interesante, lo que se hace si no se puede conseguir poner la
muestra en las condiciones del espacio por la razón que sea, son
cálculos teóricos (químico-cuánticos) a partir de primeros
principios que nos dirán cuál será probablemente su espectro.
Urban et al. han hecho esto mismo aparte de desarrollar nuevas
ópticas: cálculos teóricos que permiten interpretar la información
recibida.



Los autores pusieron a prueba su método con una muestra de
silicio consistente en un único cristal. Seleccionaron sólo
aquellos electrones que interactuaban con electrones muy específicos
del silicio. La resolución fue suficiente para visualizar las
“mancuernas de silicio”, átomos de silicio vecinos que se
emparejan en ciertos planos del cristal. Las imágenes muestran que
los centros de dos átomos que forman una mancuerna están separados
135 pm (te puedes entretener midiéndolo tú, sabiendo que el radio atómico del silicio es 111 pm).









Si nos damos cuenta, esto es exactamente lo que se ve en las
películas de ciencia ficción: introducen una muestra minúscula en
un equipo y éste te dice la composición átomo a átomo. El futuro
ya está aquí (otra vez). Nos falta la Enterprise.


Esta entrada es una participación de Experientia docet en la XXV Edición del Carnaval de Química que acoge ISQCH-Moléculas a reacción





Referencia:


Urban K.W., Mayer J., Jinschek J.R., Neish M.J., Lugg N.R. & Allen L.J. (2013). Achromatic Elemental Mapping Beyond the Nanoscale in the Transmission Electron Microscope, Physical Review Letters, 110 (18) DOI: 10.1103/PhysRevLett.110.185507








... Read more »

  • August 11, 2011
  • 10:34 PM
  • 864 views

Un método para reciclar los residuos nucleares más peligrosos.

by César Tomé López in Experientia docet




Uno de los principales problemas de la energía obtenida a partir de la fisión nuclear es qué hacer con el combustible usado. Hay una parte de él que es especialmente peligrosa que está constituida por los actinoides (vulgo, actínidos) minoritarios (AM), siendo los mayoritarios el uranio y el plutonio, ya que emiten radiación alfa y tienen vidas medias extremadamente largas. La solución actual para los AM es el almacenamiento geológico profundo.
Una alternativa interesantísima sería coger los AM y realimentarlos a la planta nuclear para que los usase como combustible y, tras el proceso, se convirtiesen en productos no radioactivos. El problema está en que no hay una forma eficaz escalable industrialmente de separar lantanoides (vulgo, lantánidos) de los AM, lo que impide que éstos puedan reutilizarse. Si existiese un método para esta separación, permitiría una reducción drástica en la cantidad de residuo de alto nivel generada y el tiempo de almacenamiento necesario pasaría de ser indefinido a un par de centenares de años como mucho. Pues bien, un método viable y, a priori, fácilmente escalable en términos técnicos y económicos, es lo que acaba de presentar un equipo de investigadores encabezado por Frank Lewis, de la Universidad de Reading (Reino Unido). Publican sus resultados en el Journal of the American Chemical Society.
En un reactor nuclear típico, en cada ciclo productivo se introducen en el sistema alrededor de 500 kg de uranio (U), lo que produce unos 859 g de residuos de alto nivel. En su mayor parte estos residuos están compuestos por AM, fundamentalmente neptunio (Np), americio (Am) y curio (Cm). Estos residuos por el momento deben almacenarse bajo capas de hormigón de varios metros de espesor.
Se estima que dentro de una década poco más o menos empiecen a funcionar (si la política no lo impide) una nueva generación de reactores nucleares que serán capaces de usar los AM como combustible, convirtiéndolos en productos no radioactivos. Estos nuevos reactores se basarán en flujos neutrónicos de alta intensidad, bombardeando el material fisible con una intensa corriente de neutrones. Con un control adecuado del flujo neutrónico se asegura una velocidad de reacción apropiada. El sistema consigue que todos los actinoides presentes sirvan como combustible, pero los lantanoides actúan como absorbedores de neutrones por lo que se consideran contaminantes de primer nivel del combustible.
Todos hemos visto alguna vez un embudo de decantación (en la foto). Uno de los usos de estos embudos es hacer extracciones, es decir, llevar una sustancia que está como parte de una mezcla disuelta en un disolvente A, a un disolvente B inmiscible con el A y de diferente densidad. La extracción de aromas naturales, por ejemplo, se hace así, donde el disolvente A es el agua y el B alcohol isopropílico o similar. Esta técnica se aplica ampliamente en laboratorio y a nivel industrial, y es la que emplea el equipo encabezado por Lewis. En este caso el disolvente A es ácido nítrico (HNO3) en el que se disuelve el residuo nuclear de alta actividad; el disolvente B es octanol en el que está presente el quid de la cuestión, un ligando de alta selectividad que es capaz de llevarse al octanol los AM pero no a los lantanoides.
El ligando se basa en una estructura de cuatro anillos aromáticos que contienen nitrógeno suplementados, y esta es la genialidad, con grupos tetrametilciclohexilo como sustitutos de los hidrógenos bencílicos, lo que convierte un compuesto fácilmente atacable por la radiación, en uno mucho más resistente. El efecto de la nueva estructura no puede ser más espectacular. Se considera que una separación es buena si el ligando “atrapa” 20 AM por cada lantanoide. El nuevo ligando obtuvo valores de entre 68 y 400.
El mecanismo preciso de acción no está claro del todo. La molécula resultante tiene forma de herradura y, permítaseme la licencia, no he podido evitar visualizar su funcionamiento como el de las pokebolas de los Pokémon (vease la imagen creativamente). Dos ligandos se acoplan a un catión formando una cavidad en la que solamente encajarían los AM.
El ligando no tiene una estructura excesivamente compleja que impida sintetizarlo a nivel industrial de forma económica (hay fármacos mucho más complejos); es resistente a los ácidos y a la radiación...La solución a buena parte de los depósitos de residuos radioactivos y a algunos de los problemas de la energía nuclear puede que ya sólo sea una cuestión de presupuestos.
Esta entrada es una participación de Experientia docet en la I Edición del Carnaval de la Tecnología que acoge La vaca esférica y en VII Edición del Carnaval de Química que alberga Feelsynapsis.
Referencia:

Lewis, F., Harwood, L., Hudson, M., Drew, M., Desreux, J., Vidick, G., Bouslimani, N., Modolo, G., Wilden, A., Sypula, M., Vu, T., & Simonin, J. (2011). Highly Efficient Separation of Actinides from Lanthanides by a Phenanthroline-Derived Bis-triazine Ligand Journal of the American Chemical Society DOI: 10.1021/ja203378m





... Read more »

Lewis, F., Harwood, L., Hudson, M., Drew, M., Desreux, J., Vidick, G., Bouslimani, N., Modolo, G., Wilden, A., Sypula, M.... (2011) Highly Efficient Separation of Actinides from Lanthanides by a Phenanthroline-Derived Bis-triazine Ligand. Journal of the American Chemical Society, 2147483647. DOI: 10.1021/ja203378m  

  • June 23, 2009
  • 03:18 AM
  • 863 views

La competencia social y el tamaño del cerebro humano.

by César Tomé López in Experientia docet

Durante los últimos dos millones de años el tamaño del cerebro humano se ha triplicado, creciendo mucho más rápidamente que el de otros mamíferos. Un grupo de investigadores de la Universidad de Misuri (EE.UU.) ha examinado las razones de esta expansión del cerebro humano, estudiando para ello las posibilidades de tres posibles hipótesis: el cambio climático, los requerimientos ecológicos y la competencia social. El equipo encontró que la mayor causa de incremento de la capacidad craneal fue la competencia social. Para comprobar estas tres hipótesis, David Geary y Drew Bailey recogieron datos de los cerebros de 175 homínidos de entre 1,9 millones y 10.000 años de antigüedad, desde el Homo habilis. Realizaron un análisis multivariante que permite la evaluación simultánea de variables que representan a cada uno de estos tres factores potencialmente selectivos. Para cada fósil se tabuló la localización geográfica (latitud), la prevalencia de parásitos dañinos, la temperatura media anual y la variación anual de temperatura. Se incluyeron asimismo una variable proxy para la densidad de población y dos índices de variabilidad paleoclimática para la época en la que fue descubierto cada cráneo. La tabla completa con la lista de fósiles puede verse aquí (PDF). Los resultados revelaron contribuciones independientes de la densidad de población, de la variación paleoclimática y de la variación de la temperatura a la hora de predecir el cambio en la capacidad craneal. Aunque los efectos de la variabilidad paleoclimática y la variación de temperatura apoyan la hipótesis del cambio climático, la proxy de densidad de población es la que tiene mayor poder predictivo. Así, los tres factores tienen influencia pero el crítico es la densidad de población. La interpretación de los resultados que hacen Geary y Bailey es que en áreas con mayores poblaciones humanas se incrementa la intensidad de la competencia social. Cuando los humanos tienen que competir para cubrir sus necesidades y por el estatus social, que permite mejor acceso a estas necesidades, un cerebro mayor es una ventaja. Según los investigadores los cambios climáticos globales y las emigraciones desde el ecuador también contribuyeron a que los humanos fuesen mejores afrontado los cambios climáticos. Pero, según ellos, la importancia de lidiar con el clima fue mucho menor que la de lidiar con la gente. Puede ser interesante leer: La esencia del comportamiento social humano (y 2): la masificación trajo la cultura.Referencia: Bailey, D., & Geary, D. (2009). Hominid Brain Evolution Human Nature, 20 (1), 67-79 DOI: 10.1007/s12110-008-9054-0... Read more »

Bailey, D., & Geary, D. (2009) Hominid Brain Evolution. Human Nature, 20(1), 67-79. DOI: 10.1007/s12110-008-9054-0  

  • May 17, 2010
  • 05:40 PM
  • 863 views

Un método de computación analógico para la fuerza de Casimir.

by César Tomé López in Experientia docet

Un equipo de investigadores del Instituto de Tecnología de Massachusetts (M.I.T., por sus siglas en inglés) ha desarrollado un método para encontrar soluciones a las ecuaciones de la fuerza de Casimir para cualquier geometría. Los resultados se publican en los Proceedings of the National Academy of Sciences. Imaginemos dos placas metálicas no cargadas eléctricamente, separadas unos micrometros, en ausencia de campo electromagnético y en reposo. ¿Existe alguna fuerza neta en el sistema? Desde un punto de vista clásico la respuesta es un contundente no. Sin embargo, desde el punto de vista cuántico la respuesta es sí: la existencia de esta fuerza neta la predijeron Hendrik Casimir y Dirk Polder en 1948 y su existencia ha sido comprobada experimentalmente. De hecho, esta fuerza que, aparentemente viene de la nada y disminuye rápidamente con la distancia, puede alcanzar valores sorprendentes a distancias muy pequeñas. Así, en placas separadas 10 nm la fuerza de Casimir-Polder (Casimir, de ahora en adelante), dependiendo de la geometría de las placas, llega a 1 atmósfera de presión. Esto quiere decir que esta fuerza anti-intuitiva se convierte en la dominante en la nanoescala entre conductores no cargados. La mecánica cuántica ha puesto de manifiesto que nuestro universo es mucho más raro de lo que imaginamos. Una de estas características extrañas es la confirmación de la realidad de todo un abanico de nuevas partículas subatómicas que están constantemente apareciendo y desapareciendo de la existencia en un lapso de tiempo prácticamente indetectable. Hay tantas de estas partículas efímeras en el espacio, incluso en el vacío, moviéndose en todas direcciones, que las fuerzas que ejercen se contrarrestan unas a otras. A efectos prácticos en la mayoría de los casos pueden ignorarse. Pero cuando los objetos se aproximan mucho, hay poco hueco entre ellos como para que las partículas comiencen a existir. Consecuentemente, hay menos de estas partículas efímeras entre los objetos para contrarrestar las fuerzas que ejercen las partículas que aparecen alrededor de ellos, y la diferencia de presión termina empujando a los objetos el uno contra el otro. Este es el origen de la fuerza de Casimir.En los años 60 del siglo XX se desarrolló una fórmula que, en principio, describe los efectos de las fuerzas de Casimir en cualquier número de objetos pequeños, con cualquier forma. Pero en la inmensa mayoría de los casos, la fórmula era imposible de resolver en la práctica. Se consiguió encontrar una solución para un número muy limitado de casos, como el de dos placas paralelas. En años recientes se han encontrado maneras de obtener soluciones para otras configuraciones. Así, en 2006 se resolvió para una placa y un cilindro y, en 2007, para esferas múltiples. Pero no se conseguía encontrar una solución general. Esto es precisamente lo que han logrado los miembros del equipo encabezado por Alejandro W. Rodríguez: un método para resolver las ecuaciones de las fuerzas de Casimir para cualquier número de objetos, con cualquier forma concebible. La aproximación de los investigadores al problema ha sido la de reducirlo a otro análogo, matemáticamente equivalente, pero resoluble. En concreto, demuestran que objetos del orden de centímetros separados también del orden de centímetros, dentro de un fluido conductor de la electricidad, constituyen un modelo preciso del nanosistema en lo que respecta a las fuerzas de Casimir. En vez de calcular las fuerzas ejercidas por pequeñas partículas que aparecen alrededor de pequeños objetos, los investigadores calculan la fuerza de un campo electromagnético en varios puntos alrededor de otros objetos mucho más grandes. Para objetos con formas raras, como una rueda dentada, el cálculo de la fuerza electromagnética en un fluido conductor sigue siendo algo bastante complicado. Pero nada que no pueda arreglarse usando software de ingeniería estándar. El encontrar una solución a las ecuaciones de las fuerzas de Casimir es algo que va mucho más allá del mero conocimiento teórico: poder calcular las fuerzas de Casimir para distintas geometrías se ha convertido en algo imprescindible en nanotecnología. Dado que las fuerzas de Casimir pueden hacer que las partes móviles de los sistemas electromecánicos a nanoescala se queden pegadas, es necesario encontrar geometrías donde en vez de atracción haya repulsión, y esto es lo que permite la nueva técnica. Eso sí, la creatividad humana está llamada a jugar un gran papel para encontrar estas formas con fuerzas repulsivas: todavía es necesario el uso de la intuición para imaginar qué formas pueden tener repulsión. La técnica de Rodríguez et al. solo nos dirá si estamos en lo cierto a posteriori.[Esta es la participación de Experientia docet en el VII Carnaval de la Física, que este mes acoge El navegante.]Referencia: Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010). Theoretical ingredients of a Casimir analog computer Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1003894107

... Read more »

Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010) Theoretical ingredients of a Casimir analog computer. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.1003894107  

  • March 2, 2011
  • 07:32 AM
  • 863 views

No es tan noble el xenón como lo pintan o por qué hay tan poco xenón en la atmósfera.

by César Tomé López in Experientia docet



Se sabe desde hace décadas que la abundancia en la Tierra del xenón es menor de lo que debería ser según las proporciones observadas del resto de gases nobles. Las abundancias de estos gases se usan por los geoquímicos para evaluar y datar los principales procesos terrestres, incluyendo la formación de la atmósfera. Para poder hacerlo parten de una hipótesis básica: que los gases nobles son inertes en toda circunstancia. Un trabajo realizado por Gary Schrobilgen y David Brock, de la Universidad McMaster (Canadá), cuyos resultados se publican en el Journal of the American Chemical Society explica la baja abundancia del xenón y pone en evidencia que el xenón no es tan noble como se suponía.

Los primeros indicios de la anomalía aparecieron en los años 70 del siglo pasado, cuando se comprobó que el xenón es unas 20 veces menos abundante en la atmósfera que los otros gases nobles. Y eso a pesar de que el estudio de los meteoritos sugiere que su abundancia en el Sistema Solar debería ser aproximadamente la misma. Aparecieron varias hipótesis: que el xenón se había escapado al espacio, o había quedado atrapado en las capas polares o en las rocas sedimentarias. Pero los cálculos indicaban que estos procesos sólo podían justificar, en el mejor de los casos, una quinta parte del gas que faltaba.

En el 2005, sin embargo, se descubrió que a altas presiones y temperaturas el xenón parece que es capaz de desplazar al silicio en el cuarzo (dióxido de silicio cristalino). Los investigadores proponían que al cambiar sitios con el silicio el xenón se uniría a dos oxígenos a ambos lados. Si esto fuese así podría justificar la pérdida de xenón en un pasado distante, quizás durante una época de continuos bombardeos con meteoritos ricos en cuarzo. El problema era que se suponía que el xenón no reacciona con el oxígeno.

Schrobilgen y Brock han venido a reforzar esta hipótesis al demostrar que el xenón puede unirse al oxígeno. Añadieron cristales de tetrafluoruro de xenón (XeF4) a agua en el punto de congelación en presencia de ácido sulfúrico para producir un sólido amarillo-naranja por hidrólisis. Un análisis espectroscópico demuestra que este sólido es óxido de xenón (XeO2). Además, la espectroscopia Raman confirma que la estructura local (debemos tener en cuenta que esto es una red extensa) corresponde a un Xe(IV) unido a cuatro átomos de oxígeno (en la imagen) con una geometría cuadrada y plana. Finalmente los espectros vibracionales del XeO2 casan con la idea del cuarzo dopado con Xe.


Esta entrada participa en la III Edición del Carnaval de Química que organiza Experientia docet y en la I Edición del Carnaval de Geología que organiza Un geólogo en apuros.
Referencia:

Brock, D., & Schrobilgen, G. (2011). Synthesis of the Missing Oxide of Xenon, XeO2, and Its Implications for Earth’s Missing Xenon Journal of the American Chemical Society DOI: 10.1021/ja110618g



... Read more »

  • July 7, 2009
  • 03:06 PM
  • 862 views

Cuando no dominamos el monstruo interior.

by César Tomé López in Experientia docet

En las comedias de enredo, lo peor que podría pasar es lo que termina pasando: que tu mujer está realmente celosa de la nueva secretaria de la oficina, pues ahí vas tú y la mencionas cinco veces en las últimas tres frases. Errores como estos también ocurren en la vida diaria, y la investigación encuentra los orígenes de hacer precisamente lo peor, irónicamente, en los procesos de control mental. En un artículo publicado en Science [1], Daniel Wegner (Universidad de Harvard, EE.UU.) pasa revista al conocimiento actual sobre cómo pensar, decir o hacer precisamente lo peor en cada ocasión. La exploración de los impulsos malsanos tiene una rica historia (¿cómo podría no tenerla?), que pasa por las historias de Edgar Allan Poe o el Marqués de Sade e incluye los deseos reprimidos de Freud y la observación de Darwin de que muchas acciones se realizan “en directa oposición a nuestra voluntad consciente”. En la última década, los psicólogos sociales han documentado la frecuencia con la que aparecen estos impulsos malsanos y cuándo es más probable que alteren el comportamiento de las personas. A un nivel fundamental, funcionar socialmente significa dominar los propios impulsos, dominar el monstruo interior. El cerebro adulto gasta como mínimo tanta energía en inhibición como en acción, según algunos estudios, y la salud mental se basa en someterse a estrategias para ignorar o suprimir los pensamientos profundamente inquietantes, como el de la propia muerte por ejemplo. Estas estrategias son generales, programas psicológicos subconscientes o semiconscientes que usualmente controla el piloto automático. Los que hemos venido en llamar impulsos malsanos, y que Wegner llama errores irónicos, parecen aflorar cuando la gente se concentra intensamente en evitar errores específicos o tabúes. La teoría es sencilla: para evitar decirle a la cara a un colega que es hipócrita malnacido, el cerebro debe primero imaginar exactamente eso; la mera presencia mental (flotando en la superficie de la consciencia) de ese insulto catastrófico incrementa las probabilidades de que el cerebro lo termine escupiendo en el peor momento. Las pruebas empíricas de esta teoría se han acumulado en los últimos años, según recoge Wegner. En el laboratorio, los psicólogos han pedido a la gente que intente eliminar, inhibir, un pensamiento de su mente (un oso blanco, por ejemplo) y han encontrado que el pensamiento sigue volviendo, cada minuto poco más o menos. De igual forma, la gente que intenta no pensar en una palabra específica continuamente la suelta en los tests de asociación de palabras ultrarrápidos. Fuera del laboratorio es fácil encontrar los mismos errores irónicos. A los golfistas a los que se les indica que deben evitar un error específico, como darle demasiado fuerte, lo hacen más a menudo bajo presión, según estudios realizados al respecto. De igual manera, un delantero de fútbol al que se le indica que, a la hora de tirar un penalti, debe evitar una determinada zona de la portería, como la esquina baja derecha, mirará a ese lugar más a menudo que a cualquier otro. Los esfuerzos por ser políticamente correcto pueden ser especialmente traicioneros. En un estudio [2], los investigadores de las Universidades de Lehigh y Northwestern hicieron que 73 estudiantes leyeran un texto sobre un estudiante ficticio, Donald, un varón negro, que visita un centro comercial con un amigo. Los estudiantes vieron una foto de él justo antes. En un aparcamiento repleto, Donald no aparca en un sitio reservado a minusválidos, a pesar de conducir el coche de suabuela, que tiene permiso para usarlo, pero sí que se apresura para pisarle un sitio de no minusválidos a otro conductor. No hace caso de una persona que está haciendo una colecta para una ONG de enfermos del corazón, mientras que su amigo da el dinero suelto que lleva. Y así el resto. La historia, a propósito, retrata al protagonista de forma ambigua. Los investigadores pidieron a cerca de la mitad de los estudiantes intentaran inhibir los estereotipos negativos sobre los varones negros mientras leían el texto. Tras la lectura todos los estudiantes tuvieron que evaluar a Donald en aspectos como honestidad, hostilidad y pereza. Los que habían intentado reprimir los estereotipos dijeron que Donald era significativamente más hostil, pero también más honesto, que lo afirmado por los que no estaban intentando inhibirlos. En resumen, el intento de hacer desaparecer prejuicios funcionó, en cierta medida. Pero el estudio también aportó, usando palabras de los autores, “una fuerte demostración de que la supresión de estereotipos lleva a que los estereotipos sean más accesibles”. Los fumadores, bebedores y otros usuarios de sustancias de abuso conocen otro aspecto de este mismo fenómeno: el esfuerzo para reprimir las ganas de un cigarrillo, copa o dosis hace tan accesible la idea que el deseo sólo parece crecer. El riesgo de caer en el error irónico, de ceder a estos impulsos malsanos, depende en parte del nivel de estrés que se padece. Puede minimizarse, por tanto, empleando estrategias adecuadas de control y reduciendo la carga mental. Esto último puede ser tan fácil como cometer el “error” voluntariamente, haciendo un chiste o explicando la situación de tal manera que la bomba se desactive antes de estallar.Referencias:[1] Wegner, D. (2009). How to Think, Say, or Do Precisely the Worst Thing for Any Occasion Science, 325 (5936), 48-50 DOI: 10.1126/science.1167346[2] Galinsky, A., & Moskowitz, G. (2007). Further ironies of suppression: Stereotype and counterstereotype accessibility Journal of Experimental Social Psychology, 43 (5), 833-841 DOI: 10.1016/j.jesp.2006.09.001... Read more »

  • November 10, 2010
  • 04:22 PM
  • 862 views

El catastrofismo episódico de Matthew frente a la evolución gradual de Darwin.

by César Tomé López in Experientia docet

La teoría de Charles Darwin de la evolución gradual no estaría apoyada por la historia geológica, según un ensayo que publica Michael Rampino, de la Universidad de Nueva York (EE.UU.), en Historical Biology. De hecho, Rampino afirma que el punto de vista de Patrick Matthew, anterior al del propio Darwin, en el que la estabilidad evolutiva se ve interrumpida por extinciones masivas catastróficas, estaría más próximo a la visión actual de la evolución biológica.. Matthew (1790-1874) publicó sus ideas sobre la ley de la selección natural en su libro Naval Timber and Arboriculture en 1831. Si bien tanto Darwin como Alfred Russel Wallace reconocieron que Matthew fue el primero en proponer la teoría de la selección natural, tradicionalmente se ha venido atribuyendo su descubrimiento solamente a Darwin y Wallace. Los diarios de Darwin muestran que llegó a esta idea en 1838, y que compuso un primer ensayo sobre la selección natural en 1842. la teoría de Darwin y Wallace fue formalmente presentada en una conferencia en 1858, mientras que “El origen de las especies” se publicaba en 1859. En el apéndice de Naval Timber and Arboriculture, Matthew describía la teoría de la selección natural en términos parecidos a los que después usaría Darwin: “Hay una ley natural universal en la naturaleza, que tiende a hacer a todo ser reproductivo lo más adaptado posible a su condición[...] Como el ámbito de la existencia es limitado y está pre-ocupado, son sólo los individuos más duros, más robustos, mejor adaptados a las circunstancias, los que son capaces de luchar hacia la madurez[...] ” Sin embargo, había un punto en el que los planteamientos de Matthew y Darwin divergían. Al explicar las fuerzas que influían en este proceso, Matthew veía los acontecimientos catastróficos como un factor principal, manteniendo que las extinciones masivas eran cruciales para el proceso de la evolución: “[...] todos los seres vivos deben haber reducido tanto la existencia, que se formaría un nuevo ámbito desocupado para nuevas ramas divergentes de la vida [...] estos restos, acomodándose y amoldándose en el transcurso del tiempo […] al cambio en las circunstancias.” Cuando Darwin publicó su “Origen de las Especies” cerca de tres décadas después, rechazó explícitamente el papel del cambio catastrófico en la selección natural: “ La vieja noción de que todos los habitantes de la Tierra habrían sido barridos por catástrofes en períodos sucesivos se abandona en general”. Así, la teoría de la evolución que Darwin describió se basaba en una lucha continua por la supervivencia entre los individuos dentro de las poblaciones de la especies existentes. Según Darwin, el proceso de selección natural debería llevar a cambios graduales en las características de los organismos supervivientes. La historia geológica se ve actualmente caracterizada por largos periodos de estabilidad puntuada por importantes cambios ecológicos que tienen lugar episódica y rápidamente, lo que no termina de ajustarse a la teoría original de Darwin que afirmaba que: “la mayor parte del cambio evolutivo tuvo lugar muy gradualmente por competición entre organismos y adaptándose mejor a un entorno relativamente estable”. La contribución de Matthew fue mayormente ignorada en su tiempo y, actualmente, solamente amerita alguna nota al pie de página. Su descubrimiento fue enviado a la papelera de las ideas científicas despreciadas por demasiado prematuras. Imagen: marcas de dientes dejadas por un mamífero, probablemente un multituberculado, en una costilla de dinosaurio de hace 75 millones de años.Referencia: Rampino, M. (2010). Darwin's error? Patrick Matthew and the catastrophic nature of the geologic record Historical Biology, 1-1 DOI: 10.1080/08912963.2010.523948

... Read more »

  • June 14, 2009
  • 04:47 PM
  • 861 views

El zapatazo a Bush y el sistema visual humano.

by César Tomé López in Experientia docet

Seguramente todos hemos visto las imágenes de ese reportero que en diciembre pasado arrojó dos zapatos al entonces presidente de los Estados Unidos, Bush, y al primer ministro de Iraq Nouri al-Maliki durante una rueda de prensa [los que no lo hayan visto, lo pueden hacer aquí] . Podemos ver en el video que Bush se agacha pero que Maliki ni se inmuta cuando les tiran los zapatos. La reacción de los mandatarios ilustra perfectamente lo que un equipo de investigadores de la Universidad de Washington (EE.UU.) ha publicado el 11 de junio pasado en Current Biology: la teoría de que existen dos caminos independientes en el sistema visual humano. La teoría propuesta es que un sistema guía tus acciones y el otro guía tu percepción. Lo interesante  es que el sistema “activo” permite al cerebro “ver” cosas que tus ojos no perciben. Por ejemplo, si nos arrojan dos pelotas con trayectorias muy similares, puede que parezcan iguales a tu sistema “perceptivo”, pero tu cerebro puede calcular automáticamente cual de ellas es más amenazante y ordenar un movimiento para esquivarla antes de que te des siquiera cuenta de lo que ha sucedido. En el video de los zapatazos vemos como Maliki ni se inmuta en absoluto. Su cerebro ya ha categorizado el zapato como “no-amenaza” lo que implica que no es necesaria una acción evasiva. Pero el cerebro de Bush ha categorizado el mismo zapato como “amenaza” y dispara una respuesta evasiva, todo en una fracción de segundo. Para explorar cómo este sistema visual dual funciona, los investigadores liderados por Jeffrey Lin diseñaron varios experimentos similares al de las pelotas que hablábamos antes. Un grupo de estudiantes universitarios participaron en tres experimentos  usando un ordenador. En dos de ellos se les pedía a los estudiantes que localizaran un óvalo que se movía entre un conjunto de círculos en movimiento y que apretasen un botón en cuanto lo viesen. En el primer experimento el óvalo se movía directamente hacia la cara del estudiante; en el segundo también se aproximaba, pero no llevaba “rumbo de colisión” con la cara del sujeto. En el primero se localizaba el óvalo mucho antes que en el segundo: por así decirlo, captaba la atención del sujeto aunque el sujeto no fuese consciente de ello. Los observadores no fueron capaces de encontrar ninguna diferencia entre los estímulos “en rumbo de colisión” y los “cerca pero no” cuando se les preguntó expresamente por ello en el tercer experimento. Los autores creen firmemente que su investigación apoya la idea de que el sistema visual humano está constituido en realidad por dos sistemas independientes. Estos resultados contradicen los modelos tradicionales de captación de la atención, demostrando que en ausencia de conciencia perceptiva, el sistema visual puede extraer detalles relevantes para el comportamiento a un nivel de precisión que está más allá de nuestras capacidades perceptivas conscientes.Referencia:Lin, J., Murray, S., & Boynton, G. (2009). Capture of Attention to Threatening Stimuli without Perceptual Awareness Current Biology DOI: 10.1016/j.cub.2009.05.021... Read more »

  • June 15, 2009
  • 12:16 PM
  • 852 views

Sobre la longevidad de los planetas con vida.

by César Tomé López in Experientia docet

Dentro de un millón de años la Tierra se habrá vuelto inhabitable. El incremento constante de la luminosidad del Sol hará que la erosión de origen biológico de los silicatos reduzca la concentración de dióxido de carbono en la atmósfera (como indicaron Lovelock y Whitfield ya en 1982). La desaparición del dióxido de carbono implica la desaparición de las plantas fotosintéticas que lo usan como nutriente. Los océanos se evaporarán. Toda la vida terminará desapareciendo. O no, si tienen razón los investigadores del Instituto de Tecnología de California (más conocido como Caltech). Según un artículo que apareció el día 1 de este mes en Proceedings of the National Academy of Sciences existe un mecanismo que puede duplicar la esperanza de vida en el planeta: la propia vida. Este mecanismo también aumenta las probabilidades de encontrar formas de vida avanzada en el universo. Las temperaturas en la superficie de la Tierra son una consecuencia directa del hecho de tener una atmósfera con una composición en la que intervienen gases que impiden que la radiación infrarroja (vulgo el calor) escape al espacio. Esto es lo que se conoce como efecto invernadero. El vapor de agua, el dióxido de carbono y el metano (los gases de efecto invernadero) son cruciales para la vida. Sin ellos la Tierra recibiría unas radiaciones excesivas durante el día y por la noche perdería todo el calor. Actúan como el aislante de una casa. Conforme el Sol ha ido madurando a lo largo de de los últimos 4.500 millones de años se ha vuelto más brillante y más caliente, incrementando la cantidad de radiación solar que recibía la Tierra y, a la par, las temperaturas en la superficie. En este período la Tierra ha visto reducida la cantidad de dióxido de carbono en la atmósfera (la presión actual de dióxido de carbono en la atmósfera es dos mil veces menor que la que había hace 3.500 millones de años), compensándose de esta manera el incremento de temperaturas. Pero nos estamos acercando al punto donde este mecanismo deja de ser viable por falta de dióxido de carbono. Un mecanismo alternativo para compensar el incremento de temperaturas es reducir la presión atmosférica global. Usando la analogía del aislante de la casa, hacemos que sea menos compacto, permitiendo que haya más huecos por los que pueda escapar la radiación infrarroja. ¿Qué mecanismo proponen los autores para disminuir la presión atmosférica? La idea es la siguiente: las células de los seres vivos incorporan nitrógeno cuando crecen y se entierra con ellos cuando mueren. La biosfera está retirando de hecho nitrógeno molecular del aire por esta vía. El nitrógeno constituye aproximadamente un 78% del aire. De esta manera calculan los investigadores liderados por King-Fa Li, la Tierra podría seguir siendo habitable 1.300 millones de años más. Si la hipótesis es cierta la presión atmosférica debe ser ahora menor de lo que ha sido a lo largo de la historia de la Tierra. La prueba puede venir del estudio de las burbujas de gas de las lavas volcánicas. A mayor presión atmosférica menores son las burbujas que se forman y viceversa. Esta hipótesis tiene sus implicaciones para la búsqueda de inteligencia extraterrestre. Si es cierto el mecanismo para la Tierra, puede ser extrapolable a otros planetas fuera del Sistema Solar. La duración de la existencia de una civilización avanzada es una de las variables de la ecuación de Drake [sugerimos leer “Sobre la probabilidad de detectar inteligencia extraterrestre”]. Doblar la duración de la biosfera terrestre supone doblar la probabilidad de que la inteligencia sobre la Tierra sea detectada por otras civilizaciones y a la recíproca, incrementa la probabilidad de encontrar otras civilizaciones.Referencia: Li, K., Pahlevan, K., Kirschvink, J., & Yung, Y. (2009). Atmospheric pressure as a natural climate regulator for a terrestrial planet with a biosphere Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.0809436106... Read more »

  • November 1, 2010
  • 01:54 PM
  • 848 views

Química forense: cómo encontrar huellas en una superficie lavada.

by César Tomé López in Experientia docet

Si pensabas que lavando tus huellas dactilares de las superficies metálicas podrías engañar a los del C.S.I., se acabaron tus días de impunidad. Según un grupo de investigadores de la Universidad de Loughborough (Reino Unido) en colaboración con el Departamento Científico del Home Office británico (ministerio del interior), dirigidos por Paul Kelly, las huellas dactilares dejan una marca sobre las superficies, que permanece incluso si se lavan, que puede ser detectada empleando dinitruro de diazufre (S2N2). La investigación se publica en el Journal of Materials Chemistry. Como es conocido, el análisis de las huellas dactilares de las escenas de actos delictivos se ha convertido en un arma poderosa en el arsenal de los científicos forenses. Las crestas que se encuentran en la punta de los dedos de una persona son únicas. La comparación de la impresión dejada sobre distintos materiales (habitualmente superficies regulares y planas, como el cristal) con la muestra tomada de un sospechoso permite identificar al dueño de las huellas. Pero hay ocasiones en las que las huellas no se pueden ver con facilidad o están fragmentadas. Es necesario entonces recurrir a métodos que permitan mejorar la visibilidad. En 2008 el grupo de Kelly se dio cuenta de que el anillo de cuatro miembros (muy tensionado por tanto) del S2N2 se polimerizaba rápidamente a (SN)x en presencia de las huellas dactilares. La detección de este polímero produce una imagen visual de la huella. En el trabajo que nos ocupa los investigadores demuestran que la polimerización también ocurre cuando las sustancias de las huellas que se pensaba que eran las que provocaban la polimerización, han sido lavadas de la superficie. Resulta que la polimerización se produce por el efecto que esas sustancias provocan sobre la superficie si su interacción con ella dura el tiempo suficiente, y que permanece aún después de lavarlas. La clave del método propuesto desde el punto de vista forense, que todavía no está terminado de pulir, es que se basa en la interacción del vapor de S2N2 con la superficie. El uso de un vapor permite el análisis de muestras que han sido arrugadas o retorcidas, como los restos de un artefacto explosivo.Referencia: Bleay, S., Kelly, P., & King, R. (2010). Polymerisation of S2N2 to (SN)x as a tool for the rapid imaging of fingerprints removed from metal surfaces Journal of Materials Chemistry DOI: 10.1039/c0jm02724c

... Read more »

  • May 14, 2010
  • 10:27 AM
  • 847 views

Ludopatía, la adicción a casi ganar.

by César Tomé López in Experientia docet

No es la emoción de ganar sino la emoción de casi ganar lo que distingue a un ludópata. Una fuerte reacción en el cerebro en respuesta a las ocasiones percibidas subjetivamente como que "casi se gana" estaría correlacionada con una mayor tendencia al juego compulsivo, según un estudio que se publica en el Journal of Neuroscience. Los juegos de apuestas son algo en lo que participa casi todo el mundo de una forma u otra, desde las tragaperras a las carreras de caballos, desde el fútbol a la lotería. Para la mayoría es una forma de pasar un rato divertido, cuando no es además una forma de afianzar relaciones sociales; pero para algunos se convierte en una adicción que les arruina la vida: cada vez necesitan estímulos mayores en forma de ganancias para encontrar satisfacción y, cuando se ven forzados a parar, sufren síndrome de abstinencia. Antes de entrar en el estudio propiamente dicho quizás sea interesante pararnos un poco en las premisas falsas de las que parten muchos jugadores de azar. Los jugadores creen que en juegos como la ruleta o en las loterías es necesario algún tipo de habilidad a la hora de escoger un número, aunque esta habilidad tenga una componente esotérica sin ningún tipo de conexión con la realidad: este número es bonito, que sea capicúa, que sume trece, que allí hubo una desgracia y este es el código postal, después de tres rojos consecutivos siempre sale un negro, etc. En los juegos donde la habilidad sí importa, como el baloncesto, un tiro a canasta de tres puntos con el balón rebotando en el aro puede ser asociado correctamente con casi una anotación, por lo que asociar un valor a “casi anotar” tiene sentido. Pero en los juegos de azar, perder “por poco” no tiene sentido (da igual tener el 23 o el 93 si el que ha salido es el 24) porque el resultado no dice nada sobre la probabilidad futura de ganar. Esto, que es evidente a poco que se reflexione, no es la forma en que mucha gente piensa. Chase y Clark, de la Universidad de Cambridge (Reino Unido), han encontrado que en voluntarios sanos, las “pérdidas por poco”, que no representaban ni un solo céntimo de ganancia, seguían activando las partes del cerebro asociadas con las ganancias de dinero. En el estudio que han publicado analizan cómo se relaciona la activación del cerebro con la “gravedad” de la afición al juego. Los investigadores invitaron a 20 voluntarios, dos de los cuales eran mujeres, a jugar a una especie de máquina tragaperras mientras que sus cerebros eran analizados por resonancia magnética funcional (fMRI). La fMRI es una máquina que consigue mostrar en una pantalla qué partes del cerebro se iluminan cuando les llega oxígeno con el torrente sanguíneo al activarse. Los voluntarios jugaban todos habitualmente a juegos de azar, desde apuestas hípicas y quinielas de fútbol a tragaperras y loterías. Todos los voluntarios menos uno (que se había abstenido durante un año) jugaban al menos una vez a la semana. Las apuestas iban desde cinco personas que gastaban rutinariamente entre 12 y 120 € al día, a dos que estaban dispuestas a gastar 12.000 €. No parece muy sorprendente que 13 de los voluntarios resultaran considerados personas con demasiada inclinación al juego en una prueba estándar. El juego era simple: en una tragaperras simplificada, de sólo dos ruedas, cuando la figura de la izquierda coincidía con la figura de la derecha, el voluntario ganaba un premio en metálico de 0,60 €. Algunas veces los voluntarios podían elegir la figura de la izquierda. Otras veces era seleccionada por el equipo de investigadores. La “pérdida por poco” se producía cuando la desesperantemente lenta parada de la rueda de la derecha hacía que el ansiado plátano, ancla o bota de cowboy se colocase a sólo una o dos posiciones de la de alineamiento con la figura de la izquierda. De hecho la máquina estaba trucada: todos los voluntarios obtuvieron 30 resultados ganadores, 60 “pérdidas por poco” y 90 claramente perdedores. Los investigadores encontraron que aquellos que habían puntuado más alto en gravedad de afición al juego también presentaban la mayor actividad en el estriado ventral, área del mesencéfalo que se activaba con las “pérdidas por poco”. Significativamente no había diferencias en las respuestas a los resultados ganadores. Este área del cerebro es interesante porque es donde se produce la dopamina, un neurotransmisor. La dopamina aparece frecuentemente cuando se estudian las adicciones. El estudio sugiere que podría ser la “perdida por poco”, el “casi ganar”, la que favorece la transmisión dopaminérgica en los jugadores que tienen los problemas más graves. Lo que significa que podría ser posible encontrar tratamientos que redujesen los efectos de la dopamina en el cerebro para aliviar, al menos en parte, la compulsión de jugar. Referencia: Chase, H., & Clark, L. (2010). Gambling Severity Predicts Midbrain Response to Near-Miss Outcomes Journal of Neuroscience, 30 (18), 6180-6187 DOI: 10.1523/JNEUROSCI.5758-09.2010

... Read more »

  • December 10, 2009
  • 04:58 PM
  • 844 views

Síntesis estructural y funcional de una metaloproteína.

by César Tomé López in Experientia docet

Un equipo de investigadores dirigido por Yi Lu, de la Universidad de Illinois en Urbana-Champaign, ha diseñado una proteína sintética que es un modelo tanto funcional como estructural de una proteína natural, la enzima óxido nítrico reductasa (NOR). El logro se publica en Nature. Es muy difícil estudiar una molécula biológica tan compleja como la NOR si ésta no es soluble en agua. Cualquier ensayo debe realizarse en un medio graso, por tanto orgánico, que influirá en las reacciones que se estén estudiando. La NOR es una proteína de membrana (celular) y, por tanto, es liposoluble (no hidrosoluble). Tener un modelo de la proteína que es reflejo estructural y funcional de ella es tremendamente interesante. Sintetizar una proteína no es nada fácil. Sintetizar una proteína que contenga átomos metálicos en su estructura es mucho más difícil debido a la variabilidad en estados de oxidación y geometrías que presentan los átomos metálicos. La NOR es una metaloproteína, contiene hierro al igual que la hemoglobina de la sangre. Para imitar la estructura [en la imagen] y función de la NOR, los investigadores partieron de una pequeña proteína muscular, la mioglobina. Aunque es más pequeña que la NOR y soluble en agua, la mioglobina puede reproducir características claves de la NOR. Basándose en estos cimientos, los investigadores crearon un nuevo lugar para el enlace del hierro consistente en tres histidinas y un glutamato. Aparte de su papel estructural, las histidinas y el glutamato pueden proporcionar los protones (H+) necesarios para la reducción del óxido nítrico en el sitio activo. ¿Qué importancia puede tener que se sintetice una proteína? Mucha. Empezando por el final, esta proteína sintética es un excelente modelo para crear biocatalizadores para uso biotecnológico, medioambiental y farmacéutico. Desde un punto de vista más básico, más fundamental, las posibilidades de estudio de la NOR que aportará este nuevo modelo permitirán conocer mejor el ciclo del óxido nítrico (NO) en los mamíferos, y las patologías asociadas. Este ciclo es crítico para la vida. El NO es un importante regulador y mediador en numerosos procesos en los sistemas cardiovascular, nervioso e inmune. Así, participa en la relajación de los músculos lisos lo que resulta en la vasodilatación de las arterias e incremento del flujo sanguíneo (es crítico en el mantenimiento de la erección). En el sistema nervioso actúa como neurotransmisor, capaz de introducirse en las neuronas sin necesidad de sinapsis, pudiendo activar un grupo local de neuronas rápidamente. El NO es citotóxico para los microbios y las células tumorales, por lo que los macrófagos lo usan como arma de defensa en el sistema inmunitario. Por otra parte, el NO está implicado en los choques sépticos, la hipertensión, los infartos o las enfermedades neurodegenerativas.Referencia: Yeung N, Lin YW, Gao YG, Zhao X, Russell BS, Lei L, Miner KD, Robinson H, & Lu Y (2009). Rational design of a structural and functional nitric oxide reductase. Nature PMID: 19940850

... Read more »

Yeung N, Lin YW, Gao YG, Zhao X, Russell BS, Lei L, Miner KD, Robinson H, & Lu Y. (2009) Rational design of a structural and functional nitric oxide reductase. Nature. PMID: 19940850  

  • September 10, 2012
  • 05:51 AM
  • 834 views

Al menos un 4% adicional del genoma es inequívocamente humano.

by César Tomé López in Experientia docet





¿Qué nos diferencia a los humanos modernos de otras especies?
Parece una pregunta un poco estúpida, por lo evidente que puede
parecer la respuesta. Sin embargo, si preguntamos ¿qué parte del
genoma humano es exclusiva y característicamente humana? La
respuesta ya no es tan obvia. El 5% del genoma humano se conserva
entre especies; un 4% adicional, al menos, estaría sometido a una
selección específica de la especie. 



Al resultado anterior es al que han llegado Lucas Ward y Manolis
Kellis, ambos del Instituto de Tecnología de Massachusetts (EE.UU.),
en un artículo aparecido en Science. Los dos investigadores
usaron datos de ENCODE para identificar partes del genoma que
realmente hace cosas y datos del Proyecto 1000 Genomas, que ha
estudiado variaciones en el genoma humano en cientos de personas,
para descubrir cuantos de estos elementos funcionales varían de
persona a persona. En concreto se fijaron en señales que indiquen
que la selección natural está manteniendo un elemento. La lógica
es simple: si algo es evolutivamente importante entonces las
variaciones aleatorias en su secuencia de ADN serán eliminadas
lentamente de la población, manteniéndolo funcional en un proceso
conocido como selección estabilizadora.



Los investigadores encontraron que, además del 5% de ADN humano
que se conserva entre especies de mamíferos, existe otra porción
substancialmente mayor que es bioquímicamente activa. Sin embargo,
al menos un 4% adicional del ADN humano parece que es
característicamente humano en el sentido de que está sujeto a
selección estabilizadora en humanos pero no en otros mamíferos.
Mucho de este ADN característico está implicado en regular la
actividad de los genes, por ejemplo, controlando cuánto se produce
de una proteína en vez de alterar la naturaleza de la proteína
misma.




Este hallazgo está en sintonía con la hipótesis más aceptada
actualmente de que el cambio evolutivo está más relacionado con los
elementos reguladores más que con la estructura de proteínas. Los
investigadores también encontraron que segmentos largos no
codificantes que no se conservan en otros mamíferos están de hecho
muy constreñidos en su evolución, lo que sugiere que tendrían
funciones específicamente humanas.




Algunas de las áreas identificadas
como concretamente humanas son la regulación de los conos de la
retina (que nos permiten ver en color) y la regulación del
crecimiento de las células nerviosas. Estos procesos evolucionaron
rápidamente en los ancestros primates del Homo sapiens pero
ahora están sometidos a una fuerte selección estabilizadora para
mantener sus funciones beneficiosas.








Independientemente de estos primeros
resultados, los autores han creado un poderosa herramienta para
investigar en detalle los que nos hace humanos a los humanos.











Esta entrada es una participación de Experientia docet en la XVI Edición del Carnaval de Biología que alberga El blog falsable.






Referencia:

Ward LD, & Kellis M (2012). Evidence of Abundant Purifying Selection in Humans for Recently Acquired Regulatory Functions. Science (New York, N.Y.) PMID: 22956687

... Read more »

  • October 20, 2009
  • 10:20 AM
  • 833 views

De cómo el área de Broca procesa el lenguaje .

by César Tomé López in Experientia docet

Un método invasivo, usado por primera vez en humanos, demuestra que una pequeña parte del cerebro puede procesar tres tipos de datos diferentes, en tres momentos distintos, en un cuarto de segundo. Además revela que el área de Broca realiza más de una función en el procesamiento del lenguaje. El trabajo, encabezado por Ned T. Sahin de la Universidad de California en San Diego, se ha publicado en Science. Este interesantísimo trabajo aborda dos cuestiones importantes: una, la forma en que los procesos cognitivos superiores, como el lenguaje, se implementan en el cerebro y, otra, la naturaleza de la que es, quizás, la región más estudiada de la corteza cerebral, el área de Broca. La primera prueba de que partes del cerebro se correspondían con partes de la mente fue el descubrimiento, por parte de Broca hace 150 años, de que pacientes con una parte concreta del cerebro dañada, lo que hoy se conoce como área de Broca, eran incapaces de hablar, pero el resto de sus funciones cognitivas no estaban afectadas aparentemente. En todos estos años no se ha avanzado demasiado en el conocimiento de cómo el área de Broca contribuye al lenguaje. Los resultados del estudio que nos ocupa sugieren que el área de Broca consiste realmente se distintas partes superpuestas, que desarrollan distintos pasos de procesamiento con un ajuste temporal en una fracción de segundo. Esta forma de funcionamiento ha podido pasar desapercibida hasta ahora debido al nivel de resolución de los métodos empleados. Los resultados de Sahin et ál. se han conseguido mediante el uso de electrodos colocados en los cerebros de los pacientes [véase la imagen, tomada por rayos X, cortesía del Dr. Sahin]. Esta técnica permite a los cirujanos conocer qué pequeña porción del cerebro deben extirpar para aliviar los ataques que sufren los pacientes a la vez que salvaguardan la integridad de las partes sanas necesarias para el lenguaje. Los registros para la investigación se pudieron hacer, pues, mientras los pacientes estaban despiertos y receptivos. Este procedimiento, llamado electrofisiología intracraneal (ICE, por sus siglas en inglés), permitió al equipo de investigadores terner una resolución en la actividad del cerebro relacionada con el lenguaje con una precisión de un milímetro, espacialmente, y un milisegundo, temporalmente. Este ha sido el primer experimento que emplea la ICE para documentar cómo el cerebro humano procesa la gramática y produce palabras. Dado que el lenguaje complejo es una característica humana, ha sido muy difícil investigar sus mecanismos neuronales. Los métodos de imágenes del cerebro, como los escáneres de resonancia magnética funcional (fMRI, por sus siglas en inglés) son, en la práctica, todo lo que es posible usar en humanos, pero emborronan la actividad de miles de millones de neuronas en períodos de exposición largos. Como consecuencia, no se ha podido determinar en detalle si los mecanismos usados por los modelos lingüísticos o computacionales para producir un discurso gramaticalmente correcto se corresponden con el mecanismo que el cerebro usa realmente. Para este estudio, los investigadores registraron la actividad de los cerebros de los pacientes mientras repetían palabras al pie de la letra o las producían en formas gramaticales (plural, pasado, etc.), una tarea que los humanos hacemos sin esfuerzo cada vez que pronunciamos una frase.. La ICE permitió a los autores estudiar tres componentes del procesamiento del lenguaje en tiempo real, determinar si actividades neuronales relacionadas se ponían en ejecución en serie o en paralelo, y si los patrones de actividad eran locales o distribuidos. Los resultados muestran que procesos lingüísticos diferenciados se procesan en pequeñas regiones al área de Broca, separados en el tiempo y coincidiendo parcialmente en el espacio. Específicamente, los investigadores encontraron patrones de actividad neuronal que indicaban procesamiento léxico, gramatical y articulatorio (fonológico) a, aproximadamente, 200, 320 y 450 milisegundos después de la presentación de la palabra. Estos patrones eran idénticos independientemente de las palabras, ya fuesen sustantivos o verbos, y eran consistentes entre los distintos pacientes. Se pudo comprobar que la identidad de una palabra impresa llega al área de Broca muy rápidamente después de haber sido vista, en paralelo a su llegada al área de Wernicke. Por lo tanto, los resultados contribuyen a descartar por incorrecta una idea que aparece en muchos libros de texto: que el área de Broca se encarga del lenguaje expresivo (hablar) mientras que el área de Wernicke se encarga del lenguaje receptivo (leer y escuchar). El área de Broca juega, pues, diferentes papeles, tanto en el lenguaje expresivo como en el receptivo.Referencia: Sahin, N., Pinker, S., Cash, S., Schomer, D., & Halgren, E. (2009). Sequential Processing of Lexical, Grammatical, and Phonological Information Within Broca's Area Science, 326 (5951), 445-449 DOI: 10.1126/science.1174481

... Read more »

join us!

Do you write about peer-reviewed research in your blog? Use ResearchBlogging.org to make it easy for your readers — and others from around the world — to find your serious posts about academic research.

If you don't have a blog, you can still use our site to learn about fascinating developments in cutting-edge research from around the world.

Register Now

Research Blogging is powered by SMG Technology.

To learn more, visit seedmediagroup.com.