César Tomé López

400 posts · 160,565 views

Experientia docet
400 posts

Sort by Latest Post, Most Popular

View by Condensed, Full

  • November 25, 2009
  • 11:58 AM
  • 505 views

Terremoto en la investigación del Alzheimer: la beta amiloide es esencial para el cerebro.

by César Tomé López in Experientia docet

La enfermedad de Alzheimer está causada, aparentemente, por la acumulación de placas de una proteína llamada beta amiloide [en la imagen, en azul], por lo que la eliminación de esta proteína se ha convertido en el objetivo de casi toda la investigación que busca una cura para esta enfermedad. Pero, y este es un gran pero, según los resultados que publica en Nature neuroscience el equipo de Inna Slutsky de la Universidad de Tel Aviv (Israel) la beta amiloide es esencial para el correcto funcionamiento del cerebro.Según el estudio, la proteína, producto del metabolismo normal de la célula, es esencial para la transmisión de información entre las neuronas. Si se eliminase del cerebro, como muchos fármacos en desarrollo pretenden hacer, podría causar problemas en la capacidad de aprendizaje y memorización, así como una mayor y más rápida acumulación de placas en la enfermedad de Alzheimer. Por otra parte el estudio de Slutsky et ál. también supone un salto hacia delante en la comprensión de la causa y desarrollo de la enfermedad, por lo que abre otras vías de investigación para nuevos fármacos más efectivos. El equipo de Slutsky se centró en el estudio de tomos cerebrales de ratones sanos y en redes neuronales in vitro, también de ratones. Los investigadores pudieron determinar que había una cantidad óptima de beta amiloide necesaria para mantener las neuronas funcionando correctamente. Si este equilibrio se veía perturbado, siquiera ligeramente, la efectividad de la transferencia de información entre las neuronas se veía enormemente disminuida. Por otra parte, el estudio sugiere que la proteína beta amiloide pertenecería a un grupo de moléculas endógenas que regulan la transmisión sináptica normal en el hipocampo, una región del cerebro que participa en las funciones memorísticas y de aprendizaje. La regulación es dependiente de la actividad de la neurona y actúa sobre la liberación de las vesículas de neurotransmisores. Tras la aparición de beta amiloide extracelular la actividad sináptica se incrementa a través de un ciclo de retroalimentación positiva. La interrupción de dicho ciclo, que aparecería con los primeros síntomas del Alzheimer, podría ser la clave para una posible intervención terapéutica. Cuando una puerta se cierra, se abre una ventana. En cualquier caso, esperemos confirmaciones antes de tirar todo a la basura y empezar de nuevo. Referencia: Abramov, E., Dolev, I., Fogel, H., Ciccotosto, G., Ruff, E., & Slutsky, I. (2009). Amyloid-β as a positive endogenous regulator of release probability at hippocampal synapses Nature Neuroscience, 12 (12), 1567-1576 DOI: 10.1038/nn.2433

... Read more »

Abramov, E., Dolev, I., Fogel, H., Ciccotosto, G., Ruff, E., & Slutsky, I. (2009) Amyloid-β as a positive endogenous regulator of release probability at hippocampal synapses. Nature Neuroscience, 12(12), 1567-1576. DOI: 10.1038/nn.2433  

  • October 2, 2009
  • 09:37 AM
  • 504 views

Identificado otro fármaco que podría prevenir las enfermedades del envejecimiento y alargar la vida.

by César Tomé López in Experientia docet

Inutilizando un gen implicado en una importante vía de comunicación bioquímica en ratones se ha descubierto una forma de imitar los conocidos efectos antienvejecimiento de la restricción calórica: vida más larga y más saludable. Este hallazgo, publicado en Science por un equipo liderado por Dominic Withers del University College de Londres, ofrece una prometedora diana terapéutica para los muchos problemas asociados con la edad. Hace ya tiempo que es conocido que la restricción calórica alarga la vida y reduce la incidencia de las enfermedades relacionadas con la edad en una amplia variedad de organismos, desde las levaduras y los nemátodos (gusanos redondos) a los roedores y primates. No está claro, sin embargo, cómo una dieta nutricionalmente completa pero radicalmente restringida logra estos beneficios. Pero recientemente varios estudios han dado pruebas de que un proceso de transmisión de señales bioquímicas en concreto, que implica a una proteína llamada diana de la rapamicina (TOR, por sus siglas en inglés), puede jugar un papel clave. Este proceso actúa como una especie de sensor de comida, ayudando a regular la respuesta metabólica del cuerpo a la disponibilidad de nutrientes. El equipo científico se percató de que los ratones jóvenes con una versión inactiva de la enzima cinasa S6-1 (S6K1), que es activada directamente por la TOR, mostraban mucho parecido con los ratones que seguían una dieta restringida calóricamente: eran más delgados y tenían mayor sensibilidad a la insulina que los ratones normales. Para averiguar si estos beneficios persistían en edades más avanzadas y si los ratones vivirían más, los investigadores criaron dos grandes grupos de ratones modificados genéticamente que carecían de una versión funcional del gen de la S6K1. Un grupo vivió sus vidas tranquilamente, dando una medida de la duración natural de su vida. El otro grupo fue sometido a una amplia batería de pruebas de estado metabólico y de rendimiento cognitivo y motor. En las hembras, los resultados fueron importantes. Las ratonas modificadas genéticamente vivieron sustancialmente más que las normales. Con una edad de 600 días (sobre los 40 años humanos) obtenían resultados excelentes en las pruebas de rendimiento motor, superando a las ratonas normales en equilibrio, fuerza y coordinación. También eran más curiosas y capaces a la hora de explorar nuevos entornos, lo que sugiere una mejor función cognitiva. Las medidas fisiológicas también indicaban una salud mejor: las modificadas genéticamente tenían huesos más fuertes, mejor sensibilidad a la insulina y células inmunitarias más robustas. Aunque los machos modificados genéticamente no tenían una vida más larga, sí que compartían los beneficios para la salud de las hembras. Los efectos de la inactivación de la S6K1 fueron similares a los de la restricción calórica, aunque menos pronunciados. Las hembras sin S6K1 vivieron hasta un 20% más que las ratonas normales; el incremento de la longevidad con restricción calórica puede llegar al 50%. La importancia de estos resultados se comprende mejor si tenemos en cuenta el descubrimiento hecho en julio de que la rapamicina alarga la vida de los ratones, interfiriendo en la misma ruta bioquímica inhibiendo la TOR. Aunque la rapamicina tenía un efecto pronunciado en la longevidad y la salud, su uso en humanos está limitadísimo por los riesgos que supone su potente capacidad inmunodepresora. Los resultados de Withers et al. indican que el tener como diana a la S6K1 directamente puede evitar estos efectos secundarios, con similares efectos. El nuevo estudio también señala a otra proteína del proceso bioquímico de transmisión de señales de la TOR, la AMPK (proteincinasa activada por AMP), aún más aguas abajo que la S6K1, como una diana terapéutica potencial clave. El papel de la AMPK es extremadamente ilusionante ya que es activada por la metformina [en la imagen], un conocido fármaco para el tratamiento de la diabetes tipo 2. Esto significaría que sería posible en los próximos años diseñar ensayos clínicos para comprobar la capacidad de la metformina para prevenir las enfermedades relacionadas con la edad. Por favor, tenga en cuenta que esto es sólo un primer resultado de la investigación con ratones. NO SE AUTOMEDIQUE. Consulte a su médico. Referencia: Selman, C., Tullet, J., Wieser, D., Irvine, E., Lingard, S., Choudhury, A., Claret, M., Al-Qassab, H., Carmignac, D., Ramadani, F., Woods, A., Robinson, I., Schuster, E., Batterham, R., Kozma, S., Thomas, G., Carling, D., Okkenhaug, K., Thornton, J., Partridge, L., Gems, D., & Withers, D. (2009). Ribosomal Protein S6 Kinase 1 Signaling Regulates Mammalian Life Span Science, 326 (5949), 140-144 DOI: 10.1126/science.1177221

... Read more »

Selman, C., Tullet, J., Wieser, D., Irvine, E., Lingard, S., Choudhury, A., Claret, M., Al-Qassab, H., Carmignac, D., Ramadani, F.... (2009) Ribosomal Protein S6 Kinase 1 Signaling Regulates Mammalian Life Span. Science, 326(5949), 140-144. DOI: 10.1126/science.1177221  

  • May 4, 2010
  • 03:49 PM
  • 503 views

El cerebro usa estructuras primitivas para interpretar el lenguaje.

by César Tomé López in Experientia docet

Un estudio publicado en los Proceedings of the National Academy of Sciences viene a cofirmar algo que se sospechaba desde hace tiempo: no existe ningún área avanzada en el cerebro humano para el procesamiento del lenguaje. Es decir, no existe ninguna zona en el cerebro humano, que se use para la interpretación del lenguaje, distinta de las que ya están presentes en otras especies. El equipo de investigadores, de la Universidad de Rochester (EE.UU.), afirma en el artículo que los humanos usamos distintas regiones cerebrales, cada una de ellas evolutivamente preparada para realizar una tarea primitiva, para encontrar el sentido de una frase. La hipótesis que el equipo quería comprobar era, muy simplificada, la siguiente: si existiese un área especial para el procesamiento del lenguaje, aquel debería activarse independientemente de la gramática de la lengua que se perciba. Si, por el contrario, no existe un área específica, dependiendo del tipo de gramática que se use para formar una frase, el cerebro activará un determinado conjunto de regiones para procesarla, de la misma manera que un mecánico no usa las mismas herramientas para desmontar un radiador que para cambiar una rueda. Para que el experimento fuese realmente fiable lo único que debería cambiar debería ser la gramática, siendo todo lo demás igual. ¿Qué lenguas usar entonces? La lengua ideal no resulta ser una lengua verbal, sino la de signos americana. Para entender la elección es necesario diferenciar, siquiera groseramente, entre dos tipos de gramática. Algunas lenguas, como el inglés, se basan en el orden de las palabras en una frase para deducir las relaciones entre los elementos de la misma. Cuando un hablante inglés oye la frase “Molly sees Rob”, es evidente por el orden de palabras que Sally es el sujeto que realiza la acción del verbo y Rob es el objeto de dicha acción y no al contrario. En alemán (o en latín), por otro lado, la función gramatical de una palabra en una frase depende de su flexión, es decir, de cómo está declinada (qué sufijo se le ha añadido), por lo que el orden puede ser alterado sin cambio de significado. La lengua de signos americana (ASL, por sus siglas en inglés) tiene la característica de que las relaciones sujeto-objeto pueden ser expresadas de las dos maneras: usando el orden de las palabras o la flexión. En lengua de signos esto quiere decir que, o bien se realizan los signos de “Molly”, “sees” y “Rob" en ese orden, o el comunicante puede usar variaciones físicas (movimiento de las manos en el espacio, realización de los signos a un lado del cuerpo) para establecer el sentido de la frase. Para este estudio, los investigadores construyeron 24 frases y expresaron cada una de esas frases usando ambos métodos. Los videos de las frases expresadas en lengua de signos fueron proyectados ante sujetos, para los que la ASL es su forma de comunicación primaria, mientras se les tomaban imágenes por resonancia magnética funcional (fMRI) de su cerebro. Los dos tipos de frases activaron una red de regiones cerebrales coincidente, pero con diferentes patrones de actividad. Las frases de orden de palabras activaron áreas del hemisferio izquierdo implicadas en la memoria de trabajo y el acceso al léxico, entre ellas el córtex prefrontal dorsolateral. Por otro lado, las frases que usaban la flexión activaban los áreas que participan en construir y analizar la estructura combinatoria (esto es, dividir la información en las partes que la constituyen) en ambos hemisferios, como la región frontal inferior bilateral y los ganglios basales. Estos resultados sugieren que, para una función lingüística dada, la activación de una estructura neuronal podría depender de los recursos cognitivos específicamente requeridos para procesar características lingüísticas concretas. Dicho de otra forma, el cerebro rentabiliza estructuras preexistentes para interpretar el lenguaje. Referencia: Newman, A., Supalla, T., Hauser, P., Newport, E., & Bavelier, D. (2010). Dissociating neural subsystems for grammar by contrasting word order and inflection Proceedings of the National Academy of Sciences, 107 (16), 7539-7544 DOI: 10.1073/pnas.1003174107La imagen "Deaf Clubs" es cortesía de Caseykins.

... Read more »

Newman, A., Supalla, T., Hauser, P., Newport, E., & Bavelier, D. (2010) Dissociating neural subsystems for grammar by contrasting word order and inflection. Proceedings of the National Academy of Sciences, 107(16), 7539-7544. DOI: 10.1073/pnas.1003174107  

  • August 10, 2009
  • 12:16 PM
  • 501 views

El ADN de las neuronas es diferente.

by César Tomé López in Experientia docet

Las células cerebrales humanas albergan una increíble variabilidad en el genoma, según los investigadores del Instituto Salk de Estudios Biológicos (EE.UU.). El equipo liderado por Fred Gage, el mismo que descubrió la neurogénesis en adultos, ha publicado en Nature que las neuronas poseen un número inesperado de elementos móviles (transposones o genes saltarines), trozos del ADN que son capaces de insertar copias extras de sí mismos en el genoma usando un mecanismo de “corta y pega” (usando ARN como portapapeles en algunos casos). El descubrimiento podría ayudar a explicar el desarrollo e individualidad del cerebro así como a una mejor comprensión de las enfermedades mentales. En un trabajo anterior, Gage ya había demostrado que elementos móviles del ADN conocidos como Elementos Largos Intercalados -1 (LINE-1, por sus siglas en inglés) añaden copias extras (“saltos”) al azar al genoma de las células cerebrales de los ratones. El que esto sucediese también en los humanos era objeto de controversia. Se sabe que estos elementos móviles son importantes en organismos inferiores, como las plantas o las levaduras, pero se considera que en los mamíferos son restos del pasado evolutivo. Sin embargo, son extraordinariamente abundantes. Aproximadamente el 50% del total del genoma humano está constituido por restos de elementos móviles. Si fuesen inservibles, nos habríamos desecho de ellos. Pero, ¿para qué sirven? El objetivo original de los investigadores del Instituto Salk era simplemente identificar “saltos” en células cerebrales humanas cultivadas in vitro, como se había hecho con los ratones. Una vez verificado, el paso siguiente para Gage y Nicole Coufal (autora principal del trabajo que ahora se publica) fue verificar que lo mismo ocurría in vivo. In mice, gene jumping is limited to the brain and to germ cells, the reproductive cells in our bodies, since these kinds of rapid changes would be detrimental in essential organs such as the heart or kidneys. If LINE-1 elements were indeed on the move in humans, there should be more copies in the brain than in the heart or liver, where Gage and Coufal did not expect LINE-1 jumping to occur. En los ratones los saltos de genes se limitan al cerebro y a las células germinales ya que, en las células de otros órganos como el corazón o los riñones, estos cambios rápidos podrían ser potencialmente muy perjudiciales. Si los elementos LINE-1 se transponen en los humanos debería haber más copias en el cerebro que en el corazón o en el hígado, según la hipótesis de Gage y Coufal. El equipo de investigadores desarrolló una reacción en cadena basada en la polimerasa que permitió determinar cuantitativamente el incremento del número de copias en tejidos cerebrales (del hipocampo y otras áreas) con respecto a las presentes en tejidos de otros órganos (corazón e hígado, entre otros). Las muestras del cerebro tenían hasta 100 copias extra por célula, con lo que quedaba probada la hipótesis. Los investigadores comprobaron asimismo que el promotor del LINE-1, el interruptor genético que hace que haya o no LINE-1, está habitualmente en “on” en las células cerebrales y en “off” en las células de otros órganos. Este hallazgo implica que no todas las células son creadas iguales: el ADN de las células del cerebro es diferente del ADN del resto de células del organismo, o casi. Existe otro tipo de célula humana que es conocida por remodelar su genoma: las del sistema inmunitario. En ellas los genes que codifican los anticuerpos se combinan para crear la variedad necesaria de éstos que haga frente a un infinito número de diferentes antígenos. La variabilidad que este descubrimiento asigna a las células cerebrales provee un mecanismo potencial para explicar la diversidad neuronal que hace a cada persona única. Por otra parte, la desregulación de las copias podría contribuir a la aparición de desórdenes neurológicos. Finalmente, un cerebro que es capaz de vivir 80 años en un entorno cambiante e impredecible tiene, de esta manera, un plus de adaptabilidad: los elementos móviles impulsarían la evolución.Referencia: Coufal NG, Garcia-Perez JL, Peng GE, Yeo GW, Mu Y, Lovci MT, Morell M, O'Shea KS, Moran JV, & Gage FH (2009). L1 retrotransposition in human neural progenitor cells. Nature PMID: 19657334... Read more »

Coufal NG, Garcia-Perez JL, Peng GE, Yeo GW, Mu Y, Lovci MT, Morell M, O'Shea KS, Moran JV, & Gage FH. (2009) L1 retrotransposition in human neural progenitor cells. Nature. PMID: 19657334  

  • September 7, 2009
  • 04:23 PM
  • 501 views

Échale la culpa al cromosoma Y.

by César Tomé López in Experientia docet

El cromosoma Y tiene una forma única de asegurarse su supervivencia, pero ese mecanismo de autopreservación puede causar una variedad de desórdenes sexuales, desde esterilidad masculina al caso de personas cuyo sexo genético es opuesto al de su desarrollo anatómico, según un estudio publicado en Cell por un equipo del Instituto Whitehead de Investigación Biomédica (EE.UU.) encabezado por David Page. La totalidad del genoma está constantemente sujeto a errores al azar durante la replicación, la inmensa mayoría de los cuales van en contra de la aptitud para sobrevivir del organismo. Estas mutaciones nocivas se purgan del genoma durante la reproducción sexual en un proceso conocido como recombinación, en el que cromosomas homólogos, procedentes del macho y de la hembra, intercambian trozos de material genético. Esencialmente, los cromosomas cambian sus genes malos por buenos. Pero el cromosoma Y no tiene homólogo con el que recombinarse: enfrente tiene a un, fundamentalmente diferente, cromosoma X. Ante este problema, la hipótesis predominante, aunque nada satisfactoria, era que el cromosoma Y y sus genes se reproducían asexualmente, lo que limitaba su capacidad para purgar sus mutaciones. Esto llevaría a una rápida acumulación de éstas, lo que un día tendría como consecuencia la eliminación completa del cromosoma Y, posiblemente en menos de diez millones de años. Pero en 2003, cuando se publicó la primera secuencia completa del cromosoma Y, los biólogos identificaron grandes secciones del ADN que eran imágenes especulares una de otra. Estas áreas palindrómicas, es decir, una secuencia de bases es igual a su complementaria leída al revés, proporcionaron una posible respuesta a la antigua pregunta de cómo se libraba el cromosoma Y de las mutaciones nocivas: se recombinaba consigo mismo. Intercambiando un alelo mutado (un alelo es una de las posibles formas de un gen) por otro bueno del otro lado del palíndromo podría, a efectos prácticos, arreglar el problema. El equipo de Page se dispuso a encontrar pruebas que confirmasen esta hipótesis. Para ello analizó el cromosoma Y de cerca de 2400 pacientes masculinos con anormalidades sexuales diagnosticadas previamente. Identificaron 51 cromosomas Y que mostraban signos característicos de haber sufrido esta autorrecombinación de material genético. Los investigadores se percataron de estos cromosomas Y en particular por la presencia de dos centrómeros (el punto donde se tocan las dos cromátidas del cromosoma) en vez del único habitual. El centrómero es la región del cromosoma sobre la que se ejerce tracción durante la división celular (mitosis), y tener más de uno puede dar lugar a confusión celular. Estos llamados Y isodicéntricos son un desafortunado efecto secundario de la recombinación dentro del cromosoma, según el trabajo publicado. Después de la rotura del ADN para intercambiar los genes que necesitan reparación, las piezas podrían recolocarse incorrectamente, con el resultado de un cromosoma que no tiene centrómeros o bien otro que tiene dos. La inestabilidad mitótica resultante puede desembocar en una pasmosa variedad de consecuencias clínicas. El mismo problema en el cromosoma Y se traduce tanto en un recuento espermático reducido en un individuo por lo demás sano, como en distintas anomalías de desarrollo sexual a un nivel anatómico mucho mayor en otros individuos. Esta variedad de consecuencias es verdaderamente sorprendente. Una nota final: si bien estos resultados apoyan la teoría de que el cromosoma Y se recombina consigo mismo, el mecanismo de intercambio de genes tiene que ser confirmado todavía, el proceso concreto aún no ha sido explicado. [En la imagen, de izquierda a derecha, cromosomas X e Y; en el X podemos apreciar cómo las dos cromátidas se tocan en el centrómero]Referencia: Lange, J., Skaletsky, H., van Daalen, S., Embry, S., Korver, C., Brown, L., Oates, R., Silber, S., Repping, S., & Page, D. (2009). Isodicentric Y Chromosomes and Sex Disorders as Byproducts of Homologous Recombination that Maintains Palindromes Cell, 138 (5), 855-869 DOI: 10.1016/j.cell.2009.07.042

... Read more »

  • October 8, 2009
  • 09:33 AM
  • 501 views

La actividad cerebral se incrementa en el momento de la muerte.

by César Tomé López in Experientia docet

Las lecturas eléctricas de siete pacientes que murieron en la unidad de cuidados intensivos del Centro Médico de la Universidad George Washington (EE.UU.) sugieren que el cerebro sufre un aumento acusado de actividad en el momento de la muerte, según un estudio publicado en el Journal of Palliative Medicine por el equipo médico que les atendió, dirigido por Lakhmir S. Chawla. Este resultado sugiere una posible explicación de las llamadas experiencias cercanas a la muerte. El principal objetivo de los cuidados paliativos es hacer el fallecimiento de los pacientes lo menos doloroso y angustioso posible. Dentro de los cuidados paliativos que se estaban dando a los pacientes del estudio, el equipo médico usó para monitorizar su estado monitores de alerta. Estos monitores son dispositivos comerciales diseñados para ayudar a los anestesistas a controlar lo “despiertos” que están los pacientes, y combinan las lecturas electroencefálicas de los lóbulos centrales en una sola señal que refleja el estado de alerta del paciente. En cada uno de los siete pacientes, neurológicamente intactos, el equipo médico se dio cuenta de que en el momento en el que la presión sanguínea caía a cero había un incremento repentino de la actividad cerebral. Esta no es la primera vez que este fenómeno se detecta, pero los informes anteriores eran casos aislados en los que el incremento de actividad podría haber sido debido a una interferencia eléctrica de otras fuentes. En los casos que nos ocupan, los médicos adoptaron las medidas oportunas para garantizar que las fuentes mencionadas como origen de las interferencias no estuviesen presentes. Como explicación del fenómeno sugieren que el incremento repentino fue debido a una despolarización anóxica: un proceso en el que la falta de oxígeno desestabiliza el equilibrio químico a ambos lados de las membranas de las neuronas, lo que conlleva un último estallido de actividad. En este punto es a lo mejor conveniente recalcar que estamos hablando de siete casos, y que no se han empleado equipos de medición neuroeléctrica de un nivel suficiente como para hacer mediciones de precisión, aunque, claro está, tampoco era este el objetivo en una unidad de cuidados intensivos. Es necesaria pues una investigación planificada, con instrumentos adecuados, para poder conocer mejor el fenómeno antes de dar ninguna explicación como totalmente válida. No obstante lo anterior, los investigadores sí se atreven a lanzar una hipótesis sobre las “experiencias cercanas a la muerte”: “Especulamos que aquellos pacientes que sufren un paro cardiaco y que son resucitados con éxito podrían recordar las imágenes y recuerdos provocados por esta cascada [la despolarización anóxica]. Ofrecemos esto como una explicación potencial de la claridad con la que muchos pacientes tienen 'experiencias fuera del cuerpo' cuando se les resucita con éxito de un suceso cercano a la muerte”. Referencia: Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009). Surges of Electroencephalogram Activity at the Time of Death: A Case Series Journal of Palliative Medicine DOI: 10.1089/jpm.2009.0159

... Read more »

Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009) Surges of Electroencephalogram Activity at the Time of Death: A Case Series. Journal of Palliative Medicine, 2147483647. DOI: 10.1089/jpm.2009.0159  

  • October 16, 2009
  • 08:01 AM
  • 501 views

Un nuevo efecto cuántico confirmado: los electrones fluyen eternamente en anillos de metal ordinario.

by César Tomé López in Experientia docet

Es conocido, y muchos habremos oído hablar de ello, que en los superconductores una corriente eléctrica puede circular sin resistencia. Los mejores conductores normales, como el cobre o el oro, tienen resistencia eléctrica, por lo que para que fluya una corriente tenemos que aportar energía (una pila, por ejemplo). Así las cosas, en una anillo superconductor podríamos tener una corriente persistente sin necesidad de una pila y esto sería imposible en un anillo conductor normal. ¿Correcto? No, al menos no siempre. El grupo de J.G.E. Harris de la Universidad de Yale (EE.UU.), en colaboración con Felix von Oppen de la Universidad Libre de Berlín (Alemania), ha comprobado experimentalmente la existencia de corrientes persistentes en anillos conductores a mesoescala (con un tamaño medido en micras), lo que confirma las predicciones hechas en 1983 por Ymri et.al. Su trabajo se publica en Science. Si un anillo metálico es muy pequeño (alrededor de 1 micra de diámetro) la mecánica cuántica dice que sus electrones deberían comportarse de manera similar a como se comportan los electrones alrededor de un núcleo atómico. Y de la misma manera que los electrones se mantienen en las configuraciones de menor energía de un átomo sin necesidad de un suministro de energía, los electrones en estos anillos mesoscópicos deberían fluir eternamente. Numéricamente: en un anillo de 1 micra de diámetro enfriado a 1 Kelvin debería haber una corriente de 1 nanoamperio. Las corrientes de un nanoamperio de magnitud pueden medirse con un amperímetro, pero esto implicaría romper el anillo para incluir el amperímetro en el circuito. El circuito resultante tendría unas dimensiones muy superiores a 1 micra y no pasaría corriente. La alternativa al amperímetro era el uso de dispisitivos superconductores de interferencia cuántica (más conocidos por sus siglas en inglés, SQUIDs) para medir los campos magnéticos creados por las corrientes persistentes. Pero esto se hace muy complicado debido a la propia sensibilidad de los SQUIDs, cuyas mediciones se ven alteradas por la presencia de impurezas en los anillos. Además, se hace necesario aplicar un campo magnético a lo largo del eje del anillo para hacer que la corriente persistente fluya en una dirección. Este campo hace que sea muy difícil operar con el SQUID, pero sin él unos electrones irían en un sentido y otros en otro lo que resultaría una corriente neta de cero. Debido a todas estas dificultades los resultados experimentales han sido inconsistentes y no se parecían a las predicciones teóricas. Lo que ha conseguido el equipo de Harris es un sistema de medición de corrientes persistentes que es 100 veces más sensible que un SQUID. El equipo fabricó anillos de aluminio sobre una pastilla de silicio y empleó un proceso litográfico para crear micro vigas (como si fueran trampolines de una piscina) de 300 nanometros de grosor con uno o más anillos en las puntas. Para medir la corriente en los anillos se coloca una micro viga a unos 45º con respecto a un fuerte campo magnético de varios Tesla de intensidad. El componente del vector del campo magnético aplicado perpendicular a la micro viga hace que la corriente persistente del anillo fluya en una dirección solamente. Esta corriente persistente unidireccional lleva asociada un campo magnético que es perpendicular a la micro viga. El componente paralelo a la micro viga del vector del campo magnético aplicado está en ángulo recto con el que crea la corriente persistente, lo que crea un par sobre la micro viga. La micro viga tiene una frecuencia natural de oscilación, que cambia como resultado de este par. Comparando las frecuencias con y sin el campo aplicado, Harris et al. pueden calcular el valor de la corriente persistente en el anillo (o anillos). El equipo estudió varias micro vigas con un anillo o con series de cientos o miles de anillos idénticos. Midiendo el tamaño de la corriente persistente cambiando el campo magnético, el equipo confirmó, en primer lugar, que la corriente persistente existe y, en segundo, que su valor es una función del cuanto de flujo magnético (h/2e), tal y como predijeron Ymry y sus colegas en 1983. Quedaría sólo por confirmar que las teorías son válidas a bajos valores de flujo magnético. Harris y compañía ya trabajan en ello.[En la imagen, anillos de aluminio producidos por Harris et al.]Referencia: Bleszynski-Jayich, A., Shanks, W., Peaudecerf, B., Ginossar, E., von Oppen, F., Glazman, L., & Harris, J. (2009). Persistent Currents in Normal Metal Rings Science, 326 (5950), 272-275 DOI: 10.1126/science.1178139

... Read more »

Bleszynski-Jayich, A., Shanks, W., Peaudecerf, B., Ginossar, E., von Oppen, F., Glazman, L., & Harris, J. (2009) Persistent Currents in Normal Metal Rings. Science, 326(5950), 272-275. DOI: 10.1126/science.1178139  

  • June 3, 2010
  • 05:45 PM
  • 500 views

Cómo identificar gotas de lluvia fosilizadas en este y otros mundos.

by César Tomé López in Experientia docet

Si dos gotas de lluvia golpean arena seca a diferentes velocidades, ¿cuál dejaría una marca menos profunda? Reflexiona un momento antes de seguir leyendo. La intuición indica que sería la gota que se mueve a mayor velocidad la que marcaría más la capa de arena. Sin embargo no son las gotas más lentas las que menos marcan, sino las gotas a velocidades medias, según un estudio realizado por Hiroaki Katsuragi, de la Universidad Kyushu (Japón) y publicado en Physical Review Letters. Katsuragi dejó caer gotas de agua desde diferentes alturas sobre una capa de material granular seco. A partir de aquí fue capaz de encontrar una fórmula para el radio del cráter de impacto de la gota basándose en la densidad del material granular, que podrá ser muy útil a los investigadores que intentan interpretar los posibles signos de agua fósil tanto en la Tierra como en otros miembros del Sistema Solar. Muchos investigadores han estudiado objetos rígidos impactando sobre una capa blanda de granos, imaginemos una bola de golf cayendo en una trampa de arena. Estos estudios han reproducido la clase de cráteres que se ven en las distintas lunas del Sistema Solar. Mucho menos se sabe de lo que ocurre cuando la pelota de golf se sustituye por una gota de agua, que es capaz de cambiar de forma durante el impacto. Ya en 1850 los geólogos habían identificado depresiones con forma de hoyo en arena fina que podrían ser gotas de lluvia fosilizadas. Para estar seguros de que lo son estas depresiones es necesario una mejor comprensión de cómo las gotas de agua forman cráteres de impacto. Para caracterizar los impactos de las gotas líquidas, Katsuragi hizo gotear agua en pequeños recipientes que contenían granos de carburo de silicio, un material abrasivo. Katsuragi varió tanto la altura como el tamaño de los granos, de 4 micras a 50. Cada gota tenía aproximadamente 4,8 milímetros de diámetro y se la dejaba caer desde una altura de entre 10 a 480 milímetros. Con esto Katsuragi obtuvo toda una colección de formas de cráter, dependiendo de la velocidad del impacto y del tamaño de los granos, de los que pudo medir con precisión usando un láser tanto radios como profundidades. A velocidades bajas y pequeños tamaños de grano, las gotas formaban lo que él llama un “cráter de hundimiento”. Éstos se forman cuando una gota permanece intacta en el momento del impacto y comprime lentamente la capa de granos “sueltos” que está debajo de ella conforme el líquido penetra entre los granos, dejando una depresión de 1,5 mm de profundidad. A velocidades medias, la gota comprime los granos que tiene debajo en el momento del impacto, por lo que no pueden comprimirse más durante el proceso de penetración del agua. Estos cráteres de media velocidad eran menos profundos que los de hundimiento. Las gotas de mayor velocidad cayendo sobre los granos más pequeños eran las que dejaban los cráteres más profundos, de alrededor de 2 milímetros. Cuanto mayor era el tamaño de los granos, los cráteres eran menos profundos, y las gotas a alta velocidad dejaban picos en medio de los cráteres en vez de valles. Ello se debe, según Katsuragi, a que la gota recoge granos de un área amplia durante el impacto inicial y su expansión, pero después los deposita en el centro cuando la gota se une y comienza a penetrar. Para saber qué controla el tamaño de un cráter, Katsuragi derivó una fórmula para ajustar sus datos experimentales. Encontró que el radio de un cráter es más o menos proporcional a dos cantidades. La primera es la proporción entre la densidad del grano y la del agua. Si la capa granular es mucho más densa que el agua, la gota se deforma mucho en el impacto y, por tanto, hace un cráter mayor que en los granos de menor densidad. La segunda cantidad es una constante llamada número de Weber, que cuantifica la influencia de la tensión superficial, las gotas mayores o que se mueven más rápidamente tienen números de Weber mayores y es más probable que se rompan durante el impacto. Se deduce de lo anterior que la deformación de la gota es crucial para entender la morfología del cráter. Con esta herramienta, que todavía debe refinarse y ampliarse a distintos sustratos y condiciones de caída, se puede intentar deducir en qué condiciones se produjeron algunos cráteres que hasta hoy no tienen una explicación satisfactoria o establecer la presencia de lluvia fósil en un territorio que en su día fue arenoso, ya sea en la Tierra o en cualquier otro mundo.[Esta es la participación de Experientia docet en el VIII Carnaval de la Física, que este mes acoge Pirulo cósmico.]Referencia: Katsuragi, H. (2010). Morphology Scaling of Drop Impact onto a Granular Layer Physical Review Letters, 104 (21) DOI: 10.1103/PhysRevLett.104.218001

... Read more »

  • June 27, 2010
  • 02:33 PM
  • 500 views

Einstein y...el efecto fotoeléctrico.

by César Tomé López in Experientia docet

El trabajo de Einstein sobre el efecto fotoeléctrico fue tan revolucionario como el de la relatividad, constituyendo una de las teorías que dieron un impulso definitivo a la creación de la mecánica cuántica. No tan llamativa como la teoría de la relatividad, fue el logro por el que mereció oficialmente el premio Nobel en 1921. Cuando la luz incide sobre una placa de metal es capaz de arrancar electrones, provocando una corriente eléctrica, en esto consiste el efecto fotoeléctrico. Pero a principios del siglo XX, la teoría vigente de cómo la luz se movía no encajaba con lo que sucedía cuando se realizaba un experimento fotoeléctrico. En 1905, el “annus mirabilis” de Einstein, éste publicó un artículo en el que ofrecía una solución que se basaba en la hipótesis de que la luz está formada por partículas discretas. Esta era una idea radical, pero que hoy se acepta completamente. Heinrich Hertz fue el primero que se dio cuenta de la existencia del efecto fotoeléctrico en 1887, cuando bloqueó toda la luz que no necesitaba para un experimento eléctrico que estaba realizando. Hertz descubrió que las chispas eléctricas creadas por el aparato eran más débiles sin la luz adicional; por tanto, la luz misma que incidía en la placa de metal estaba induciendo electricidad. A finales del siglo XIX se tenía asumido que esta electricidad estaba específicamente constituida por los electrones que se habían arrancado de los átomos por la energía aportada por la luz incidente. En 1902, el físico alemán Philipp Lénárd identificó algunos problemas con la idea de Hertz. Lénárd creía, al igual que sus contemporáneos, que la luz era una onda. Consecuentemente, podrían esperarse algunos resultados: más cantidad de luz aportaría más cantidad de energía a los electrones; una luz débil necesitaría un tiempo para transmitir suficiente energía a los electrones del metal como para arrancar algunos; y las dos afirmaciones anteriores serían independientes de la frecuencia de la luz incidente. Lénárd descubrió que no pasaba nada de todo esto. Cuando hizo que rayos de luz cada vez más intensos incidiesen sobre el metal, la cantidad de electrones arrancados aumentaba pero siempre parecían tener la misma cantidad de energía. Además, los electrones comenzaban a escaparse en el momento en que la luz alcanzaba la placa, a no ser que la luz fuese de baja frecuencia, en cuyo caso no pasaba nada de nada. Lénárd hizo que estos problemas, con todo lujo de detalles y datos experimentales, fuesen conocidos públicamente (y ganó un premio Nobel por ello), pero no fue él el llamado a resolver el misterio. Por otro lado Max Planck también estaba trabajando con la radiación. Para resolver un conjunto de problemas completamente diferente, lanzó la hipótesis de que, quizás, la energía estuviese constituida por paquetes de tamaños específicos. En vez de un flujo continuo, la radiación estaría formada por “cuantos” de energía. En otras palabras, la radiación en vez de ser como un chorro de agua sería como una serie continua de pelotas de pingpong. Al introducir esta idea, Planck consiguió que las matemáticas del trabajo que estaba realizando cuadrasen. Esto no quiere decir que Planck creyese necesariamente que la energía viniese realmente en paquetes discretos, al menos al principio pensó que esto no era más que un truco matemático que le había permitido salir de un atolladero. Einstein por su parte estaba dispuesto a aceptar que este truco matemático podría representar la realidad física. El 17 de marzo de 1905 publicó un artículo en el que partía de la hipótesis de que la luz no era una onda, sino que estaba constituida por partículas no demasiado diferentes a los propios electrones. Si se adoptaba este salto conceptual todo parecía tener sentido. En vez de que el rayo de luz añadiese energía continuamente a los electrones de la placa metálica, ahora había que interpretar el efecto fotoeléctrico como si cada fotón (el nombre que le daría en 1926 Gilbert Lewis al cuanto de luz) pudiese afectar solamente a un electrón cada vez. Esto explicaba los tres problemas fundamentales que planteaba el efecto fotoeléctrico. El primer problema era que la incidencia de luz con mayor energía no correspondía a la expulsión de átomos con más energía. Con la solución de Einstein, se puede apreciar que cambiar la intensidad de la luz simplemente significa que hay más fotones. Más fotones significa que hay más electrones expulsados del metal, pero ello no implica que un electrón en concreto tenga más energía. El segundo problema era que las ondas de baja intensidad no necesitaban más tiempo para arrancar los electrones del metal, sino que lo hacían inmediatamente. Esto podía interpretarse como que había menos fotones en el rayo de luz incidente. Si bien menor número de fotones significa menor número de electrones, un fotón individual no va a tener problemas expulsando a un electrón en el momento en que golpee la placa metálica. No hay necesidad de que múltiples ondas de energía se acumulen a lo largo del tiempo dándole finalmente al electrón energía suficiente para liberarse. El tercer problema era que, en el marco de la teoría ondulatoria de la luz, uno no esperaría que un cambio en la frecuencia afectase al resultado, pero sí lo hacía. La explicación está en el hecho de que la cantidad de energía de cada fotón individual es directamente proporcional a su frecuencia. Por debajo de cierta frecuencia, un fotón simplemente no tiene energía suficiente como para arrancar un electrón, no importa el número de fotones que se estrelle contra la placa de metal (recordemos que el electrón no acumula la energía). La teoría de Einstein no sólo proporcionaba explicaciones a los problemas planteados por el efecto fotoeléctrico; también daba formas de ser comprobada experimentalmente. Su teoría implicaba que había una correlación entre la frecuencia de la luz y la energía dada a los electrones. Esta correlación era algo que podía medirse. A pesar del hecho de que la correlación era verificable y que la hipótesis de Einstein explicaba satisfactoriamente el efecto fotoeléctrico, llevó bastante tiempo a la comunidad científica aceptar que no era sólo un truco matemático. Incluso Einstein necesitó varios años hasta que se comprometió con la idea de que la luz era realmente un haz de partículas. Robert Millikan, una década más tarde, llevó a cabo experimentos con objeto de probar que la teoría era falsa y, a pesar de que los resultados apoyaban continuamente la hipótesis de los cuantos, Millikan siguió durante años negándose a creer que no existiese una explicación alternativa. ... Read more »

  • October 30, 2009
  • 02:40 PM
  • 499 views

Comunicación neuronal sin sinapsis.

by César Tomé López in Experientia docet

Como es sabido las comunicaciones entre neuronas se producen en un pequeño espacio entre ellas llamado sinapsis. Esto sigue siendo cierto, pero un equipo de investigadores de la Universidad de Szeged (Hungría) liderado por Gábor Tamás informa en Nature de la existencia de neuronas que, en vez de concentrar la emisión de neurotransmisores en la sinapsis, los segregan en el espacio intercelular. El equipo de investigadores realizó el descubrimiento examinando un tipo de célula cerebral llamado neurogliaforme, una internurona muy abundante en la corteza cerebral. Estudios anteriores han demostrado que las células neurogliaformes pueden inhibir la activación de otras neuronas mediante la segregación de un neurotransmisor llamado GABA (ácido gamma-aminobutírico), que habitualmente se encuentra en las sinapsis. Otros estudios sugieren que el GABA se puede difundir también hacia el espacio intercelular, donde lleva mensajes a neuronas no conectadas por sinapsis. Para tener una concentración suficiente de GABA intercelular se especuló con la idea de que muchas neuronas tendrían que emitirlo a la vez. Los investigadores querían comprobar esta idea. Tamás et ál. usaron microscopía óptica y electrónica para examinar el tejido cerebral de ratas y humanos, para encontrar que las células neurogliaformes tienen axones con muchísimas ramificaciones [en la imagen, en rojo]. Estos axones “peludos” tienen una enorme densidad de sitios en los que puede emitirse GABA al espacio intercelular. Habitualmente la emisión de neurotransmisores tiene lugar en las sinapsis, pero el equipo pudo comprobar que sólo 11 de cada 50 sitios examinados en las neurogliaformes corresponden a una sinapsis. Experimentos adicionales confirmaron que una sola neurogliaforme, cuando es estimulada, libera suficiente GABA como para inhibir la actividad de las neuronas cercanas no conectadas por sinapsis. Los investigadores también demuestran que las células neurogliaformes contienen receptores que pueden detectar incluso niveles muy bajos de GABA, lo que sugeriría que pueden comunicarse entre sí además de con otros tipos de células. Estos mismos receptores también son sensibles a los neuroesteroides, moléculas sintetizadas en el cerebro y ligadas con la ansiedad y la depresión. Las concentraciones de estas moléculas pueden fluctuar con el ciclo menstrual, durante el embarazo o durante períodos de estrés, por lo que los autores afirman que las fluctuaciones en las concentraciones de neuroesteroides podrían afectar a la actividad de estas células neurogliaformes. ¿Supondrá este hallazgo un cambio en nuestro enfoque para explicar cómo funciona el cerebro, basado hasta ahora en la comunicación sináptica?Referencia: Oláh, S., Füle, M., Komlósi, G., Varga, C., Báldi, R., Barzó, P., & Tamás, G. (2009). Regulation of cortical microcircuits by unitary GABA-mediated volume transmission Nature, 461 (7268), 1278-1281 DOI: 10.1038/nature08503

... Read more »

Oláh, S., Füle, M., Komlósi, G., Varga, C., Báldi, R., Barzó, P., & Tamás, G. (2009) Regulation of cortical microcircuits by unitary GABA-mediated volume transmission. Nature, 461(7268), 1278-1281. DOI: 10.1038/nature08503  

  • October 6, 2009
  • 04:40 PM
  • 496 views

De cómo lo absurdo agudiza el ingenio.

by César Tomé López in Experientia docet

¿Has mirado con detalle la imagen escheriana que abre este artículo? ¿Cómo te has sentido nada más verla? Es posible que un poco desorientado, habrá incluso alguien que haya sentido un breve escalofrío. Esta sensación, que Kierkegaard llamó la “sensación del absurdo” y que Freud relacionó con el miedo a la muerte, aparece cuando nos enfrentamos a algo que viola toda lógica y aparece contra toda expectativa. Ahora un estudio sugiere que, paradójicamente, esta misma sensación podría preparar el cerebro para percibir pautas que normalmente no percibiría, ya sea en ecuaciones matemáticas, en el lenguaje, o en el mundo en su conjunto. El trabajo de investigación ha sido publicado en Psychological Science por Travis Proulx, de la Universidad de California en Santa Bárbara (EE.UU.), y Steven Heine, de la Universidad de la Columbia Británica (Canadá). Se sabe desde hace tiempo que las personas nos aferramos a nuestros prejuicios con más fuerza cuando nos sentimos amenazados. Varios estudios han puesto de manifiesto que, tras pensar sobre la inevitabilidad de la propia muerte, la gente se vuelve más nacionalista, más religiosa y menos tolerante con los extraños; que cuando insultan a sus amigos las personas hacen públicas declaraciones de lealtad hacia ellos; que cuando se les dice que han obtenido un mal resultado en un test de cultura general se identifican aún más con su equipo (ganador) favorito. En una serie de artículos Proulx y Heine argumentan que todos estos comportamientos no son más que variaciones de un mismo proceso: el mantenimiento del significado o, por llamarlo con una sola palabra, coherencia. El cerebro evolucionó para predecir, y lo hace identificando pautas. Cuando esas pautas se rompen (como en la imagen de arriba) el cerebro busca a tientas algo, lo que sea, que tenga sentido. La urgencia por encontrar una pauta coherente hace que sea más probable que el cerebro encuentre una. Veamos un ejemplo. Imaginemos un excursionista que está atravesando un bosque espeso, sin caminos, alejado de la civilización decenas de kilómetros, cuando, en mitad de un claro se encuentra un sillón de cuero rojo en perfecto estado. Tras la sorpresa inicial que lleva asociada la “sensación de absurdo”, su primera reacción puede que sea volverse hacia dentro y centrarse en un ritual familiar, como la comprobación de su equipo. Pero también puede dirigir su atención hacia fuera y darse cuenta, por ejemplo, de una pauta en las huellas de animales que hasta ese momento había permanecido oculta. En el último artículo de la serie, Proulx y Heine describen cómo hicieron que 20 estudiantes universitarios leyesen un relato corto de Kafka llamado “El médico rural”. El médico del título acude a una casa porque un niño tiene un dolor de muelas terrible. Una vez que llega a la casa se da cuenta de que el niño no tiene dientes. Los caballos que han tirado de su carruaje empiezan a dar guerra; la familia del niño se enfada; entonces el médico descubre que el niño sí tiene dientes después de todo...y así sigue. La historia es vívida, urgente, absurda: kafkiana. Tras la historia, los estudiantes estudiaron un conjunto de 45 series de 6 a 9 letras, como “X, M, X, R, T, V”. Tras ello se examinaron sobre las series de letras, eligiendo las que creían haber visto entre 60 posibilidades. De hecho las letras estaban relacionadas entre sí, de una manera muy sutil, con mayor probabilidad de que una concreta apareciera antes o después que otra. Este test es una medida estandarizada de lo que los investigadores llaman aprendizaje implícito: el conocimiento que se adquiere sin que nos demos cuenta. Los estudiantes no tenían ni idea de qué pautas su cerebro estaba percibiendo o de lo bien o mal que lo estaban haciendo. Pero realmente lo hicieron bien. Eligieron un 30% más de series de letras y tuvieron casi el doble de acierto en sus elecciones, que un grupo de control que había leído una historia coherente. Según los autores, el hecho de que el grupo que leyó la historia absurda identificase más series de letras sugiere que estaba más motivado para buscar pautas que el otro. Y el hecho de que tuviesen más acierto significaría que están percibiendo nuevas pautas que no serían normalmente percibidas. Dos puntualizaciones se nos antojan oportunas. La primera, nadie sabe si la exposición a lo absurdo puede ayudar con el conocimiento explícito, como memorizar el derecho romano. La segunda, la “sensación del absurdo” puede hacer que determinadas personas vean pautas donde no las hay, lo que las haría más inclinadas a formular teorías conspiratorias, por ejemplo. El ansia por el orden se satisface a sí misma, por lo que parece, independientemente de la calidad de las pruebas. Referencia: Proulx, T., & Heine, S. (2009). Connections From Kafka: Exposure to Meaning Threats Improves Implicit Learning of an Artificial Grammar Psychological Science, 20 (9), 1125-1131 DOI: 10.1111/j.1467-9280.2009.02414.x

... Read more »

  • October 19, 2009
  • 07:33 AM
  • 496 views

Los neutrinos del Big Bang tienen un origen más cercano que la radiación de fondo de microondas.

by César Tomé López in Experientia docet

Las observaciones del fondo de microondas de 380.000 años después del Big Bang han sido esenciales para la cosmología moderna, pero los neutrinos originados justo después del Big Bang llevarían información sobre el estado del universo cuando tenía menos de un segundo. En el número del 23 de octubre de Physical Review Letters (aunque ya disponible en arXiv) un par de investigadores apunta un hecho curioso, pero hasta ahora ignorado, acerca de estos neutrinos residuales: debido a sus masas, viajan más lentamente que la luz y, de hecho, tienen como origen una región del universo más cercana que la radiación de fondo de microondas (CMB, por sus siglas en inglés). Aunque para la detección de estos neutrinos residuales todavía falta mucho (suponiendo que sea posible), el artículo publicado por Mika Vesterinen de la Universidad de Manchester (Reino Unido) y Scott Dodelson del Laboratorio Nacional del Acelerador Fermi (EE.UU.) clarifica el tipo de información que se puede extraer de esos neutrinos. Justo después del Big Bang el universo era una sopa caliente en ebullición de partículas elementales interactuando constantemente unas con otras. Conforme el universo se expandía y enfriaba, algunas partículas podían propagarse libremente largas distancias sin interactuar. Los neutrinos, a los que sólo afecta la fuerza nuclear débil que actúa a distancias muy cortas, se libraron de las interacciones pronto, menos de un segundo después del Big Bang, y viajan libres desde entonces (en el tiempo que lees esto unos cuantos billones han atravesado la pantalla de tu ordenador y a ti). La CMB está compuesta de fotones, partículas que dejaron de interactuar mucho más tarde, en el momento en que los protones y los electrones empezaron a combinarse para formar átomos neutros, cuando el universo tenía 380.000 años. Este tiempo permite calcular que la CMB se origina a una distancia de la Tierra de más de 40.000 millones de años luz, teniendo en cuenta la expansión del universo. Dado que los neutrinos se “liberaron” mucho antes, estaba asumido que debían originarse en rincones del universo más lejanos que los de la CMB. Pero los fotones no tienen masa, mientras que los neutrinos tienen una pequeña cantidad de masa, lo que hace que viajen más lentamente que la luz. Dodelson y Vesterinen han calculado cómo afectaría esta masa de los neutrinos a la distancia que estos neutrinos residuales han viajado desde la última vez que interactuaron. Sus resultados son sorprendentes: si bien los neutrinos residuales han estado viajando durante más tiempo que la CMB, su velocidad menor significa que han cubierto una distancia mucho menor. El fondo de neutrinos (CNB, por sus siglas en inglés) se origina a una distancia de unos mil a diez mil millones de años luz, mucho más cerca que los 40 mil millones de años luz de la CMB. Si esto parece difícil de imaginar, recordemos que la “sopa de partículas” del universo primitivo estaba en todas partes, y los neutrinos residuales que llegan a nosotros hoy simplemente vienen de diferentes localizaciones en ese universo que los fotones más rápidos del CMB. Dodelson llega a decir que este cálculo debería haber estado en los libros de texto hace tiempo, pero que es algo que nadie se había parado a calcular. Los cálculos indican que los neutrinos residuales se originan en un rango de distancias en el que las búsquedas astronómicas están dando muchísima información. El Sloan Digital Sky Survey (Rastreo digital del cielo Sloan) está llevando a cabo observaciones detalladas de las galaxias y cúmulos de galaxias que habitan estas regiones, y los próximos Dark Energy Survey (Rastreo de materia oscura) y Large Synoptic Survey Telescope (Gran telescopio de rastreo sinóptico) añadirán muchos más datos. Si se consigue medir con precisión la CNB alguna vez esto permitiría a los cosmólogos unir los puntos entre las mismísimas “semillas” primitivas de estas regiones (tal y como aparezcan en el CNB) y las galaxias y cúmulos de galaxias que se formaron después. Una comparación como esta ayudaría muchísimo a comprender algunas propiedades del universo primitivo, como su contenido en materia y energía oscuras. [En la imagen, primera observación de un neutrino]Referencia: Scott Dodelson, & Mika Vesterinen (2009). Cosmic Neutrino Last Scattering Surface Physical Review Letters arXiv: 0907.2887v1

... Read more »

Scott Dodelson, & Mika Vesterinen. (2009) Cosmic Neutrino Last Scattering Surface. Physical Review Letters. arXiv: 0907.2887v1

  • June 1, 2010
  • 05:39 PM
  • 496 views

Redox en el espacio.

by César Tomé López in Experientia docet

De vez en cuando aparecen noticias sobre el descubrimiento de tal o cual compuesto en una nube interestelar y, habitualmente, se aporta una explicación más o menos alambicada para poder hablar de la posibilidad de que dicho compuesto tenga alguna relación con el origen de la vida, por remota que ésta sea. Y, sin embargo, aún no se ha hecho una identificación positiva de una molécula que pueda ser considerada como precursora de los organismos vivos, al menos de los terrícolas. Desde un punto de vista objetivo, el hecho cierto es que existe una colección de compuestos bastante rica en los espacios entre las estrellas, lo que nos lleva a la pregunta, ¿cómo se sintetizan estos compuestos en unas condiciones que, en principio, no favorecen las reacciones químicas termodinámicamente? Daren Caruana y Katherine Holt, del University College de Londres, afirman, en un artículo que aparece en Physical Chemistry Chemical Physics, que la clave está en el polvo interestelar y su participación en reacciones de oxidación-reducción. En su mayor parte el espacio entre las estrellas (espacio interestelar, EIE) es un vacío salpimentado ligeramente con átomos y moléculas. Sin embargo, en ciertas regiones se forman altas concentraciones de especies químicas formando nubes densas que también contienen polvo. Estas nubes de polvo parecen ser un centro de incubación para la síntesis de una gran variedad de especies moleculares. Se han identificado más de 140 especies moleculares en nubes de polvo usando una variedad de técnicas espectroscópicas. Para el estudio de la formación de estas especies se han desarrollado modelos por ordenador muy sofisticados, que describen la abundancia de especies químicas presentes en las nubes. A pesar de ello, estos modelos son incapaces de describir la formación de muchas moléculas poliatómicas, y su origen sigue siendo uno de los grandes enigmas de la química interestelar. En astroquímica está generalmente aceptado que los granos de polvo están implicados en la síntesis de moléculas poliatómicas complejas. Así, por ejemplo, el hidrógeno molecular (H2), la molécula más abundante en el EIE, se forma en la superficie de los granos. Hasta ahora los modelos por ordenador asumen que los granos de polvo actúan sólo como superficies propicias, en las que los reactivos son adsorbidos [con D de Dinamarca] antes de reaccionar. Pero es posible que los granos de polvo tengan un papel más activo según Caruana y Holt. La hipótesis que plantean estos investigadores se basa en la relación entre la síntesis química en la superficie de los granos con la carga eléctrica que los granos adquieren mediante conocidos fenómenos físicos del EIE. Los granos individuales pueden ser cargados negativamente por electrones en áreas de fuerte ionización del gas de la nube, o cargados positivamente en la periferia de la nube de polvo donde la radiación electromagnética es lo suficientemente potente como para expulsar los electrones de los granos. Desde un punto de vista químico, las superficies cargadas eléctricamente pueden ser reductoras cuando son negativas y oxidantes cuando son positivas. Por tanto, dependiendo de los procesos de carga, el equilibrio de electrones en la superficie de los granos puede provocar reacciones de reducción o de oxidación, reacciones que de otra forma estarían impedidas termodinámicamente. Por el momento se sabe poco de las reacciones redox (oxidación-reducción) en la interfase sólido gas, pero combinando lo que sí se conoce de los procesos redox en la interfase sólido-líquido, esta hipótesis puede desarrollarse para formular un mecanismo que implique a los granos de polvo del EIE. En éste los granos individuales actuarían como un reactor electroquímico de “un solo electrodo” en la fase gas. El número de electrones en el grano cambiaría el potencial químico global (el nivel de Fermi); por ejemplo, para un grano de polvo de 10 nm de diámetro la unión de 32 electrones cambia el potencial químico en 1 eV. Un voltaje de esta magnitud aplicado a una superficie conductora sólida se sabe que es capaz de producir muchas reacciones electroquímicas en fase líquida. Por lo tanto, es probable que una interfaz polarizada en la fase gas pueda provocar reacciones químicas similares. Los autores también especulan con la posibilidad de que la síntesis de las moléculas más grandes (de más de 6 átomos) se produzca en lugares distintos de la nube de polvo en una sucesión de reacciones redox (oxidaciones unas veces, reducciones otras). Una vez que se desarrolle completamente este mecanismo electroquímico, en conjunción con otros modelos para la fase gaseosa, quizás sea capaz de explicar las inesperadas abundancias observadas de algunas especies químicas poliatómicas. Y, ¿por qué no también la química de las capas altas de la atmósfera?Referencia: Caruana, D., & Holt, K. (2010). Astroelectrochemistry: the role of redox reactions in cosmic dust chemistry Physical Chemistry Chemical Physics, 12 (13) DOI: 10.1039/b917817a

... Read more »

  • December 18, 2009
  • 11:55 AM
  • 495 views

Selección en el útero: Las madres estresadas abortan espontáneamente los fetos masculinos.

by César Tomé López in Experientia docet

Se sabe desde hace tiempo que las condiciones estresantes como las hambrunas provocan que nazcan más niñas de las que nacen en épocas de bonanza. La variación en el reparto de sexos es pequeña (alrededor del 1 por ciento) pero en grandes poblaciones es relevante. Una posible explicación evolutiva es que las hijas es probable que se apareen y produzcan nietos independientemente de su estado, mientras que los hijos enclenques puede que fallen en su lucha por tener una oportunidad de reproducirse. En los tiempos duros, por tanto, las hijas serían una apuesta evolutiva más segura. Sea el que fuere el porqué de la variación, sin embargo, se ha dado por sentado que el momento en el que ocurre es el de la concepción o, más probablemente, la implantación. Un útero expuesto a las hormonas del estrés, dice la hipótesis, es menos probable que aloje un feto masculino. Un estudio publicado recientemente afirma que esto no tiene porqué ser así. Según Ralph Catalano, de la Universidad de California en Berkeley (EE.UU.), y sus colegas la selección sexual inducida por el estrés puede tener lugar mucho después de la concepción y la implantación. El artículo aparece en el American Journal of Human Biology. Como las hambrunas no son muy habituales en los Estados Unidos últimamente, Catalano et ál. usaron el desempleo como evento estresante [quizás sería conveniente recordar a los lectores que la protección social en los Estados Unidos es mínima]. Estudiaron los registros de nacimiento del estado de California desde abril de 1995 a diciembre de 2007, y lo compararon con las peticiones de cobertura por desempleo. Basándose en pistas dadas por trabajos previos, se concentraron en las peticiones asociadas a despidos masivos que tuvieron mayor resonancia social, en concreto de al menos 50 trabajadores. Se podrían considerar estos despidos masivos como más parecidos a las catástrofes naturales, como las hambrunas, que a incidentes aislados que hacen que algunas personas lo pasen mal. Los investigadores descubrieron que los despidos masivos llevaban, realmente, a que naciesen menos varones. A lo largo de todo el período el 52,4% de los nacimientos fueron niños. En algunos meses, sin embargo, bajó hasta el 51,2%. Un desmenuzamiento de la estadística sugiere que el estrés de los despidos masivos causó probablemente estas caídas, pero que los despidos en cuestión podían ocurrir meses después de la concepción. Los fetos masculinos eran, en otras palabras, abortados espontáneamente, presumiblemente a consecuencia del estrés. Esto no significa que la hipótesis original esté equivocada. Pero no es toda la verdad. El despiadado descarte de la descendencia inapropiada puede tener lugar, o eso parece, bastante después de que el feto haya comenzado a desarrollarse.[Imagen: Madre e hija de Nelly Drell]Referencia: Catalano, R., Zilko, C., Saxton, K., & Bruckner, T. (2009). Selection in utero: A biological response to mass layoffs American Journal of Human Biology DOI: 10.1002/ajhb.21011

... Read more »

Catalano, R., Zilko, C., Saxton, K., & Bruckner, T. (2009) Selection in utero: A biological response to mass layoffs. American Journal of Human Biology. DOI: 10.1002/ajhb.21011  

  • September 1, 2009
  • 09:41 AM
  • 494 views

Cómo el comer poco alarga la vida reproductiva.

by César Tomé López in Experientia docet

En general se tiene bastante asumido que las hembras nacen con todo el suministro de óvulos para su vida y que, una vez que los han perdido por la causa que sea, ya no hay forma de recuperarlos. Nuevos hallazgos realizados por Marc van Gilst y Giana Angelo del Centro de Investigación del Cáncer Fred Hutchinson y publicados en Science sugieren que para los gusanos nemátodos, al menos, esto no es cierto. El principal descubrimiento es que, durante la privación de alimentos, los gusanos Caenorhabditis elegans adultos, sexualmente maduros, dejan de ovular y la línea germinal, que incluye óvulos maduros y células en el camino de serlo, muere dejando tras de sí solamente unas cuantas células madre. Sin embargo, cuando se vuelve a suministrar alimento, las células madre conservadas son capaces de producir toda una cosecha de células sexuales, incluyendo jóvenes y fértiles óvulos. Esta puesta a cero del reloj reproductivo tiene lugar en ejemplares que son 15 (quince) veces más viejos que los gusanos que se han alimentado normalmente. El mecanismo tras la conservación y extensión de la fertilidad más allá del período reproductivo normal de los gusanos se cree que está asociado a la proteína receptora ubicada en el núcleo celular llamada NHR-49, que favorece una importante respuesta metabólica a la privación de alimentos. Esta es una de las proteínas que se cree que interactúa con la restricción calórica para prolongar la vida (véase Cómo el comer poco hace que vivas más). Para el estudio, los investigadores dejaron de alimentar a dos tipos de nemátodos: unos genéticamente normales y otros modificados genéticamente que no expresaban una NHR-49 funcional. Los gusanos tuvieron un seguimiento diario para observar los cambios en su sistema reproductivo (el C. elegans es transparente; la observación se hace con un microscopio óptico; ibid.), incluyendo la ovulación, la muerte de células y la supervivencia de las células madre de la línea germinal. Tras distintos períodos de privación de alimentos, se volvieron a suministrar éstos mientras se continuaba con las observaciones para evaluar la recuperación de su sistema reproductivo [en la imagen, en verde, proliferación de la línea germinal en C. elegans]. La fertilidad se determinó contando el número de descendientes tras aparearse. Los resultados fueron muy claros. En los gusanos que no tenían NHR-49 funcional la recuperación de la fertilidad y la capacidad reproductiva era extremadamente pobre. La NHR-49 de los gusanos es análoga a varias proteínas de los humanos, todas las cuales pertenecen a una familia de proteínas llamada receptores nucleares, como los receptores de estrógeno, por ejemplo. Aún en el caso de que este mecanismo se conserve en los humanos, aún no se sabe qué grado de restricción calórica sería necesario para que tenga un efecto en la producción de óvulos en las mujeres. Si este proceso existe en los humanos, evolucionaría probablemente para ayudar a nuestros antepasados a preservar la fertilidad durante las hambrunas. Las pruebas aún son claramente insuficientes para afirmar que exista un mecanismo similar en los humanos: no se debe incurrir en conductas de riesgo como reducir la ingesta de alimentos o, directamente, ayunar, como medio para recuperar la fertilidad perdida. Sólo un médico puede diagnosticar la causa de la infertilidad y recomendar las medidas adecuadas.Referencia: ... Read more »

  • May 12, 2010
  • 10:21 AM
  • 494 views

La especiación afecta a todo el genoma.

by César Tomé López in Experientia docet

Cuando pensamos en la aparición de una nueva especie desde el punto de vista genético, solemos visualizar cambios en los genes específicos que suponen la variación sobre lo existente, mientras el resto del genoma se mantiene igual. Un artículo aparecido en los Proceedings of the National Academy of Sciences puede que nos haga cambiar nuestra forma de pensar. La suposición predominante entre los científicos acerca de cómo los genes de una nueva especie en formación deberían diferenciarse durante las primeras etapas de la divergencia en una especiación con flujo genético es que deberían existir unas pocas regiones (loci) con una fuerte diferenciación, en medio del resto del genoma que prácticamente no cambia. Nos referiremos a este modelo como “islas genómicas de especiación”. En el artículo que nos ocupa, el equipo liderado por Jeffrey Feder de la Universidad de Notre Dame (EE.UU.), informa de que los resultados experimentales en la Rhagoletis pomonella (la mosca del gusano de la manzana), en contra del modelo de islas, indican que la selección natural afecta a todo el genoma. Siguiendo con la analogía geográfica podríamos decir que se han encontrado “continentes genómicos de especiación”, con la mayoría de los loci mostrando diferencias de hospedador (diferencias por el tipo de fruta que se ataca). La Rhagoletis pomonella atacaba originalmente la fruta de un árbol espinoso del género Crataegus. Hace unos 150 años una parte de la población de moscas del espino pasaron a alimentarse de una especie introducida, el manzano. Al adaptarse ecológicamente a las manzanas como nueva planta hospedadora, las moscas de la manzana se están transformando genéticamente y aislándose reproductivamente de las moscas del espino. Por tanto las moscas del espino y las de la manzana se consideran que representan “razas de hospedador” en las primeras etapas de su divergencia hacia especies diferenciadas. Es un ejemplo de lo que se denomina especiación simpátrica, al igual que otra población de la mosca que ataca a la cereza, detectada hace algunos años.La imagen es cortesía de Andrew Forbes (U.C. Davis)Referencia: Michel, A., Sim, S., Powell, T., Taylor, M., Nosil, P., & Feder, J. (2010). Widespread genomic divergence during sympatric speciation Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1000939107

... Read more »

Michel, A., Sim, S., Powell, T., Taylor, M., Nosil, P., & Feder, J. (2010) Widespread genomic divergence during sympatric speciation. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.1000939107  

  • June 17, 2010
  • 05:39 PM
  • 494 views

Geometría algebraica para encontrar el equilibrio.

by César Tomé López in Experientia docet

Muchas reacciones químicas, de hecho la mayoría, tienen lugar en varios pasos intermedios elementales, y una descripción de la velocidad de reacción del conjunto del proceso implica la necesidad de resolver varias ecuaciones diferenciales de primer orden de forma simultánea. Un sistema de ecuaciones de este tipo sólo se puede resolver sin recurrir a aproximaciones en casos sencillos, hay que tirar de métodos numéricos en el resto de los casos.Una solución podría ser olvidarse de esas etapas elementales , pero si se obvian los pasos intermedios y sólo se consideran reactivos iniciales y productos finales se llegan a resultados que son diferentes de los observados experimentalmente. Consideremos ahora una red de reacciones químicas (RRQ) como la de la imagen, que implica a 7 especies y 14 reacciones químicas. Corresponde a la RRQ de la apoptosis celular inducida por receptor ¿Es viable un modelo matemático de esta RRQ? Muy probablemente sí. ¿Y será resoluble, incluyendo por métodos numéricos? Eso ya es más difícil de responder, pues, en general los métodos de resolución convencionales no son suficientes y hay que recurrir a la artillería pesada. Y eso es lo que ha hecho un equipo de científicos españoles de la Universidad de Navarra y del Hospital Clínico de Barcelona. Iván Martínez Forero, Antonio Peláez López y Pablo Villoslada han publicado en PLoS ONE un artículo en el que presentan un método basado en las técnicas de la geometría algebraica para simplificar los sistemas de ecuaciones de las RRQ, de tal manera que es posible localizar sus estados estacionarios, es decir, sus estados de equilibrio. Para entender dónde entra aquí el álgebra consideremos esta sencillísima cadena de reacciones: A→B→C. La velocidad de transformación de A en B está gobernada por la constante k1, y la de B en C por k2. Por lo tanto el modelo del proceso es así de simple: Esto es un sistema de dos ecuaciones diferenciales ordinarias (que es resoluble). Pero si nos fijamos, vemos que también es un conjunto de polinomios constituidos por monomios que representan las velocidades de producción y eliminación de las especies químicas. Y si tenemos sistemas de polinomios, tenemos matrices y vectores y anillos y cuerpos, tenemos álgebra en definitiva, y podemos aplicar sus métodos. Sólo hay un inconveniente, en RRQ complejas como la de la apoptosis, los polinomios no siempre son lineales. El sistema de ecuaciones diferenciales ordinarias de una RRQ se puede representar de forma muy sencilla:Donde N es la matriz estequiométrica, x es el vector de concentración y v es el vector de reacción. La matriz estequiométrica es una matriz m x r, donde m es el número de especies químicas y r el número de reacciones, en la que se representa la proporción de las distintas especies que intervienen en las reacciones de la RRQ. El vector de reacción representa lo que ocurre en la reacción. Así, por ejemplo, para A+B → C el vector adopta la forma [-1,-1,1]. Un aspecto importante en el método presentado por los investigadores es la consideración de las relaciones conservadas. Si s es el rango de N entonces el número de relaciones conservadas es m-s. La relación de conservación da lugar a clases de compatibilidad estequiométrica que tienen una gran importancia en el estudio de las soluciones del equilibrio de las RRQ. Si queremos hallar los puntos de equilibrio de la RRQ lo único que hemos de hacer, por tanto, es resolver la ecuación vectorial Es decir, nos enfrentamos a la necesidad de resolver varias variables de un sistema polinómico no lineal. El método se basa en definir un nuevo sistema de ecuaciones que incorpore las relaciones de conservación a una matriz estequiométrica reducida a su forma escalonada, es decir, se basa en la estructura misma de la red sin necesidad de simularla, ni de introducir parámetros. Entonces se calcula la base de Gröbner de este nuevo sistema usando un orden de eliminación. Esto da como resultado un conjunto de polinomios con forma escalonada que identifica la región de equilibrio. La gran limitación de este método es la capacidad de cálculo necesaria para obtener la base de Gröbner, lo que se puede resolver parcialmente dividiendo la RRQ en subredes. La geometría algebraica podría, entonces, predecir dónde aparecerá un determinado comportamiento dinámico en una RRQ, esto es, nos ayudará a encontrar el equilibrio.Referencia: Martínez-Forero, I., Peláez-López, A., & Villoslada, P. (2010). Steady State Detection of Chemical Reaction Networks Using a Simplified Analytical Method PLoS ONE, 5 (6) DOI: ... Read more »

  • July 9, 2009
  • 10:17 AM
  • 493 views

Un posible Sistema Solar con dos soles.

by César Tomé López in Experientia docet

Dos astrónomos de la Universidad de Hawaii en Mânoa han encontrado un sistema disco-estrella binaria en el que cada estrella está rodeada de la clase de disco de polvo que es frecuentemente el precursor de un sistema planetario. Los investigadores Rita Mann y Jonathan Williams usaron el Submillimeter Array de Mauna Kea para hacer las observaciones. Los resultados se publican en The Astrophysical Journal. Un sistema de estrellas binarias consiste en dos estrellas unidas por la gravedad que orbitan un centro de gravedad común. La mayoría de las estrellas se forman como binarias, y si ambas estrellas son adecuadas para la formación de planetas, se incrementa la probabilidad de que los científicos descubran planetas como la Tierra. El sistema binario que nos ocupa, 253-1536, destaca por ser el primer ejemplo conocido de dos estrellas visibles ópticamente, cada una rodeada por un disco con suficiente masa (0,045 y 0,066 masas solares respectivamente) para formar un sistema planetario como el nuestro. Se encuentra a 1.300 años-luz de la Tierra, en la Nebulosa de Orión, la clase de rico grupo de estrellas que es un ambiente habitual para el nacimiento de la mayoría de las estrellas en la Vía Láctea, incluyendo nuestro Sol. El disco mayor de 253-1536 es también el más masivo encontrado en la Nebulosa de Orión hasta ahora Uno de los discos fue descubierto en una imagen tomada por el Telescopio Espacial Hubble, pero el otro disco estaba escondido en el resplandor de la estrella. El Hubble sólo vio la sombra del disco, por lo que la cantidad de materia y su capacidad para la formación de planetas era desconocida hasta que el equipo de la Universidad de Hawaii hizo las observaciones submilimétricas, en el infrarrojo extremo, lo que permite ver el brillo del polvo más que su sombra. Las estrellas están la una de la otra a 400 veces la distancia que hay entre la Tierra y el Sol. Tardan 4.500 años, lo que la humanidad tiene de historia, en completar una órbita alrededor de su centro de gravedad común. Ambas estrellas tienen sólo un tercio de la de la masa del Sol y tienen un color mucho más rojizo. Vistas desde un futuro planeta potencial, la estrella vecina (no la que orbita el planeta) aparecería como 1000 veces más brillante que la estrella más brillante del cielo nocturno terrestre, Sirio [los atardeceres serían parecidos al de la imagen]. Los planetas de la otra estrella sólo serían visibles con telescopios, pero estarían lo suficientemente cerca para un viaje espacial con un nivel tecnológico como el que posee la humanidad ahora mismo.Referencia: Mann, R., & Williams, J. (2009). MASSIVE PROTOPLANETARY DISKS IN ORION BEYOND THE TRAPEZIUM CLUSTER The Astrophysical Journal, 699 (1) DOI: 10.1088/0004-637X/699/1/L55... Read more »

  • June 8, 2009
  • 03:52 PM
  • 492 views

La esencia del comportamiento social humano (y 2): la masificación trajo la cultura.

by César Tomé López in Experientia docet

Mark Thomas y sus colegas del University College de Londres (Reino Unido) sugieren que la sofisticación cultural depende de más cosas que del desarrollo de la inteligencia. También requiere una población densa. Si esto es correcto, explicaría algunos hallazgos sorprendentes de la arqueología que, hasta ahora, no han tenido una explicación satisfactoria. Comentábamos en la entrada anterior que Bowles se basaba en un modelo matemático para su análisis [La esencia del comportamiento social humano (1): la guerra nos hizo altruistas]. Thomas et al. también se basan en un modelo matemático para intentar explicar el patrón de aparentes arranques en falso de la cultura humana moderna. Se cree que la especie humana surgió hace entre 150.000 y 200.000 años en África y que comenzó a dispersarse por el resto del mundo hace unos 60.000. Pero los signos de la cultura moderna, como los collares de conchas, el uso de pigmentos o la construcción de herramientas complicadas y difíciles como los arpones de hueso, no aparecen hasta hace 90.000 años. Poco después desaparecen, antes de aparecer otra vez, para desaparecer de nuevo en algunos lugares, hasta reaparecer en Europa definitivamente hace 45.000 años. El equipo se basó en la idea de que se requiere un determinado número de personas para mantener las habilidades y el conocimiento en una población. Por debajo de este nivel, los efectos del azar pueden ser importantes. La probabilidad de que se hagan inventos útiles es baja y, si sólo unos pocos tienen las habilidades para fabricar nuevos inventos, puede que mueran sin haber pasado su conocimiento. En su modelo, Thomas y sus colegas dividieron un mundo simulado en regiones con diferentes densidades de grupos humanos. Los individuos en estos grupos tenían ciertas “habilidades”, cada una asociada a un determinado nivel de complejidad. Las habilidades podían transmitirse, más o menos fielmente, produciendo un nivel medio de las mismas que podía variar con el tiempo. Los grupos también podían intercambiar habilidades. El modelo sugería que una vez que se sobrepasaba la barrera de los 50 grupos en contacto, la complejidad de las tareas que podían mantenerse no se incrementaba con la incorporación de grupos adicionales. En vez de esto, era la densidad de población lo que demostró ser la clave para la sofisticación cultural. Cuanta más gente había, más intercambio había entre los grupos y más rica se volvía la cultura de cada grupo. Como consecuencia Thomas sugiere que la razón de la que no haya prácticamente rastro de cultura hasta hace 90.000 años es que no había suficiente número de gente para soportarla. Es en este punto que un par de lugares en África (uno e la punta de más abajo del continente y otro en el este del Congo) producen signos de joyería, arte y armas modernas. Sin embargo, desaparecen poco después. Lo que, según Thomas, correspondería con períodos en los que el número de humanos se contrajo. Existen datos climáticos que prueban que esta contracción se produjo efectivamente. Por otra parte estimaciones genéticas del tamaño de la población en el África subsahariana de hace 90.000 años dan un valor muy parecido al que tenía la población de Europa 45.000 años después. De acuerdo con Thomas, por lo tanto, la cultura no habría sido inventada una vez, cuando la gente se volvió lo suficientemente inteligente, y habría progresado gradualmente hasta lo que tenemos hoy. En vez de eso, venía e iba en sintonía con los altibajos de la población. Desde la invención de la agricultura, por supuesto, no hizo más que crecer. Las consecuencias te rodean por todas partes.Referencia:Powell, A., Shennan, S., & Thomas, M. (2009). Late Pleistocene Demography and the Appearance of Modern Human Behavior Science, 324 (5932), 1298-1301 DOI: 10.1126/science.1170165... Read more »

  • October 4, 2012
  • 06:15 AM
  • 492 views

Te pueden hipnotizar sólo si estás neurológicamente predispuesto a ello.

by César Tomé López in Experientia docet



No mires la imagen fijamente mucho rato. Y no, no se mueve, eres tú.






La hipnosis es un fenómeno muy llamativo. Quizás porque, aparte
de sus aplicaciones clínicas, nos sugiera la posibilidad de tener el
control absoluto sobre la voluntad de otra persona. En este sentido ha
aparecido en novelas, películas o dibujos animados y se usa como
espectáculo en teatros, circos y televisiones. Lo que poca gente
sabe es que antes de un espectáculo de hipnosis, el hipnotizador, si
no quiere hacer el ridículo, debe asegurarse de que los sujetos son
susceptibles de ser hipnotizados. Esto es así porque aproximadamente
un 25% de la población general no es hipnotizable: el hipnotizador debe pues realizar ensayos previos con los
voluntarios si no quiere llevarse un chasco.



Pero, ¿en qué se diferencia una persona hipnotizable de otra que
no lo es? La variación se ha atribuido tradicionalmente a la personalidad influenciable de los sujetos. Otra opción es que se trate de un rasgo neurológico, algo que es diferente en el encéfalo, y ahora un grupo
de investigadores, encabezado por Fumiko Hoeft, de la Universidad de
Stanford (EE.UU.), habría confirmado esta hipótesis. Los resultados se
publican en Archives of General Psychiatry.




En el estudio se han empleado datos obtenidos a partir de imágenes
por resonancia magnética estructural (MRI) y funcional (fMRI). Su
análisis ha puesto de manifiesto que las personas no hipnotizables
presentarían menos actividad en las áreas relacionadas con el
control ejecutivo y la atención. Pero vayamos por partes.



La hipnosis se suele describir como un estado parecido al sueño
sólo superficialmente, con características fisiológicas propias,
en el que una persona ve incrementadas superlativamente su
concentración y su focalización, por lo que se considera una
alteración del estado de consciencia. Se ha demostrado que ayuda a
mejorar el control encefálico sobre las sensaciones y el
comportamiento (este aspecto es el usado en los espectáculos), y se
ha empleado clínicamente para ayudar a pacientes con dolor (es
conocida la anécdota de que Ramón y Cajal hipnotizaba a su mujer en
los partos), para controlar el estrés y la ansiedad y para combatir
fobias.



Para el estudio que nos ocupa los autores realizaron escáneres
MRI y fMRI a los encéfalos de 12 adultos que previamente se había
comprobado que eran muy hipnotizables y a otros 12 con baja
hipnotizabilidad.

Los investigadores se centraron en el análisis de la actividad de tres redes neuronales concretas: la que podemos llamar red por
defecto, que es la red que se usa cuando el cerebro no está haciendo
nada a nivel consciente (soñar despierto, si acaso); la red del
control ejecutivo, la que se activa en la toma de decisiones; y la
red de relevancia, implicada en decidir que algo es más importante
que otra cosa.



Los resultados son claros: en los cerebros del grupo altamente
hipnotizable el córtex prefrontal dorsolateral izquierdo, un área
de control ejecutivo, parece activarse a la vez que lo hace el córtex
cingulado dorsal anterior, que es parte de la red de relevancia y
participa en la focalización de la atención. Por contra, parece
haber poca conectividad funcional entre estas dos áreas en las
personas poco hipnotizables. En ambos grupos no había diferencias relevantes en la actividad de la red por defecto.



Esto es, el resultado viene a confirmar que la hipnotazibilidad
tiene menos que ver con la personalidad que con el estilo cognitivo.
Estaríamos delante de un rasgo neurológico.



Hasta aquí el estudio. Ahora bien, a nivel personal, no entiendo
por qué los autores no dan el siguiente paso lógico: reclutar a una
veintena de voluntarios sanos al azar, realizarles escáneres y
determinar cuáles son hipnotizables y cuáles no en función de los
resultados, comprobándolo después. Ratificaría una correlación
con una diferencia de señal, por lo demás muy clara, y aumentaría la relevancia
estadística.



El siguiente paso es también lógico, cómo cambia la activación
encefálica durante la hipnosis. Este sí lo anuncian los autores para próximos trabajos.



Ni que decir tiene que una mejor comprensión de los mecanismos subyacentes redundará en un mejor y más amplio uso de la hipnosis en entornos
clínicos.



Referencia:


Hoeft F, Gabrieli JD, Whitfield-Gabrieli S, Haas BW, Bammer R, Menon V, & Spiegel D (2012). Functional Brain Basis of Hypnotizability. Archives of general psychiatry, 69 (10), 1064-1072 PMID: 23026956

... Read more »

Hoeft F, Gabrieli JD, Whitfield-Gabrieli S, Haas BW, Bammer R, Menon V, & Spiegel D. (2012) Functional Brain Basis of Hypnotizability. Archives of general psychiatry, 69(10), 1064-1072. PMID: 23026956  

join us!

Do you write about peer-reviewed research in your blog? Use ResearchBlogging.org to make it easy for your readers — and others from around the world — to find your serious posts about academic research.

If you don't have a blog, you can still use our site to learn about fascinating developments in cutting-edge research from around the world.

Register Now

Research Blogging is powered by SMG Technology.

To learn more, visit seedmediagroup.com.