César Tomé López

400 posts · 171,186 views

Experientia docet
400 posts

Sort by Latest Post, Most Popular

View by Condensed, Full

  • August 24, 2009
  • 05:28 PM
  • 535 views

Transplantes de genoma sin rechazo: un paso hacia la vida artificial.

by César Tomé López in Experientia docet

En su camino hacia la creación de una célula sintética, investigadores del Instituto J. Craig Venter (EE.UU.) han desarrollado una técnica para generar cepas bacterianas modificadas a partir de genomas clonados y modificados en levaduras. Informan de todo ello en Science. El año pasado, Venter, uno de los autores del artículo [*], informó de que su equipo había creado un genoma bacteriano sintético y lo había clonado en una célula de levadura. Sin embargo, fueron incapaces de transferir el genoma a una célula que lo usase para producir la versión operativa de un organismo. En este artículo, los investigadores presentan la técnica para hacer exactamente eso. El equipo del Venter primero clonó el genoma de la bacteria Mycoplasma mycoides dentro de una levadura. Alteraron entonces el genoma, usando algunas del montón de herramientas que existen para la manipulación de los genes de la levadura. En el paso más crítico, transplantaron ese genoma bacteriano ligado a la levadura a una bacteria relacionada Mycoplasma capricolum, acuciándola para que tomara este “programa genético y lo cargase”, en palabras del autor destacado para recibir la correspondencia Sanjay Vashee, generando de esta forma una cepa mutante.La dificultad que Vashee y el equipo tuvieron que superar para conseguir este logro estribaba principalmente en esquivar el equivalente bacteriano a un sistema inmunitario: las enzimas de restricción [en la imagen en verde y violeta, enlazada a una hélice de ADN]. Estas enzimas, que se cree que evolucionaron como forma efectiva de eliminar los genomas de los virus invasores de las células bacterianas, impedían el transplante del genoma modificado de M. mycoides al tipo salvaje de M. capricolum. El grupo realizó dos ajustes que solucionaron el problema. En primer lugar inactivaron las enzimas de restricción de M. capricolum. Por si esto no fuese suficiente, modificaron químicamente el genoma mutante de M. mycoides en los lugares donde las enzimas rompen habitualmente los genomas de los intrusos. Décadas de investigación en la genética de las levaduras han proporcionado un amplio conocimiento de cómo realizar manipulaciones genómicas en éstas, un conocimiento que no existe para otros microorganismos. Esta técnica permite usar lo que se sabe de manipulación genética en levaduras para alterar los genomas de esos otros microorganismos.El quipo del Instituto Venter está aplicando esta técnica a su objetivo a largo plazo de construir la “célula mínima”. Quitan trozos del código genético de M. mycoides y M. genitalium, y los genomas sin estos trozos se reimplantan para ver si las células todavía “funcionan”, de esta forma intentan averiguar qué es lo mínimo para la existencia de la vida... y después crearla desde cero. [*] Y un personaje interesantísimo; responsable de que el genoma humano se completase en el 2000, entre otras cosas; si no le dan el Nobel será por motivos políticos; su autobiografía, A Life Decoded, se lee como una novela de acción trepidante, pero en vez de tiros hay cromosomas. No es la primera vez que recogemos en Experienta docet sus logros, por ejemplo Vida de síntesis.Referencia: Lartigue, C., Vashee, S., Algire, M., Chuang, R., Benders, G., Ma, L., Noskov, V., Denisova, E., Gibson, D., Assad-Garcia, N., Alperovich, N., Thomas, D., Merryman, C., Hutchison, C., Smith, H., Venter, J., & Glass, J. (2009). Creating Bacterial Strains from Genomes That Have Been Cloned and Engineered in Yeast Science DOI: 10.1126/science.1173759... Read more »

Lartigue, C., Vashee, S., Algire, M., Chuang, R., Benders, G., Ma, L., Noskov, V., Denisova, E., Gibson, D., Assad-Garcia, N.... (2009) Creating Bacterial Strains from Genomes That Have Been Cloned and Engineered in Yeast. Science. DOI: 10.1126/science.1173759  

  • September 15, 2009
  • 06:13 AM
  • 530 views

Pruebas de metacognición consciente en animales no humanos.

by César Tomé López in Experientia docet

En una revisión publicada en Trends in Cognitive Sciences, J. David Smith, de la Universidad del Estado de Nueva York en Buffalo, afirma que cada vez hay más pruebas de que algunas especies animales presentan metacognición consciente, es decir, pueden, al igual que los humanos, monitorizar, regular y reflexionar sobre sus estados mentales. Entre estas especies estarían los delfines y los macacos [en la imagen]. Smith repasa los experimentos llevados a cabo con delfines, palomas, ratas, monos y primates usando modelos de percepción, memoria u ocultación de comida, para llegar a afirmar que cada vez existen más pruebas de la existencia de formas de pensamiento paralelas a la consciencia y a la autoconciencia cognitiva humanas, si bien no se ha confirmado aún la existencia de un paralelo experiencial completo. La metacognición, también llamada teoría de la mente, es una capacidad humana compleja ligada a varios aspectos psicológicos. Por una parte a la estructura jerárquica de la mente, dado que los procesos de control ejecutivo metacognitivos supervisan la cognición de menor nivel. La metacognición también está unida a la consciencia de sí mismo, la incertidumbre y la duda, por ejemplo, son estados personales y subjetivos. Y, por último, a la consciencia declarativa, ya que los humanos son conscientes de sus estados de conocimiento y pueden “declararlos” a los demás. En los aspectos biológicos existe una continuidad entre las distintas especies, incluida la humana. Si se considera a la psicología como una rama de la biología, como lo hace la psicología evolutiva, se entiende que sea un objetivo fundamental de la psicología comparada establecer firmemente si los animales no humanos comparten la capacidad metacognitiva humana. Si esto es así, esta capacidad podría estar apoyada en su consciencia y la consciencia de sí mismos. En esta búsqueda de continuidades o discontinuidades, la metacognición se une al estudio del uso de herramientas o del lenguaje. En su revisión del estado de la cuestión, Smith se detiene en algunos estudios sobresalientes, como el del delfín Natua. Cuando no estaba seguro, el delfín dudaba claramente y titubeaba entre las opciones ofrecidas (recordemos que la incertidumbre es un estado personal y subjetivo); cuando, por el contrario, estaba seguro nadaba hacia la respuesta elegida a toda velocidad. En abierto contraste con el comportamiento de los delfines, las palomas de varios estudios no han expresado ninguna capacidad para la metacognición. Asimismo los monos capuchinos, en varios estudios, tampoco expresan muchos atisbos de metacognición. Este último resultado invita a una reflexión y suscita muchas preguntas importantes sobre la emergencia filogenética de la mente reflexiva en el orden primates.Referencia: Smith, J. (2009). The study of animal metacognition Trends in Cognitive Sciences, 13 (9), 389-396 DOI: 10.1016/j.tics.2009.06.009

... Read more »

Smith, J. (2009) The study of animal metacognition. Trends in Cognitive Sciences, 13(9), 389-396. DOI: 10.1016/j.tics.2009.06.009  

  • August 10, 2009
  • 12:16 PM
  • 529 views

El ADN de las neuronas es diferente.

by César Tomé López in Experientia docet

Las células cerebrales humanas albergan una increíble variabilidad en el genoma, según los investigadores del Instituto Salk de Estudios Biológicos (EE.UU.). El equipo liderado por Fred Gage, el mismo que descubrió la neurogénesis en adultos, ha publicado en Nature que las neuronas poseen un número inesperado de elementos móviles (transposones o genes saltarines), trozos del ADN que son capaces de insertar copias extras de sí mismos en el genoma usando un mecanismo de “corta y pega” (usando ARN como portapapeles en algunos casos). El descubrimiento podría ayudar a explicar el desarrollo e individualidad del cerebro así como a una mejor comprensión de las enfermedades mentales. En un trabajo anterior, Gage ya había demostrado que elementos móviles del ADN conocidos como Elementos Largos Intercalados -1 (LINE-1, por sus siglas en inglés) añaden copias extras (“saltos”) al azar al genoma de las células cerebrales de los ratones. El que esto sucediese también en los humanos era objeto de controversia. Se sabe que estos elementos móviles son importantes en organismos inferiores, como las plantas o las levaduras, pero se considera que en los mamíferos son restos del pasado evolutivo. Sin embargo, son extraordinariamente abundantes. Aproximadamente el 50% del total del genoma humano está constituido por restos de elementos móviles. Si fuesen inservibles, nos habríamos desecho de ellos. Pero, ¿para qué sirven? El objetivo original de los investigadores del Instituto Salk era simplemente identificar “saltos” en células cerebrales humanas cultivadas in vitro, como se había hecho con los ratones. Una vez verificado, el paso siguiente para Gage y Nicole Coufal (autora principal del trabajo que ahora se publica) fue verificar que lo mismo ocurría in vivo. In mice, gene jumping is limited to the brain and to germ cells, the reproductive cells in our bodies, since these kinds of rapid changes would be detrimental in essential organs such as the heart or kidneys. If LINE-1 elements were indeed on the move in humans, there should be more copies in the brain than in the heart or liver, where Gage and Coufal did not expect LINE-1 jumping to occur. En los ratones los saltos de genes se limitan al cerebro y a las células germinales ya que, en las células de otros órganos como el corazón o los riñones, estos cambios rápidos podrían ser potencialmente muy perjudiciales. Si los elementos LINE-1 se transponen en los humanos debería haber más copias en el cerebro que en el corazón o en el hígado, según la hipótesis de Gage y Coufal. El equipo de investigadores desarrolló una reacción en cadena basada en la polimerasa que permitió determinar cuantitativamente el incremento del número de copias en tejidos cerebrales (del hipocampo y otras áreas) con respecto a las presentes en tejidos de otros órganos (corazón e hígado, entre otros). Las muestras del cerebro tenían hasta 100 copias extra por célula, con lo que quedaba probada la hipótesis. Los investigadores comprobaron asimismo que el promotor del LINE-1, el interruptor genético que hace que haya o no LINE-1, está habitualmente en “on” en las células cerebrales y en “off” en las células de otros órganos. Este hallazgo implica que no todas las células son creadas iguales: el ADN de las células del cerebro es diferente del ADN del resto de células del organismo, o casi. Existe otro tipo de célula humana que es conocida por remodelar su genoma: las del sistema inmunitario. En ellas los genes que codifican los anticuerpos se combinan para crear la variedad necesaria de éstos que haga frente a un infinito número de diferentes antígenos. La variabilidad que este descubrimiento asigna a las células cerebrales provee un mecanismo potencial para explicar la diversidad neuronal que hace a cada persona única. Por otra parte, la desregulación de las copias podría contribuir a la aparición de desórdenes neurológicos. Finalmente, un cerebro que es capaz de vivir 80 años en un entorno cambiante e impredecible tiene, de esta manera, un plus de adaptabilidad: los elementos móviles impulsarían la evolución.Referencia: Coufal NG, Garcia-Perez JL, Peng GE, Yeo GW, Mu Y, Lovci MT, Morell M, O'Shea KS, Moran JV, & Gage FH (2009). L1 retrotransposition in human neural progenitor cells. Nature PMID: 19657334... Read more »

Coufal NG, Garcia-Perez JL, Peng GE, Yeo GW, Mu Y, Lovci MT, Morell M, O'Shea KS, Moran JV, & Gage FH. (2009) L1 retrotransposition in human neural progenitor cells. Nature. PMID: 19657334  

  • December 18, 2009
  • 11:55 AM
  • 529 views

Selección en el útero: Las madres estresadas abortan espontáneamente los fetos masculinos.

by César Tomé López in Experientia docet

Se sabe desde hace tiempo que las condiciones estresantes como las hambrunas provocan que nazcan más niñas de las que nacen en épocas de bonanza. La variación en el reparto de sexos es pequeña (alrededor del 1 por ciento) pero en grandes poblaciones es relevante. Una posible explicación evolutiva es que las hijas es probable que se apareen y produzcan nietos independientemente de su estado, mientras que los hijos enclenques puede que fallen en su lucha por tener una oportunidad de reproducirse. En los tiempos duros, por tanto, las hijas serían una apuesta evolutiva más segura. Sea el que fuere el porqué de la variación, sin embargo, se ha dado por sentado que el momento en el que ocurre es el de la concepción o, más probablemente, la implantación. Un útero expuesto a las hormonas del estrés, dice la hipótesis, es menos probable que aloje un feto masculino. Un estudio publicado recientemente afirma que esto no tiene porqué ser así. Según Ralph Catalano, de la Universidad de California en Berkeley (EE.UU.), y sus colegas la selección sexual inducida por el estrés puede tener lugar mucho después de la concepción y la implantación. El artículo aparece en el American Journal of Human Biology. Como las hambrunas no son muy habituales en los Estados Unidos últimamente, Catalano et ál. usaron el desempleo como evento estresante [quizás sería conveniente recordar a los lectores que la protección social en los Estados Unidos es mínima]. Estudiaron los registros de nacimiento del estado de California desde abril de 1995 a diciembre de 2007, y lo compararon con las peticiones de cobertura por desempleo. Basándose en pistas dadas por trabajos previos, se concentraron en las peticiones asociadas a despidos masivos que tuvieron mayor resonancia social, en concreto de al menos 50 trabajadores. Se podrían considerar estos despidos masivos como más parecidos a las catástrofes naturales, como las hambrunas, que a incidentes aislados que hacen que algunas personas lo pasen mal. Los investigadores descubrieron que los despidos masivos llevaban, realmente, a que naciesen menos varones. A lo largo de todo el período el 52,4% de los nacimientos fueron niños. En algunos meses, sin embargo, bajó hasta el 51,2%. Un desmenuzamiento de la estadística sugiere que el estrés de los despidos masivos causó probablemente estas caídas, pero que los despidos en cuestión podían ocurrir meses después de la concepción. Los fetos masculinos eran, en otras palabras, abortados espontáneamente, presumiblemente a consecuencia del estrés. Esto no significa que la hipótesis original esté equivocada. Pero no es toda la verdad. El despiadado descarte de la descendencia inapropiada puede tener lugar, o eso parece, bastante después de que el feto haya comenzado a desarrollarse.[Imagen: Madre e hija de Nelly Drell]Referencia: Catalano, R., Zilko, C., Saxton, K., & Bruckner, T. (2009). Selection in utero: A biological response to mass layoffs American Journal of Human Biology DOI: 10.1002/ajhb.21011

... Read more »

Catalano, R., Zilko, C., Saxton, K., & Bruckner, T. (2009) Selection in utero: A biological response to mass layoffs. American Journal of Human Biology. DOI: 10.1002/ajhb.21011  

  • October 2, 2009
  • 09:37 AM
  • 528 views

Identificado otro fármaco que podría prevenir las enfermedades del envejecimiento y alargar la vida.

by César Tomé López in Experientia docet

Inutilizando un gen implicado en una importante vía de comunicación bioquímica en ratones se ha descubierto una forma de imitar los conocidos efectos antienvejecimiento de la restricción calórica: vida más larga y más saludable. Este hallazgo, publicado en Science por un equipo liderado por Dominic Withers del University College de Londres, ofrece una prometedora diana terapéutica para los muchos problemas asociados con la edad. Hace ya tiempo que es conocido que la restricción calórica alarga la vida y reduce la incidencia de las enfermedades relacionadas con la edad en una amplia variedad de organismos, desde las levaduras y los nemátodos (gusanos redondos) a los roedores y primates. No está claro, sin embargo, cómo una dieta nutricionalmente completa pero radicalmente restringida logra estos beneficios. Pero recientemente varios estudios han dado pruebas de que un proceso de transmisión de señales bioquímicas en concreto, que implica a una proteína llamada diana de la rapamicina (TOR, por sus siglas en inglés), puede jugar un papel clave. Este proceso actúa como una especie de sensor de comida, ayudando a regular la respuesta metabólica del cuerpo a la disponibilidad de nutrientes. El equipo científico se percató de que los ratones jóvenes con una versión inactiva de la enzima cinasa S6-1 (S6K1), que es activada directamente por la TOR, mostraban mucho parecido con los ratones que seguían una dieta restringida calóricamente: eran más delgados y tenían mayor sensibilidad a la insulina que los ratones normales. Para averiguar si estos beneficios persistían en edades más avanzadas y si los ratones vivirían más, los investigadores criaron dos grandes grupos de ratones modificados genéticamente que carecían de una versión funcional del gen de la S6K1. Un grupo vivió sus vidas tranquilamente, dando una medida de la duración natural de su vida. El otro grupo fue sometido a una amplia batería de pruebas de estado metabólico y de rendimiento cognitivo y motor. En las hembras, los resultados fueron importantes. Las ratonas modificadas genéticamente vivieron sustancialmente más que las normales. Con una edad de 600 días (sobre los 40 años humanos) obtenían resultados excelentes en las pruebas de rendimiento motor, superando a las ratonas normales en equilibrio, fuerza y coordinación. También eran más curiosas y capaces a la hora de explorar nuevos entornos, lo que sugiere una mejor función cognitiva. Las medidas fisiológicas también indicaban una salud mejor: las modificadas genéticamente tenían huesos más fuertes, mejor sensibilidad a la insulina y células inmunitarias más robustas. Aunque los machos modificados genéticamente no tenían una vida más larga, sí que compartían los beneficios para la salud de las hembras. Los efectos de la inactivación de la S6K1 fueron similares a los de la restricción calórica, aunque menos pronunciados. Las hembras sin S6K1 vivieron hasta un 20% más que las ratonas normales; el incremento de la longevidad con restricción calórica puede llegar al 50%. La importancia de estos resultados se comprende mejor si tenemos en cuenta el descubrimiento hecho en julio de que la rapamicina alarga la vida de los ratones, interfiriendo en la misma ruta bioquímica inhibiendo la TOR. Aunque la rapamicina tenía un efecto pronunciado en la longevidad y la salud, su uso en humanos está limitadísimo por los riesgos que supone su potente capacidad inmunodepresora. Los resultados de Withers et al. indican que el tener como diana a la S6K1 directamente puede evitar estos efectos secundarios, con similares efectos. El nuevo estudio también señala a otra proteína del proceso bioquímico de transmisión de señales de la TOR, la AMPK (proteincinasa activada por AMP), aún más aguas abajo que la S6K1, como una diana terapéutica potencial clave. El papel de la AMPK es extremadamente ilusionante ya que es activada por la metformina [en la imagen], un conocido fármaco para el tratamiento de la diabetes tipo 2. Esto significaría que sería posible en los próximos años diseñar ensayos clínicos para comprobar la capacidad de la metformina para prevenir las enfermedades relacionadas con la edad. Por favor, tenga en cuenta que esto es sólo un primer resultado de la investigación con ratones. NO SE AUTOMEDIQUE. Consulte a su médico. Referencia: Selman, C., Tullet, J., Wieser, D., Irvine, E., Lingard, S., Choudhury, A., Claret, M., Al-Qassab, H., Carmignac, D., Ramadani, F., Woods, A., Robinson, I., Schuster, E., Batterham, R., Kozma, S., Thomas, G., Carling, D., Okkenhaug, K., Thornton, J., Partridge, L., Gems, D., & Withers, D. (2009). Ribosomal Protein S6 Kinase 1 Signaling Regulates Mammalian Life Span Science, 326 (5949), 140-144 DOI: 10.1126/science.1177221

... Read more »

Selman, C., Tullet, J., Wieser, D., Irvine, E., Lingard, S., Choudhury, A., Claret, M., Al-Qassab, H., Carmignac, D., Ramadani, F.... (2009) Ribosomal Protein S6 Kinase 1 Signaling Regulates Mammalian Life Span. Science, 326(5949), 140-144. DOI: 10.1126/science.1177221  

  • October 8, 2009
  • 09:33 AM
  • 528 views

La actividad cerebral se incrementa en el momento de la muerte.

by César Tomé López in Experientia docet

Las lecturas eléctricas de siete pacientes que murieron en la unidad de cuidados intensivos del Centro Médico de la Universidad George Washington (EE.UU.) sugieren que el cerebro sufre un aumento acusado de actividad en el momento de la muerte, según un estudio publicado en el Journal of Palliative Medicine por el equipo médico que les atendió, dirigido por Lakhmir S. Chawla. Este resultado sugiere una posible explicación de las llamadas experiencias cercanas a la muerte. El principal objetivo de los cuidados paliativos es hacer el fallecimiento de los pacientes lo menos doloroso y angustioso posible. Dentro de los cuidados paliativos que se estaban dando a los pacientes del estudio, el equipo médico usó para monitorizar su estado monitores de alerta. Estos monitores son dispositivos comerciales diseñados para ayudar a los anestesistas a controlar lo “despiertos” que están los pacientes, y combinan las lecturas electroencefálicas de los lóbulos centrales en una sola señal que refleja el estado de alerta del paciente. En cada uno de los siete pacientes, neurológicamente intactos, el equipo médico se dio cuenta de que en el momento en el que la presión sanguínea caía a cero había un incremento repentino de la actividad cerebral. Esta no es la primera vez que este fenómeno se detecta, pero los informes anteriores eran casos aislados en los que el incremento de actividad podría haber sido debido a una interferencia eléctrica de otras fuentes. En los casos que nos ocupan, los médicos adoptaron las medidas oportunas para garantizar que las fuentes mencionadas como origen de las interferencias no estuviesen presentes. Como explicación del fenómeno sugieren que el incremento repentino fue debido a una despolarización anóxica: un proceso en el que la falta de oxígeno desestabiliza el equilibrio químico a ambos lados de las membranas de las neuronas, lo que conlleva un último estallido de actividad. En este punto es a lo mejor conveniente recalcar que estamos hablando de siete casos, y que no se han empleado equipos de medición neuroeléctrica de un nivel suficiente como para hacer mediciones de precisión, aunque, claro está, tampoco era este el objetivo en una unidad de cuidados intensivos. Es necesaria pues una investigación planificada, con instrumentos adecuados, para poder conocer mejor el fenómeno antes de dar ninguna explicación como totalmente válida. No obstante lo anterior, los investigadores sí se atreven a lanzar una hipótesis sobre las “experiencias cercanas a la muerte”: “Especulamos que aquellos pacientes que sufren un paro cardiaco y que son resucitados con éxito podrían recordar las imágenes y recuerdos provocados por esta cascada [la despolarización anóxica]. Ofrecemos esto como una explicación potencial de la claridad con la que muchos pacientes tienen 'experiencias fuera del cuerpo' cuando se les resucita con éxito de un suceso cercano a la muerte”. Referencia: Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009). Surges of Electroencephalogram Activity at the Time of Death: A Case Series Journal of Palliative Medicine DOI: 10.1089/jpm.2009.0159

... Read more »

Chawla, L., Akst, S., Junker, C., Jacobs, B., & Seneff, M. (2009) Surges of Electroencephalogram Activity at the Time of Death: A Case Series. Journal of Palliative Medicine, 2147483647. DOI: 10.1089/jpm.2009.0159  

  • November 25, 2009
  • 11:58 AM
  • 526 views

Terremoto en la investigación del Alzheimer: la beta amiloide es esencial para el cerebro.

by César Tomé López in Experientia docet

La enfermedad de Alzheimer está causada, aparentemente, por la acumulación de placas de una proteína llamada beta amiloide [en la imagen, en azul], por lo que la eliminación de esta proteína se ha convertido en el objetivo de casi toda la investigación que busca una cura para esta enfermedad. Pero, y este es un gran pero, según los resultados que publica en Nature neuroscience el equipo de Inna Slutsky de la Universidad de Tel Aviv (Israel) la beta amiloide es esencial para el correcto funcionamiento del cerebro.Según el estudio, la proteína, producto del metabolismo normal de la célula, es esencial para la transmisión de información entre las neuronas. Si se eliminase del cerebro, como muchos fármacos en desarrollo pretenden hacer, podría causar problemas en la capacidad de aprendizaje y memorización, así como una mayor y más rápida acumulación de placas en la enfermedad de Alzheimer. Por otra parte el estudio de Slutsky et ál. también supone un salto hacia delante en la comprensión de la causa y desarrollo de la enfermedad, por lo que abre otras vías de investigación para nuevos fármacos más efectivos. El equipo de Slutsky se centró en el estudio de tomos cerebrales de ratones sanos y en redes neuronales in vitro, también de ratones. Los investigadores pudieron determinar que había una cantidad óptima de beta amiloide necesaria para mantener las neuronas funcionando correctamente. Si este equilibrio se veía perturbado, siquiera ligeramente, la efectividad de la transferencia de información entre las neuronas se veía enormemente disminuida. Por otra parte, el estudio sugiere que la proteína beta amiloide pertenecería a un grupo de moléculas endógenas que regulan la transmisión sináptica normal en el hipocampo, una región del cerebro que participa en las funciones memorísticas y de aprendizaje. La regulación es dependiente de la actividad de la neurona y actúa sobre la liberación de las vesículas de neurotransmisores. Tras la aparición de beta amiloide extracelular la actividad sináptica se incrementa a través de un ciclo de retroalimentación positiva. La interrupción de dicho ciclo, que aparecería con los primeros síntomas del Alzheimer, podría ser la clave para una posible intervención terapéutica. Cuando una puerta se cierra, se abre una ventana. En cualquier caso, esperemos confirmaciones antes de tirar todo a la basura y empezar de nuevo. Referencia: Abramov, E., Dolev, I., Fogel, H., Ciccotosto, G., Ruff, E., & Slutsky, I. (2009). Amyloid-β as a positive endogenous regulator of release probability at hippocampal synapses Nature Neuroscience, 12 (12), 1567-1576 DOI: 10.1038/nn.2433

... Read more »

Abramov, E., Dolev, I., Fogel, H., Ciccotosto, G., Ruff, E., & Slutsky, I. (2009) Amyloid-β as a positive endogenous regulator of release probability at hippocampal synapses. Nature Neuroscience, 12(12), 1567-1576. DOI: 10.1038/nn.2433  

  • June 1, 2010
  • 05:39 PM
  • 525 views

Redox en el espacio.

by César Tomé López in Experientia docet

De vez en cuando aparecen noticias sobre el descubrimiento de tal o cual compuesto en una nube interestelar y, habitualmente, se aporta una explicación más o menos alambicada para poder hablar de la posibilidad de que dicho compuesto tenga alguna relación con el origen de la vida, por remota que ésta sea. Y, sin embargo, aún no se ha hecho una identificación positiva de una molécula que pueda ser considerada como precursora de los organismos vivos, al menos de los terrícolas. Desde un punto de vista objetivo, el hecho cierto es que existe una colección de compuestos bastante rica en los espacios entre las estrellas, lo que nos lleva a la pregunta, ¿cómo se sintetizan estos compuestos en unas condiciones que, en principio, no favorecen las reacciones químicas termodinámicamente? Daren Caruana y Katherine Holt, del University College de Londres, afirman, en un artículo que aparece en Physical Chemistry Chemical Physics, que la clave está en el polvo interestelar y su participación en reacciones de oxidación-reducción. En su mayor parte el espacio entre las estrellas (espacio interestelar, EIE) es un vacío salpimentado ligeramente con átomos y moléculas. Sin embargo, en ciertas regiones se forman altas concentraciones de especies químicas formando nubes densas que también contienen polvo. Estas nubes de polvo parecen ser un centro de incubación para la síntesis de una gran variedad de especies moleculares. Se han identificado más de 140 especies moleculares en nubes de polvo usando una variedad de técnicas espectroscópicas. Para el estudio de la formación de estas especies se han desarrollado modelos por ordenador muy sofisticados, que describen la abundancia de especies químicas presentes en las nubes. A pesar de ello, estos modelos son incapaces de describir la formación de muchas moléculas poliatómicas, y su origen sigue siendo uno de los grandes enigmas de la química interestelar. En astroquímica está generalmente aceptado que los granos de polvo están implicados en la síntesis de moléculas poliatómicas complejas. Así, por ejemplo, el hidrógeno molecular (H2), la molécula más abundante en el EIE, se forma en la superficie de los granos. Hasta ahora los modelos por ordenador asumen que los granos de polvo actúan sólo como superficies propicias, en las que los reactivos son adsorbidos [con D de Dinamarca] antes de reaccionar. Pero es posible que los granos de polvo tengan un papel más activo según Caruana y Holt. La hipótesis que plantean estos investigadores se basa en la relación entre la síntesis química en la superficie de los granos con la carga eléctrica que los granos adquieren mediante conocidos fenómenos físicos del EIE. Los granos individuales pueden ser cargados negativamente por electrones en áreas de fuerte ionización del gas de la nube, o cargados positivamente en la periferia de la nube de polvo donde la radiación electromagnética es lo suficientemente potente como para expulsar los electrones de los granos. Desde un punto de vista químico, las superficies cargadas eléctricamente pueden ser reductoras cuando son negativas y oxidantes cuando son positivas. Por tanto, dependiendo de los procesos de carga, el equilibrio de electrones en la superficie de los granos puede provocar reacciones de reducción o de oxidación, reacciones que de otra forma estarían impedidas termodinámicamente. Por el momento se sabe poco de las reacciones redox (oxidación-reducción) en la interfase sólido gas, pero combinando lo que sí se conoce de los procesos redox en la interfase sólido-líquido, esta hipótesis puede desarrollarse para formular un mecanismo que implique a los granos de polvo del EIE. En éste los granos individuales actuarían como un reactor electroquímico de “un solo electrodo” en la fase gas. El número de electrones en el grano cambiaría el potencial químico global (el nivel de Fermi); por ejemplo, para un grano de polvo de 10 nm de diámetro la unión de 32 electrones cambia el potencial químico en 1 eV. Un voltaje de esta magnitud aplicado a una superficie conductora sólida se sabe que es capaz de producir muchas reacciones electroquímicas en fase líquida. Por lo tanto, es probable que una interfaz polarizada en la fase gas pueda provocar reacciones químicas similares. Los autores también especulan con la posibilidad de que la síntesis de las moléculas más grandes (de más de 6 átomos) se produzca en lugares distintos de la nube de polvo en una sucesión de reacciones redox (oxidaciones unas veces, reducciones otras). Una vez que se desarrolle completamente este mecanismo electroquímico, en conjunción con otros modelos para la fase gaseosa, quizás sea capaz de explicar las inesperadas abundancias observadas de algunas especies químicas poliatómicas. Y, ¿por qué no también la química de las capas altas de la atmósfera?Referencia: Caruana, D., & Holt, K. (2010). Astroelectrochemistry: the role of redox reactions in cosmic dust chemistry Physical Chemistry Chemical Physics, 12 (13) DOI: 10.1039/b917817a

... Read more »

  • October 15, 2009
  • 02:02 PM
  • 524 views

De cómo cambia el cerebro cuando se aprende a leer.

by César Tomé López in Experientia docet

Un estudio publicado en Nature por un equipo internacional dirigido por Manuel Carreiras de la Universidad de la Laguna (España) pone de manifiesto por primera vez qué cambia en el cerebro cuando se aprende a leer. El lenguaje hablado es una capacidad característica de los humanos que evolucionó en algún momento de los seis millones de años que han transcurrido desde que nos separamos evolutivamente de los chimpancés. Incluso sin que se les enseñe, o sin tener adultos a los que imitar, los niños desarrollan sistemas lingüísticos sofisticados. Por el contrario, leer es una habilidad aprendida que no se aprehende sin una enseñanza y una práctica intensivas. Comprender cómo cambia el cerebro cuando se aprende a leer no es tarea fácil. La mayor parte de las personas aprende a leer siendo niños, a la vez que aprende muchas otras habilidades. Separar esos cambios causados por la lectura de los causados por el aprendizaje de las habilidades sociales, o de cómo jugar al fútbol, es casi imposible. El estudio de los que aprenden de adultos también es complicado porque en la mayor parte de las sociedades cultas el analfabetismo total adulto es resultado de dificultades de aprendizaje o de problemas de salud. Es fácilmente comprensible, pues, que el equipo aprovechase una oportunidad única: grupos de guerrilleros colombianos que, como parte de su programa de reintegración a la sociedad, asistieron a cursos de alfabetización, algunos para aprender a leer por primera vez en su vida. Los investigadores examinaron imágenes de escáneres por resonancia magnética (MRI, por sus siglas en inglés) de los cerebros de 20 guerrilleros que habían completado un programa de alfabetización de adultos en español. Compararon estas imágenes con los de otros 22 guerrilleros adultos, similares en edad y capacidades mentales, antes de comenzar el mismo programa de alfabetización. Los resultados muestran que en aquellos participantes que habían aprendido a leer, la densidad de la materia gris (donde se hace el “procesamiento”) era mayor en cinco áreas del cerebro. Estas áreas son responsables de reconocer las formas de las letras y de traducir las letras en los sonidos del discurso y su significado. La lectura también incrementó la fuerza de las conexiones de la materia blanca entre las distintas regiones de procesamiento. Usando una técnica llamada imágenes por tensor de difusión (una variante de la MRI de difusión) que mide las conexiones entre las diferentes partes del cerebro, el equipo de Carreiras demuestra que las áreas de materia gris a ambos lados del cerebro (especialmente el giro angular y el giro dorsal occipital) están unidas entre sí a través del esplenio (la parte posterior del cuerpo calloso) [arriba, imagen por tensor de difusión del esplenio]. El aprender a leer implica reforzar estas conexiones. Los investigadores llegaron a esta conclusión tras comparar la actividad cerebral de 20 adultos (que sabían leer) cuando leían nombres de varios objetos y cuando nombraban cosas a partir de fotografías. El estudio mostró que leer, comparado con simplemente nombrar, implicaba conexiones más fuertes entre las cinco áreas de materia gris identificadas previamente, particularmente el giro dorsal occipital (implicado en el procesamiento de imágenes) y el giro supramarginal (implicado en el procesamiento de los sonidos) Las conexiones que parten y llegan al giro angular demostraron ser especialmente importantes. Desde hace más de 150 años se sabe que esta región del cerebro es importante para la lectura, pero esta investigación muestra que su papel era distinto del que se creía. Anteriormente, se pensaba que el giro angular reconocía las formas de las palabras antes de encontrar sus sonidos y significados. El equipo de Carreiras ha demostrado que el giro angular no está implicado en traducir las palabras escritas en sus sonidos y significados. En vez de eso, apoyaría este proceso suministrando predicciones de lo que el cerebro espera ver. Estos hallazgos es probable que resulten útiles para los investigadores que tratan de entender la dislexia. Varios estudios de la dislexia indican que existen zonas con materias gris y blanca reducidas y estas zonas están localizadas en regiones que crecen tras aprender a leer. Este estudio sugiere, por tanto, que algunas de las diferencias vistas en la dislexia podrían ser una consecuencia de dificultades lectoras más que la causa. Referencia: Carreiras, M., Seghier, M., Baquero, S., Estévez, A., Lozano, A., Devlin, J., & Price, C. (2009). An anatomical signature for literacy Nature, 461 (7266), 983-986 DOI: 10.1038/nature08461

... Read more »

Carreiras, M., Seghier, M., Baquero, S., Estévez, A., Lozano, A., Devlin, J., & Price, C. (2009) An anatomical signature for literacy. Nature, 461(7266), 983-986. DOI: 10.1038/nature08461  

  • January 26, 2012
  • 06:03 AM
  • 524 views

Los aminoácidos como catalizadores para la formación de azúcares en la Tierra primitiva.

by César Tomé López in Experientia docet







Uno de los grandes misterios del origen de la vida, y un tema
recurrente en Experientia docet, es la homoquiralidad en
aminoácidos y azúcares, es decir, por qué existiendo en la
naturaleza aminoácidos y azúcares que son idénticos químicamente
pero que sólo se diferencian como lo hace la mano derecha de la
izquierda, en los seres vivos sólo hay aminoácidos de una clase y
azúcares de la otra, en concreto, aminoácidos levógiros y azúcares
dextrógiros. Pues bien, una nueva investigación no nos da la
respuesta al problema, pero puede que lo reduzca.



Un grupo de investigadores encabezado por Laurence Borroughs, de
la Universidad de York (Reino Unido), ha recreado en el laboratorio
un proceso que podría haber tenido lugar en la Tierra prebiótica y
que habría dado lugar a los azúcares más sencillos. En este
proceso los aminoácidos actúan como catalizadores. Los resultados
aparecen publicados en Organic & Biomolecular Chemistry.



El equipo encontró que usando aminoácidos levógiros sencillos
para catalizar la formación de azúcares se obtenían
predominantemente azúcares dextrógiros. A esto nos referíamos más
arriba cuando decíamos que este resultado podía reducir el
problema: la existencia previa de aminoácidos levógiros ya
preconfiguraría la existencia de azúcares dextrógiros, sólo
quedaría por explicar los primeros y sobre ello hay teorías
interesantes (véase, por ejemplo, aquí
y aquí).










En concreto, mientras que los ésteres de L-prolina producían
L-tetrosas, los ésteres de L-leucina, L-alanina y L-valina generaban
D-tetrosas. Los rendimientos de estas reacciones son los que
justificarían la conexión entre los L-aminoácidos naturales y los
D-azúcares. Curiosamente esos rendimientos son muy sensibles al pH y
son enantioselectivamente óptimos, es decir, producen el máximo de
moléculas de una quiralidad (levógira, dextrógira) dada, a pH
neutro.




Esta entrada es una participación de Experientia docet en
la IX Edición del Carnaval de Biología que organiza Laciencia de la vida y en la XI Edición del Carnaval de
Química que acoge La aventura de la ciencia  



Referencia:


Burroughs, L., Clarke, P., Forintos, H., Gilks, J., Hayes, C., Vale, M., Wade, W., & Zbytniewski, M. (2012). Asymmetric organocatalytic formation of protected and unprotected tetroses under potentially prebiotic conditions Organic & Biomolecular Chemistry DOI: 10.1039/C1OB06798B

... Read more »

  • May 4, 2010
  • 03:49 PM
  • 523 views

El cerebro usa estructuras primitivas para interpretar el lenguaje.

by César Tomé López in Experientia docet

Un estudio publicado en los Proceedings of the National Academy of Sciences viene a cofirmar algo que se sospechaba desde hace tiempo: no existe ningún área avanzada en el cerebro humano para el procesamiento del lenguaje. Es decir, no existe ninguna zona en el cerebro humano, que se use para la interpretación del lenguaje, distinta de las que ya están presentes en otras especies. El equipo de investigadores, de la Universidad de Rochester (EE.UU.), afirma en el artículo que los humanos usamos distintas regiones cerebrales, cada una de ellas evolutivamente preparada para realizar una tarea primitiva, para encontrar el sentido de una frase. La hipótesis que el equipo quería comprobar era, muy simplificada, la siguiente: si existiese un área especial para el procesamiento del lenguaje, aquel debería activarse independientemente de la gramática de la lengua que se perciba. Si, por el contrario, no existe un área específica, dependiendo del tipo de gramática que se use para formar una frase, el cerebro activará un determinado conjunto de regiones para procesarla, de la misma manera que un mecánico no usa las mismas herramientas para desmontar un radiador que para cambiar una rueda. Para que el experimento fuese realmente fiable lo único que debería cambiar debería ser la gramática, siendo todo lo demás igual. ¿Qué lenguas usar entonces? La lengua ideal no resulta ser una lengua verbal, sino la de signos americana. Para entender la elección es necesario diferenciar, siquiera groseramente, entre dos tipos de gramática. Algunas lenguas, como el inglés, se basan en el orden de las palabras en una frase para deducir las relaciones entre los elementos de la misma. Cuando un hablante inglés oye la frase “Molly sees Rob”, es evidente por el orden de palabras que Sally es el sujeto que realiza la acción del verbo y Rob es el objeto de dicha acción y no al contrario. En alemán (o en latín), por otro lado, la función gramatical de una palabra en una frase depende de su flexión, es decir, de cómo está declinada (qué sufijo se le ha añadido), por lo que el orden puede ser alterado sin cambio de significado. La lengua de signos americana (ASL, por sus siglas en inglés) tiene la característica de que las relaciones sujeto-objeto pueden ser expresadas de las dos maneras: usando el orden de las palabras o la flexión. En lengua de signos esto quiere decir que, o bien se realizan los signos de “Molly”, “sees” y “Rob" en ese orden, o el comunicante puede usar variaciones físicas (movimiento de las manos en el espacio, realización de los signos a un lado del cuerpo) para establecer el sentido de la frase. Para este estudio, los investigadores construyeron 24 frases y expresaron cada una de esas frases usando ambos métodos. Los videos de las frases expresadas en lengua de signos fueron proyectados ante sujetos, para los que la ASL es su forma de comunicación primaria, mientras se les tomaban imágenes por resonancia magnética funcional (fMRI) de su cerebro. Los dos tipos de frases activaron una red de regiones cerebrales coincidente, pero con diferentes patrones de actividad. Las frases de orden de palabras activaron áreas del hemisferio izquierdo implicadas en la memoria de trabajo y el acceso al léxico, entre ellas el córtex prefrontal dorsolateral. Por otro lado, las frases que usaban la flexión activaban los áreas que participan en construir y analizar la estructura combinatoria (esto es, dividir la información en las partes que la constituyen) en ambos hemisferios, como la región frontal inferior bilateral y los ganglios basales. Estos resultados sugieren que, para una función lingüística dada, la activación de una estructura neuronal podría depender de los recursos cognitivos específicamente requeridos para procesar características lingüísticas concretas. Dicho de otra forma, el cerebro rentabiliza estructuras preexistentes para interpretar el lenguaje. Referencia: Newman, A., Supalla, T., Hauser, P., Newport, E., & Bavelier, D. (2010). Dissociating neural subsystems for grammar by contrasting word order and inflection Proceedings of the National Academy of Sciences, 107 (16), 7539-7544 DOI: 10.1073/pnas.1003174107La imagen "Deaf Clubs" es cortesía de Caseykins.

... Read more »

Newman, A., Supalla, T., Hauser, P., Newport, E., & Bavelier, D. (2010) Dissociating neural subsystems for grammar by contrasting word order and inflection. Proceedings of the National Academy of Sciences, 107(16), 7539-7544. DOI: 10.1073/pnas.1003174107  

  • May 17, 2010
  • 05:40 PM
  • 519 views

Un método de computación analógico para la fuerza de Casimir.

by César Tomé López in Experientia docet

Un equipo de investigadores del Instituto de Tecnología de Massachusetts (M.I.T., por sus siglas en inglés) ha desarrollado un método para encontrar soluciones a las ecuaciones de la fuerza de Casimir para cualquier geometría. Los resultados se publican en los Proceedings of the National Academy of Sciences. Imaginemos dos placas metálicas no cargadas eléctricamente, separadas unos micrometros, en ausencia de campo electromagnético y en reposo. ¿Existe alguna fuerza neta en el sistema? Desde un punto de vista clásico la respuesta es un contundente no. Sin embargo, desde el punto de vista cuántico la respuesta es sí: la existencia de esta fuerza neta la predijeron Hendrik Casimir y Dirk Polder en 1948 y su existencia ha sido comprobada experimentalmente. De hecho, esta fuerza que, aparentemente viene de la nada y disminuye rápidamente con la distancia, puede alcanzar valores sorprendentes a distancias muy pequeñas. Así, en placas separadas 10 nm la fuerza de Casimir-Polder (Casimir, de ahora en adelante), dependiendo de la geometría de las placas, llega a 1 atmósfera de presión. Esto quiere decir que esta fuerza anti-intuitiva se convierte en la dominante en la nanoescala entre conductores no cargados. La mecánica cuántica ha puesto de manifiesto que nuestro universo es mucho más raro de lo que imaginamos. Una de estas características extrañas es la confirmación de la realidad de todo un abanico de nuevas partículas subatómicas que están constantemente apareciendo y desapareciendo de la existencia en un lapso de tiempo prácticamente indetectable. Hay tantas de estas partículas efímeras en el espacio, incluso en el vacío, moviéndose en todas direcciones, que las fuerzas que ejercen se contrarrestan unas a otras. A efectos prácticos en la mayoría de los casos pueden ignorarse. Pero cuando los objetos se aproximan mucho, hay poco hueco entre ellos como para que las partículas comiencen a existir. Consecuentemente, hay menos de estas partículas efímeras entre los objetos para contrarrestar las fuerzas que ejercen las partículas que aparecen alrededor de ellos, y la diferencia de presión termina empujando a los objetos el uno contra el otro. Este es el origen de la fuerza de Casimir.En los años 60 del siglo XX se desarrolló una fórmula que, en principio, describe los efectos de las fuerzas de Casimir en cualquier número de objetos pequeños, con cualquier forma. Pero en la inmensa mayoría de los casos, la fórmula era imposible de resolver en la práctica. Se consiguió encontrar una solución para un número muy limitado de casos, como el de dos placas paralelas. En años recientes se han encontrado maneras de obtener soluciones para otras configuraciones. Así, en 2006 se resolvió para una placa y un cilindro y, en 2007, para esferas múltiples. Pero no se conseguía encontrar una solución general. Esto es precisamente lo que han logrado los miembros del equipo encabezado por Alejandro W. Rodríguez: un método para resolver las ecuaciones de las fuerzas de Casimir para cualquier número de objetos, con cualquier forma concebible. La aproximación de los investigadores al problema ha sido la de reducirlo a otro análogo, matemáticamente equivalente, pero resoluble. En concreto, demuestran que objetos del orden de centímetros separados también del orden de centímetros, dentro de un fluido conductor de la electricidad, constituyen un modelo preciso del nanosistema en lo que respecta a las fuerzas de Casimir. En vez de calcular las fuerzas ejercidas por pequeñas partículas que aparecen alrededor de pequeños objetos, los investigadores calculan la fuerza de un campo electromagnético en varios puntos alrededor de otros objetos mucho más grandes. Para objetos con formas raras, como una rueda dentada, el cálculo de la fuerza electromagnética en un fluido conductor sigue siendo algo bastante complicado. Pero nada que no pueda arreglarse usando software de ingeniería estándar. El encontrar una solución a las ecuaciones de las fuerzas de Casimir es algo que va mucho más allá del mero conocimiento teórico: poder calcular las fuerzas de Casimir para distintas geometrías se ha convertido en algo imprescindible en nanotecnología. Dado que las fuerzas de Casimir pueden hacer que las partes móviles de los sistemas electromecánicos a nanoescala se queden pegadas, es necesario encontrar geometrías donde en vez de atracción haya repulsión, y esto es lo que permite la nueva técnica. Eso sí, la creatividad humana está llamada a jugar un gran papel para encontrar estas formas con fuerzas repulsivas: todavía es necesario el uso de la intuición para imaginar qué formas pueden tener repulsión. La técnica de Rodríguez et al. solo nos dirá si estamos en lo cierto a posteriori.[Esta es la participación de Experientia docet en el VII Carnaval de la Física, que este mes acoge El navegante.]Referencia: Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010). Theoretical ingredients of a Casimir analog computer Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.1003894107

... Read more »

Rodriguez, A., McCauley, A., Joannopoulos, J., & Johnson, S. (2010) Theoretical ingredients of a Casimir analog computer. Proceedings of the National Academy of Sciences. DOI: 10.1073/pnas.1003894107  

  • August 27, 2009
  • 09:16 AM
  • 518 views

Mujeres y altas finanzas: hormonas, no sexismo.

by César Tomé López in Experientia docet

El que la élite a la que los bancos y empresas que invierten en bolsa confían la toma de las decisiones más arriesgadas está dominada por los varones es un hecho incuestionable. ¿Significa esto que se discrimina a las mujeres simplemente por ser mujeres? Podría ser. Pero una investigación que acaba de publicarse en los Proceedings of the Nacional Academy of Sciences por el equipo de Paola Sapienza de la Universidad Northwestern (EE.UU.) da una alternativa: no es el sexo de una persona, per se, la base de la discriminación sino su nivel de testosterona. Aparte de ser una hormona sexual, la testosterona también rige el gusto por el riesgo. Si se tiene en cuenta el nivel de testosterona, al menos en Estados Unidos, el aparente sexismo desaparece. El grupo de Sapienza trabajó con aspirantes a trabajar en bancos e intermediaros financieros (estudiantes de MBA de la Universidad de Chicago). Midieron la cantidad de testosterona en la saliva de los sujetos. También estimaron la exposición a la testosterona antes de nacer de los voluntarios. Esto se hace midiendo la relación entre las longitudes de los dedos índice y anular (un dedo anular largo indica alta exposición a la testosterona) y, y esto puede sorprender a algunos, midiendo la precisión con la que se puede determinar las emociones humanas mirando solamente a los ojos de la gente, que también correlaciona con la exposición prenatal a la testosterona. A los estudiantes se les pidió que tomaran 15 decisiones con un determinado nivel de riesgo cada una. En cada caso había un 50% de probabilidad de ganar 200 dólares o un aumento gradual del resultado asegurado desde 50 dólares hasta 120. Parte del dinero se pagó realmente al final del experimento, para hacer las consecuencias reales. El punto en el cual un participante decidía pasar de la apuesta al resultado asegurado se tomó como una buena aproximación de su apetito de riesgo. Tal y como los investigadores sospechaban, las mujeres y varones con los mismos niveles de testosterona tenían un apetito de riesgo similar. En otras palabras, las mujeres que tenían más testosterona eran más amantes del riesgo que las mujeres con menos, mientras que los datos para varones en la parte baja del espectro mostraban una relación similar. Curiosamente, la relación entre testosterona y toma de riesgos no era tan clara para varones con niveles de la hormona entre moderado y alto, aunque estudios anteriores habían mostrado que esta relación también podía ser significativa. En todos los casos la correlación era mayor cuando se usaba la medición de la testosterona en la saliva, sugiriendo que es el aquí y ahora, más que los efectos de la testosterona en el pasado, en el desarrollo del cerebro, los que son responsables de la diferencia. Para comprobar estos resultados en el mundo real, los investigadores siguieron el progreso de las carreras profesionales de los participantes después de terminar sus estudios. Como se esperaba, los varones escogían más que las mujeres trabajos en instituciones financieras ligados al riesgo. De nuevo, aparecía la correlación con los niveles de testosterona en la saliva. Los investigadores también comprobaron dos veces el nivel de riesgo de las carteras de inversión personales después de graduarse, en junio del 2008 (antes del crash bursátil) y en enero de 2009 (después del crash). Los resultados, que aparecerán en un próximo artículo, indican una fuerte correlación entre el riesgo financiero asumido y los niveles de la hormona. ¿Veremos a las empresas financieras, y no financieras, haciendo tests de testosterona en saliva a sus trabajadores?Referencia: Sapienza, P., Zingales, L., & Maestripieri, D. (2009). Gender differences in financial risk aversion and career choices are affected by testosterone Proceedings of the National Academy of Sciences DOI: 10.1073/pnas.0907352106... Read more »

  • June 25, 2009
  • 03:43 AM
  • 517 views

Un bosón de Higgs, pero sin el barullo.

by César Tomé López in Experientia docet

Los físicos de partículas del Large Hadron Collider (LHC) del CERN esperan descubrir el bosón de Higgs entre el barullo de partículas que se generen en las colisiones protón-protón. Los resultados que se publican en el número del 19 de junio de Physical Review Letters [1] muestran que hay una forma de eliminar parte de ese barullo. Un experimento en el colisionador protón-antiprotón Fermilab (Illinois, EE.UU.) ha identificado un proceso poco frecuente que produce materia a partir del intenso campo de la fuerza nuclear fuerte pero que deja intactos al protón y al antiprotón. Existe una posibilidad de que la misma interacción básica les permita a los físicos del LHC tener una visión más clara del Higgs. Un protón siempre está rodeado por un enjambre fantasmal de fotones y gluones virtuales asociados con los campos electromagnético y de la fuerza nuclear fuerte. Los investigadores han predicho que cuando dos protones (o un protón y un antiprotón) pasan muy cerca el uno del otro, a menos de un diámetro de protón, estas nubes de partículas virtuales pueden interactuar ocasionalmente para crear nuevas partículas reales (no virtuales). Los protones originales perderían simplemente algo de momento y se separarían del haz de protones que recorre el colisionador. Una reacción tan “exquisita”, en la que las partículas originales no se destruyen, da datos inusualmente limpios porque hay muy pocas partículas que detectar. En el nuevo experimento, los investigadores estaban buscando signos de que la interacción de gluones virtuales había generado partículas de vida corta, incluyendo los mesones Χc (pronúnciese ji-c) y J/ψ (jota-psi), que son pares encantado-antiencantado (un estado llamado charmonium, de charm, encanto en inglés, al que hace referencia el título del artículo publicado, ver abajo) que se desintegran en muones y antimuones. La reacción Χc sería especialmente poco frecuente porque exige que los protones donen dos gluones cada uno, un requisito que también hace que sea muy difícil hacer previsiones precisas. En el 2007, los investigadores del Collider Detector at Fermilab [en la imagen] observaron pistas de reacciones “exquisitas” de gluones virtuales en forma de fotones de alta energía procedentes de colisiones protón-antiprotón. Ahora, el equipo ha cribado cerca de 500 pares muón-antimuón, identificando 65 que deben haberse originado por la desintegración de Χc (muy cerca de lo que predijo en 2005 un equipo de la Universidad de Durham, Reino Unido, [2]). Dado que Χc tiene características similares al mucho más pesado bosón de Higgs, cabe esperar que a las energías mucho más altas que se alcanzarán en el LHC el mismo tipo de reacción produzca el bosón de Higgs (suponiendo que exista, claro). Basándose en la tasa de producción de Χc, se estima que las colisiones del LHC podrían producir entre 100 y 1000 bosones de Higgs al año en cada uno de los dos grandes detectores de partículas, ATLAS y CMS. Con una docena al año ya se puede medir la masa, el spin y otras propiedades del Higgs por lo que los equipos del ATLAS y el CMS están considerando añadir detectores para Higgs “exquisitos”. Pero no todo el mundo es tan optimista. Hay quien dice, como Joseph Incandela, vicecoordinador de física del CMS, que, cuando el LHC esté a toda capacidad, cada cruce de los haces de protones producirá del orden de 20 colisiones, lanzando partículas que pueden ensuciar las reacciones “exquisitas”. Por otra parte, la supersimetría (una extensión del modelo estándar, la Biblia de la física de partículas) permite la existencia de múltiples bosones de Higgs y, en este caso, las reacciones “exquisitas” serían las únicas suficientemente limpias para distinguirlos.Referencias:[1]... Read more »

Aaltonen, T., Adelman, J., Akimoto, T., Albrow, M., Álvarez González, B., Amerio, S., Amidei, D., Anastassov, A., Annovi, A., Antos, J.... (2009) Observation of Exclusive Charmonium Production and γγ→μ^{ }μ^{-} in pp[over ¯] Collisions at sqrt[s]. Physical Review Letters, 102(24). DOI: 10.1103/PhysRevLett.102.242001  

Khoze, V., Martin, A., Ryskin, M., & Stirling, W. (2005) Diffractive $\gamma \gamma$ production at hadron colliders. The European Physical Journal C, 38(4), 475-482. DOI: 10.1140/epjc/s2004-02059-0  

  • October 16, 2009
  • 08:01 AM
  • 517 views

Un nuevo efecto cuántico confirmado: los electrones fluyen eternamente en anillos de metal ordinario.

by César Tomé López in Experientia docet

Es conocido, y muchos habremos oído hablar de ello, que en los superconductores una corriente eléctrica puede circular sin resistencia. Los mejores conductores normales, como el cobre o el oro, tienen resistencia eléctrica, por lo que para que fluya una corriente tenemos que aportar energía (una pila, por ejemplo). Así las cosas, en una anillo superconductor podríamos tener una corriente persistente sin necesidad de una pila y esto sería imposible en un anillo conductor normal. ¿Correcto? No, al menos no siempre. El grupo de J.G.E. Harris de la Universidad de Yale (EE.UU.), en colaboración con Felix von Oppen de la Universidad Libre de Berlín (Alemania), ha comprobado experimentalmente la existencia de corrientes persistentes en anillos conductores a mesoescala (con un tamaño medido en micras), lo que confirma las predicciones hechas en 1983 por Ymri et.al. Su trabajo se publica en Science. Si un anillo metálico es muy pequeño (alrededor de 1 micra de diámetro) la mecánica cuántica dice que sus electrones deberían comportarse de manera similar a como se comportan los electrones alrededor de un núcleo atómico. Y de la misma manera que los electrones se mantienen en las configuraciones de menor energía de un átomo sin necesidad de un suministro de energía, los electrones en estos anillos mesoscópicos deberían fluir eternamente. Numéricamente: en un anillo de 1 micra de diámetro enfriado a 1 Kelvin debería haber una corriente de 1 nanoamperio. Las corrientes de un nanoamperio de magnitud pueden medirse con un amperímetro, pero esto implicaría romper el anillo para incluir el amperímetro en el circuito. El circuito resultante tendría unas dimensiones muy superiores a 1 micra y no pasaría corriente. La alternativa al amperímetro era el uso de dispisitivos superconductores de interferencia cuántica (más conocidos por sus siglas en inglés, SQUIDs) para medir los campos magnéticos creados por las corrientes persistentes. Pero esto se hace muy complicado debido a la propia sensibilidad de los SQUIDs, cuyas mediciones se ven alteradas por la presencia de impurezas en los anillos. Además, se hace necesario aplicar un campo magnético a lo largo del eje del anillo para hacer que la corriente persistente fluya en una dirección. Este campo hace que sea muy difícil operar con el SQUID, pero sin él unos electrones irían en un sentido y otros en otro lo que resultaría una corriente neta de cero. Debido a todas estas dificultades los resultados experimentales han sido inconsistentes y no se parecían a las predicciones teóricas. Lo que ha conseguido el equipo de Harris es un sistema de medición de corrientes persistentes que es 100 veces más sensible que un SQUID. El equipo fabricó anillos de aluminio sobre una pastilla de silicio y empleó un proceso litográfico para crear micro vigas (como si fueran trampolines de una piscina) de 300 nanometros de grosor con uno o más anillos en las puntas. Para medir la corriente en los anillos se coloca una micro viga a unos 45º con respecto a un fuerte campo magnético de varios Tesla de intensidad. El componente del vector del campo magnético aplicado perpendicular a la micro viga hace que la corriente persistente del anillo fluya en una dirección solamente. Esta corriente persistente unidireccional lleva asociada un campo magnético que es perpendicular a la micro viga. El componente paralelo a la micro viga del vector del campo magnético aplicado está en ángulo recto con el que crea la corriente persistente, lo que crea un par sobre la micro viga. La micro viga tiene una frecuencia natural de oscilación, que cambia como resultado de este par. Comparando las frecuencias con y sin el campo aplicado, Harris et al. pueden calcular el valor de la corriente persistente en el anillo (o anillos). El equipo estudió varias micro vigas con un anillo o con series de cientos o miles de anillos idénticos. Midiendo el tamaño de la corriente persistente cambiando el campo magnético, el equipo confirmó, en primer lugar, que la corriente persistente existe y, en segundo, que su valor es una función del cuanto de flujo magnético (h/2e), tal y como predijeron Ymry y sus colegas en 1983. Quedaría sólo por confirmar que las teorías son válidas a bajos valores de flujo magnético. Harris y compañía ya trabajan en ello.[En la imagen, anillos de aluminio producidos por Harris et al.]Referencia: Bleszynski-Jayich, A., Shanks, W., Peaudecerf, B., Ginossar, E., von Oppen, F., Glazman, L., & Harris, J. (2009). Persistent Currents in Normal Metal Rings Science, 326 (5950), 272-275 DOI: 10.1126/science.1178139

... Read more »

Bleszynski-Jayich, A., Shanks, W., Peaudecerf, B., Ginossar, E., von Oppen, F., Glazman, L., & Harris, J. (2009) Persistent Currents in Normal Metal Rings. Science, 326(5950), 272-275. DOI: 10.1126/science.1178139  

  • September 7, 2009
  • 04:23 PM
  • 516 views

Échale la culpa al cromosoma Y.

by César Tomé López in Experientia docet

El cromosoma Y tiene una forma única de asegurarse su supervivencia, pero ese mecanismo de autopreservación puede causar una variedad de desórdenes sexuales, desde esterilidad masculina al caso de personas cuyo sexo genético es opuesto al de su desarrollo anatómico, según un estudio publicado en Cell por un equipo del Instituto Whitehead de Investigación Biomédica (EE.UU.) encabezado por David Page. La totalidad del genoma está constantemente sujeto a errores al azar durante la replicación, la inmensa mayoría de los cuales van en contra de la aptitud para sobrevivir del organismo. Estas mutaciones nocivas se purgan del genoma durante la reproducción sexual en un proceso conocido como recombinación, en el que cromosomas homólogos, procedentes del macho y de la hembra, intercambian trozos de material genético. Esencialmente, los cromosomas cambian sus genes malos por buenos. Pero el cromosoma Y no tiene homólogo con el que recombinarse: enfrente tiene a un, fundamentalmente diferente, cromosoma X. Ante este problema, la hipótesis predominante, aunque nada satisfactoria, era que el cromosoma Y y sus genes se reproducían asexualmente, lo que limitaba su capacidad para purgar sus mutaciones. Esto llevaría a una rápida acumulación de éstas, lo que un día tendría como consecuencia la eliminación completa del cromosoma Y, posiblemente en menos de diez millones de años. Pero en 2003, cuando se publicó la primera secuencia completa del cromosoma Y, los biólogos identificaron grandes secciones del ADN que eran imágenes especulares una de otra. Estas áreas palindrómicas, es decir, una secuencia de bases es igual a su complementaria leída al revés, proporcionaron una posible respuesta a la antigua pregunta de cómo se libraba el cromosoma Y de las mutaciones nocivas: se recombinaba consigo mismo. Intercambiando un alelo mutado (un alelo es una de las posibles formas de un gen) por otro bueno del otro lado del palíndromo podría, a efectos prácticos, arreglar el problema. El equipo de Page se dispuso a encontrar pruebas que confirmasen esta hipótesis. Para ello analizó el cromosoma Y de cerca de 2400 pacientes masculinos con anormalidades sexuales diagnosticadas previamente. Identificaron 51 cromosomas Y que mostraban signos característicos de haber sufrido esta autorrecombinación de material genético. Los investigadores se percataron de estos cromosomas Y en particular por la presencia de dos centrómeros (el punto donde se tocan las dos cromátidas del cromosoma) en vez del único habitual. El centrómero es la región del cromosoma sobre la que se ejerce tracción durante la división celular (mitosis), y tener más de uno puede dar lugar a confusión celular. Estos llamados Y isodicéntricos son un desafortunado efecto secundario de la recombinación dentro del cromosoma, según el trabajo publicado. Después de la rotura del ADN para intercambiar los genes que necesitan reparación, las piezas podrían recolocarse incorrectamente, con el resultado de un cromosoma que no tiene centrómeros o bien otro que tiene dos. La inestabilidad mitótica resultante puede desembocar en una pasmosa variedad de consecuencias clínicas. El mismo problema en el cromosoma Y se traduce tanto en un recuento espermático reducido en un individuo por lo demás sano, como en distintas anomalías de desarrollo sexual a un nivel anatómico mucho mayor en otros individuos. Esta variedad de consecuencias es verdaderamente sorprendente. Una nota final: si bien estos resultados apoyan la teoría de que el cromosoma Y se recombina consigo mismo, el mecanismo de intercambio de genes tiene que ser confirmado todavía, el proceso concreto aún no ha sido explicado. [En la imagen, de izquierda a derecha, cromosomas X e Y; en el X podemos apreciar cómo las dos cromátidas se tocan en el centrómero]Referencia: Lange, J., Skaletsky, H., van Daalen, S., Embry, S., Korver, C., Brown, L., Oates, R., Silber, S., Repping, S., & Page, D. (2009). Isodicentric Y Chromosomes and Sex Disorders as Byproducts of Homologous Recombination that Maintains Palindromes Cell, 138 (5), 855-869 DOI: 10.1016/j.cell.2009.07.042

... Read more »

  • October 6, 2009
  • 04:40 PM
  • 516 views

De cómo lo absurdo agudiza el ingenio.

by César Tomé López in Experientia docet

¿Has mirado con detalle la imagen escheriana que abre este artículo? ¿Cómo te has sentido nada más verla? Es posible que un poco desorientado, habrá incluso alguien que haya sentido un breve escalofrío. Esta sensación, que Kierkegaard llamó la “sensación del absurdo” y que Freud relacionó con el miedo a la muerte, aparece cuando nos enfrentamos a algo que viola toda lógica y aparece contra toda expectativa. Ahora un estudio sugiere que, paradójicamente, esta misma sensación podría preparar el cerebro para percibir pautas que normalmente no percibiría, ya sea en ecuaciones matemáticas, en el lenguaje, o en el mundo en su conjunto. El trabajo de investigación ha sido publicado en Psychological Science por Travis Proulx, de la Universidad de California en Santa Bárbara (EE.UU.), y Steven Heine, de la Universidad de la Columbia Británica (Canadá). Se sabe desde hace tiempo que las personas nos aferramos a nuestros prejuicios con más fuerza cuando nos sentimos amenazados. Varios estudios han puesto de manifiesto que, tras pensar sobre la inevitabilidad de la propia muerte, la gente se vuelve más nacionalista, más religiosa y menos tolerante con los extraños; que cuando insultan a sus amigos las personas hacen públicas declaraciones de lealtad hacia ellos; que cuando se les dice que han obtenido un mal resultado en un test de cultura general se identifican aún más con su equipo (ganador) favorito. En una serie de artículos Proulx y Heine argumentan que todos estos comportamientos no son más que variaciones de un mismo proceso: el mantenimiento del significado o, por llamarlo con una sola palabra, coherencia. El cerebro evolucionó para predecir, y lo hace identificando pautas. Cuando esas pautas se rompen (como en la imagen de arriba) el cerebro busca a tientas algo, lo que sea, que tenga sentido. La urgencia por encontrar una pauta coherente hace que sea más probable que el cerebro encuentre una. Veamos un ejemplo. Imaginemos un excursionista que está atravesando un bosque espeso, sin caminos, alejado de la civilización decenas de kilómetros, cuando, en mitad de un claro se encuentra un sillón de cuero rojo en perfecto estado. Tras la sorpresa inicial que lleva asociada la “sensación de absurdo”, su primera reacción puede que sea volverse hacia dentro y centrarse en un ritual familiar, como la comprobación de su equipo. Pero también puede dirigir su atención hacia fuera y darse cuenta, por ejemplo, de una pauta en las huellas de animales que hasta ese momento había permanecido oculta. En el último artículo de la serie, Proulx y Heine describen cómo hicieron que 20 estudiantes universitarios leyesen un relato corto de Kafka llamado “El médico rural”. El médico del título acude a una casa porque un niño tiene un dolor de muelas terrible. Una vez que llega a la casa se da cuenta de que el niño no tiene dientes. Los caballos que han tirado de su carruaje empiezan a dar guerra; la familia del niño se enfada; entonces el médico descubre que el niño sí tiene dientes después de todo...y así sigue. La historia es vívida, urgente, absurda: kafkiana. Tras la historia, los estudiantes estudiaron un conjunto de 45 series de 6 a 9 letras, como “X, M, X, R, T, V”. Tras ello se examinaron sobre las series de letras, eligiendo las que creían haber visto entre 60 posibilidades. De hecho las letras estaban relacionadas entre sí, de una manera muy sutil, con mayor probabilidad de que una concreta apareciera antes o después que otra. Este test es una medida estandarizada de lo que los investigadores llaman aprendizaje implícito: el conocimiento que se adquiere sin que nos demos cuenta. Los estudiantes no tenían ni idea de qué pautas su cerebro estaba percibiendo o de lo bien o mal que lo estaban haciendo. Pero realmente lo hicieron bien. Eligieron un 30% más de series de letras y tuvieron casi el doble de acierto en sus elecciones, que un grupo de control que había leído una historia coherente. Según los autores, el hecho de que el grupo que leyó la historia absurda identificase más series de letras sugiere que estaba más motivado para buscar pautas que el otro. Y el hecho de que tuviesen más acierto significaría que están percibiendo nuevas pautas que no serían normalmente percibidas. Dos puntualizaciones se nos antojan oportunas. La primera, nadie sabe si la exposición a lo absurdo puede ayudar con el conocimiento explícito, como memorizar el derecho romano. La segunda, la “sensación del absurdo” puede hacer que determinadas personas vean pautas donde no las hay, lo que las haría más inclinadas a formular teorías conspiratorias, por ejemplo. El ansia por el orden se satisface a sí misma, por lo que parece, independientemente de la calidad de las pruebas. Referencia: Proulx, T., & Heine, S. (2009). Connections From Kafka: Exposure to Meaning Threats Improves Implicit Learning of an Artificial Grammar Psychological Science, 20 (9), 1125-1131 DOI: 10.1111/j.1467-9280.2009.02414.x

... Read more »

  • December 10, 2009
  • 04:58 PM
  • 516 views

Síntesis estructural y funcional de una metaloproteína.

by César Tomé López in Experientia docet

Un equipo de investigadores dirigido por Yi Lu, de la Universidad de Illinois en Urbana-Champaign, ha diseñado una proteína sintética que es un modelo tanto funcional como estructural de una proteína natural, la enzima óxido nítrico reductasa (NOR). El logro se publica en Nature. Es muy difícil estudiar una molécula biológica tan compleja como la NOR si ésta no es soluble en agua. Cualquier ensayo debe realizarse en un medio graso, por tanto orgánico, que influirá en las reacciones que se estén estudiando. La NOR es una proteína de membrana (celular) y, por tanto, es liposoluble (no hidrosoluble). Tener un modelo de la proteína que es reflejo estructural y funcional de ella es tremendamente interesante. Sintetizar una proteína no es nada fácil. Sintetizar una proteína que contenga átomos metálicos en su estructura es mucho más difícil debido a la variabilidad en estados de oxidación y geometrías que presentan los átomos metálicos. La NOR es una metaloproteína, contiene hierro al igual que la hemoglobina de la sangre. Para imitar la estructura [en la imagen] y función de la NOR, los investigadores partieron de una pequeña proteína muscular, la mioglobina. Aunque es más pequeña que la NOR y soluble en agua, la mioglobina puede reproducir características claves de la NOR. Basándose en estos cimientos, los investigadores crearon un nuevo lugar para el enlace del hierro consistente en tres histidinas y un glutamato. Aparte de su papel estructural, las histidinas y el glutamato pueden proporcionar los protones (H+) necesarios para la reducción del óxido nítrico en el sitio activo. ¿Qué importancia puede tener que se sintetice una proteína? Mucha. Empezando por el final, esta proteína sintética es un excelente modelo para crear biocatalizadores para uso biotecnológico, medioambiental y farmacéutico. Desde un punto de vista más básico, más fundamental, las posibilidades de estudio de la NOR que aportará este nuevo modelo permitirán conocer mejor el ciclo del óxido nítrico (NO) en los mamíferos, y las patologías asociadas. Este ciclo es crítico para la vida. El NO es un importante regulador y mediador en numerosos procesos en los sistemas cardiovascular, nervioso e inmune. Así, participa en la relajación de los músculos lisos lo que resulta en la vasodilatación de las arterias e incremento del flujo sanguíneo (es crítico en el mantenimiento de la erección). En el sistema nervioso actúa como neurotransmisor, capaz de introducirse en las neuronas sin necesidad de sinapsis, pudiendo activar un grupo local de neuronas rápidamente. El NO es citotóxico para los microbios y las células tumorales, por lo que los macrófagos lo usan como arma de defensa en el sistema inmunitario. Por otra parte, el NO está implicado en los choques sépticos, la hipertensión, los infartos o las enfermedades neurodegenerativas.Referencia: Yeung N, Lin YW, Gao YG, Zhao X, Russell BS, Lei L, Miner KD, Robinson H, & Lu Y (2009). Rational design of a structural and functional nitric oxide reductase. Nature PMID: 19940850

... Read more »

Yeung N, Lin YW, Gao YG, Zhao X, Russell BS, Lei L, Miner KD, Robinson H, & Lu Y. (2009) Rational design of a structural and functional nitric oxide reductase. Nature. PMID: 19940850  

  • June 8, 2009
  • 03:52 PM
  • 515 views

La esencia del comportamiento social humano (y 2): la masificación trajo la cultura.

by César Tomé López in Experientia docet

Mark Thomas y sus colegas del University College de Londres (Reino Unido) sugieren que la sofisticación cultural depende de más cosas que del desarrollo de la inteligencia. También requiere una población densa. Si esto es correcto, explicaría algunos hallazgos sorprendentes de la arqueología que, hasta ahora, no han tenido una explicación satisfactoria. Comentábamos en la entrada anterior que Bowles se basaba en un modelo matemático para su análisis [La esencia del comportamiento social humano (1): la guerra nos hizo altruistas]. Thomas et al. también se basan en un modelo matemático para intentar explicar el patrón de aparentes arranques en falso de la cultura humana moderna. Se cree que la especie humana surgió hace entre 150.000 y 200.000 años en África y que comenzó a dispersarse por el resto del mundo hace unos 60.000. Pero los signos de la cultura moderna, como los collares de conchas, el uso de pigmentos o la construcción de herramientas complicadas y difíciles como los arpones de hueso, no aparecen hasta hace 90.000 años. Poco después desaparecen, antes de aparecer otra vez, para desaparecer de nuevo en algunos lugares, hasta reaparecer en Europa definitivamente hace 45.000 años. El equipo se basó en la idea de que se requiere un determinado número de personas para mantener las habilidades y el conocimiento en una población. Por debajo de este nivel, los efectos del azar pueden ser importantes. La probabilidad de que se hagan inventos útiles es baja y, si sólo unos pocos tienen las habilidades para fabricar nuevos inventos, puede que mueran sin haber pasado su conocimiento. En su modelo, Thomas y sus colegas dividieron un mundo simulado en regiones con diferentes densidades de grupos humanos. Los individuos en estos grupos tenían ciertas “habilidades”, cada una asociada a un determinado nivel de complejidad. Las habilidades podían transmitirse, más o menos fielmente, produciendo un nivel medio de las mismas que podía variar con el tiempo. Los grupos también podían intercambiar habilidades. El modelo sugería que una vez que se sobrepasaba la barrera de los 50 grupos en contacto, la complejidad de las tareas que podían mantenerse no se incrementaba con la incorporación de grupos adicionales. En vez de esto, era la densidad de población lo que demostró ser la clave para la sofisticación cultural. Cuanta más gente había, más intercambio había entre los grupos y más rica se volvía la cultura de cada grupo. Como consecuencia Thomas sugiere que la razón de la que no haya prácticamente rastro de cultura hasta hace 90.000 años es que no había suficiente número de gente para soportarla. Es en este punto que un par de lugares en África (uno e la punta de más abajo del continente y otro en el este del Congo) producen signos de joyería, arte y armas modernas. Sin embargo, desaparecen poco después. Lo que, según Thomas, correspondería con períodos en los que el número de humanos se contrajo. Existen datos climáticos que prueban que esta contracción se produjo efectivamente. Por otra parte estimaciones genéticas del tamaño de la población en el África subsahariana de hace 90.000 años dan un valor muy parecido al que tenía la población de Europa 45.000 años después. De acuerdo con Thomas, por lo tanto, la cultura no habría sido inventada una vez, cuando la gente se volvió lo suficientemente inteligente, y habría progresado gradualmente hasta lo que tenemos hoy. En vez de eso, venía e iba en sintonía con los altibajos de la población. Desde la invención de la agricultura, por supuesto, no hizo más que crecer. Las consecuencias te rodean por todas partes.Referencia:Powell, A., Shennan, S., & Thomas, M. (2009). Late Pleistocene Demography and the Appearance of Modern Human Behavior Science, 324 (5932), 1298-1301 DOI: 10.1126/science.1170165... Read more »

  • October 30, 2009
  • 02:40 PM
  • 512 views

Comunicación neuronal sin sinapsis.

by César Tomé López in Experientia docet

Como es sabido las comunicaciones entre neuronas se producen en un pequeño espacio entre ellas llamado sinapsis. Esto sigue siendo cierto, pero un equipo de investigadores de la Universidad de Szeged (Hungría) liderado por Gábor Tamás informa en Nature de la existencia de neuronas que, en vez de concentrar la emisión de neurotransmisores en la sinapsis, los segregan en el espacio intercelular. El equipo de investigadores realizó el descubrimiento examinando un tipo de célula cerebral llamado neurogliaforme, una internurona muy abundante en la corteza cerebral. Estudios anteriores han demostrado que las células neurogliaformes pueden inhibir la activación de otras neuronas mediante la segregación de un neurotransmisor llamado GABA (ácido gamma-aminobutírico), que habitualmente se encuentra en las sinapsis. Otros estudios sugieren que el GABA se puede difundir también hacia el espacio intercelular, donde lleva mensajes a neuronas no conectadas por sinapsis. Para tener una concentración suficiente de GABA intercelular se especuló con la idea de que muchas neuronas tendrían que emitirlo a la vez. Los investigadores querían comprobar esta idea. Tamás et ál. usaron microscopía óptica y electrónica para examinar el tejido cerebral de ratas y humanos, para encontrar que las células neurogliaformes tienen axones con muchísimas ramificaciones [en la imagen, en rojo]. Estos axones “peludos” tienen una enorme densidad de sitios en los que puede emitirse GABA al espacio intercelular. Habitualmente la emisión de neurotransmisores tiene lugar en las sinapsis, pero el equipo pudo comprobar que sólo 11 de cada 50 sitios examinados en las neurogliaformes corresponden a una sinapsis. Experimentos adicionales confirmaron que una sola neurogliaforme, cuando es estimulada, libera suficiente GABA como para inhibir la actividad de las neuronas cercanas no conectadas por sinapsis. Los investigadores también demuestran que las células neurogliaformes contienen receptores que pueden detectar incluso niveles muy bajos de GABA, lo que sugeriría que pueden comunicarse entre sí además de con otros tipos de células. Estos mismos receptores también son sensibles a los neuroesteroides, moléculas sintetizadas en el cerebro y ligadas con la ansiedad y la depresión. Las concentraciones de estas moléculas pueden fluctuar con el ciclo menstrual, durante el embarazo o durante períodos de estrés, por lo que los autores afirman que las fluctuaciones en las concentraciones de neuroesteroides podrían afectar a la actividad de estas células neurogliaformes. ¿Supondrá este hallazgo un cambio en nuestro enfoque para explicar cómo funciona el cerebro, basado hasta ahora en la comunicación sináptica?Referencia: Oláh, S., Füle, M., Komlósi, G., Varga, C., Báldi, R., Barzó, P., & Tamás, G. (2009). Regulation of cortical microcircuits by unitary GABA-mediated volume transmission Nature, 461 (7268), 1278-1281 DOI: 10.1038/nature08503

... Read more »

Oláh, S., Füle, M., Komlósi, G., Varga, C., Báldi, R., Barzó, P., & Tamás, G. (2009) Regulation of cortical microcircuits by unitary GABA-mediated volume transmission. Nature, 461(7268), 1278-1281. DOI: 10.1038/nature08503  

join us!

Do you write about peer-reviewed research in your blog? Use ResearchBlogging.org to make it easy for your readers — and others from around the world — to find your serious posts about academic research.

If you don't have a blog, you can still use our site to learn about fascinating developments in cutting-edge research from around the world.

Register Now

Research Blogging is powered by SMG Technology.

To learn more, visit seedmediagroup.com.