La primera pandemia de gripe en 40 años, provocada por el virus H1N1, con una mezcla de genes de cerdos, de ave y humano, es el acontecimiento más notable de año que acaba en el ámbito de la ciencia, según la revista Nature. Los responsables de la prestigiosa publicación británica recuerdan que la nueva gripe surgió en Nortemérica y se difundió rápidamente por el planeta. Aunque es bastante benigna para la mayoría de la población, se producen algunos casos graves y, en total, han fallecido ya más de 10.580 personas en el mundo debido a esta infección. Además del H1N1, otros diez hitos del mundo de la ciencia merecen ser recordados como las noticias del año. De esto modo la clasificación de Nature no se solapa con la de su competida la revista estadounidense Science, que ha elegido ya los que han sido, a juicio de sus editores, los diez hallazgos científicos más importantes de 2009.
Nature, además, hace varias clasificaciones, incluida una de las fotos científicas más espectaculares y la selección de sus lectores basada en las visitas a su página en internet. La fotografía más destacada muestra la silueta de la Estación Espacial Internacional, con un transbordador anclado allí, contra la esfera dorada del Sol como fondo, y el personaje del año es el premio Nobel Steven Chu, Secretario del Departamento de Energía de EE UU, nombrado por el Presidente Obama. Las nueve noticias elegidas tras la nueva gripe son:
Récord del acelerador LHC. "La corona de la física de partículas ha pasado de Estados Unidos a Europa", escribe Nature haciendo referencia al nuevo gran acelerador de partículas LHC, instalado junto a Ginebra, que se ha convertido en el de más alta energía del mundo al lograr colisiones de partículas a 2,36 teraelectronvoltios (TeV). El récord anterior lo tenía el veterano Tevatron de Fermilab (cerca de Chicago, EEUU). Los expertos del LHC ha pasado gran parte del año reparando los desperfectos que sufrió la máquina, en septiembre de 2008, tras un grave accidente provocado por un cortocircuito. Pero la puesta en marcha del acelerador un año después ha ido muy bien, aunque todavía en fase de ensayos. De momento ha funcionado a baja energía en comparación con la que debe alcanzar según el diseño: 7 TeV por haz.
Pirateo de los correos electrónicos sobre cambio climático. Más de un millar de correos electrónicos, enviados y recibidos por climatólogos de alto prestigio de la Unidad de Investigación del Clima (Universidad de East Anglia, Reino Unido), fueron expuestos al público tras un ataque pirata a sus ordenadores. Para quienes niegan el cambio climático, el contenido de esos correos electrónicos es un escándalo que demuestra que el calentamiento global responde a una conspiración; para la mayoría de los investigadores es un fastidioso incordio, dice Nature. El contenido de algunos los correos electrónicos "muestra la frustración con algunos datos y una actitud arrogante hacia los escépticos, pero no desacredita la solidez de las pruebas que muestran que el planeta se está calentando probablemente debido a la acción humana", consideran los editores de la revista.
Luna húmeda. Un antiguo debate se ha resuelto: se puede acumular agua helada en los cráteres de la luna. El cuarto lugar de las noticias del año recoge los resultados de una sonda espacial de la NASA, la LCROSS, que fue estrellada a propósito en un cráter lunar en sombra permanente. El impacto provocó una pluma de polvo, pero los sensores detectaron señales de agua justo antes del choque, lo que sugiere que el vapor se había congelado en el suelo del cráter. Además, los instrumentos registraron indicios de dióxido de carbono, mercurio y metano.
Obama relanza la ciencia. "Vamos a devolver a la ciencia el lugar que se merece", dijo el Presidente de EEUU, Barack Obama, al tomar posesión de su cargo el pasado enero. Nature no sólo recuerda las palabras, sino que resalta los hechos: desde una normativa de apoyo a la ciencia en las decisiones federales hasta el levantamiento de las limitaciones a la investigación con células madre embrionarias humanas impuestas por la Administración Bush. A mediados de diciembre ya se habían aprobado 40 líneas de investigación con dichas células. Obama, además, eligió a científicos muy destacados para ocupar cargos de la más alta responsabilidad en su Administración.
La ciencia afronta la recesión. La crisis económica mundial obligó a tomar difíciles decisiones en la financiación de la ciencia, recuerdan los responsables de Nature. Una universidad legendaria como Harvard se vió obligada a detener la construcción de un nuevo complejo de ciencias y la garra del déficit californiano afectó a las universidades allí. Sin embargo, varios gobiernos han considerado que la investigación es un motor de la economía y han hecho significativos esfuerzos para apoyar la ciencia básica: el Congreso de EEUU aprobó 14.600 millones de euros de financiación para estimular la investigación; el Gobierno alemán decidió invertir 18.000 millones de euros en la próxima década para universidades e instituciones de investigación; Francia prometió gastar 19.000 millones de euros en investigación y educación superior; Japón asignó 12.550 millones de euros para tecnologías de bajo carbono. "Pero los países ricos se han preocupado de si mismo: gran parte de la ciencia africana está siendo dañada por los recortes de las inversiones extranjeras y las donaciones de fundaciones", señala Nature.
El latigazo presupuestario en Japón. En año de crisis, la financiación de la ciencia se convierte en noticia importante. También el séptimo lugar de la clasificación hace referencia a presupuestos para I+D, en este caso los japoneses. El pasado noviembre, un grupo de trabajo presidido por el Primer Ministro Yukio Hatoyama recomendó recortar el presupuestos de muchos proyectos científicos importantes, pero investigadores de primera línea nipones, incluidos varios premios Nobel, apoyaron a los científicos del país en su defensa de la financiación ante Hatoyama. También se unió a la reivindicación de mantener los proyectos el organismo que es máximo responsable de la política científica en Japón, explica Nature, y la última decisión sobre el presupuesto se conocerá en los próximos días días.
Fracaso en Copenhague. La cumbre del clima de Naciones Unidas celebrada en la capital danesa concluyó sin un acuerdo acerca de medidas concretas para hacer frente al cambio climático a partir de 2013, cuando termina el primer período de cumplimiento del Protocolo de Kioto. Según Nature, las razones del fracaso hay que buscarlas en las profundas fisuras entre los países en vías de desarrollo (que seguramente sufrirán especialmente los efectos del calentamiento global) y los países desarrollados (responsables históricos de la mayor parte de las emisiones de gases de efecto invernadero a la atmósfera).
Plagio iraní. Se han descubierto plagios en artículos científicos en los que figuran como co-autores altos responsables políticos de Irán. El ministro de Ciencia de ese país, Kamran Daneshjou y el ministro de Transporte, Hamid Behbahani, entre otros, participaron en varios artículos, la mayoría de los cuales han sido ahora retirados por las revistas que los publicaron.
Astronautas en el limbo. La décima noticia del año se refiere a la NASA, en concreto al informe Augustine que evaluó los planes de la agencia espacial estadounidense y concluyó que el programa de vuelos tripulados no tiene ni de cerca recursos suficientes para lograr los objetivos anunciados por el anterior presidente de EEUU, George Bush, incluyendo el regreso a la Luna en 2020. La estrategia se basa en el desarrollo del nuevo sistema de cohetes Ares, cuestionado por el informe. Obama tiene que tomar una decisión al respecto en las próximas semanas.
LA CIENCIA SE COMPONE DE ERRORES, QUE A SU VEZ SON LOS PASOS HACIA LA VERDAD (JULIO VERNE).
martes, 29 de diciembre de 2009
sábado, 12 de diciembre de 2009
Researchers ‘NOTCH’ a victory in war on cancer
NOTICIAS INTERNACIONAL
NOVEMBER 12, 2009
NICOLE DAVIS
THE BROAD INSTITUTE OF HARVARD AND MIT
Scientists have devised an innovative way to disarm a key protein considered to be “undruggable,” meaning that all previous efforts to develop a drug against it have failed. Their discovery, published in today's edition of the journal Nature, lays the foundation for a new therapy aimed directly at a critical human protein — one of a few thousand so-called transcription factors — that could someday be used to treat diseases, especially multiple types of cancer.
“There is a pressing need for drugs that target transcription factors, both for use as scientific tools in the laboratory and as therapies in the clinic,” said senior author James Bradner, a Harvard Medical School chemical biologist and oncologist at the Dana-Farber Cancer Institute and an associate member of the Broad Institute of Harvard and MIT. “Our work brings us a step closer toward that goal for a protein with major roles in cancer, cardiovascular disease, and stem cell biology.”
If human physiology is like a puppet show, then transcription factors pull the puppet strings. They bind to DNA and turn genes on or off, setting in motion genetic cascades that control how normal cells grow and develop. They also help maintain tumor growth, underscoring their importance as cancer drug targets. Yet transcription factors are counted among the most difficult molecules to neutralize with a drug. In fact, no such drugs are currently available.
Based on his oncology work, Bradner became deeply interested in a human protein called NOTCH. The gene encoding this protein is often damaged, or mutated, in patients with a form of blood cancer known as T-ALL, or T-cell acute lymphoblastic leukemia.
Abnormal NOTCH genes found in cancer patients remain in a state of constant activity, switched on all the time, which helps to drive the uncontrolled cell growth that fuels tumors. Similar abnormalities in NOTCH also underlie a variety of other cancers, including lung, ovarian, pancreatic, and gastrointestinal cancers.
Even with this deep scientific knowledge, drugs targeting NOTCH — or any other transcription factor — have traditionally been extremely difficult, if not impossible, to develop. Most current drugs take the form of small chemicals (known as “small molecules”) or larger-sized proteins, both of which have proven impractical so far for disabling transcription factors.
A few years ago, Bradner and his colleagues hatched a different idea about how to tame the runaway NOTCH protein. Looking closely at its structure as well as the structures of its partner proteins, they noticed a key protein-to-protein junction that featured a helical shape.
“We figured if we could generate a set of tiny little helices, we might be able to find one that would hit the sweet spot and shut down NOTCH function,” said Bradner.
Creating and testing these helices involved a team of interdisciplinary researchers, including Greg Verdine, Erving Professor of Chemistry in Harvard's Department of Chemistry and Chemical Biology, and director of the Chemical Biology Initiative at Dana-Farber Cancer Institute, as well as scientists at Brigham and Women’s Hospital and the Broad Institute’s Chemical Biology Program, which is directed by Stuart Schreiber, Morris Loeb Professor of Chemistry.
Verdine invented a drug-discovery technology that uses chemical braces, or “staples,” to hold the shapes of different protein snippets. Without these braces, the snippets (called peptides) would flop around, losing their three-dimensional structure and thus their biological activity.
Importantly, cells can readily absorb stapled peptides, which are significantly smaller than proteins. That means the peptides can get to the right locations inside cells to alter gene regulation.
“Stapled peptides promise to significantly expand the range of what’s considered ‘druggable,’ ” said Verdine, who is a co-senior author of the study and an associate member of the Broad Institute. “With our discovery, we’ve declared open season on transcription factors and other intractable drug targets.”
After designing and testing several synthetic stapled peptides, the research team identified one with remarkable activity. Not only could it bind to the right proteins and reach the right places inside cells, it also showed the desired biological effect: the ability to disrupt NOTCH function.
Moreover, experiments in cultured cells as well as in mice proved the peptide’s ability to limit the growth of cancer cells fueled exclusively by NOTCH. Interestingly, these effects are also seen at the level of gene activity, or “expression.” The researchers looked at the expression levels of genes across the genome, in both cells and mice treated with the peptide, and observed markedly reduced expression of genes that are controlled directly and indirectly by NOTCH. These results offer some early insights into how the peptide works at a molecular level.
In addition to its potential therapeutic applications to NOTCH-dependent cancers, the Nature study discovery also forms the basis of a general strategy for taking aim at other transcription factors. “A variety of key transcription factors assemble in a manner similar to NOTCH,” said first author Raymond Moellering, a graduate student in the Harvard Department of Chemistry and Chemical Biology who works with Verdine and Bradner. “Our approach could offer a template for targeting many other master regulators in cancer.”
Funding for the research was provided by the Leukemia and Lymphoma Society, the American Association for Cancer Research, the American Society of Hematology, the Harvard/Dana-Farber Program in Cancer Chemical Biology, the National Institutes of Health, and other funding organizations.
Fuente: Harvard University.
Todos los dinosaurios se originaron en América del Sur, indican unos nuevos fósiles
Un dinosaurio primitivo, recién descubierto en Nuevo México, ha resultado no ser uno más. Pertenece al linaje de los terópodos, uno de los tres existentes en los dinosaurios y el mismo del tiranosaurio rex. Sus características y su antigüedad -214 millones de años- sugieren que los primeros dinosaurios se dispersaron pronto alrededor del mundo, tras haberse originado en lo que ahora es América del Sur, que entonces formaba parte del supercontinente Pangea.
Comparado con el registro fósil de los periodos Jurásico y Cretácico, el de los primeros dinosaurios, en el Triásico Superior, es bastante pobre. Se sabe que estos animales para esta época se habían dividido en tres grupos principales, pero los fósiles de este periodo son raros e incompletos. Sterling Nesbitt y sus colegas ahora describen varios esqueletos casi completos de un dinosaurio terópodo del Triásico Tardío, que han llamado Tawa hallae , en honor de la palabra hopi para el dios sol (Tawa) y la paleontóloga aficionada Ruth Hall.
Se recuperaron en el yacimiento de Ghost Ranch, en el norte de Nuevo México, los fósiles de varios individuos, pero el espécimen tipo (holotipo) es un esqueleto casi completo de un joven dinosaurio que medía unos 70 centímetros de altura (en las caderas) y unos dos metros de largo. Era en tamaño como un perro grande, pero con una cola muy larga. Tawa es un terópodo, dinosaurios que incluyen el tiranosaurio rex y el velociraptor. En su mayoría los terópodos comían carne, andaban sobre dos patas y tenían plumas. Aunque casi todos se extinguieron hace 65 millones de años, algunos de los linajes que sobrevivieron se convirtieron en las aves modernas.
Una de las contribuciones más importantes de Tawa a la ciencia es que aclara la situación del herrerasaurio, un dinosaurio encontrado en Argentina en los años sesenta y que algunos situaban fuera del linaje de los terópodos, indica la Universidad de Texas. En palabras de Nesbitt, primer firmante del artículo que publica Science, "las características de Tawa sitúan al herrerasaurio en el linaje de los terópodos, así que eso significa que los tres linajes están presentes en lo que hoy es América del Sur muy pronto tras la aparición de los dinosaurios. Sin Tawa, podíamos pensar que es así, pero Tawa refuerza esta hipótesis".
Durante el Triásico (entre hace 251 y 199 millones de años), mientras se separaba Pangea en los protocontinentes norte y sur, los dinosaurios eran raros. Estos dinosaurios primitivos no dominaban la fauna terrestre todavía y constituyen únicamente alrededor del 6% de los fósiles de animales de cuatro patas de aquella época. Sin embargo, los parientes cocodrilianos eran comunes. Durante este periodo fue cuando los dinosaurios se diversificaron en tres grupos diferentes: terópodos, sauropodomorfos y ornistiquios.
Fuente: El País.
La mayor inundación de la historia
Hace unos 5,5 millones de año y debido a un levantamiento tectónico del actual estrecho de Gibraltar, el mar Mediterráneo quedó aislado de los océanos durante un largo periodo de unos 350.00 años y se desecó casi por completo. Cuando las aguas del Atlántico pudieron fluir de nuevo hacia el este, llenaron el Mediterráneo con la mayor y más brusca inundación conocida, según los resultados de un nuevo estudio hecho por científicos españoles y franceses.
"Nuestro trabajo demuestra que cuando las aguas del Atlántico volvieron a encontrar un camino a través del estrecho, probablemente como consecuencia de su hundimiento tectónico, el desnivel entre ambos mares, de unos 1.500 metros, desencadenó la mayor y más abrupta inundación que se conoce en la Tierra, dejando una erosión en el fondo marino de cerca de 200 kilómetros de longitud y unos ocho kilómetros de anchura", explica Daniel García-Castellanos, del CSIC, primer firmante del artículo que publica Nature. "La carga de agua llegó a ser 1.000 veces superior al actual río Amazonas y el Mediterráneo se llenó en tan sólo dos años". El ritmo fue de hasta 10 metros diarios de subida del nivel del mar. Hasta ahora se pensaba que este mar en medio de las tierras había tardado en llenarse mucho más tiempo.
Durante la desecación, los principales ríos que desembocan en el Mediterráneo excavaron profundas gargantas en los márgenes del fondo marino, que quedaron expuestos, y pasaron a desembocar en lagos salinos situados en las partes más profundas de la cuenca. Ésta es la prueba principal de la desecación del Mediterráneo. Cuando en los años noventa los ingenieros del túnel que debía unir Europa y África estudiaron el subsuelo del estrecho de Gibraltar se encontraron con un problema inesperado: un surco de varios cientos de metros de profundidad, rellenado por sedimentos poco consolidados. Los geólogos y geofísicos pensaron entonces que esta enorme erosión había sido producida por algún río de gran caudal durante la desecación del Mediterráneo. Según la nueva interpretación, la inundación que puso fin a la desecación del Mediterráneo fue extremadamente corta y más que parecerse a una enorme cascada debió consistir en un descenso más o menos gradual desde el Atlántico hasta el centro del Mar de Alborán, una especie de megarrápido por donde el agua circuló a cientos de kilómetros por hora.
"Como consecuencia, el canal erosivo que atraviesa el estrecho tiene unos 500 metros de profundidad y hasta ocho kilómetros de anchura, y se extiende a lo largo de unos 200 kilómetros entre el golfo de Cádiz y el mar de Alborán", explica García-Castellanos."Esperamos que el artículo contribuya, en cierta medida, a planificar las obras del túnel para unir Europa y África. El trabajo se basa en buena parte en los estudios preliminares de ese proyecto, muy condicionado por la presencia de ese canal erosivo que nosotros relacionamos con la inundación. Sería cerrar un bello círculo que nuestra investigación acabara contribuyendo a la construcción del túnel con nuevo conocimiento", apunta este geólogo.
Fuente: El País
"Nuestro trabajo demuestra que cuando las aguas del Atlántico volvieron a encontrar un camino a través del estrecho, probablemente como consecuencia de su hundimiento tectónico, el desnivel entre ambos mares, de unos 1.500 metros, desencadenó la mayor y más abrupta inundación que se conoce en la Tierra, dejando una erosión en el fondo marino de cerca de 200 kilómetros de longitud y unos ocho kilómetros de anchura", explica Daniel García-Castellanos, del CSIC, primer firmante del artículo que publica Nature. "La carga de agua llegó a ser 1.000 veces superior al actual río Amazonas y el Mediterráneo se llenó en tan sólo dos años". El ritmo fue de hasta 10 metros diarios de subida del nivel del mar. Hasta ahora se pensaba que este mar en medio de las tierras había tardado en llenarse mucho más tiempo.
Durante la desecación, los principales ríos que desembocan en el Mediterráneo excavaron profundas gargantas en los márgenes del fondo marino, que quedaron expuestos, y pasaron a desembocar en lagos salinos situados en las partes más profundas de la cuenca. Ésta es la prueba principal de la desecación del Mediterráneo. Cuando en los años noventa los ingenieros del túnel que debía unir Europa y África estudiaron el subsuelo del estrecho de Gibraltar se encontraron con un problema inesperado: un surco de varios cientos de metros de profundidad, rellenado por sedimentos poco consolidados. Los geólogos y geofísicos pensaron entonces que esta enorme erosión había sido producida por algún río de gran caudal durante la desecación del Mediterráneo. Según la nueva interpretación, la inundación que puso fin a la desecación del Mediterráneo fue extremadamente corta y más que parecerse a una enorme cascada debió consistir en un descenso más o menos gradual desde el Atlántico hasta el centro del Mar de Alborán, una especie de megarrápido por donde el agua circuló a cientos de kilómetros por hora.
"Como consecuencia, el canal erosivo que atraviesa el estrecho tiene unos 500 metros de profundidad y hasta ocho kilómetros de anchura, y se extiende a lo largo de unos 200 kilómetros entre el golfo de Cádiz y el mar de Alborán", explica García-Castellanos."Esperamos que el artículo contribuya, en cierta medida, a planificar las obras del túnel para unir Europa y África. El trabajo se basa en buena parte en los estudios preliminares de ese proyecto, muy condicionado por la presencia de ese canal erosivo que nosotros relacionamos con la inundación. Sería cerrar un bello círculo que nuestra investigación acabara contribuyendo a la construcción del túnel con nuevo conocimiento", apunta este geólogo.
Fuente: El País
miércoles, 25 de noviembre de 2009
La red de bancos de germoplasma nacional ya identifica y conserva casi 7000 especies vegetales
La Universidad de Córdoba coordina a nivel nacional la red de bancos de germoplasma vegetal de especies silvestres: REDBAG. Una estructura que permite ofrecer una respuesta ante las exigencias que desde hace unos años circulan en el ámbito mundial, europeo y estatal en materia de biodiversidad. Gracias a esta red, se recaban datos e inventarios sobre qué se conserva en cada banco, qué instituciones trabajan y cuáles son sus peculiaridades; actualizan los métodos y manuales de trabajo y se especifican unos códigos deontológicos. En 2009 ya se han establecido en 29.218 el número de entradas conservadas en España, que corresponden a 6.877 especies vegetales.
La Manzanilla Real (Artemisa granatensis Boiss) es endémica de Sierra Nevada y se haya en peligro de extinción, se estima que quedan menos de 2.000 ejemplares. Gracias a la labor de los bancos de germoplasma, entidades que conservan el material genético, vegetal en cualquiera de sus formas (semillas, esquejes, tubérculos), hoy podemos saber qué flora silvestre tiende a desaparecer y cómo está preservada por estas entidades que actúan como seguro de vida de la biodiversidad de nuestro ecosistema.
El Banco de Germoplasma Vegetal de Andalucía se ha encargado de proteger esta especie tan conocida como exclusiva, la manzanilla, y es además una institución que se sitúa como primer cabo de una red de doce bancos a nivel estatal que protegen la conservación de una flora silvestre en todo el territorio nacional, la llamada Red Española de Bancos de Germoplasma de Plantas Silvestres y Fitorrecursos Autóctonos (REDBAG).
J. Esteban Hernández, coordinador de REDBAG y director del Banco de Germoplasma Vegetal Andaluz
Jacinto Esteban Hernández, coordinador de este proyecto a nivel nacional y director del Banco de Germoplasma Vegetal Andaluz, destaca entre los resultados de este trabajo coordinado, que ya se ha podido establecer la cantidad de adhesiones de cada banco que forma parte de la red. El total, Hernández especifica que en 2009 “ascendió a 29.218 el número de entradas conservadas, que corresponden a 6.788 especies”.
Aún no se puede precisar qué porcentaje suponen en relación al total de la flora silvestre de nuestro país, porque no hay cifras consensuadas. No obstante, teniendo en cuenta el cálculo avanzado de 1.988 que se toma como referencia en el Atlas y Libro Rojo de Flora Vascular Amenazada, publicado por la Dirección General de Conservación de la Naturaleza, se calcula que se elevan a 8.300 el número especies y subespecies españolas. Una cantidad relativa ya que, si bien por su fecha no nos puede ofrecer gran exactitud, sí puede ayudarnos a calibrar el avance de REDBAG al identificar esta cantidad de especies.
Desde REDBAG también se ha elaborado un inventario de las instituciones implicadas en la conservación ex situ de la diversidad vegetal silvestre en España, en el que aparecen “60 instituciones y organismos que trabajan por la conservación de la flora silvestre”. Las tres entidades con mayor volumen de especies conservadas son el Banco de Germoplasma Vegetal de la Universidad Politécnica de Madrid, el Vegetal Andaluz (BGVA) y el del Jardín Botánico Canario `Viera y Clavijo’ (Gran Canaria), “que alcanzan en conjunto el 76% del germoplasma conservado”, concreta.
Asimismo, diseñan diversas campañas de colecta dirigidas a completar las colecciones de germoplasma de las especies silvestres de mayor interés científico o bajo mayor grado de amenaza en distintos territorios españoles aún mal prospectados. Hernández detalla que “aparentemente” las zonas mejor prospectadas son Canarias, Andalucía, Valencia y Baleares; y las que menos Galicia, Castilla-La Mancha, Castilla y León, País Vasco, Cantabria, Aragón, Murcia, Navarra y La Rioja, “donde se han centrado los equipos de colecta durante 2009”.
Entre otros objetivos, REDBAG persigue la revisión el desarrollo normativo nacional e internacional y en el marco de la Convención de la Diversidad Biológica, en materias relacionadas con el acceso, difusión, donación y transferencia de germoplasma y colabora con el Ministerio de Medio Ambiente y Medio Rural y Marino (MARM) en la redacción de una propuesta de Estrategia Nacional de Conservación de Diversidad Vegetal.
En cada banco seleccionan minuciosamente las semillas antes de consevarlas.
Compromisos territoriales
La biodiversidad proporciona muchos beneficios fundamentales para el hombre, más allá del suministro de materias primas. La pérdida de la variedad biológica puede tener efectos negativos en las formas de vida tradicionales o provocar la vulnerabilidad ante desastres naturales. En esta línea, desde hace unos años se han establecido estrategias a nivel mundial, europeo e incluso nacional para fomentar y comprometer a los distintos territorios en la conservación de su flora silvestre.
En este contexto, en el año 2001 surgió esta red en pro de la biodiversidad en el seno de la Asociación Íbero-Macaronésica (España) de Jardines Botánicos, aunque no fraguó hasta 2008, cuando el Ministerio de Medio Ambiente y Medio Rural y Marino materializó un contrato de asistencia técnica, en el que la Universidad de Córdoba actuó como licitador. Asimismo, la UCO dirige el Banco de Germoplasma Vegetal Andaluz (BGVA), en convenio con la Consejería de Medio Ambiente y con la colaboración del Instituto Municipal de Gestión Ambiental (Jardín Botánico de Córdoba).
El director del banco andaluz argumenta que el interés y origen de REDBAG “responde a la necesidad de ofrecer una respuesta a nivel nacional a los compromisos que el estado había adquirido como consecuencia de la Estrategia Mundial para la Conservación de Plantas” (GPSC), herramienta del Convenio sobre la Diversidad Biológica. Un instrumento que, según detalla, “compromete a los países firmantes a lograr que el 60% de las especies vegetales amenazadas con colecciones sea accesible ex situ, preferentemente en el país de origen para el 2010”, y a “logar la conservación del 70% de la diversidad genética de los cultivos y otras especies vegetales de importancia”.
Fuente: Andalucía Investiga.
El gran acelerador logra las primeras colisiones de partículas
La física de altas energías está de celebración y con las esperanzas renovadas: el nuevo gran acelerador de partículas LHC, instalado en un túnel de casi 27 kilómetros de circunferencia, junto a Ginebra, funciona por fin de nuevo. Ayer por la tarde se lograron las primeras colisiones de partículas, que fueron recogidas por los cuatro gigantescos detectores. "Es un gran logro haber llegado tal lejos en tan poco tiempo", declaró Rolf Heuer, director del Laboratorio Europeo de Física de Partículas (CERN). "Pero tenemos que mantener el sentido de la perspectiva: todavía nos queda mucho que hacer antes de que podamos empezar el programa de física del LHC". Las primeras colisiones suponen un hito. El acelerador ha estado 14 meses parado por una avería que se produjo en septiembre del año pasado, a los pocos días de arrancarlo y antes de que se registrase ninguna colisión.
El pasado fin de semana se empezaron a inyectar de nuevo los haces de partículas, primero uno y luego el otro en sentido opuesto y se logró mantenerlos estables. Ayer, a primera hora de la tarde, los ingenieros del acelerador enfocaron los haces para provocar las primeras colisiones en el centro del detector Atlas. Fue a las 14.22 horas, según informó el CERN. Después se repitió la operación en otro detector, CMS, también con éxito, y siguieron los otros dos: Alice y LHCb.
"Fantástica era"
"Es una gran noticia, el inicio de una fantástica era para la física y, esperemos, de descubrimientos, tras 20 años de trabajo en la comunidad internacional construyendo una máquina y unos detectores de complejidad y prestaciones sin precedente", dijo Fabiola Gianotti, jefa de Atlas. Las primeras colisiones "marcan el inicio de la segunda mitad de este increíble viaje hacia descubrimientos de los secretos de la naturaleza", apuntó Tejinder Virdee, de CMS.
La situación, celebrada ayer con entusiasmo en el CERN, parece por fin encaminada hacia el pleno funcionamiento del acelerador, aunque habrá que esperar un tiempo para obtener, con miles de millones de colisiones, los datos científicos que los especialistas esperan para explorar nuevos territorios de la física.
Un nuevo tipo de partículas, (supersimétricas), tal vez una clave de la naturaleza de la materia oscura del universo, mayor conocimiento del espacio/tiempo o las sutiles diferencias entre la materia y la antimateria, son algunas de las expectativas creadas en torno al LHC. Su objetivo más famoso es dar con el bosón de Higgs, una nueva partícula que explicaría el origen de la masa y cuya existencia se ha predicho teóricamente. "Es un momento muy emocionante. Lo que más nos emocionaría sería encontrar cosas que no se le habían ocurrido antes a nadie", comentó Luis Álvarez-Gaumé, director del departamento de teoría del CERN. Unos 10.000 físicos de todo el mundo participan en el LHC, que ha costado 2.200 millones de euros, más 1.200 millones más de los cuatro detectores.
Los haces circulan de momento a baja energía, sin aceleración del LHC, es decir, a 450 gigaelectronvoltios que es la energía a la que entran desde los aceleradores previos. El plan es ir aumentando hasta 1.200 GeV este año, y en 2010 subir hasta 3,5 TeV, para más adelante pasar a los 7 TeV previstos por haz. "Con natural entusiasmo, los físicos más inexpertos y los menos serios querrían que la maquina funcionase de entrada a gran energía y luminosidad, para lanzarse a por descubrimientos revolucionarios", comenta Álvaro de Rújula, físico teórico del CERN, del IFT/UAM y del Ciemat. "Otros, sin embargo, aceptan con gusto un periodo con una energía en el LHC comparable a las ya estudiadas en Fermilab [en el acelerador estadounidense en funcionamiento], periodo durante el cual las grandes novedades estarían excluidas. Un tiempo de rodaje tranquilito y suficiente como para poner a punto el acelerador y los detectores antes de lanzarse a tope".
Los físicos de los detectores del LHC felicitaron ayer a sus colegas del acelerador. "No cabía ni un alfiler en la sala de control de Alice, y los aplausos estallaron con las primeras colisiones", contó Jurgen Schkraft, su responsable. "Las señales que vemos son preciosas", añadió el jefe de LHCb, Andrei Golutvin. "Estaremos listos para empezar a tomar datos serios dentro de unos días".
Fuente: El País
El pasado fin de semana se empezaron a inyectar de nuevo los haces de partículas, primero uno y luego el otro en sentido opuesto y se logró mantenerlos estables. Ayer, a primera hora de la tarde, los ingenieros del acelerador enfocaron los haces para provocar las primeras colisiones en el centro del detector Atlas. Fue a las 14.22 horas, según informó el CERN. Después se repitió la operación en otro detector, CMS, también con éxito, y siguieron los otros dos: Alice y LHCb.
"Fantástica era"
"Es una gran noticia, el inicio de una fantástica era para la física y, esperemos, de descubrimientos, tras 20 años de trabajo en la comunidad internacional construyendo una máquina y unos detectores de complejidad y prestaciones sin precedente", dijo Fabiola Gianotti, jefa de Atlas. Las primeras colisiones "marcan el inicio de la segunda mitad de este increíble viaje hacia descubrimientos de los secretos de la naturaleza", apuntó Tejinder Virdee, de CMS.
La situación, celebrada ayer con entusiasmo en el CERN, parece por fin encaminada hacia el pleno funcionamiento del acelerador, aunque habrá que esperar un tiempo para obtener, con miles de millones de colisiones, los datos científicos que los especialistas esperan para explorar nuevos territorios de la física.
Un nuevo tipo de partículas, (supersimétricas), tal vez una clave de la naturaleza de la materia oscura del universo, mayor conocimiento del espacio/tiempo o las sutiles diferencias entre la materia y la antimateria, son algunas de las expectativas creadas en torno al LHC. Su objetivo más famoso es dar con el bosón de Higgs, una nueva partícula que explicaría el origen de la masa y cuya existencia se ha predicho teóricamente. "Es un momento muy emocionante. Lo que más nos emocionaría sería encontrar cosas que no se le habían ocurrido antes a nadie", comentó Luis Álvarez-Gaumé, director del departamento de teoría del CERN. Unos 10.000 físicos de todo el mundo participan en el LHC, que ha costado 2.200 millones de euros, más 1.200 millones más de los cuatro detectores.
Los haces circulan de momento a baja energía, sin aceleración del LHC, es decir, a 450 gigaelectronvoltios que es la energía a la que entran desde los aceleradores previos. El plan es ir aumentando hasta 1.200 GeV este año, y en 2010 subir hasta 3,5 TeV, para más adelante pasar a los 7 TeV previstos por haz. "Con natural entusiasmo, los físicos más inexpertos y los menos serios querrían que la maquina funcionase de entrada a gran energía y luminosidad, para lanzarse a por descubrimientos revolucionarios", comenta Álvaro de Rújula, físico teórico del CERN, del IFT/UAM y del Ciemat. "Otros, sin embargo, aceptan con gusto un periodo con una energía en el LHC comparable a las ya estudiadas en Fermilab [en el acelerador estadounidense en funcionamiento], periodo durante el cual las grandes novedades estarían excluidas. Un tiempo de rodaje tranquilito y suficiente como para poner a punto el acelerador y los detectores antes de lanzarse a tope".
Los físicos de los detectores del LHC felicitaron ayer a sus colegas del acelerador. "No cabía ni un alfiler en la sala de control de Alice, y los aplausos estallaron con las primeras colisiones", contó Jurgen Schkraft, su responsable. "Las señales que vemos son preciosas", añadió el jefe de LHCb, Andrei Golutvin. "Estaremos listos para empezar a tomar datos serios dentro de unos días".
La nueva máquina
- El acelerador mide 26.659 metros de circunferencia y está formado por 9.600 grandes imanes que funcionan enfriados hasta 271 grados centígrados bajo cero.
- La máquina llegará este año a una energía de 1.200 gigaelectronvoltios, superando ya al Tevatron, de Fermilab (Chicago), que alcanza 1 teraelectronvoltio por haz. El LHC se pondrá a 3,5 teraelectronvoltios en 2010, y llegará a los 7.
- En el LHC se producirán 600 millones de colisiones de partículas por segundo. Los datos generados equivalen a una torre de CDs de 20 kilómetros de altura.
Fuente: El País
viernes, 20 de noviembre de 2009
University Weighs Tighter Limits on Stem Cell Research
PRENSA INTERNACIONAL
LINCOLN, Neb. — In an unusual pushback against President Obama’s expansion of federal financing of human embryonic stem cell research, the University of Nebraska is considering restricting its stem cell experiments to cell lines approved by President George W. Bush.
The university’s board of regents is scheduled to take up the matter on Friday, and if it approves the restrictions — some opponents of the research say they have the votes, though others remain doubtful — the University of Nebraska would become the first such state institution in the country to impose limits on stem cell research that go beyond what state and federal laws allow, university officials say.
For weeks, the Nebraska board of regents has been the focus of a fierce campaign by opponents of embryonic stem cell research, most recently by a flood of e-mail and telephone calls, a petition drive and radio advertisements.
The effort, which is being met with an equally heated push by supporters, is a new front in the battle over the politically contentious research: It is being fought before a public university’s governing board, not a state legislature or on a ballot measure, where opponents have taken their fights before. “This could be another possible tool,” said David Prentice, senior fellow for life sciences at the Family Research Council.
Nebraska law bars the destruction of embryos for research but allows researchers to follow federal standards in embryonic stem cell research. The proposal before the regents would permit university researchers to work with as many as 21 cell lines that Mr. Bush approved in 2001, assuming they are deemed eligible by federal health authorities, but would close the door on research involving hundreds of cell lines created since 2001 from unused embryos at fertility clinics that the Obama administration could make eligible for federal financing.
Advocates of the research, including the university’s president, worry that the restrictions would make it nearly impossible to attract researchers of regenerative medicine or grant money in the field, and some fear it could send a deeply disturbing signal about the broader academic climate here.
The university is one of scores across the country that engage in human embryonic stem cell research, which attracted about $88 million in federal financing in 2008. Some $3.2 million in federal money is supporting research projects that include such stem cell work at the University of Nebraska. “It would taint this university for a long time,” said Dr. Harold M. Maurer, chancellor of the University of Nebraska Medical Center in Omaha, which conducts stem cell research.
Because of the uncertainty over Friday’s vote, Dr. Maurer said, the medical center has postponed efforts to compete for billions of dollars in federal stimulus money for future studies and efforts to attract a new leader of the center’s regenerative medicine program have been slowed. “They won’t come unless we have approval to do stem cell research,” he said.
For a field that has been a matter of ethical debate for years because embryos are destroyed to create stem cell lines, the looming showdown here is being watched closely on both sides of the national debate. Supporters, including some of the nation’s best-known scientists in the field, have sent letters advocating for the research.
The battle has pitted two powerful forces against each other: abortion opponents in a conservative state with a significant Roman Catholic population, and the University of Nebraska system, which includes a flagship campus of 24,000 students in Lincoln.
A tense yet scientifically complex fight is playing out here on radio programs, newspaper opinion pages and in e-mail messages cramming the in-boxes of regents’ computers.
In a way, the fight began 10 years ago, when it became publicly known that the university’s medical center was conducting research that used tissue from aborted fetuses. Sides were taken, committees were formed and legislation was introduced, but the rift over what constituted ethical research mainly grew.
Then, in 2008, lawmakers passed a law limiting the research in Nebraska, in a way that resembles some of the federal limits, in what some say they had hoped was the last word on the matter. But at the university, thanks to the election of a new regent, Tim Clare, in late 2008, opponents of embryonic stem cell research believe they have secured a 5-to-3 majority on such matters, said Julie Schmit-Albin, executive director of Nebraska Right to Life.
The board of regents, with eight voting members, is one of only a handful of public university systems in the nation selected by election rather than appointment.
Mr. Clare and his opponent in the election had clashed over stem cell research, each issuing campaign material stating his position: “100 percent Pro-Life,” declared a brochure for Mr. Clare with an image of a mother nuzzling an infant. “Supports ethical research that protects human life,” it said.
Technically, whatever the regents do, no embryos will be destroyed at the University of Nebraska because of state law. The cell lines used here have been created by other scientists and can now be copied.
“But we don’t want our state medical school increasing the demand for the destruction of embryos elsewhere,” said Chip Maxwell, executive director of the Nebraska Coalition for Ethical Research, one of the groups on both sides that have grown out of this long battle.
Because embryonic stem cells can transform into nearly any sort of tissue, they have been viewed as having potential to offer hope in treating illnesses like diabetes or Lou Gehrig’s disease.
Mr. Maxwell and others say scientists should focus on adult stem cells, which do not require the destruction of embryos, and a recently discovered process that appears to reprogram adult stem cells to mimic the flexible properties of embryonic stem cells.
But Angie Rizzino, a professor at the medical center who works with both human embryonic stem cells and the reprogrammed cells, said both forms of research remain crucial. The reprogrammed cells, he said, are far from “ready for prime time.”
“You have a group pushing on this who do not understand the science," Professor Rizzino said.
As the regents’ vote on the matter has drawn closer, pressure is mounting. The university’s top administrators, including President J. B. Milliken, have told the regents that they support allowing the university to abide by widened federal limits.
Last Friday, four regents, including Mr. Clare, who is the newest among them and who said he was facing 230 unopened e-mail messages on the issue on a recent evening, revealed the resolution limiting the research that they will consider on Friday.
Jim McClurg, a fifth regent who has received the endorsement of Nebraska Right to Life, a group that asks candidates their position on such research, has not said publicly how he will vote.
Fuente: The New York Times.
El misterio de la extinción de los mamuts y los mastodontes sigue abierto
Fue hace unos 14.800 años cuando empezó la decadencia de los mamuts, los mastodontes, los canguros gigantes y otras especies de la megafauna norteamericana, que concluyó con su desaparición para siempre mil años después, así que no fueron los humanos cazadores prehistóricos, los clovis, los que acosaron hasta la extinción a estos grandes herbívoros, porque cuando llegaron, esos animales ya estaban en franca decadencia. Tampoco se debió la pérdida al cambio radical del ecosistema que comprometió su supervivencia, porque el cambio realmente se produjo después de su desaparición. Ni siquiera se puede culpar al impacto de un meteorito en la Tierra hace unos 12.900 años, como se ha sugerido. ¿Entonces por qué se extinguieron esos animales? La pregunta sigue sin respuesta, pero al menos ahora se han descartado las hipótesis más difundidas, y ello gracias a una investigación basada en unos hongos especiales (Sporormiella) que proliferan en las boñigas de los grandes herbívoros. El estudio, dirigido por Jacquelyn Gill, se presenta en la revista Science.
"Hace 20.000 años Norteamérica contaba con una mayor riqueza de grandes mamíferos que África hoy en día; hace 10.000 años, 34 géneros de esos grandes mamíferos habían desaparecido, incluidas diez especies cuyos ejemplares pesaban más de una tonelada", comenta Christopher Johnson, especialista de la Universidad James Cook (Australia) en Science. "En ese intervalo de tiempo ocurrieron otros cambios drásticos, y todos ellos han sido defendidos como causa de la extinción de la fauna: el clima pasó de frío a templado y de nuevo a frío durante mil años antes de volver a ser templado; hubo extensos y constantes incendios y la estructura y composición de las especies vegetales cambiaron rápidamente", continúa Johnson. Llegaron los clovis y su cultura, considerada la más antigua del continente americano, floreció durante casi un milenio. Algunos científicos han defendido que un objeto extraterrestre chocó contra la Tierra hace casi 13.000 años, provocando el enfriamiento, matando a la megafauna y poniendo fin a la cultura clovis. Pero todo este escenario de hipótesis se va al traste con el estudio de Gill (Universidad de Wisconsin, EE UU) y sus colegas, concluye el experto australiano.
Gill, por su parte, afirma en un comunicado de su universidad: "Nuestros datos no son consistentes con una sobreexplotación por caza de grandes animales por parte de los humanos ni por un deterioro de su hábitat".
¿Cómo son capaces estos científicos de datar y poner en orden con precisión estos acontecimientos que ocurrieron hace más de 10.000 años? El reloj prehistórico para ellos son las muestras extraídas de los sedimentos de un lago en Indiana y las manecillas de ese reloj son unas esporas de los hongos Sporormiella que se producen en los excrementos de grandes mamíferos herbívoros. Las esporas son más abundantes cuando más mamuts, mastodones, etcétera, estuvieran produciéndolas y, como las esporas se depositan en lo sedimentos, sirven de indicador. La correlación con otros testigos de las muestras, incluido polen y carbonilla, permite determinar la biomasa de megafauna y asociarla a diferentes registros geológicos y arqueológicos.
La conclusión es que la megafauna norteamericana empezó a declinar mil años antes de que los clovis, grandes cazadores, llegaran al territorio. "En las muestras, la cantidad de esporas [Sporormiella] cae dramáticamente hace unos 13.800 años y prácticamente desaparecen del registro", aclara Gill.
"Los datos sugieren que el declive y extinción de de la megafauna comenzó [en la zona del lago donde se han analizado los sedimentos] en algún momento entre hace 14.800 años y 13.700 años, y precedió a los cambios drásticos en la vegetación y la frecuencia de los grandes incendios", añade John Williams, otro de los investigadores del equipo de Wisconsin. "Todo esto sucedió mucho antes del sugerido impacto de un meteorito", añade Johnson. "Así, se descarta el cambio de la vegetación, los incendios y el desastre cósmico como causa primaria de la extinción de la megafauna. También parece poco plausible el cambio climático como motivo". Tal vez el cambio de vegetación se debió a la desaparición de aquellos grandes herbívoros.
En cuanto al efecto de la caza intensiva de mamuts y mastodontes, la fechas tampoco cuadran ya que el declive comenzó mil años antes de la llegada de los clovis. El investigador australiano afirma que si fueron los humanos, debió ser alguien anterior a los clovis cuya misma existencia sigue rodeada de controversias y dudas. Es más, tal vez las habilidades de grandes cazadores de los clovis fueron un reflejo de la necesidad de desarrollar estrategias más avanzadas para capturar a una megafauna que ya era escasa y difícil de localizar.
A la vista de los resultados se sigue buscando la causa de la desaparición de los mamuts y los mastodontes.
Fuente: El País
Fallos de memoria: el 'disco duro' cerebral está lleno
Con la edad, la capacidad de recordar lo que se ha hecho el día anterior suele disminuir, hasta llegar a que, en muchos casos, no se recuerda lo que se ha dicho dos minutos antes, aunque se mantienen intactos recuerdos de muchos años atrás. Falla la memoria a corto plazo, que se ha demostrado que reside fundamentalmente en una parte del cerebro, el hipocampo. Según un trabajo realizado por un amplio equipo de investigadores japoneses en ratas y ratones, este fallo está relacionado con que no se borran los recuerdos antiguos, labor que hacen las neuronas nuevas, cuya generación puede disminuir con la edad, el estrés y los factores ambientales.
Es como si el disco duro cerebral estuviera lleno y fuera preciso formatearlo para permitir el almacenamiento de nuevos recuerdos. Este resultado sugiere que cuando no hay neurogénesis (generación de neuronas) se produce un fracaso de la memoria a corto plazo porque está literalmente llena. "Podemos tener problemas para adquirir nueva información porque la capacidad de almacenamiento está ocupada por recuerdos antiguos no borrados", explica Kaoru Inokuchi, que ha dirigido la investigación, publicada en la revista Cell.
Normalmente, según esta tesis, el nacimiento de nuevas neuronas promueve la pérdida gradual de recuerdos en el hipocampo y su transferencia a otros lugares del cerebro para integrarse en la memoria a largo plazo. Aunque el trabajo se ha hecho sólo con recuerdos relacionados con el miedo, Inokuchi cree que "todos los recuerdos que se almacenan inicialmente en el hipocampo resultan afectados por este mecanismo".
Se sabía que el hipocampo es uno de los pocos lugares del cerebro donde se generan nuevas neuronas en muchas especies de mamíferos, incluido el ser humano, incluso hasta edades avanzadas, pero no se sabía exactamente lo que hacen estas nuevas células cerebrales. El equipo japonés sospechaba que es precisa la integración de las nuevas neuronas para reforzar las conexiones neuronales, pero también pensó que su incorporación puede cambiar la estructura de la información preexistente, y eso es lo que ha confirmado en los experimentos
En las ratas, se había comprobado en experimentos anteriores que el ejercicio físico da lugar a nuevas neuronas, lo que hace disminuir la dependencia de la memoria del hipocampo. "El aumento de la neurogénesis debido al ejercicio puede acelerar la destrucción de recuerdos en el hipocampo y al mismo tiempo facilitar la transferencia de los recuerdos al neocórtex. La capacidad de almacenamiento de recuerdos del hipocampo es limitada, pero de esta forma se puede aumentar la capacidad total del cerebro", explican los investigadores.
Con este estudio se sientan las bases para examinar la relación entre la neurogénesis y la capacidad de aprendizaje, añaden. Además, quieren ver cómo la transferencia de los recuerdos de una parte a otra del cerebro los cambia: pasan de ser muy ricos en detalle y en contexto a ser más genéricos.
Fuente: El País.
Es como si el disco duro cerebral estuviera lleno y fuera preciso formatearlo para permitir el almacenamiento de nuevos recuerdos. Este resultado sugiere que cuando no hay neurogénesis (generación de neuronas) se produce un fracaso de la memoria a corto plazo porque está literalmente llena. "Podemos tener problemas para adquirir nueva información porque la capacidad de almacenamiento está ocupada por recuerdos antiguos no borrados", explica Kaoru Inokuchi, que ha dirigido la investigación, publicada en la revista Cell.
Normalmente, según esta tesis, el nacimiento de nuevas neuronas promueve la pérdida gradual de recuerdos en el hipocampo y su transferencia a otros lugares del cerebro para integrarse en la memoria a largo plazo. Aunque el trabajo se ha hecho sólo con recuerdos relacionados con el miedo, Inokuchi cree que "todos los recuerdos que se almacenan inicialmente en el hipocampo resultan afectados por este mecanismo".
Se sabía que el hipocampo es uno de los pocos lugares del cerebro donde se generan nuevas neuronas en muchas especies de mamíferos, incluido el ser humano, incluso hasta edades avanzadas, pero no se sabía exactamente lo que hacen estas nuevas células cerebrales. El equipo japonés sospechaba que es precisa la integración de las nuevas neuronas para reforzar las conexiones neuronales, pero también pensó que su incorporación puede cambiar la estructura de la información preexistente, y eso es lo que ha confirmado en los experimentos
En las ratas, se había comprobado en experimentos anteriores que el ejercicio físico da lugar a nuevas neuronas, lo que hace disminuir la dependencia de la memoria del hipocampo. "El aumento de la neurogénesis debido al ejercicio puede acelerar la destrucción de recuerdos en el hipocampo y al mismo tiempo facilitar la transferencia de los recuerdos al neocórtex. La capacidad de almacenamiento de recuerdos del hipocampo es limitada, pero de esta forma se puede aumentar la capacidad total del cerebro", explican los investigadores.
Con este estudio se sientan las bases para examinar la relación entre la neurogénesis y la capacidad de aprendizaje, añaden. Además, quieren ver cómo la transferencia de los recuerdos de una parte a otra del cerebro los cambia: pasan de ser muy ricos en detalle y en contexto a ser más genéricos.
Fuente: El País.
sábado, 14 de noviembre de 2009
jueves, 12 de noviembre de 2009
El gen del lenguaje tiene un gran efecto en el cerebro
Aunque un siglo de neurología ha mostrado que el cerebro está hecho de centenares de módulos especializados, la genética no ha encontrado lo que cabría esperar de ello: centenares de genes específicos de cada módulo. La gran excepción es FoxP2, "el gen del lenguaje", cuyas mutaciones eliminan la capacidad humana del habla. El gen existe en todos los vertebrados y nuestra versión sólo difiere en dos detalles de la del chimpancé. Pero Daniel Geschwind y su equipo de la Universidad de California muestran hoy que esa mínima diferencia tiene efectos drásticos en las neuronas humanas.
FoxP2 es un gen que regula a otros genes. Geschwind ha rastreado el genoma entero en busca de los genes controlados por el FoxP2 humano, y ha buscado las diferencias con la misma red regulada por el FoxP2 del chimpancé. "Un número importante de esos genes se activa de forma distinta en el cerebro humano y el del chimpancé", dice Geschwind. "FoxP2 conduce a estos genes a comportarse de modo distinto en las dos especies".
Los autores han identificado 65 genes subordinados que responden igual al FoxP2 humano que al de los monos; pero otros 61 genes se activan más si el FoxP2 es humano, y otros 55 que hacen justo lo contrario. El estudio de esos genes permitirá seguir la pista a la evolución del lenguaje.
Fuente: El País.
FoxP2 es un gen que regula a otros genes. Geschwind ha rastreado el genoma entero en busca de los genes controlados por el FoxP2 humano, y ha buscado las diferencias con la misma red regulada por el FoxP2 del chimpancé. "Un número importante de esos genes se activa de forma distinta en el cerebro humano y el del chimpancé", dice Geschwind. "FoxP2 conduce a estos genes a comportarse de modo distinto en las dos especies".
Los autores han identificado 65 genes subordinados que responden igual al FoxP2 humano que al de los monos; pero otros 61 genes se activan más si el FoxP2 es humano, y otros 55 que hacen justo lo contrario. El estudio de esos genes permitirá seguir la pista a la evolución del lenguaje.
Fuente: El País.
miércoles, 11 de noviembre de 2009
Vuelve la Semana de la Ciencia
Desde el próximo lunes, 9 de noviembre, se realizarán centenares de actividades de divulgación científica en toda España, en la Semana de la Ciencia 2009, que finalizará el 22 de noviembre. Se pueden consultar las actividades programadas, por área y por día y también por comunidad (en el apartado Enlaces de interés), en la web Semana de la Ciencia . En algunas de las actividades es necesario apuntarse previamente.
Museos, Universidades, centros de investigación, parques tecnológicos o empresas organizan exposiciones, cursos, visitas, talleres, mesas redondas, excursiones o conferencias, acercando al público en general su quehacer diario, tanto sus aspectos más llamativos como los más desconocidos.Este año, además, la Semana de la Ciencia se une a las dos conmemoraciones científicas del 2009, el Año Internacional de la Astronomía y del Año Darwin.
El Consejo Superior de Investigaciones Científicas (CSIC) es uno de los organismos que han programado actividades, que se pueden consultar también aquí . Como ejemplo, en Madrid, el jueves 12 de noviembre a las 12.30 se celebrará el concierto multimedia Pequeña Serenata Astronómica, organizado por el Instituto de Estructura de la Materia, en la sede central del CSIC (calle Serrano, 117).
En Teruel, hasta finales del mes Dinópolis y las tres asociaciones de comerciantes de la ciudad convertirán las calles en un gran escaparate paleontológico. Para ello, 87 establecimientos comerciales de la capital turolense expondrán reproducciones de fósiles del Museo Paleontológico de Dinópolis.
Un recorrido por los escaparates comerciales llevará al paseante a observar algunos de los diferentes seres vivos que han existido en la Tierra desde hace 540 millones de años hasta la actualidad: trilobites, ammonites, equinodermos, dinosaurios, mamíferos, etcétera, acompañados de explicaciones y trípticos con los contenidos divulgativos realizados durante años por paleontólogos de Dinópolis en la sección dominical de Diario de Teruel denominada Fundamentos Paleontológicos, que ha superado ya las 330 entregas.
martes, 3 de noviembre de 2009
Comprendiendo la ciencia - conceptos
CÉLULAS MADRE: DEFINICIÓN Y TIPOS
Célula madre o stem cell se define como una célula progenitora, autorenovable, capaz de regenerar uno o más tipos celulares diferenciados.
En los animales superiores, las células madre se han clasificado en dos grupos. Por un lado, las células madre embrionarias (Embrionic stem o EScells). Estas células derivan de la Masa celular interna del embrión en estadio de blastocisto (7-14 días), y son capaces de generar TODOS los diferentes tipos celulares del cuerpo, por ello se llaman células pluripotenciales. De estas células se derivaran, tras muchas divisiones celulares, el otro tipo de células, la células madre órgano-específicas. Estas células son multipotenciales, es decir, son capaces de originar las células de un órgano concreto en el embrión, y también, en el adulto.
El ejemplo más claro de células madre organo-específicas, es el de las células de la médula ósea, que son capaces de generar todos los tipos celulares de la sangre y del sistema inmune. Pero estas células madre existen en muchos más órganos del cuerpo humano, y podemos encontrar en la literatura científica como ya se han aislado células madre de adulto de la piel, grasa subcutánea, músculo cardíaco y esquelético, cerebro, retina, pancreas... A día de hoy, se han conseguido cultivar (multiplicar) estas células tanto en in-vitro (en el laboratorio), como in-vivo (en un modelo animal) utilizándolas para la reparación de tejidos dañados. A pesar de todo, la aplicación de estas técnicas de trasferencia de células madre de adulto para el recambio y reparación de tejidos enfermos está todavía en sus comienzos.
Hasta ahora ha existido la creencia generalizada de que estas células madre órgano específicas, están limitadas a generar sólo células especializadas y diferenciadas del tejido donde residen, es decir, han perdido la capacidad de dar lugar a otras estirpes celulares de cuerpo: son células multipotenciales. Sin embargo la reciente publicación de múltiples estudios ha hecho cambiar esta visión de las células madre órgano-específicas, haciendo evidente que células madre de adulto procedentes de cualquier tejido pueden diferenciarse a células y tejidos de otras localizaciones y estirpes distintas. Estos experimentos han comprobado que células madre de adulto, cultivadas y sometidas a ambientes humorales distintos a los habituales, pueden reprogramarse (TRANSDIFERENCIARSE), y dar lugar a otros tipos celulares que hasta ahora se pensaba que eran incapaces de generar. Es decir, ya no serían multipotenciales, si no pluripotenciales. Si esto es así, se podría decir que no existe una diferencia esencial entre la célula madre embrionarias y las de adulto.
Nueva sección: Comprendiendo la ciencia - Conceptos
Hoy es día de novedades en el blog. Si antes iniciabamos una nueva sección, donde tendrán cabida artículos publicados en la prensa internacional, en su idioma original de su publicación (fundamentalmente el inglés), ahora os presento una nueva sección en la que se pretende aclarar algunos conceptos, de los avances científicos que se están produciendo en estos tiempos. Espero que sirva de ayuda a aquellas personas que sean nuevos en la cultura científica.
Una técnica de respiración ayuda a los pacientes con asma
Comenza aquí una serie de artículos de prensa internacional en inglés
I don’t often write about alternative remedies for serious medical conditions. Most have little more than anecdotal support, and few have been found effective in well-designed clinical trials. Such trials randomly assign patients to one of two or more treatments and, wherever possible, assess the results without telling either the patients or evaluators who received which treatment.
Now, however, in describing an alternative treatment for asthma that does not yet have top clinical ratings in this country (although it is taught in Russian medical schools and covered by insurance in Australia), I am going beyond my usually stringent research criteria for three reasons:
¶The treatment, a breathing technique discovered half a century ago, is harmless if practiced as directed with a well-trained therapist.
¶It has the potential to improve the health and quality of life of many people with asthma, while saving health care dollars.
¶I’ve seen it work miraculously well for a friend, David Wiebe, who had little choice but to stop using the steroid medications that were keeping him alive.
Mr. Wiebe, 58, of Woodstock, N.Y., is a well-known maker of violins and cellos with a 48-year history of severe asthma that was treated with bronchodilators and steroids for two decades. Ten years ago, Mr. Wiebe noticed gradually worsening vision problems, eventually diagnosed as a form of macular degeneration caused by the steroids. Two leading retina specialists told him to stop using the drugs if he wanted to preserve his sight.
He did, and endured several terrifying trips to the emergency room when asthma attacks raged out of control and forced him to resume steroids temporarily to stay alive.
Nothing else he tried seemed to work. “After having a really poor couple of years with significantly reduced quality of life and performance at work,” he told me, “I was ready to give up my eyesight and go back on steroids just so I could breathe better.”
Treatment From the ’50s
Then, last spring, someone told him about the Buteyko method, a shallow-breathing technique developed in 1952 by a Russian doctor, Konstantin Buteyko. Mr. Wiebe watched a video demonstration on YouTube and mimicked the instructions shown.
“I could actually feel my airways relax and open,” he recalled. “This was impressive. Two of the participants on the video were basically incapacitated by their asthma and on disability leave from their jobs. They each admitted that keeping up with the exercises was difficult but said they had been able to cut back on their medications by about 75 percent and their quality of life was gradually returning.”
A further search uncovered the Buteyko Center USA in his hometown, newly established as the official North American representative of the Buteyko Clinic in Moscow.
“When I came to the center, I was without hope,” Mr. Wiebe said. “I was using my rescue inhaler 20 or more times in a 24-hour period. If I was exposed to any kind of irritant or allergen, I could easily get a reaction that jeopardized my existence and forced me to go back on steroids to save my life. I was a mess.”
But three months later, after a series of lessons and refresher sessions in shallow breathing, he said, “I am using less than one puff of the inhaler each day — no drugs, just breathing exercises.”
Mr. Wiebe doesn’t claim to be cured, though he believes this could eventually happen if he remains diligent about the exercises. But he said: “My quality of life has improved beyond my expectations. It’s very exciting and amazing. More people should know about this.”
Ordinarily, during an asthma attack, people panic and breathe quickly and as deeply as they can, blowing off more and more carbon dioxide. Breathing rate is controlled not by the amount of oxygen in the blood but by the amount of carbon dioxide, the gas that regulates the acid-base level of the blood.
Dr. Buteyko concluded that hyperventilation — breathing too fast and too deeply — could be the underlying cause of asthma, making it worse by lowering the level of carbon dioxide in the blood so much that the airways constrict to conserve it.
This technique may seem counterintuitive: when short of breath or overly stressed, instead of taking a deep breath, the Buteyko method instructs people to breathe shallowly and slowly through the nose, breaking the vicious cycle of rapid, gasping breaths, airway constriction and increased wheezing.
The shallow breathing aspect intrigued me because I had discovered its benefits during my daily lap swims. I noticed that swimmers who had to stop to catch their breath after a few lengths of the pool were taking deep breaths every other stroke, whereas I take in small puffs of air after several strokes and can go indefinitely without becoming winded.
The Buteyko practitioners in Woodstock, Sasha and Thomas Yakovlev-Fredricksen, were trained in Moscow by Dr. Andrey Novozhilov, a Buteyko disciple. Their treatment involves two courses of five sessions each: one in breathing technique and the other in lifestyle management. The breathing exercises gradually enable clients to lengthen the time between breaths. Mr. Wiebe, for example, can now take a breath after more than 10 seconds instead of just 2 while at rest.
Responses May Vary
His board-certified pulmonologist, Dr. Marie C. Lingat, told me: “Based on objective data, his breathing has improved since April even without steroids. The goal now is to make sure he maintains the improvement. The Buteyko method works for him, but that doesn’t mean everyone who has asthma would respond in the same way.”
In an interview, Mrs. Yakovlev-Fredricksen said: “People don’t realize that too much air can be harmful to health. Almost every asthmatic breathes through his mouth and takes deep, forceful inhalations that trigger a bronchospasm,” the hallmark of asthma.
“We teach them to inhale through the nose, even when they speak and when they sleep, so they don’t lose too much carbon dioxide,” she added.
At the Woodstock center, clients are also taught how to deal with stress and how to exercise without hyperventilating and to avoid foods that in some people can provoke an asthma attack.
The practitioners emphasize that Buteyko clients are never told to stop their medications, though in controlled clinical trials in Australia and elsewhere, most have been able to reduce their dependence on drugs significantly. The various trials, including a British study of 384 patients, have found that, on average, those who are diligent about practicing Buteyko breathing can expect a 90 percent reduction in the use of rescue inhalers and a 50 percent reduction in the need for steroids within three to six months.
The British Thoracic Society has given the technique a “B” rating, meaning that positive results of the trials are likely to have come from the Buteyko method and not some other factor. Now, perhaps, it is time for the pharmaceutically supported American medical community to explore this nondrug technique as well.
Fuente: The New York Times.
Comienza la puesta en marcha del gran acelerador LHC
Tras el accidente de hace un año que destruyó un sector de esta gran máquina científica, los haces de partículas empiezan a circular por ella
Tras un año de reparaciones, el gran acelerador de partículas LHC está ya listo para empezar su lenta puesta en marcha. Toda la máquina está enfriada hasta 270 grados centígrados bajo cero (la temperatura imprescindible de operación) y está previsto empezar hoy a inyectar un haz de protones en un sector. El LHC mide 27 kilómetros de circunferencia y está instalado en un túnel bajo la frontera franco-suiza, en el Laboratorio Europeo de Física de Partículas (CERN), junto a Ginebra. El acelerador sufrió hace un año una gravísima y extensa avería poco después de que el 10 de septiembre de 2008 se hicieran circular por su tubo de alto vacío los primeros haces de partículas. Un cortocircuito provocó graves daños en 53 grandes imanes superconductores (unos 15 metros de longitud cada uno) y es escape de varias toneladas de helio líquido refrigerante.
En el LHC deben circular haces de protones acelerados hasta casi la velocidad de la luz, en sentido opuesto dentro del tubo de vacío, y se harán chocar en cuatro puntos, donde están instalados unos gigantescos detectores que registrarán los efectos de las colisiones. En la desintegración de las partículas y formación de otras nuevas, los físicos buscarán nuevas claves del miscrocosmos y del funcionamiento profundo de la materia y la energía. Un objetivo es encontrar una nueva partícula predicha por los físicos teóricos, denominada bosón de Higgs, que debe conferir masa a todas las demás partículas. Pero de tan anunciado y discutido, el Higgs casi ha perdido emoción y los científicos ansían hacer descubrimientos inesperados con esta máquina capaz de alcanzar energías nunca logradas en condiciones de laboratorio.
El LHC está formado por imanes superconductores alineados uno tras otro hasta cubrir los 27 kilómetros, que funcionan a una temperatura ultrabaja, una parte esencial de su puesta en marcha es ir enfriando todo el conjunto, sector por sector antes de empezar a inyectar los haces.
El plan de puesta en marcha del LHC, esta vez sin el festivo acontecimiento que atrajo el año pasado la atención mundial sobre esa gran máquina científica, es ir probando todos los sectores con los haces, en ambos sentidos, e ir aumentando la energía. El primer haz que recorra toda la circunferencia está planeado para mediados de noviembre. La prudencia impera en los responsables del CERN y han decidido ir muy poco a poco aumentando la energía de los haces. El objetivo es alcanzar los 7 Tev (teralectronvoltios) por haz, pero incluso a sólo un TeV por haz será enseguida el acelerador más potente del mundo, ya que el Tevatron de Fermilab (Chicago), que es el de mayor energía por ahora, funciona a 0,9 TeV por haz. Si todo va como está previsto el LHC batirá un récord nada más encenderlo. Las primeras colisiones de partículas se realizarán a energía relativamente baja (450 GeV) y poco a poco se irá elevando. El CERN ya ha advertido que la puesta en funcionamiento de la complejísima máquina puede presentar imprevistos y tal vez se alargue. El plan actual es que las primeras colisiones de partículas a alta energía se producirán a mediados de diciembre. Para unos días antes, a principios de mes, el director del CERN, el alemán Rolf Heuer, ha convocado una fiesta en el laboratorio no directamente de celebración de la puesta en marcha del LHC, pero que bien puede convertirse en ello si no hay nuevos problemas.
Tras el accidente del año pasado, los expertos del CERN no sólo han reparado y cambiado los imanes afectados, sino que han instalado nuevos sistemas de seguridad que impidan que se repita un cortocircuito como el del 19 de septiembre de 2008, y si se repite, que pueda aislarse rápidamente la pieza afectada sin destrozar las contiguas, como pasó entonces. Sin embargo uno de los nuevos sistemas de seguridad ideados no será instalado hasta el año que viene.
Fuente: El País.
Descubierto un gigantesco conjunto de galaxias situado a 6.700 millones de años luz de la Tierra
A una distancia de unos 6.700 millones de años luz de la Tierra hay un gigantesco conjunto de galaxias, desconocido hasta ahora, que debe ser 10.000 veces más masivo que nuestra Vía Láctea. "Es la primera vez que observamos una estructura tan rica y notable en el universo lejano", afirma el líder del equipo que la ha detectado, Masayuki Tanaka, del Observatorio Europeo Austral (ESO). La estructura es un filamento formado por galaxias que se extiende a lo largo de 60 millones de años luz. Es como una pieza del esqueleto del universo, dicen los astrónomos.
¿Cómo han descubierto esta estructura? Los científicos han ido midiendo al distancia desde la Tierra hasta 150 galaxias, una por una, situadas en una zona del cielo en la que habían identificado previamente la existencia de un denso conglomerado galáctico. Al determinar la distancia a cada una han logrado hacer un mapa tridimensional de esa región del cielo en el que se aprecia la gigantesca estructura. Los resultados se presentan en la revista Astronomy and Astrophysics.
"La materia no está distribuida uniformemente en el universo. En nuestra vecindad cósmica, las estrellas forman galaxias y las galaxias normalmente forman grupos y conjuntos galácticos", explica Tanaka en un comunicado del ESO. "Las teorías cosmológicas mayoritariamente aceptadas predicen que la materia también se apelotona a escala mayor, en la llamada telaraña cósmica, en la que las galaxias, integradas en filamentos, se alargan entre vacíos, creado una estructura gigantesca y tenue".
Esos filamentos de millones de años luz de longitud deben constituir el esqueleto cósmico en torno al cual se van agregando galaxias y en las intersecciones de estos filamentos se forman gigantescos conjuntos galácticos. Nunca hasta ahora se habían logrado pruebas de la existencia de estas estructuras filamentosas a grandes distancias cósmicas.
Para hacer las observaciones, Tanaka y sus colegas han utilizado dos de los mayores telescopios del mundo (del rango de ocho metros de diámetro), uno en cada hemisferio: el Subaru japonés, que está en Hawai, y uno de los cuatro VLT, del ESO y ubicados en Chile. Estos astrónomos consideran que hasta ahora han hecho algo así como demografía galáctica, "y ahora queremos pasar a hacer sociología, estudiando cómo las propiedades de las galaxias dependen de su entorno en una fase del universo en la que éste tenía sólo dos tercios de su edad actual", avanza Tanaka.
Fuente: El País.
¿Cómo han descubierto esta estructura? Los científicos han ido midiendo al distancia desde la Tierra hasta 150 galaxias, una por una, situadas en una zona del cielo en la que habían identificado previamente la existencia de un denso conglomerado galáctico. Al determinar la distancia a cada una han logrado hacer un mapa tridimensional de esa región del cielo en el que se aprecia la gigantesca estructura. Los resultados se presentan en la revista Astronomy and Astrophysics.
"La materia no está distribuida uniformemente en el universo. En nuestra vecindad cósmica, las estrellas forman galaxias y las galaxias normalmente forman grupos y conjuntos galácticos", explica Tanaka en un comunicado del ESO. "Las teorías cosmológicas mayoritariamente aceptadas predicen que la materia también se apelotona a escala mayor, en la llamada telaraña cósmica, en la que las galaxias, integradas en filamentos, se alargan entre vacíos, creado una estructura gigantesca y tenue".
Esos filamentos de millones de años luz de longitud deben constituir el esqueleto cósmico en torno al cual se van agregando galaxias y en las intersecciones de estos filamentos se forman gigantescos conjuntos galácticos. Nunca hasta ahora se habían logrado pruebas de la existencia de estas estructuras filamentosas a grandes distancias cósmicas.
Para hacer las observaciones, Tanaka y sus colegas han utilizado dos de los mayores telescopios del mundo (del rango de ocho metros de diámetro), uno en cada hemisferio: el Subaru japonés, que está en Hawai, y uno de los cuatro VLT, del ESO y ubicados en Chile. Estos astrónomos consideran que hasta ahora han hecho algo así como demografía galáctica, "y ahora queremos pasar a hacer sociología, estudiando cómo las propiedades de las galaxias dependen de su entorno en una fase del universo en la que éste tenía sólo dos tercios de su edad actual", avanza Tanaka.
Fuente: El País.
jueves, 29 de octubre de 2009
Mejora tu vida con ciencia
Desde hace unos años, la ciencia se ha adentrado en cuestiones como la felicidad, la motivación, la creatividad, las relaciones personales o la toma de decisiones. Y uno de los expertos en difundir las últimas averiguaciones sobre lo que realmente nos importa es Richard Wiseman, psicólogo de la Universidad de Hertfordshire que compartió con Eduardo Punset sus conocimientos y su magia.
Fuente: Redes.
miércoles, 28 de octubre de 2009
Circuitos genéticos sintéticos para explorar el comportamiento azaroso de las bacterias
Una investigación de científicos españoles y estadounidenses ocupa la portada de la revista 'Cell'
¿Por qué los seres vivos escogen una determinada manera de funcionar y no otra? ¿Por qué las células basan su funcionamiento en determinados circuitos genéticos y no en otros? Para contestar a estas preguntas, el investigador Jordi García Ojalvo ha diseñado por primera vez un circuito genético sintético que funciona igual que un circuito genético natural y los ha comparado. El estudio, realizado en bacterias de la especie Bacillus subtilis, ocupa la portada de la revista científica Cell del 30 de octubre. En la investigación han participado científicos del grupo de Gurol Suel, del Centro Médico Southwestern en Dallas, y Michael Elowitz, del Instituto Tecnológico de California, en Estados Unidos.
Estos experimentos son investigación básica, pero pueden ayudar a entender cómo funcionan los seres vivos y cómo los desajustes celulares dan lugar a todo tipo de enfermedades, desde las enfermedades autoinmunes hasta el cáncer, explica García-Ojalvo, catedrático de Física Aplicada de la Universidad Politécnica de Cataluña (en Terrassa). Su grupo, en colaboración con los científicos estadounidenses, investiga cómo funcionan los organismos vivos, las células, y por qué éstas tienen unos circuitos genéticos que han evolucionado de una manera y no de otra. "Hemos de entender cómo funcionan los circuitos genéticos para descubrir por qué lo hacen mal cuando falta un gen o no actúa bien una proteína", afirma García-Ojalvo. Lo explica con una analogía: "Es como cuando una radio no funciona bien, y hay que encontrar qué componentes fallan; conocer el diseño de la radio nos hace la tarea mucho más fácil".
Hace un par de años, este grupo de investigadores descubrió que el circuito genético de este tipo de células muy sencillas (procariotas) les permitía sobrevivir en condiciones adversas como la falta de alimento. Este circuito genético se activa para que las células puedan absorber nutrientes alternativos, como lo son trozos de ADN que la bacteria se puede encontrar en el medio extracelular. Pero quedaba por resolver un misterio: el diseño de estos circuitos no era el que habitualmente usa la naturaleza cuando una célula tiene que activarse. Es un diseño "muy extraño", dice García-Ojalvo: "¿Por qué la evolución ha escogido este circuito genético no estandarizado, que no era el que se podría esperar?", se pregunta.
Para tratar de encontrar la respuesta, diseñaron el circuito genético que cualquier científico hubiera esperado encontrar y lo hicieron de forma sintética mediante herramientas de ingeniería genética: cortando y pegando el ADN siguiendo el diseño deseado, en un tubo de ensayo. Luego sustituyeron el circuito de ADN propio de la célula real por el nuevo circuito artificial. Durante los experimentos, compararon células con ambos tipos de circuitos y observaron que tanto las células con el circuito genético natural como las células con el circuito sintético funcionaban de la misma manera, es decir, buscaban alimento alternativo. Pero de la comparación surgió otra sorpresa: mientras que las células sintéticas se alimentaban con los trozos de ADN en periodos casi fijos de unas 10 horas, las células naturales lo hacían de forma aleatoria.
Teniendo en cuenta que la falta de alimento es algo que no pueden predecir las células, como tampoco los seres vivos más complejos, resulta que las células naturales funcionan de forma más eficiente con esta incertidumbre que las células con el circuito sintético. Esto es, equilibran el máximo tiempo dedicado a nutrirse con el tiempo necesario para poderse reproducir. Esta explicación se puede extrapolar a organismos más complejos como las células eucariotas, dice García-Ojalvo. "Sabemos que estos últimos también se enfrentan a ambientes aleatorios, y es de esperar que también ellos luchen contra la incertidumbre generando aleatoriedad, pero desconocemos cuáles son los circuitos genéticos que generan esa aleatoriedad", añade.
Fuente: El País
jueves, 22 de octubre de 2009
Investigadores de la UCO estudian la respuesta inmune del cerdo a las infecciones víricas
La ganadería porcina es una de las más importantes de la Comunidad Andaluza debido a su amplio calado económico, social y territorial. La amenaza de enfermedades ponen en peligro no sólo su productividad, sino también el valor de sus derivados (jamones y embutidos) más valorados por los mercados. Un equipo de investigadores de la Universidad de Córdoba comienza a investigar cómo se produce el Síndrome Respiratorio y Reproductivo Porcino (PRRS), una enfermedad que causa estragos económicos en el sector a nivel mundial.
Veterinarios del Departamento de Anatomía y Anatomía Patológica Comparadas de la Universidad de Córdoba (UCO) han centrado años de investigación en enfermedades del cerdo. Desde la Peste Porcina Clásica hasta la Africana han sido objeto de análisis de este grupo de investigadores liderados por Amador Jover. Uno de los veterinarios de este grupo, Librado Carrasco, se embarcó, junto con un equipo de jóvenes investigadores, en el estudio del Síndrome Respiratorio y Reproductivo Porcino (PRRS), motivados por las pérdidas reproductivas y problemas respiratorios que origina esta enfermedad en el sector. Aunque aún no existen estudios que midan las pérdidas que provoca este virus en Andalucía, podemos hacernos una idea de su impacto en otras zonas del planeta como Estados Unidos, donde el National Pork Board valoró en 2005 que las pérdidas anuales que provoca el Síndrome Respiratorio y Reproductivo Porcino se estimaban en 66,75 millones de dólares en las granjas de cría y 493,57 millones de dólares en las granjas de cebo.
Actualmente el proyecto del equipo de investigadores de la UCO, financiado por el Ministerio de Educación y Ciencia, ha empezado a estudiar el papel de los linfocitos T reguladores, células linfoides que modulan la respuesta inmune, y que cumplen, por tanto un papel muy importante de defensa, pues es la respuesta que tiene el organismo para combatir las enfermedades víricas. El problema surge cuando la respuesta por parte de estos linfocitos T reguladores es exagerada, evitando que se pueda desarrollar una respuesta inmune eficaz, algo que ocurre en otras enfermedades víricas más conocidas como el Síndrome de Inmuno Deficiencia Adquirida (SIDA).
Según detalla el también Decano de la Facultad de Veterinaria, Librado Carrasco, “Hay virus como el PRRS, que centra nuestro estudio, que pueden modular la respuesta inmune del hospedador induciendo un aumento de la expresión de los linfocitos T reguladores como evasión del propio virus para no ser reconocido y, de este modo, que el organismo no genere una defensa ante él”. Determinar la influencia real de estos linfocitos T reguladores así como encontrar medidas eficaces de control frente a este virus es el objetivo de su trabajo.
Los futuros resultados de este estudio, previstos para finales de 2010, podrían servir como transferencia de conocimiento y establecerse como modelo para esclarecer hipótesis sobre otras enfermedades víricas en las que se cumplen los mismos mecanismos, pues, según subraya Carrasco: “Trabajamos con una especie más cercana y similar al hombre que las de otros modelos experimentales, cuyos estudios se centran en peces, cuyos tejidos, órganos y sistemas, se diferencian más de los del hombre”.
Por otra parte, el impacto directo sobre el sector porcino se reflejaría en favorecer la elaboración de vacunas más eficaces para el control de la enfermedad mediante la modulación de la expresión de los linfocitos T reguladores que permitan el desarrollo de una respuesta inmune eficaz por parte del organismo frente al virus del PRRS.
Mano a mano
El virus causante de esta enfermedad, perteneciente al género Arterivirus, que se caracteriza por una alta variabilidad genética, según apunta Librado Carrasco, “tiene diferentes cepas y están separados filogenéticamente por lo que es interesante comprobar si cepas tan distintas utilizan los mismos mecanismos patogénicos. Esto explica por qué el grupo coordinado por Librado Carrasco y en el que también trabajan Jaime Gómez Laguna, doctor con Mención Europea, y las investigadoras Inmaculada Barranco e Irene Rodríguez, estudian conjuntamente con centros que experimentan en la misma línea con otras cepas, como la Facultad de Veterinaria de la Universidad de Murcia, el Centro de Investigación de Sanidad Animal de Madrid, el Veterinary Laboratories Agency (Reino Unido) y el Centro de Investigación de Sanidad Animal de la Universidad Autónoma de Barcelona (CReSA).
Fuente: Andalucía Investiga
¿Es posible dejar de envejecer?
El especialista en Genética del Desarrollo y Biología Molecular Ginés Morata relata los grandes avances que consiguen las ciencias genómicas para la sociedad. Entre ellos, la identificación de un gen en algunas especies de gusanos que está asociado a la longevidad, o el desarrollo de nuevos fármacos contra el cáncer. Ha conseguido galardones como el Premio Príncipe de Asturias de Investigación Científica y Técnica (2007), la Medalla de Oro de Andalucía (2003) o el Premio México de Ciencia y Tecnología (2004) entre muchos otros. Morata es profesor de investigación del Centro de Biología Molecular Severo Ochoa (CSIC-UAM) y presidente del Consejo de Participación del Parque Nacional de Doñana.
El envejecimiento como proceso biológico, ¿es evitable? Éste es el dilema más ambicioso que la humanidad se ha atrevido a plantear. Buscar una respuesta a este misterio es desafiar a la Biología Evolutiva, que explica el origen de nuestra vida y poner en duda la propia naturaleza del ser. No obstante, la investigación genética ha alcanzado en los últimos años unos niveles inauditos, tanto que ha llegado a concebir el envejecimiento como una programación biológica de nuestro ADN, y ha hallado, en gusanos, un gen asociado a este proceso.
Ginés Morata es Premio Príncipe de Asturias de Investigación Científica y Técnica (2007)
El especialista en Genética del Desarrollo Ginés Morata lleva una larga carrera dedicada a la Biología Molecular y subraya: "Hay organismos vivos en este mundo que no mueren, como es el caso de algunas bacterias y células cancerosas. El envejecimiento no es un hecho biológico inevitable, sino un programa genético".
Morata está especializado en el estudio de la arquitectura biológica de la mosca Drosophila y de diversos gusanos que tienen una estructura genética similar a la del ser humano y que, por lo tanto, son utilizados para probar nuevos fármacos, realizar estudios genéticos, etc. Uno de estos últimos de basa, precisamente, en entender cómo envejecemos. Así, las últimas investigaciones en esta materia han conseguido hallar en estos insectos un gen asociado al envejecimiento y alterándolo han conseguido modificar la longevidad de algunos gusanos.
¿Células inmortales?
Al envejecer, nuestro organismo sufre lo que se reconoce como estrés oxidativo, que viene a ser el deterioro de las células que componen el organismo, pero, ¿cómo entonces es posible que un gen altere este oxidamiento? Morata explica que dicho gen está relacionado con este proceso, y permite que algunas células adquieran propiedades de otras, como por ejemplo las germinales, que son, en cierta manera, inmortales, dado que se clonan a sí mismas y se reproducen evitando la muerte.
Un ejemplo de esta línea celular germinal son aquellas que contienen el material genético que será transmitido a la siguiente generación. El experto destaca que estas investigaciones son muy recientes y que aún hay que esperar, aunque subraya que ya se ha conseguido manipular la longevidad de diversos gusanos.
Contra el cáncer
Por otro lado, la arquitectura genética de la mosca Drosophila está sirviendo también para que muchos científicos investiguen nuevos fármacos y drogas contra enfermedades como el cáncer. En este sentido, se ha hallado un gen (presente en el reino animal y en los humanos) cuya actividad excesiva en sus receptores Ptc y Smo es responsable de la formación de tumores.
Aprovechando que la mosca es fácil de cultivar y que su genética invita al ensayo, los expertos han probado a utilizar una sustancia (ciclopamina) que inhibe la actividad de dichas moléculas, con excelentes resultados. A partir de ahí ha habido una búsqueda exhaustiva de fármacos con propiedades similares a este compuesto. Finalmente, la empresa privada de Reino Unido Genentech ha desarrollado el GDC-0449, que está siendo probado en personas con cáncer y que ya ha cosechado grandes éxitos: 18 sujetos han experimentado una mejora significativa; en otros 11 la expansión del cáncer quedó bloqueada; sólo 4 personas no experimentaron mejora alguna después del tratamiento.
Ginés Morata ha conseguido galardones como el Premio Príncipe de Asturias de Investigación Científica y Técnica (2007), la Medalla de Oro de Andalucía (2003) o el Premio México de Ciencia y Tecnología (2004) entre muchos otros. Es profesor de investigación del Centro de Biología Molecular Severo Ochoa (CSIC-UAM) y presidente del Consejo de Participación del Parque Nacional de Doñana.
Fuente: Andalucía Investiga
jueves, 15 de octubre de 2009
Comer chocolate y beber agua calma el dolor, según un estudio
Comer chocolate o beber agua puede aliviar el dolor, según un estudio de la Universidad de Chicago en Estados Unidos realizado en ratas.
El estudio, que se publica en la revista «Journal of Neuroscience», es el primero que demuestra que este poderoso efecto analgésico se produce mientras los animales está ingiriendo alimentos o líquidos incluso en ausencia de apetito.
Según explica Peggy Mason, directora del trabajo, «es un efecto fuerte, muy fuerte, pero no está relacionado con el hambre o el apetito. Si tiene toda esta comida enfrente y es fácil acceder a ella no vas a dejar de comer, básicamente casi por ningún motivo».
En los experimentos se proporcionó a las ratas una galleta de chocolate, agua azucarada o agua normal directamente a la boca. A medida que la rata tragaba el chocolate o el fluido, se encendía bajo su celda una bombilla luminosa, lo que proporcionaba un estímulo de calor que provocaba que los animales levantaran las patas del suelo.
Los científicos descubrieron que las ratas tardaban más en levantar las patas cuando estaban comiendo o bebiendo, en comparación con pruebas realizadas cuando estaban despiertas.
Los investigadores no descubrieron diferencias en el retraso en la respuesta de levantar la pata cuando la rata comía chocolate y cuando bebía agua a pesar de investigaciones previas que indicaban que sólo las sustancias azucaradas protegían frente al dolor.
Los científicos repitieron la prueba de calor administrando quinina a las ratas, una bebida que hace que estos animales hagan una mueca de expresión como la humana de repulsión. Durante la administración de la quinina, las ratas reaccionaron ante el calor tan rápido como si no estuvieran comiendo, lo que sugiere que un alimento o bebida no deseable no desencadena el alivio del dolor.
Cuando los investigadores inducían enfermedad en las ratas mediante un fármaco, comer chocolate no retrasaba su respuesta de levantar las patas por el calor. Sin embargo, beber agua seguía reduciendo la respuesta ante el dolor, lo que indicaría que beber agua se consideraba una experiencia positiva a pesar de la enfermedad.
Los investigadores inactivaron de forma selectiva una región del tronco cerebral llamada raphe magnus, un área que había sido implicada en la disminución del dolor durante el sueño y la micción, y eliminaron el efecto de beber agua sobre la respuesta del dolor de la rata. El tronco cerebral controla las respuestas subconscientes como la respiración y la sudoración durante el ejercicio.
Según explica Mason, en la naturaleza las ratas y otros animales no querrían que se les distrajera durante los raros pero importantes momentos en los que pueden comer o beber. Por ello, la activación del raphe magnus cuando come o bebe permitiría a la rata evitar las distracciones hasta que terminara de comer.
La autora señala que por razones obvias este alivio natural del dolor se activaría cuando un animal estuviera comiendo o bebiendo algo que le resultara placentero pero no cuando probara algo que podría ser tóxico o dañino.
Los investigadores creen que este efecto está también presente en los humanos pero que tiene efectos perjudiciales en la sociedad moderna dada la disponibilidad de grandes cantidades de alimentos altamente calóricos y de sabores agradables.
Sin embargo, Mason apunta que el efecto analgésico podría ser ventajoso quizás para sustituir la práctica de utilizar un caramelo para calmar a los niños en las consultas médicas. «La ingestión es un calmante pero no necesitamos el azúcar, así que reemplacemos la piruleta del médico con un vaso de agua», concluye la investigadora.
Fuente: ABC
Suscribirse a:
Entradas (Atom)