LA CIENCIA SE COMPONE DE ERRORES, QUE A SU VEZ SON LOS PASOS HACIA LA VERDAD (JULIO VERNE).
sábado, 29 de mayo de 2010
Big bang en el Universo de las proteínas
Investigadores del Centro de Regulación Genómica encuentran evidencias que apoyan el origen único de la vida gracias a una aproximación computacional de la evolución de las proteínas.
El trabajo, publicado en la revista Nature, copia al astrónomo Edwin Hubble y usa su aproximación teórica para el estudio de la evolución de las proteínas. La extrapolación de la aproximación de Hubble a las proteínas muestra cómo proteínas que compartían un ancestro común hace miles de millones de años continúan separando su composición molecular.
El estudio revela que la evolución de las proteínas todavía no ha llegado a su límite y sigue en expansión. A su vez, aporta mucha información sobre por qué esta evolución es tan lenta y conservadora mostrando que la estructura de las proteínas es más plástica de lo que se creía.
Hace casi 100 años, Edwin Hubble observó que las galaxias más distantes se alejaban de la tierra más rápido que las que se encuentran más cerca. Esta relación entre distancia y velocidad ha sido muy citada como evidencia del origen único del universo y del Big Bang. Ahora, investigadores del Centro de Regulación Genómica copian su perspectiva para investigar la divergencia entre las secuencias de proteínas.
“Queríamos saber si la evolución divergente entre proteínas todavía continuaba. Actualmente, podemos encontrar proteínas que casi no han variado después de 3.500 millones de años de evolución y este estudio nos ha permitido ver que su divergencia sigue adelante y que las proteínas tienden a ser cada vez más diferentes a pesar del increíble nivel de conservación”, explica Fyodor Kondrashov, investigador principal del trabajo y jefe del grupo de Genómica Evolutiva en el CRG.
El trabajo llevado a cabo por Fyodor Kondrashov e Inna Povolotskaya va más allá de los estudios de similitud y aborda la evolución de las proteínas desde el punto de vista de las dinámicas evolutivas ofreciendo así una nueva perspectiva sobre cómo las estructuras se mantienen en la evolución. “Igual que el trabajo de Hubble permitió extrapolar lo que él observaba en algunas galaxias hacia todo el universo, utilizando su aproximación a nivel molecular podemos obtener una visión general que nos ofrece la posibilidad de analizar dinámicas evolutivas y predecir los posibles cambios de las proteínas en el futuro” comenta Inna Povolotskaya, primera autora del trabajo y responsable de la obtención y análisis de los datos.
Las proteínas están formadas por combinaciones de aminoácidos. Con sólo 20 tipos de aminoácidos diferentes, es suficiente para formar proteínas distintas. Para obtener los datos de su estudio, los investigadores del CRG han comparado secuencias de proteínas de diferentes especies que se encuentran en la base de datos pública de información genética GenBank. Comparando estas secuencias, los autores han medido la distancia de las proteínas entre ellas y han ideado un método para medir la rapidez con la que las proteínas han acumulado los diferentes cambios. Así, han reproducido la aproximación de Hubble haciendo una correlación entre la distancia entre proteínas y la velocidad de su divergencia. El resultado indica que incluso las proteínas más distantes todavía acumulan diferencias.
El trabajo muestra cómo gracias a las nuevas técnicas de análisis computacional y la bioinformática podemos ampliar conocimientos también a nivel molecular. “Nuestro trabajo es un buen ejemplo sobre cómo podemos aprender cosas nuevas y fundamentales sólo analizando el gran volumen de datos que se pueden obtener en un laboratorio experimental”, afirma Kondrashov.
La mayoría de los cambios en una proteína son inviables o deletéreos porque, de alguna manera, perturban su estructura o función. La observación de los autores por la que afirman que incluso las proteínas más conservadoras todavía se separan, desafía a la primera afirmación porque implica que la mayoría de aminoácidos en una proteína pueden dar lugar a cambios sin ningún efecto negativo. La explicación es que los cambios en los aminoácidos que son inviables en una combinación, pueden ser benignos cuando suceden en otra combinación diferente. “Gracias a nuestro estudio podemos entender mejor la dinámica de la estructura de las proteínas” explica Kondrashov. Ello ofrece una nueva visión a todos los grupos que trabajan en la estructura de proteínas para encontrar nuevas dianas para diseñar medicamentos, etc.
El estudio de Kondrashov y Povolotskaya también aporta nueva información sobre cómo las interacciones entre los diferentes aminoácidos en la estructura de las proteínas retrasa la evolución pero no la frena.
Sobre Fyodor Kondrashov
Fyodor Kondrashow es un joven biólogo nacido en Rusia y criado entre Rusia y los Estados Unidos. Con sólo treinta años ya ha publicado 5 artículos científicos en la revista Nature, además de otros. Recientemente, ha sido galardonado con el Premio Dobzhansky 2010 que otorga la Evolution Society en los EEUU.
Desde 2008, Fyodor Kondrashow lidera el grupo de Genómica Evolutiva del Programa de Bioinformática y Genómica del Centro de Regulación Genómica en Barcelona. Se doctoró en la Universidad de California en San Diego y fue investigador en el National Institute of Health, NCBI, con Eugene Koonin.
En su grupo se esfuerzan para crear un ambiente abierto para investigar numerosas cuestiones diferentes en diversas áreas de la biología y la evolución. Actualmente, se centran en estudios computacionales de información genómica que incluye el análisis de secuencias, datos de expresión, estructura de proteínas y de ARN y redes genéticas y de proteínas. El grupo analiza estos datos bajo el punto de vista de la genética de poblaciones y la teoría evolutiva para describir nuevos fenómenos evolutivos y biológicos.
Fuente: Centro de Reglación Genómica de Barcelona.
viernes, 28 de mayo de 2010
Prevengamos el cáncer, ¿también el del fumador?
REPORTAJE
La mitad de las neoplasias de pulmón se detectan demasiado tarde - Los expertos debaten generalizar el cribado al igual que contra el tumor de mama y colonEl 95% de los cánceres de pulmón se deben al consumo de tabaco, con lo que la manera más eficaz de evitar la enfermedad consiste en no fumar. En 30 años, las políticas antitabaco españolas han conseguido reducir el número de fumadores mayores de 16 años hasta un 31,5%, según la Encuesta Europea de Salud en España (2009).
Ahora bien, ¿qué ocurre con aquellas personas que durante su vida han sido grandes fumadores y aún siguen con riesgo de desarrollar una neoplasia? ¿Y las que continúan fumando? Muchos expertos coinciden en que si existiera un cribado de pulmón eficaz disminuiría la mortalidad del cáncer más letal -actualmente, a los cinco años de extirpar el tumor sólo sobrevive un 15%-. La mitad de los casos se diagnostican cuando ya no se puede operar.
Encontrar un nódulo a tiempo puede salvar la vida a muchas personas, y aunque los estudios realizados hasta el momento no concluyen que se deban hacer pruebas sistemáticas, los investigadores no han arrojado la toalla. "Es necesario encontrarlo porque realmente nos encontramos ante un problema de salud pública", indica Dolores Isla, portavoz de la Sociedad Española de Oncología Médica (SEOM). ¿Por qué no existe aún un cribado de pulmón, igual que lo hay para el cáncer de colon o de mama?
Los estudios que se han realizado hasta el momento no demuestran que realizar pruebas periódicas en busca de lesiones malignas en todos los fumadores y ex fumadores disminuya realmente la mortalidad a nivel poblacional. Por el contrario, puede dar lugar a falsos positivos y, por tanto, a intervenciones innecesarias y agresivas (alcanzar los pulmones no es fácil). Por otro lado, a diferencia del colon o la mama, el pulmón es un órgano más difícil de observar. Su tejido y sus intrincadas ramificaciones hacen que un nódulo sea difícil de ver y distinguir.
Más allá de la evidencia científica sobre la efectividad del cribado, desde algunos sectores también se ha cuestionado si se deben dedicar recursos públicos a los fumadores por considerar que el daño que se infringen se debe a una decisión propia. Incluso en Reino Unido, un país con fuertes políticas antitabaco, el Gobierno llegó a plantearse en 2003 la posibilidad de no costear ciertas enfermedades o procesos que se derivan del abuso del tabaco y, recientemente, si los fumadores deberían pagar cuotas sanitarias más altas por los gastos que ocasionan al sistema público de salud.
Para algunos, las políticas antitabaco discriminan claramente al fumador y al ex fumador por no considerarlo una persona enferma, como ocurre con otras adicciones, afirma Adonina Tardón, investigadora del Instituto Universitario de Oncología de Asturias, la comunidad española con más personas con cáncer de pulmón. Tardón considera correcto que las políticas contra el tabaco prioricen la prevención, pero critica que se dediquen tan pocos recursos a los fumadores. "Existe una gran cantidad de fumadores en los que el mal ya está hecho. Para desarrollar la enfermedad tienen que pasar unos 40 años. Hoy en día, ¿quién ha pasado ese tiempo fumando? Sobre todo hombres, y también mujeres, que empezaron a fumar en los años setenta, cuando fumar no se veía tan mal y no había políticas antitabaco", añade.
Dejarlo no es fácil. La sanidad pública no subvenciona los tratamientos farmacológicos para dejar de fumar. "El 97% de las personas que intentan dejarlo no lo consiguen", observa. Algunos creen que si se ofreciese un cribado aumentaría la adherencia a los tratamientos para dejarlo.
Aunque el cribado de pulmón no se practica de forma sistemática, sí que se aplica en algunos casos. Josep Morera, neumólogo del hospital Trias i Pujol de Badalona que atiende al rey Juan Carlos I en sus chequeos, explica que al Monarca se le realiza un TAC periódico por tratarse de un fumador (hábito que ha abandonado desde la intervención para extirparle un nódulo que ha resultado ser benigno). Para el especialista, a pesar de las incertezas y aunque no sea adecuada la exploración de todo fumador o ex fumador, sí resulta recomendable en aquellos pacientes en los que se haya detectado alguna patología respiratoria, como un enfisema.
Laureano Molins López-Rodó, jefe del servicio de cirugía torácica del hospital Clínic de Barcelona que operó al Rey, también cree necesario avanzar en esta dirección: "En cáncer tenemos los big four, que son el colon, la mama, la próstata y el pulmón. En los tres primeros, en sus estudios y programas de cribado de diagnóstico precoz se ha conseguido en 20 años pasar de un 60% o un 65% de supervivencia a entre 80-95%, con que significa que esos programas de cribado sirven. En pulmón no se ha hecho nunca a pesar de ser el tumor más frecuente y el que más mata". Y añade: "Selectivamente es algo que hoy no está establecido pero que en los próximos años creo que llegará".
Hasta ahora, los estudios han evaluado diferentes tecnologías. Las candidatas más firmes, la radiografía (muchas veces combinada con prueba de esputo) y la Tomografía Computerizada de Tórax (TAC). Esta última ha resultado más eficaz en casos individuales. El problema está en que todos los estudios presentan salvedades metodológicas que hacen que no sean concluyentes. Entre otras, no haber seguido a suficientes personas, no haberlo hecho por suficiente tiempo o no comparar datos con sujetos que no fuman.
Incluso en alguno de ellos aparece, como siempre que se trata del tabaco, la sombra alargada de las tabacaleras. Así ocurre con el estudio publicado en el año 2006 por el New England Journal of Medicine. Indicaba que el TAC podía disminuir la mortalidad en un 80%. Poco después se descubrió que la autora principal había recibido financiación por parte de la industria tabacalera. "Aunque en los años ochenta se oponían a los estudios sobre cribados, ahora parece que les interesa que se diga que funcionan porque emiten un mensaje tranquilizador", afirma Morera.
Al poco tiempo, otro estudio concluyó que el cribado podía hacer más mal que bien por la gran cantidad de falsos positivos que podían llevar a intervenciones innecesarias y con efectos importantes en la calidad de vida del paciente.
Se espera que a finales de este año se hagan públicos los resultados del mayor estudio sobre cribado liderado por el National Cancer Institute de EE UU. Se compara el uso del TAC con la radiografía en más de 53.000 fumadores y ex fumadores. "Estamos esperando los datos, este estudio nos va a indicar por dónde ir", afirma Isla: "El problema de estas investigaciones es que requieren mucha población, un intervalo de tiempo largo y tienen un coste elevado".
Los estudios indican que si existiera una buena prueba de cribado realmente eficaz no se dirigiría a todo el mundo. Habría que realizarla en fumadores de un paquete al día durante más de 20 años. Tanto en hombres como en mujeres de entre 50 y 74 años. Este rango de edad es el que utilizan algunos de los estudios revisados.
En España, más de 1.298.000 personas se corresponden con este perfil, según el informe de evaluación de cribado de pulmón que el año pasado realizó la Agencia de Evaluación de Tecnologías Sanitarias de la Xunta de Galicia, con financiación de los ministerios de Sanidad y el de Ciencia y Tecnología.
El estudio concluye que hoy no hay un cribado eficaz. También indica que los recursos a destinar serían muchos. "Saturaríamos el sistema sanitario en neumología", indica uno de sus autores, Alberto Ruano-Raviña, epidemiólogo de la Universidad de Santiago de Compostela. "Resulta más rentable que esta inversión se dedique a prevenir".
Para algunos especialistas, los trabajadores de ciertos sectores que fuman serían firmes candidatos a un cribado. "A día de hoy, si se seleccionase muy bien a quien hacer el TAC sería útil. El valor predictivo sube al 47% si se dirige a la población adecuada, como los trabajadores expuestos a ciertas sustancias químicas en los que se ha visto que hay más tumores", indica Tardón.
Aún se pueden sumar más factores de riesgo, como la genética. "Si hay un precedente familiar de primer grado", añade la investigadora. Los estudios de Tardón también indican que existe un gradiente social: los hombres con menor nivel educativo fuman más y suponen el 78% de los enfermos de cáncer de pulmón.
Según Ruano-Raviña, aunque hay casos en los que el TAC permite detectar lesiones antes de que haya síntomas y actuar, la realidad es que en muchos casos la neoplasia tan solo resulta visible en estadios avanzados. Se actúa un poco antes, pero la vida del paciente se puede alargar unos meses. En definitiva, la mortalidad no disminuye. "Si hubiese un cribado capaz de detectar el cáncer en fase I sería lo ideal", observa. "Ahora los cánceres de pulmón en fase I se detectan cuando hay sintomatología o por casualidad", añade.
Las dificultades de observación hacen que tampoco sea fácil determinar la periodicidad con que se debería aplicar el cribado. En el caso del pulmón, las lesiones precancerosas no sólo son más difíciles de detectar con las técnicas actuales, sino que dependiendo del tipo de tumor la evolución puede ser más o menos rápida. Según estudios publicados, se producen 20 divisiones celulares hasta que el tumor tiene un tamaño de un milímetro. Unas 22 hasta que es visible y 28 hasta que es claramente visible con tomografía. Cuando se ha dividido entre 35 y 41 veces puede haber alcanzado un tamaño aparente y letal, unos 10 centímetros. Para que se produzca cada una de estas divisiones deben pasar unos 40 días. O sea, que para que el tumor sea realmente detectable deberían transcurrir dos años y medio.
Los científicos buscan técnicas de cribado alternativas al TAC. "La biología molecular tiene mucho que decir, hay prometedores estudios con aspirados bronquiales, o con muestras de esputo", afirma Isla. En este sentido, se está investigando en marcadores genéticos y en el análisis más efectivo de muestras biológicas. También se está mejorando la técnica del broncoscopio (un instrumento que se introduce por la boca para alcanzar los pulmones).
Médicos e investigadores están de acuerdo en que invertir en prevención pasa, en primer lugar, por aplicar medidas que eviten que los jóvenes no empiecen a fumar. Ahora bien, "también es necesario dedicar recursos dirigidos a los fumadores", afirma Tardón. Por un lado, "las terapias para tratar el tabaquismo deberían estar accesibles en todos los centros de atención primaria. Se ha demostrado que los fármacos para dejar de fumar son eficaces y no están subvencionados. El tabaquismo es una adicción como otras", afirma Tardón.
"Y además hay que dedicar esfuerzos para lograr un cribado, porque las campañas han conseguido reducir el consumo, pero existe una franja de población que empezó a fumar hace años, cuando no existía esta conciencia, había publicidad y se podía fumar en todas partes. Son quienes ahora está desarrollando los tumores", concluye Tardón.
Fuente: El País.
Miguel Valcárcel ingresa en la Real Academia de las Ciencias de Madrid
El catedrático de Química Analítica de la Universidad de Córdoba Miguel Valcárcel Cases ingresó ayer miércoles en la Real Academia de Ciencias Exactas, Físicas y Naturales de Madrid, tras el pertinente noviciado como académico correspondiente que en su caso se ha prolongado durante 7 años.
Se da la circunstancia que Valcárcel es el primer químico analítico español, además del primer científico que desarrollando la mayor parte de su vida profesional en Córdoba logra ocupar uno de los sillones como académico numerario.
Durante el acto de ingreso, Valcárcel ofreció una lección sobre "Las Nanoestructuras de Carbono en la Nanociencia y la Nanotecnología Analíticas", que versó sobre la doble relación entre la Química Analítica y la Nanotecnología, según el rol de las nanoestructuras de carbono, que pueden ser objetos de análisis y también herramientas para mejorar los procesos analíticos de medida.
El discurso fue contestado en nombre de la Academia por Miguel Ángel Alario y Franco, presidente de la misma.
Para Valcárcel, la distinción "es un gran honor y un gran reconocimiento" a la larga carrera profesional que ha desempeñado en la UCO, así como una "gran responsabilidad" para contribuir eficientemente al desarrollo de la ciencia en España.
Fuente: Universidad de Córdoba
Se da la circunstancia que Valcárcel es el primer químico analítico español, además del primer científico que desarrollando la mayor parte de su vida profesional en Córdoba logra ocupar uno de los sillones como académico numerario.
Durante el acto de ingreso, Valcárcel ofreció una lección sobre "Las Nanoestructuras de Carbono en la Nanociencia y la Nanotecnología Analíticas", que versó sobre la doble relación entre la Química Analítica y la Nanotecnología, según el rol de las nanoestructuras de carbono, que pueden ser objetos de análisis y también herramientas para mejorar los procesos analíticos de medida.
El discurso fue contestado en nombre de la Academia por Miguel Ángel Alario y Franco, presidente de la misma.
Para Valcárcel, la distinción "es un gran honor y un gran reconocimiento" a la larga carrera profesional que ha desempeñado en la UCO, así como una "gran responsabilidad" para contribuir eficientemente al desarrollo de la ciencia en España.
Fuente: Universidad de Córdoba
martes, 25 de mayo de 2010
Somos primates (2ª parte)
Redes dedica de nuevo un programa a los simios. Esta vez suben también a escena los otros grandes primates –los seres humanos– a quien sometemos a las mismas pruebas que plantean los primatólogos a chimpancés u orangutanes. Aunque vivamos hoy muy alejados unos de otros, primates humanos y no humanos tenemos una historia común muy cercana. Las circunstancias y alguna que otra innovación cerebral nos distanciaron, y cada especie evolucionó adaptándose a lo que le he tocado vivir. Junto al primatólogo Michael Tomasello, del Centro de Primates del Instituto Max Planck de Antropología Evolutiva, Eduardo Punset repasa las diferencias con nuestros parientes, desde las formas de aprendizaje hasta el concepto de venganza o las habilidades de cooperación.
Fuente: Redes
lunes, 24 de mayo de 2010
Conferencia de prensa: Craig Venter desvela la "vida sintética"
Craig Venter y su equipo hacen un anuncio histórico, han creado la primera célula completamente funcional, reproduciendo el control de la misma por un ADN sintético. En la conferencia ofrecida en Washington explica como lo hicieron y como este logro marca el principio de una nueva era en la ciencia.
Fuente: TED, Ideas Worth Spreading
El futuro de los antibioticos
Since the discovery of Penicillin by Alexander Fleming, antibiotics have revolutionised medicine and saved millions of life. But over the last twenty years the cost of this success over bacterial infections has arisen. The widespread emergence of antibiotic resistance poses a major public health problem, threatening to reverse the life saving impact of Fleming’s discovery. A flurry of recent newspaper articles and research papers have discussed the impact of antibiotic use on resistance and efforts to overcome the dearth of new treatment options.
The introduction of antibiotics to treat bacterial infections is one of the most successful developments in medicine. However, this breakthrough is now threatened by ever-increasing levels of antibiotic resistance. Antibiotic resistant strains exhibit a greater ability to survive doses of antibiotics that would be lethal to typical strains. This higher resistance reduces the effectiveness of an antibiotic, leading doctors to use alternative antibiotics, which can eventually lead to the evolution of strains resistant to multiple antibiotics. Strains of multidrug resistant Staphlycoccus aureus and TB are spreading around the world, requiring ever harsher and expensive treatment regimes and causing increasing number of deaths. In the EU these mutltidrug resistant bacteria cause around 25 000 deaths a year, with costs as a result of treatment and loss of productivity estimated to amount to around 1.5 billion Euros. Where does this leave our aforementioned medical breakthrough? How has this widespread resistance emerged, and what can we do to counteract it?
Though most of the antibiotics in use now have been chemically synthesised, they stem from naturally occurring molecules that evolved over millions of years, as different species of microorganisms fought to reign supreme in their local habitat. During this times microorganisms have evolved to both produce, and overcome, different antibiotic molecules. When humans began using these molecules to treat bacterial infections, we exposed a far greater number of bacteria to far higher levels of antibiotics than would occur naturally in the microbial world. The result has been evolution in ‘real time’. Antibiotics act as a selective pressure leading to the selection of resistant bacteria within an environment, eventually leading to the loss of any susceptible species. To find out more about the evolution and mechanisms of antibiotic resistance, watch this animation produced by the US Food and Drug Administration.
Antibiotics when first produced were hailed as a miracle cure, demanded by patients to treat all types of illnesses. This widespread, and often misguided, use of antibiotics in humans as well as animals is responsible for the speed at which antibiotic resistance has evolved. Antibiotics have been used mistakenly to treat viral infections, such as colds, when they are only effective against bacterial infections. Many studies have shown the dynamic relationship between the prescribing of antibiotics and levels of antibiotic resistance in populations, and this has led to initiatives at all levels promoting the responsible prescribing of antibiotics. But, as an article in the Telegraph newspaper states, many patients are still wrongly given antibiotics for coughs and colds. Studies into why this is still occurring suggest a number of reasons for this, including that many patients and doctors do not appreciate the risk of antibiotic resistance evolving from a single course of antibiotics – considering it a problem of the population not the individual. A new paper published in the British Medical Journal (BMJ) this week, and featured in the Telegraph newspaper highlights for the first time the impact that antibiotics have on the emergence of antibiotic resistance in individuals.
The research conducted at the University of Bristol, in collaboration with the University of Oxford, reviewed and analysed previously published data on the emergence of antibiotic resistance after patients were treated for urinary or respiratory bacterial infections. They found that patients who were prescribed antibiotics were more likely to contain bacteria resistant to antibiotics for a period of up to 12 months after they had finished their treatment. Patients that took multiple courses of antibiotics during the 12 month period had a higher chance of having resistant bacteria within them. The researchers believe that the residual effect of antibiotics in promoting resistant bacteria is the reason behind the high levels of antibiotic resistance found in the community.
The work shows that in the case of antibiotics, one more really does make a difference. The researchers hope that this work will help to promote stricter prescribing of antibiotics and prolong the lifespan of our antibiotics.
Why when antibiotic resistance has been emerging for decades is its threat only now considered so serious? The era of antibiotics began in the 1920s and 30s with the discovery of Penicillin by Alexander Fleming and Protosil by Gerhard Domagk. From these original two, there are now over 13 classes of antibiotics, some into their fifth generation, consisting of both chemically synthesised and natural compounds. In their heyday, 15–20 new antibiotics were released each decade, but in the last ten years only 6 new drugs have come on the market and, according to an article in the same edition of the BMJ, only two new drugs are under development. It is this massive drop-off in new drugs which has led to the increased concern around antibiotic resistance. The previous approach of treatment with ‘something new’, no longer works when new drugs aren’t appearing.
Why has the production of antibiotics dropped-off and what can we do to promote it? An analysis and article by Morel and Mossialos in the same edition of the BMJ discusses this topic. The pharmaceutical industry has been reluctant to invest in research into antibiotics for a number of reasons. This includes the restrictive use of new antibiotics, with doctors reserving them for the most serious cases and the curative nature of the drugs making them far less profitable than drugs that mitigate symptoms. Antibiotic resistance itself is a disincentive for industry as it threatens to shorten the lifespan of the new treatment preventing sufficient financial returns. The European Council and the US have recently set up committees and task forces to promote the research and development of new antibiotics setting the goal of developing 10 new antibacterial drugs by 2020 – a sprint given the time taken for new drugs to be developed. How to go about jump starting industry to reach this goal is the central focus of these articles.
Together these articles highlight the critical state that we are in, and how close we are to losing this evolutionary race with bacteria. We require a concerted effort at all levels from patients to the pharmaceutical industry to conserve what we have and produce what we lack, antibiotics.
References
Course of antibiotics ‘can leave a patient resistant to that drug for up to a year’ Telegraph Newspaper 19 May 2010
Effect of antibiotic prescribing in primary care on antimicrobial resistance in individual patients: systematic review and meta-analysis (2010) Costelloe et al. BMJ 340:c2096
Tackling antibiotic resistance (2010) So et al. BMJ 340:2071
Stoking the antibiotic pipeline (2010) Morel and Mossialos. BMJ 340:c2115
Fuente: British Society for Immunology.
The introduction of antibiotics to treat bacterial infections is one of the most successful developments in medicine. However, this breakthrough is now threatened by ever-increasing levels of antibiotic resistance. Antibiotic resistant strains exhibit a greater ability to survive doses of antibiotics that would be lethal to typical strains. This higher resistance reduces the effectiveness of an antibiotic, leading doctors to use alternative antibiotics, which can eventually lead to the evolution of strains resistant to multiple antibiotics. Strains of multidrug resistant Staphlycoccus aureus and TB are spreading around the world, requiring ever harsher and expensive treatment regimes and causing increasing number of deaths. In the EU these mutltidrug resistant bacteria cause around 25 000 deaths a year, with costs as a result of treatment and loss of productivity estimated to amount to around 1.5 billion Euros. Where does this leave our aforementioned medical breakthrough? How has this widespread resistance emerged, and what can we do to counteract it?
Though most of the antibiotics in use now have been chemically synthesised, they stem from naturally occurring molecules that evolved over millions of years, as different species of microorganisms fought to reign supreme in their local habitat. During this times microorganisms have evolved to both produce, and overcome, different antibiotic molecules. When humans began using these molecules to treat bacterial infections, we exposed a far greater number of bacteria to far higher levels of antibiotics than would occur naturally in the microbial world. The result has been evolution in ‘real time’. Antibiotics act as a selective pressure leading to the selection of resistant bacteria within an environment, eventually leading to the loss of any susceptible species. To find out more about the evolution and mechanisms of antibiotic resistance, watch this animation produced by the US Food and Drug Administration.
Antibiotics when first produced were hailed as a miracle cure, demanded by patients to treat all types of illnesses. This widespread, and often misguided, use of antibiotics in humans as well as animals is responsible for the speed at which antibiotic resistance has evolved. Antibiotics have been used mistakenly to treat viral infections, such as colds, when they are only effective against bacterial infections. Many studies have shown the dynamic relationship between the prescribing of antibiotics and levels of antibiotic resistance in populations, and this has led to initiatives at all levels promoting the responsible prescribing of antibiotics. But, as an article in the Telegraph newspaper states, many patients are still wrongly given antibiotics for coughs and colds. Studies into why this is still occurring suggest a number of reasons for this, including that many patients and doctors do not appreciate the risk of antibiotic resistance evolving from a single course of antibiotics – considering it a problem of the population not the individual. A new paper published in the British Medical Journal (BMJ) this week, and featured in the Telegraph newspaper highlights for the first time the impact that antibiotics have on the emergence of antibiotic resistance in individuals.
The research conducted at the University of Bristol, in collaboration with the University of Oxford, reviewed and analysed previously published data on the emergence of antibiotic resistance after patients were treated for urinary or respiratory bacterial infections. They found that patients who were prescribed antibiotics were more likely to contain bacteria resistant to antibiotics for a period of up to 12 months after they had finished their treatment. Patients that took multiple courses of antibiotics during the 12 month period had a higher chance of having resistant bacteria within them. The researchers believe that the residual effect of antibiotics in promoting resistant bacteria is the reason behind the high levels of antibiotic resistance found in the community.
The work shows that in the case of antibiotics, one more really does make a difference. The researchers hope that this work will help to promote stricter prescribing of antibiotics and prolong the lifespan of our antibiotics.
Why when antibiotic resistance has been emerging for decades is its threat only now considered so serious? The era of antibiotics began in the 1920s and 30s with the discovery of Penicillin by Alexander Fleming and Protosil by Gerhard Domagk. From these original two, there are now over 13 classes of antibiotics, some into their fifth generation, consisting of both chemically synthesised and natural compounds. In their heyday, 15–20 new antibiotics were released each decade, but in the last ten years only 6 new drugs have come on the market and, according to an article in the same edition of the BMJ, only two new drugs are under development. It is this massive drop-off in new drugs which has led to the increased concern around antibiotic resistance. The previous approach of treatment with ‘something new’, no longer works when new drugs aren’t appearing.
Why has the production of antibiotics dropped-off and what can we do to promote it? An analysis and article by Morel and Mossialos in the same edition of the BMJ discusses this topic. The pharmaceutical industry has been reluctant to invest in research into antibiotics for a number of reasons. This includes the restrictive use of new antibiotics, with doctors reserving them for the most serious cases and the curative nature of the drugs making them far less profitable than drugs that mitigate symptoms. Antibiotic resistance itself is a disincentive for industry as it threatens to shorten the lifespan of the new treatment preventing sufficient financial returns. The European Council and the US have recently set up committees and task forces to promote the research and development of new antibiotics setting the goal of developing 10 new antibacterial drugs by 2020 – a sprint given the time taken for new drugs to be developed. How to go about jump starting industry to reach this goal is the central focus of these articles.
Together these articles highlight the critical state that we are in, and how close we are to losing this evolutionary race with bacteria. We require a concerted effort at all levels from patients to the pharmaceutical industry to conserve what we have and produce what we lack, antibiotics.
References
Course of antibiotics ‘can leave a patient resistant to that drug for up to a year’ Telegraph Newspaper 19 May 2010
Effect of antibiotic prescribing in primary care on antimicrobial resistance in individual patients: systematic review and meta-analysis (2010) Costelloe et al. BMJ 340:c2096
Tackling antibiotic resistance (2010) So et al. BMJ 340:2071
Stoking the antibiotic pipeline (2010) Morel and Mossialos. BMJ 340:c2115
Fuente: British Society for Immunology.
Guisantes adaptados a las condiciones agroecológicas de Andalucía.
Expertos andaluces obtendrán variedades de estas leguminosas adaptadas al cultivo en la región y estudiarán diversas aplicaciones de la nanotecnología y de bioprotección al control de estas enfermedades.
El guisante (Pisum sativum) es la leguminosa grano más mejorada y con mayor implantación a escala mundial. Sin embargo, a pesar de las grandes expectativas despertadas en todos los sectores, su cultivo sufre aún grandes limitaciones en Andalucía, debido fundamentalmente a problemas de adaptación y sobre todo de susceptibilidad al jopo (Orobanche crenata).
Según los expertos, la importancia de esta planta destinada a la industria de los piensos radica en que su cultivo reduciría la dependencia de las importaciones de soja. Además, permitiría diversificar las fuentes de proteína y adaptarlas a los diferentes usos y tendría un papel beneficioso en las rotaciones y en la fertilidad de los suelos, al fijar el nitrógeno atmosférico gracias a su simbiosis con el rizobium.
El cultivo del guisante se fue extendiendo en Andalucía a principios de la década de los 90 gracias a su potencial e interés. No obstante, se impuso un cultivo de variedades foráneas, poco adaptadas a las enfermedades y a la climatología de la región. Por ello, investigadores de las universidades de Córdoba, Sevilla y Huelva, la Estación Experimental Zaidín, (CSIC, Granada), el IFAPA Alameda del Obispo (Córdoba), Sanidad Vegetal y el Instituto de Nanociencia de Aragón, coordinados por el Instituto de Agricultura Sostenible, (CSIC, Córdoba), pretenden obtener variedades de guisantes adaptadas al cultivo en Andalucía, para hacer atractivo el cultivo de esta leguminosa.
Según los expertos, el guisante cuenta con un gran interés por su potencial productivo para el mercado de pienso. “En agricultura ecológica, es prácticamente imprescindible por su capacidad de fijar nitrógeno atmosférico que podrán utilizar otros cultivos como el cereal”, apunta el coordinador del estudio, Diego Rubiales Olmedo.
Sin embargo, la implantación de este cultivo tiene problemas técnicos pendientes de resolver como la resistencia a enfermedades y el manejo de las malas hierbas, entre las que se incluye el jopo. Por ello, los investigadores pretenden obtener variedades resistentes que permitan extender su cultivo. “Esto lo que contribuirá a la ‘sostenibilidad’ de nuestros sistemas agrícolas y disminuirá la dependencia de las importaciones de soja para pienso”, explica Rubiales.
Para hacer viable este cultivo, los investigadores abordarán las enfermedades causadas por plantas parásitas, como (Orobanche crenata) y hongos (Mycosphaerella pinodes, Erysiphe pisi y Uromyces pisi), así como la falta de agua, propia de Andalucía. Incluirán estudios del patógeno y puesta a punto de métodos de selección de las mejores variedades. En este sentido, los investigadores están seleccionando en diferentes guisantes, aquellas variedades con características más resistentes a las enfermedades y a la sequía para, más adelante, añadir a estas potencialidades ejemplares de mayor rendimiento y calidad. De esta forma, el resultado final serán guisantes con las características deseadas por los expertos, que puedan soportar bien las peculiaridades de Andalucía y, a la vez, sean productivas.
La novedad estriba en la complementación de técnicas de Mejora Genética Clásica y con el uso de marcadores moleculares y de estudios de genómica y proteómica, así como en la investigación de diversas aplicaciones de la nanotecnología al control de enfermedades, así como bioprotección con microorganismos beneficiosos.
Además de la generación de conocimientos, el proyecto tiene claro enfoque aplicado. Por un lado, los investigadores colaboran con empresas para que, una vez seleccionadas las variedades resistentes y productivas, éstas puedan registrarlas, purificarlas y ponerlas a punto para su comercialización. Por otra parte, el proyecto persigue proporcionar al agricultor un paquete de estrategias de control integrado, para fomentar el cultivo del guisante en Andalucía.
Fuente: Andalucía Investiga
viernes, 21 de mayo de 2010
Crean la primera célula controlada por un genoma artificial
Uno de los 'padres' del genoma crea la primera célula artificial - La técnica abre nuevos horizontes a la investigación de fármacos y genera incertidumbres bioéticas
Una ley inviolable de la biología -toda célula proviene de la división de otra célula- ha regido la existencia y la evolución de todos los organismos de la Tierra desde hace 3.500 millones de años. Hasta ayer. La bacteria que acaba de salir de los laboratorios de Craig Venter es una célula, pero no proviene de otra, porque su genoma es pura química: ha sido sintetizado en el tubo de ensayo de la primera a la última letra. La materia inerte animada por el hombre -el mito del golem- ya vive entre nosotros.
La primera "célula sintética" se llama Mycoplasma mycoides JCVI-syn1.0, para distinguirla del Mycoplasma mycoides, que es la bacteria natural en quien se inspira: la que le ha aportado no su genoma (que es de origen químico), pero sí la información para fabricarlo (copiarlo). Aunque la célula sintética no tenga una madre biológica, sí que tiene una madre informática. JCV es por John Craig Venter, y el 1.0 lleva su sello: denota que la célula es sólo una primera versión y connota, o presagia, un futuro Sillicon Valley del diseño de organismos vivos.
La reconstrucción de formas biológicas a partir de su mera información genética -de una secuencia de letras de ADN escritas en un papel, o almacenadas en una memoria- ya se había experimentado con virus, entre ellos el de la polio y el de la gripe española de 1918. Pero los virus no son entidades biológicas autónomas. Para reproducirse usan la maquinaria de la célula a la que infectan. Aunque un virus puede tener solo tres genes, esa maquinaria celular requiere cientos de ellos.
El científico planea diseñar un alga que convierta el CO2 en hidrocarburos
Es difícil predecir el alcance de esta tecnología. Entre los proyectos de Venter está diseñar un alga -unicelular, como la mayoría de las algas naturales- que fije el CO2 atmosférico y lo convierta en hidrocarburos, utilizando la energía de la luz solar. Otros proyectos buscan acelerar la producción de vacunas y mejorar la producción de ciertos ingredientes alimentarios, y de otros compuestos químicos complejos, o diseñar microorganismos que limpien aguas contaminadas.
Es difícil predecir el alcance de esta tecnología. Entre los proyectos de Venter está diseñar un alga -unicelular, como la mayoría de las algas naturales- que fije el CO2 atmosférico y lo convierta en hidrocarburos, utilizando la energía de la luz solar. Otros proyectos buscan acelerar la producción de vacunas y mejorar la producción de ciertos ingredientes alimentarios, y de otros compuestos químicos complejos, o diseñar microorganismos que limpien aguas contaminadas.
Pero estos fines empresariales conviven, de forma paradójica, con cuestiones de profundidad. ¿Cuál es el genoma mínimo para sostener la vida? ¿Hay un conjunto de secuencias genéticas que define la frontera entre lo vivo y lo inerte? ¿Es esto una forma rampante de reduccionismo que pueda afectar a nuestra concepción de la vida humana?
"Este es un paso importante tanto científica como filosóficamente", admitía ayer Venter. "Ha cambiado mis opiniones sobre la definición de vida y sobre cómo la vida funciona". El trabajo plantea otras cuestiones menos profundas, pero apenas menos relevantes, sobre seguridad pública, bioterrorismo y propiedad intelectual.
Por una vez, la bioética no tiene que salir corriendo detrás de la ciencia. El propio Venter se ocupó de estimular la discusión desde el principio, y algunos de los más respetados bioéticos del mundo llevan más de 10 años analizando la cuestión. Entre ellos, Mildred Cho, del centro de ética biomédica de la Universidad de Stanford, y Arthur Caplan, del centro de bioética de la Universidad de Pensilvania. El grupo de trabajo también incluye teólogos como Daniel McGee, de la Universidad de Baylor. Han recopilado sus estudios en Synthetic Genomics Options for Governance (disponible en www.jcvi.org/cms/research/projects/syngen-options/overview/). Cho y Caplan publicaron un artículo de referencia en 1999 (Science 286: 2087).
Entre los ángulos polémicos del nuevo mycoplasma está su denominación. Los autores lo llaman célula sintética, cuando solo su genoma lo es. Una vez sintetizado el genoma, los científicos lo introdujeron en una célula (de otra especie de Mycoplasma) a la que antes habían quitado su propio genoma. Y un ser vivo no está hecho solo de genes. Las proteínas, los azúcares y las grasas son fundamentales como componentes de la célula, y para procesar su energía, o formar membranas.
Pero los azúcares y las grasas son sintetizados por enzimas, que son un tipo de proteínas. Y las proteínas se ensamblan a partir de sus unidades químicas (los aminoácidos) siguiendo el orden que dicta la secuencia de letras de los genes. Por tanto, aunque la "célula sintética" original solo lo fuera a medias, sus descendientes lo son por entero.
"Esta es la primera célula sintética que se ha hecho", dijo Venter, "y la llamamos sintética porque la célula se deriva enteramente de un cromosoma sintético, hecho con cuatro botes de productos químicos en un sintetizador químico a partir de pura información guardada en un ordenador".
El trabajo, que adelanta hoy la revista Science en su edición electrónica, es la culminación de un proyecto que empezó hace 15 años, cuando Venter y su equipo hallaron un modo de estimar el genoma mínimo, la mínima información necesaria para sostener la vida autónoma. Tomaron uno de los organismos con el genoma más pequeño conocido, otro mycoplasma (Mycoplasma genitalium), que vive en el tracto urinario humano. Le estropearon los genes uno a uno para quedarse solo con los indispensables. Ese genoma mínimo suficiente para sostener la vida resultó tener solo 350 genes. Ese fue el punto de partida para el resto de la investigación, con esa y otras especies del género Mycoplasma.
El genoma de un retrovirus, como el VIH, tiene unas 10.000 letras, o bases, en la jerga. El de Mycoplasma mycoides, la madre informática de la célula artificial, mide algo más de un millón de bases. Los genomas suelen medirse en megabases, o millones de letras, así que el genoma de este mycoplasma tiene una megabase. El genoma humano mide 3.000 megabases.
Las máquinas de sintetizar ADN están muy lejos de cualquiera de esas cifras. Son muy rápidas y baratas, pero sus productos no pasan de 100 bases. El equipo de Venter ha tenido que ensamblar esos fragmentos en una jerarquía de pasos: primero en cassettes de 1.000 bases, luego en ristras de 10.000, después en superristras de 100.000 y finalmente en la megabase total. Cada paso requiere usar seres vivos naturales, lo mismo la bacteria Escherichia coli, que la levadura del pan, Saccharomices cerevisiae.
"Ha cambiado mi opinión sobre la definición de vida y su funcionamiento"
El genoma sintético no es idéntico al natural. Tiene 14 genes menos, unas pocas mutaciones ocurridas durante el largo procedimiento -todas identificadas- y unas marcas de agua añadidas por los investigadores para distinguirlo con certidumbre de la versión natural. Pese a todo, la célula sintética Mycoplasma mycoides JCVI-syn1.0 se comporta como un Mycoplasma mycoides cualquiera por cualquier criterio fisiológico o bioquímico.
Venter es una figura única en el panorama científico. Uno de los investigadores más brillantes del proyecto genoma público, se hizo famoso al montar un proyecto privado para competir con él. Cuando esta carrera acabó -en empate-, Venter reasignó sus sistemas rápidos a secuenciar (leer las letras del ADN gtaatct...) en masa la vida marina. Su actual empresa se llama Synthetic Genomics. Uno de sus principales proyectos es energético: diseñar un alga unicelular que genere hidrocarburos a partir de la energía de la luz solar y el CO2 atmosférico.
Durante su exploración en masa de la vida marina, el equipo de Venter descubrió miles de especies de microorganismos, y millones de nuevos genes. El 85% de las secuencias genéticas son diferentes cada 350 kilómetros, y muchas de las especies son únicas. Entre esos genes nuevos hay 3.000 para fotorreceptores, las proteínas que captan la luz de distintas longitudes de onda.
Una de las ideas de Venter es crear una bacteria artificial con una ristra de esos genes y que capte así un espectro muy amplio de la luz solar. El científico estima que una bacteria artificial de este tipo podría convertir en hidrógeno un 10% de la energía solar, y que sembrarla en 13.000 kilómetros cuadrados bastaría para alimentar todo el transporte de EE UU. La tecnología genética es capaz de multiplicar el rendimiento de un proceso natural por 10.000 o 100.000 veces.
Fuente: El País.
jueves, 20 de mayo de 2010
26 de Mayo de 2010, Día mundial de la Esclerosis Múltiple (EM)
Sobre la esclerosis múltiple
"Las personas que padecen EM tienen necesidades complejas y actualmente no se están tratando adecuadamente en cualquier parte del mundo".
Catedrático Alan Thompson, Director, Institute of Neurology, RR.UU. y Presidente de la Junta Científica y Médica Internacional de la Federación Internacional de Esclerosis Múltiple (MSIF).
La esclerosis múltiple (EM) es una enfermedad crónica, y con frecuencia, debilitante. Es una de las enfermedades neurológicas discapacitantes más comunes entre adultos jóvenes en el hemisferio norte. Afecta aproximadamente a tres mujeres por cada hombre y los síntomas a menudo empiezan a manifestarse al inicio de los 30 años de edad, generalmente una etapa crítica en la vida adulta. Más de 2.000.000 de personas en el mundo padecen EM.
La EM resulta del daño en la mielina, capa protectora que envuelve las fibras nerviosas del sistema nervioso central (cerebro, médula espinal y nervios ópticos). Cuando la mielina sufre daños, interfiere en los mensajes entre el cerebro y otras partes del cuerpo. También puede producir lesiones permanentes a las fibras nerviosas.
Los síntomas varían ampliamente e incluyen visión borrosa, debilidad en las extremidades, dolor, alteraciones de la vejiga, inestabilidad y fatiga. En el caso de algunas personas con EM, la enfermedad se caracteriza por períodos de recaída y remisión, mientras que para otros tiene un patrón progresivo. Para todos, la vida con EM es impredecible.
Algunos de los desafíos más importantes que afectan a las personas con EM incluyen el acceso inadecuado a información, falta de apoyo social, necesidad de asesoramiento y apoyo en relación al empleo, seguro de salud y la disponibilidad limitada a tratamientos modificadores, otras terapias y rehabilitación.
Fuente: Federación Internacional de la Esclerosis Múltiple
miércoles, 19 de mayo de 2010
La ciencia de la compasión
Según el biólogo y monje budista Matthieu Ricard, la felicidad no es una sucesión interminable de placeres que terminan por agotamiento, sino una forma de ser. Y si es así, ¿no deberían nuestros hijos aprender en el colegio a ser felices? ¿No es acaso lo que desea cualquier madre o padre de hoy en día? Para permitir aflorar la compasión y la naturaleza buena que todo ser humano lleva dentro, la ciencia está descubriendo los beneficios de la meditación. Aprender a meditar puede ayudarnos a convivir con una mente más clara y más hábil a la hora de lidiar con las emociones negativas y fomentar las emociones positivas.
Fuente: Redes, Smartplanet
El MIT anima a llevar ideas científicas al mercado
El Deshpande Center mejora el impacto de la investigación en el Instituto Tecnológico de Massachusetts. De los 80 proyectos financiados, un tercio se han convertido en 'start up'
Las universidades no sólo se deben dedicar a investigar y proporcionar educación, sino también a tener un mayor impacto económico y social, dice Karl Koster, director ejecutivo de la Oficina de Relaciones Corporativas del MIT y del Programa Industrial de Enlace. Koster ha dirigido el taller sobre Ecosistemas de Innovación celebrado durante la segunda jornada del BDigital Global Congress, que se celebra hasta el jueves en Barcelona.
El MIT es un gran volcán de la innovación, donde se generan muchasideas a partir de la investigación básica. En el año 2002, gracias auna donación de 20 millones de dólares, puso en marcha elDeshpande Center, un experimento para mejorar el impacto de lainvestigacióncientífica del MIT. Se está saldando con notable éxito.
Tradicionalmente, a las universidades no les gustan los riesgos nientrar en el ámbito comercial y al mercado no le gusta centrarse en lainvestigación. ¿Cómo impulsar la unión de ambos polos?", se preguntaCharles L. Cooney, profesor de bioquímica y director del Deshpande Center del MIT . El modelo es muy sencillo. Se trata de seleccionar ideas científicas de los alumnos que puedan tener éxito e impacto comercial, con ayuda de especialistas en negocios "porque los académicos no entienden del mercado". Luego, dirigir estas ideas y apoyarlas con pequeñas ayudas y conectarlas con el sistema financiero externo para crear compañías o licenciarlas a empresas ya existentes.
Los estudiantes reciben unas pequeñas becas "de ignición", no mayores de 50.000 dólares al año y por un máximo de dos años. "Es una cantidad suficiente para establecer el concepto y es menos de lo que costaría una persona contratada a tiempo completo en el MIT", explica Cooney. En segundo lugar, entre la invención y la fase de innovación se entregan a los proyectos seleccionados unas ayudas de 200.000 dólares. Por último, la idea ya madurada sale al exterior en busca de financiación para ponerla en el mercado. "Asumimos riesgos, porque arriesgarse no es malo", asegura el director del centro.
3D Imaging Tech
Un ejemplo de esta dinámica de innovación en el MIT es el proyecto 3D Imaging Tech. Inicialmente, se desarrolló una tecnología para la visualización en laboratorio de las turbulencias en fluidos. Se creó un dispositivo muy sencillo que se podía acoplar rápidamente a cualquier cámara digital y proporcionar imágenes tridimensionales en alta definición. Esa idea podía tener múltiples aplicaciones. En el MIT encontraron nada menos que una treintena de posibilidades. La primera propuesta fue como sistema para las cámaras de seguridad tras los atentados del 11-S, ya que permitían capturar la imagen de una persona, aunque fuera de perfil, y reproducirla. "¿A quién no se le hubiera ocurrido también aplicarla a los videojuegos o dispositivos biomédicos?", añade.
Finalmente, encontraron que esta tecnología tenía un uso importante en la proyección de imágenes dentales, un mercado que nunca habrían considerado previamente y que permite a los odontólogos crear una réplica del diente de un paciente con exactitud de micras. Se crea la startup Brontes Technologies y en 2006 fue adquirida por el gigante estadounidense de la innovación 3M. "Es muy importante elegir el mercado adecuado", afirma Cooney.
¿Y cómo se gestiona el riesgo de llevar una idea proveniente de la investigación al mercado durante el proceso de innovación? Una medida es formar a los estudiantes mediante el programa de los I-teams, una oportunidad para que desarrollen estrategias de llevar al mercado las tecnologías del MIT. Que nadie piense que aprenderán a diseñar planes de negocio. Ni muchos menos. "Odio los planes de negocio, sólo los hacen las empresas", asegura Cooney. "En la universidad el problema es encontrar el mercado adecuado para una idea, y de esta forma la posibilidad de éxito sube muchísimo".
El ecosistema universidad-empresa está formado por múltiples componentes que colaboran para gestionar la posibilidad de éxito. Aquí juegan un papel relevante la oficina de licencias de la propiedad intelectual, encargada de liberarlas a las empresas, o las propias tutorías. Los mentores o tutores son voluntarios seleccionados cuidadosamente, algunas veces son ex alumnos del MIT, otras veces son personas que quieren estar vinculadas al MIT. Firman un acuerdo según el cual se comprometen a proporcionar asesoría objetiva y confidencialidad en los detalles, pero no pueden invertir en el proyecto que asesoran para evitar conflictos de intereses, pues en caso contrario dejarían de ser mentores, advierte Cooney.
Parece que su filosofía innovadora ha acertado de pleno. El centro Deshpande ha financiado hasta el momento 80 proyectos (seleccionados entre 450) con 9,5 millones de dólares de inversión. La tercera parte ha progresado al estadio de startups, y 20 de estas nuevas empresas han atraído capital riesgo por valor de 160 millones de dólares, calcula el profesor.
Lecciones aprendidas
Las ideas innovadoras surgen de la plataforma de investigación básica del MIT, no salen espontáneamente, dice Cooney. Cometer errores durante el proceso está bien, el riesgo es positivo, "porque gestionamos los errores y aprendemos de ellos, siempre que se reconozca a tiempo cuándo es un error". Lo explica con un ejemplo personal: "Cuando asciendo a una cima [practica el montañismo], miro mis pies porque estoy centrado en dar el paso adecuado. Si no lo puedo dar, abandono a tiempo y ya volveré a intentarlo porque tendré la oportunidad de hacerlo otro día, ya que el 75% de los accidentes de montaña se producen durante el descenso". El buen objetivo de la innovación es, concluye, conseguir tener impacto en el momento adecuado.
Fuente: El País.
Que las matemáticas se hagan visibles
La predicción del tiempo, la cirugía correctora de la miopía o la gestión del espacio aéreo no serían posibles sin sofisticados desarrollos matemáticosA mediados de los ochenta la Xunta de Galicia nos propuso simular la dispersión de los vertidos de aguas residuales en las rías gallegas. El objetivo era determinar el emplazamiento óptimo de emisarios submarinos, con vistas a proteger las zonas de playa y cultivos marinos. El resultado han sido desarrollos matemáticos con un gran impacto. Los programas de ordenador elaborados no sólo se utilizaron para las rías gallegas sino en sistemas fluviales y estuarios de otros lugares del mundo, como los de los ríos Crouch y Roach en Inglaterra o el del río Bío-Bío en Chile.
En la segunda mitad de los noventa, el grupo español Ferroatlántica , primer fabricante mundial de silicio metalúrgico, nos encargó la simulación numérica de un electrodo para los hornos de arco eléctrico, el denominado ELSA. Este electrodo es hoy líder mundial y ha sido vendido por Ferroatlántica a la mayoría de las fábricas del mundo; con él se reducen los costes de producción del silicio en más de un diez por ciento. El programa de simulación desarrollado ha permitido comprender mejor el funcionamiento del ELSA y mejorar su diseño y operación.
Y hay aún un tercer ejemplo de desarrollos matemáticos aplicados a problemas industriales. En la actualidad, la Fundación Ciudad de la Energía nos está financiando un proyecto para simular la oxicombustión del carbón en una central térmica, una nueva tecnología que permitirá capturar el dióxido de carbono para su posterior almacenamiento subterráneo.
La invisibilidad de las matemáticas es, probablemente, la causa fundamental de su falta de aprecio social. La mayoría de los ciudadanos consideran que se trata de una disciplina demasiado abstracta, lejos de su realidad más cercana y, además, difícil de aprobar. Sin embargo, los ejemplos anteriormente mencionados indican que no es así. Las matemáticas son hoy omnipresentes, están en multitud de elementos cotidianos importantes para la calidad de nuestras vidas. La predicción del tiempo, la cirugía correctora de la miopía o la gestión del espacio aéreo, por citar solo tres ejemplos de índole bien distinta, no serían posibles sin sofisticados desarrollos matemáticos.
Si las matemáticas han permitido a las ciencias de la naturaleza formalizar sus descubrimientos y teorías, la introducción de los ordenadores a mediados del siglo pasado ha abierto un enorme y prácticamente ilimitado abanico de posibilidades: la resolución de modelos matemáticos mediante algoritmos adecuados y potentes ordenadores se considera hoy día el tercer pilar del método científico, al lado de la teoría y la experimentación.
Los modelos matemáticos se utilizan en la industria para analizar los procesos y diseñar los productos, optimizándolos para hacerlos más funcionales y reducir sus costes de producción. Además, al facilitar la experimentación virtual, permiten reducir el tiempo que transcurre entre la concepción y la comercialización, un aspecto fundamental para las empresas en la economía competitiva y global en la que estamos inmersos.
La industria y las autoridades comunitarias deberían ser conscientes del enorme potencial de las matemáticas en Europa: la investigación europea en matemáticas ocupa el primer lugar en el mundo, aunque fragmentada entre los diferentes países y sin una adecuada coordinación, debido en parte a la falta de apoyo institucional.
Recientemente ha tenido lugar en Madrid una conferencia sobre matemáticas e industria financiada por la Fundación Europea de la Ciencia (ESF, en sus siglas en inglés) bajo el paraguas de la Sociedad Matemática Europea (EMS) . Tras analizar la situación en Europa, los participantes hemos propuesto medidas para desarrollar el potencial de las matemáticas como motor de la innovación.
En la comunidad científica existe la convicción de que las matemáticas no están adecuadamente tratadas por la Comisión Europea, a pesar de su importancia en una economía basada en el conocimiento. Una de las propuestas aprobadas en la conferencia de Madrid consiste en instar a Bruselas para que las matemáticas aparezcan específicamente en el próximo VIII Programa Marco de Investigación y Desarrollo.
En el caso español, las matemáticas, al igual que la mayoría de las ramas del saber, han experimentado en los últimos 25 años un crecimiento espectacular, al menos desde un punto de vista cuantitativo. No obstante, la transferencia al sector productivo y, en general, las aplicaciones de las matemáticas no guardan relación con este crecimiento, por lo que es necesario incentivarlas. La prometida creación de un Centro Nacional de Matemáticas debería suponer una palanca para la consolidación definitiva de la investigación matemática en España y para el desarrollo de sus aplicaciones en la industria. Esperemos que la crisis económica y las diferencias políticas no malogren un proyecto largamente esperado por la comunidad investigadora.
Alfredo Bermúdez de Castro está en el Departamento de Matemática Aplicada. Universidad de Santiago de Compostela.
Fuente: El País.
Lago Tanganica: máxima temperatura en 1.500 años
Los científicos advierten de que el calentamiento reduce la pesca, de la que dependen millones de personas en la región
El lago Tanganica se está calentando y ha alcanzado ya una temperatura superficial (26 grados centígrados, medidos en 2003) sin precedentes en los últimos 1.500 años. El mayor calentamiento se ha registrado en el siglo XX. Los científicos que lo han investigado presentan sus conclusiones en la revista Nature Geoscience. Para conocer la historia del lago ellos han tomado muestras del fondo marino con las que han podido reconstruir la historia de la temperatura de las aguas superficiales en el último milenio y medio. "Estos resultados se añaden a los relativos a otros lagos africanos que muestran que los cambios en el clima regional tienen un impacto significativo en ellos y en las poblaciones del entorno", comenta Paul Filmer, responsable de la división de Ciencias de la Tierra de la estadounidense Fundación Nacional de la Ciencia (NSF), que ha financiado el proyecto.
El lago Tanganica mide casi 700 kilómetros de largo y unos 50 de ancho, como promedio. Su profundidad máxima es de 1.470 metros. Es uno de los más grandes del mundo -de agua dulce- y a sus orillas se asoman cuatro países: Congo, Burundi, Tanzania y Zambia. Unos 10 millones de personas viven en el entorno de lago y dependen de él tanto para el suministro de agua dulce como para su alimentación, ya que se capturan allí cada año unas 200.000 toneladas de peces. El aumento de temperatura del agua superficial del Tanganica ha afectado a su ecosistema, en gran medida condicionado por los nutrientes que emergen del agua profunda y determinan toda la cadena trófica que sustenta la pesca.
"Nuestros datos demuestran una relación consistente entre la temperatura de la superficie del lago y la productividad pesquera. A medida que el lago se va calentando, calculamos que bajará la productividad afectando a la industria pesquera del entorno", afirma Jessica Tierney (Universidad Brown) y líder del equipo científico.
La investigación se ha basado en dos muestreos del fondo del lago, uno en 2001 y otro en 2004. Las aguas del lago tienen dos niveles, uno profundo y otro superficial, hasta unos 100 metros, en el que viven casi todas las especies animales. El viento mezcla las aguas y así emergen nutrientes a la superficie, nutrientes de los que se alimentan las algas, y en ellas se basa toda la cadena alimenticia del lago. Pero, a medida que las aguas se calientan, la mezcla de aguas disminuye y suben menos nutrientes hacia la superficie.
El incremento de temperatura, explican los científicos, magnifica la diferencia entre los dos niveles del lago y hace falta más viento para batir las aguas y que emerjan los nutrientes. Los resultados de la investigación indican que durante 1.500 años, los intervalos de calentamiento y enfriamiento prolongados han estado relacionados con productividad de algas baja y alta, respectivamente, lo que supone una clara influencia del los cambios de temperatura y la productividad biológica en el Tanganica.
Los modelos de cambio climático, añade la NSF, muestran una tendencia general al calentamiento en la región que provocará un aumento de temperatura aún mayor de las aguas superficiales de este lago africano. Tierney y sus colegas reconocen que, como han ya indicado otros científicos, la sobreexplotación de la pesca puede haber motivado el declive de los recursos del Tanganica, pero añaden que el calentamiento del lago, con la consiguiente reducción de la mezcla de sus aguas y nutrientes, está exacerbando ese declive.
Fuente: El País.
domingo, 16 de mayo de 2010
Highly Sensitive Dark Matter Experiment Disproves Earlier Findings
NOTICIAS INTERNACIONAL
Early data from a Columbia-led dark matter experiment rule out recent hints by other scientists who say they have found the elusive particle that holds the universe together. The findings show that dark matter, which is believed to make up 83 percent of the matter in the universe, is more elusive than many had hoped.
Los primeros datos de una investigación dirigida por la universidad de Columbia ha sido publicada en la que aparecen sugerencias recientes de otros científicos que dicen que han encontrado la partícula elusiva que mantiene unido el universo. Los resultados muestran que la materia oscura, que se cree que constituyen el 83 por ciento de la materia en el universo, es más elusiva de lo que muchos habían esperado.
"Dark matter particles continue to escape our instruments, yet we are getting much more clever in our search and feel confident that we will soon unveil them," said Elena Aprile, spokesperson of the XENON100 experiment and a professor of physics at Columbia University.
Aprile and her collaborators, who number more than three dozen physicists at nine institutions around the world, presented their findings at a dark matter workshop on May 1 and have submitted a paper to the journal Physical Review Letters. The scientists, whose experiment is the most sensitive search for dark matter to date, plan to release a much larger set of data over this summer.
The group did not expect to find dark matter in this short run of data taken last fall. Instead, their results show that the detector is better than any other at screening out background radiation that can be mistaken for the elusive particles.
The hunt for dark matter has become highly competitive in recent years, with more researchers entering the field. In 1997, the DAMA/LIBRA research group of the University of Rome Tor Vergata became one of the first to claim it had found dark matter. This past February, the CoGeNT collaboration lead out of the University of Chicago, announced that it, too, had found a signal indicative of dark matter.
The new results from XENON100 cast doubt on both of these findings. If the earlier signals were due to dark matter, XENON100 would have seen dozens of events—unless the properties of dark matter are very different than expected.
Scientists first suggested the existence of dark matter in the 1930s to explain how galaxies keep from breaking apart as they spin. Like merry-go-rounds, galaxies generate centrifugal force as they rotate. Gravity is the glue that holds stars and galaxies together, but there isn't enough visible matter in the universe to generate the amount of gravity needed to keep galaxies from tearing apart. That's why scientists believe there must be additional, unseen matter out there. Scientists working on XENON100 believe that dark matter is made up of new elementary particles called Weakly Interacting Massive Particles, or WIMPS, which rarely bump into normal matter.
Aprile and her colleagues have been working on XENON100 since 2007 as part of a project funded largely by the National Science Foundation. Their detector, which was built at Columbia, consists of a stainless steel container filled with ultra-pure liquid xenon sandwiched between two highly sensitive cameras. It is located beneath 5,000 feet of rock in Italy's Gran Sasso Underground Laboratory (LGNS) in a chamber of lead and copper that, along with the rock, helps filter out cosmic and background radiation that may otherwise be mistaken for WIMPS.
Should a dark matter particle come into contact with a xenon atom, it will transfer a tiny amount of energy that will trigger the emission of a flash of ultraviolet light that the cameras will pick up. The energy also manifests itself in a small amount of electrical charge—weaker than that produced by the passage of other known particles. If the XENON100 detector registers these light and charge signals and can exclude with high certainty that they were produced by other sources, it will be a strong indication that Aprile’s team has found dark matter.
The Columbia researchers use liquid xenon because it is one of the heaviest elements in the periodic table; at three times the density of water, it has many atoms per liter, maximizing the chances that a WIMP will collide with it.
“Liquid xenon is a precious and wonderful material for catching and studying WIMPS,” said Aprile, who has worked with the liquid for most of her research career.
Fuente: Columbia University (NY).
sábado, 15 de mayo de 2010
Michael Specter: El peligro de negar a la ciencia
Demandas por vacunas ligadas a autismo, prohibición de alimentos "Frankestein", el frenesí de la curación con hierbas: Todo apunta al miedo público creciente (y, a veces, directa negación) a la ciencia y la razón, dice Michael Specter. El advierte que esta tendencia impacta desastrosamente en el progreso humano.
Fuente: TED, Ideas Worth Spreading.
255 científicos denuncian el ataque político al cambio climático
"Estamos profundamente preocupados por la escalada reciente de ataques políticos a los científicos en general y a los científicos del clima en particular". Así arranca una carta abierta firmada por 255 miembros de la Academia Nacional de Ciencias (EE UU), incluidos 11 premios Nobel, que publica hoy la revista Science.
Los investigadores equiparan la solidez del cambio climático a las grandes teorías científicas, como la del origen de la Tierra, el Big Bang o la evolución. Explican que es perfectamente normal que, en investigaciones que realizan miles de científicos, se produzcan algunos errores que se corrigen en cuanto se detectan, "pero no hay ni remotamente nada en los casos recientes que cambie las conclusiones fundamentales acerca del cambio climático". Especialmente, reafirman "las pruebas objetivas, consistentes, exhaustivas e irrefutables de que los seres humanos están cambiando el clima de modo que amenaza nuestras sociedades y los ecosistemas de los que dependemos".
Se refieren los 255 eminentes científicos a unos errores, no significativos y rectificados, que recoge el último informe del Panel Intergubernamental sobre Cambio Climático (IPCC) y que han sido aireados por algunos para desautorizar todo el informe. Asimismo, se han denunciado actividades privadas del presidente del IPCC, con la pretensión de cuestionar la labor de los miles de científicos que participan en sus trabajos. Los firmantes de la carta piden "que terminen las amenazas -tipo McCarthy-", denuncias y acoso a científicos "por parte de políticos que buscan distraer la atención para no tener que actuar".
Fuente: El País.
Los investigadores equiparan la solidez del cambio climático a las grandes teorías científicas, como la del origen de la Tierra, el Big Bang o la evolución. Explican que es perfectamente normal que, en investigaciones que realizan miles de científicos, se produzcan algunos errores que se corrigen en cuanto se detectan, "pero no hay ni remotamente nada en los casos recientes que cambie las conclusiones fundamentales acerca del cambio climático". Especialmente, reafirman "las pruebas objetivas, consistentes, exhaustivas e irrefutables de que los seres humanos están cambiando el clima de modo que amenaza nuestras sociedades y los ecosistemas de los que dependemos".
Se refieren los 255 eminentes científicos a unos errores, no significativos y rectificados, que recoge el último informe del Panel Intergubernamental sobre Cambio Climático (IPCC) y que han sido aireados por algunos para desautorizar todo el informe. Asimismo, se han denunciado actividades privadas del presidente del IPCC, con la pretensión de cuestionar la labor de los miles de científicos que participan en sus trabajos. Los firmantes de la carta piden "que terminen las amenazas -tipo McCarthy-", denuncias y acoso a científicos "por parte de políticos que buscan distraer la atención para no tener que actuar".
Fuente: El País.
Jeremy Jackson: Cómo destruimos el océano
En esta estimulante charla, el ecologista de arrecifes de coral, Jeremy Jackson nos informa el desastroso estado actual del océano: sobrepesca, sobrecalentamiento, contaminación, con indicadores de que las cosas se pondrán peores. Estadísticas y sorprendentes fotos le dan la razón.
Fuente: TED, Ideas Worth Spreading
MicroRNA can move between cells
MicroRNAs can move between cells and play a role in their communication. This discovery was made by plant researchers at Uppsala University together with colleagues from Finland and the US when they were studying mechanisms that control the development of plant roots. The study is published in the Web edition of the journal Nature.
Los microARNs pueden moverse entre las células y juega un papel en su comunicación. Este descubrimiento fue realizado por investigadores de plantas en la Universidad de Uppsala, junto con colegas de Finlandia y los EE.UU. cuando estaban estudiando los mecanismos que controlan el desarrollo de las raíces de las plantas. El estudio se publica en la edición web de la revista Nature.
MicroRNAs are important for gene regulation, for example during various developmental processes in animals and plants. Researchers have previously assumed that microRNAs are active only in the cells in which they are produced, but these new research findings show that they can function in communicating positional information between cells. The study is a collaboration between four research teams at Uppsala University, University of Helsinki, Duke University, and the Boyce Thompson Institute. From Uppsala Anneli Carlsbecker and her PhD student Christina Joy Roberts participated.
“We have been able to see how a cell layer in a plant’s root sends a signal to another cell layer, which in turn answers. One of these signals consists of a microRNA moving between the cells,” explains Annelie Carlsbecker, assistant professor at the Department of Physiological Botany, Evolutionary Biology Centre in Uppsala and one of the main authors of the study.
The process the scientists are describing takes place during the formation of the water-conducting vessels and the cell layer that forms an insulating coating around the conducting tissues, enabling the plant to control its uptake of water and minerals. The study shows that microRNAs move in one direction between the cell layers and a regulatory protein moves in the opposite direction. In this way the cells communicate their relative positions and ensure that the cells attain their proper identity.
The evolution of the rigid water-conducting cells, so-called xylem cells, and the insulating coat of cells that surrounds them was a milestone in the adaptation of plants to terrestrial growth. It allowed a shift from the requirements of growing in the immediate vicinity of water, like mosses, to more advanced plant forms. With a water conducting system, the plants could survive a dryer climate and grow to considerable sizes, as water now could be transported to all parts of the plant.
“Both the microRNA and the regulatory proteins we have studied are evolutionarily conserved, implying that this type of communication between cells might have developed very early in the evolution of plants” says Annelie Carlsbecker.
The mechanisms for how microRNAs move between cells are not yet clear, but it is probable that their role is to adjust and finely tune the levels of expression of the factors it controls. Through their movement from an outer cell layer into the inner conducting tissues, the microRNAs control the levels of the target factors that determine the identity of the xylem cells. In this manner, the xylem cells in peripheral and central parts of the root take on different identities.
“This way of stabilizing boundaries between cells is generally important during developmental processes in both plants and animals. It’s possible, even probable, that microRNAs can behave in a similar way in other developmental processes as well,” says Annelie Carlsbecker.
Fuente: Uppsala University (Sweden).
viernes, 14 de mayo de 2010
Información polínica para alérgicos.
Las concentraciones polínicas del aire han sido inferiores a lo esperado debido a la inestabilidad atmosférica de los últimos días. Las concentraciones polínicas de gramíneas han sido moderadas en gran parte de la mitad sur e incluso altas en Córdoba. Los niveles polínicos de olivo han oscilado entre altos y moderados en la mitad sur del país, mientras que en el resto del territorio han permanecido bajos. Las concentraciones polínicas de abedul fueron moderadas en algunas zonas de Galicia y bajas en el resto del país. Los valores polínicos de encinas, llantenes y cenizos han oscilado entre bajos y moderados llegando a ser altos sólo de forma puntual.
Fuente: Red Española de Aerobiología
Albert Einstein, la biografía (y 5).
Albert Einstein, aunque es considerado el «padre de la bomba atómica», abogó en sus escritos por el pacifismo, el socialismo y el sionismo. Fue proclamado el «personaje del siglo XX» y el más preeminente científico por la célebre revista Time.
Llegan los robots de ADN
Arañas moleculares que pueden fabricar productos en una cadena de montaje
Los robots de ADN, moléculas con patas de esta cadena química, base de la vida, y que se mueven de un lugar a otro, son ya una realidad. Se presentan en Nature dos tipos de estas máquinas moleculares, que funcionan trasladándose de un punto de enlace biológico a otro sobre una superficie también recubierta de ADN.
El primero es una araña molecular de tres patas que puede actuar autónomamente según las claves que le suministre el ambiente por el que se mueve. Las patas de la araña son enzimas de ADN, que pueden dividir una secuencia determinada en un sustrato de ADN al estilo origami. Así con capaces de ejecutar secuencialmente acciones tales como arrancar, continuar, girar o parar, rompiendo una secuencia y pasando a la siguiente que encuentran en su camino. Cuando llega a una secuencia que no puede romper el robot se para. Esta máquina ha llegado a recorrer hasta 100 nanómetros (milmillonésimas de metro), lo que representa unas 50 divisiones.
Aunque su desarrollo presenta dificultades, estos robots tienen la ventaja de ser programables, de que se puede predecir su comportamiento biofísico y de que pueden interactuar con paisajes diseñados a voluntad, recalca el amplio equipo de investigadores estadounidenses que ha realizado el trabajo, liderados por la Universidad de Arizona.
Otro modelo es una cadena de montaje a escala nanométrica en la que los robots se mueven también sobre un sustrato de ADN tipo origami y pasan por una serie de máquinas programables que les suministran la mercancía (nanopartículas de oro). Los robots andadores tienen cuatro piernas (una de las cuales se enlaza a cada máquina cuando llega a ella), y tres manos para coger la mercancía. La cadena de montaje es de tres máquinas, cada una de las cuales da, o no da, según su programación, una mercancía distinta al andador. Así se pueden fabricar de forma controlada ocho productos distintos. Esta cadena de montaje, desarrollada por científicos chinos y estadounidenses, representa un hito en la nanotecnología con ADN, asegura Lloyd Smith, químico de la Universidad de Wisconsin, en la misma revista.
Fuente: El País.
Suscribirse a:
Entradas (Atom)