Hace diez años, Karl Deisseroth tenía detenida su investigación. Karl psiquiatra y neurocientífico, quería aprender sobre como los diferentes circuitos del cerebro afectan el comportamiento y lo que había salido mal en el cerebro de sus pacientes con esquizofrenia y depresión. Pero las herramientas de su oficio eran demasiado deficientes: Los electrodos insertados en el cerebro estimulaban demasiado los alrededores de las células. Así, en 2004, Deisseroth y sus estudiantes inventaron una nueva herramienta. Insertaron un gen para una proteína de las algas activado por la luz en los cerebros de los ratones. Al estimular las células con un láser, los investigadores podían controlar la actividad de los circuitos nerviosos específicos con precisión de milisegundos y poder estudiar sus efectos.

La técnica, llamada optogenética, salió al campo. Hoy en día, miles de científicos en cientos de laboratorios están utilizando optogenética para investigar cómo funciona el cerebro. Se han examinado las células siendo afectadas por la cocaína, y cómo la estimulación cerebral profunda alivia los síntomas de la enfermedad de Parkinson. La lista de preguntas que ahora se pueden abordar es interminable.

La historia de Deisseroth se repite en todas las areas de la ciencia: una nueva herramienta ingeniosa desencadena una cascada de nuevos conocimientos. En esta entrada se realiza una mirada más amplia a las 10 ideas que han cambiado la ciencia desde los albores del nuevo milenio.

En los últimos 10 años, nuevas formas de recopilar, analizar, almacenar y difundir la información han transformado la ciencia. Los investigadores generan más observaciones, más modelos, y más experimentos automatizados que nunca antes, creando un mundo saturado de datos. Internet ha cambiado la forma en que se comunica la ciencia y brindando oportunidades a distintas personas para participar en la investigación. Nuevos campos, como la ciencia en la red, están surgiendo, y la ciencia misma es cada vez más una red, más colaborativa y más multidisciplinaria, ya que los investigadores reconocen que se necesitan muchas mentes y conocimientos variados para abordar cuestiones complejas sobre la vida, la tierra, y el Universo.

Perspectiva de la década

1. La "materia oscura" del Genoma humano
2. Una receta para el cosmos
3. Antiguo ADN
4. Agua en Marte
5. Reprogramación celular
6. Microbioma: como los microbios obtienen un poco del respeto que merecen
7. Exoplanetas: Buscando planetas como la Tierra
8. Inflamación: Descubriendo su lado oscuro
9. Metamateriales: nuevos trucos con luz
10. Cambio climático

1. La "materia oscura" del Genoma humano

ADN. Créditos: Hammond/Science.

Pareciera tan sencillo. El ADN le dice al cuerpo como construir proteínas. Las instrucciones vienen implicitas en los genes. Las hebras de ARN, el primo químico del ADN sirve como mensajeros moleculares, llevando los pedidos a las fábricas de proteínas de las células para su posterior traducción. Sin embargo existen en el ADN, fragmentos que parecen incoherentes, inútiles e inertes.

De hecho, la regulación génica ha resultado ser un proceso sorprendentemente complejo, regulado por diversos tipos de reglamentación de ADN, aún basado en un desierto de supuestos. Lejos de ser humildes mensajeros, el ARN en todas sus formas y tamaños son en realidad jugadores de gran alcance en la forma en que operan. Finalmente, cada vez cobra mayor importancia la función de las alteraciones químicas llamadas factores epigenéticos que pueden influir en el genoma a través de generaciones sin cambiar la secuencia de ADN en sí.

El alcance de esto, el genoma se hizo evidente en 2001, cuando el genoma humano fue publicado por primera vez. Los científicos esperaban encontrar hasta 100,000 genes en los 3 mil millones de bases del ADN humano, pero se sorprendieron al enterarse de que había menos de 35,000 (la cuenta actual es de 21,000). Las proteínas que codifican represen sólo 1,5% del genoma. ¿Podría el resto de nuestro ADN realmente ser basura?

El desciframiento del genoma del ratón en el año 2002 puso de manifiesto que debe haber más en la historia. Los ratones y las personas salieron a compartir no sólo muchos genes, sino también grandes extensiones de ADN no codificante. Hace 75 millones de años el ratón y los linajes humanos divergieron, por lo que tales regiones podían ser cruciales para la supervivencia de los organismos.

Edward Rubin y Len Pennacchio del Joint Genome Institute en Walnut Creek, California, y sus colegas descubrieron que algunos fragmentos de este ADN conservado ayudaba a regular los genes, a veces desde lejos, estudiando  para ello, la función en embriones de ratón transgénico. Los estudios realizados por el grupo y otros sugirieron que las regiones no codificantes se llenaban de ADN mucho más de lo esperado en la reglamentación.

Una prueba más de que el ADN no codificante es vital proviene de los estudios de factores de riesgo genético para la enfermedad. En las búsquedas a gran escala de las diferencias de una sola base entre los individuos enfermos y sanos, aproximadamente el 40% de las diferencias relacionadas con la enfermedad se presenta en las afueras de los genes.

La "materia oscura genética" también tiene gran influencia cuando los científicos encuestados mencionan que el ADN estaba siendo transcrito o descifrado en el ARN. Los científicos pensaban que la mayoría de ARN en una célula era el mensajero ARN generados por genes codificadores de proteínas, el ARN en los ribosomas, o una pizca de otros ARN de otros lugares. Pero las encuestas realizadas por Thomas Gingeras, ahora en el Laboratorio Cold Spring Harbor en Nueva York, y Michael Snyder, ahora en la Universidad de Stanford en Palo Alto, California, encuentran mucho más ARN de lo esperado, al igual que un análisis de ARN de ratón por Yoshihide Hayashizaki del Centro de Ciencias  RIKEN Omics de Japón y sus colegas. Otros investigadores se mostraron escépticos, pero pronto llegó la confirmación de Ewan Birney, del Instituto Europeo de Bioinformática y del proyecto "Enciclopedia de Elementos de ADN", cuyo objetivo es determinar la función de todas las bases en el genoma. El piloto de los resultados de 2007 se abrió los ojos: Los cromosomas albergan muchos lugares antes insospechados donde las proteínas regulan genes o efectos epigenéticos. Sorprendentemente, alrededor del 80% del ADN de la célula mostró signos de haber sido transcritas al ARN. Lo que el ARN estaba haciendo no estaba claro.

Otros estudios revelaron que el ARN juega un papel importante en la regulación génica y otras funciones celulares. La historia comenzó a desarrollarse a finales de 1990, cuando los investigadores de plantas y nematodos biólogos aprendieron a usar pequeñas moléculas de ARN para cerrar los genes. La llamada interferencia de ARN (ARNi), es una técnica que se ha convertido en una forma estándar para controlar la actividad de genes en una variedad de especies, ganando un Premio Nobel en 2006.

Para entender RNAi y ARN en general, los investigadores comenzaron a aislar y estudiar las moléculas de ARN de 21 a 30 bases de largo. Resultó que esos "pequeños RNAs" puede interferir con el ARN mensajero y desestabilizarlo. Cuatro documentos en 2002 mostraron que los pequeños RNAs también afectan a la cromatina, el complejo de proteínas y el ADN que forma los cromosomas, de manera que podría controlar la actividad genética. En un estudio, la levadura que faltan algunos pequeños RNAs no para dividir correctamente. Otros estudios han relacionado estos pequeños trozos de ARN para el cáncer y el desarrollo.

Las sorpresas no se detuvo en los pequeños RNAs. En 2007, un grupo liderado por Howard Chang de Stanford y John Rinn, ahora en el Beth Israel Deaconess Medical Center en Boston, estudiaron la función de los genes de regulación de los llamados ARN no codificantes. Rinn y sus colegas determinaron más tarde que el genoma contiene unos 1600 de estos lincRNAs. Ellos y otros investigadores de este tipo de ARN denotaron su importancia como genes codificadores de proteínas en funciones de las células.

Muchos misterios sobre la materia oscura del genoma están todavía bajo investigación. Aun así, el panorama general es claro: hace 10 años, los genes tenían el centro de atención para ellos solos. Ahora tienen que compartirlo con un gran y creciente conjunto.

2. Una receta para el cosmos

El resplandor del Big Bang trazado por WMAP. Créditos: NASA.

Por eones, los humanos han mirado hacia el cielo estrellado y se han preguntado, "¿De dónde viene?" Los cosmólogos todavía no tienen una respuesta sólida, pero en la última década se han deducido una receta muy precisa del contenido del universo , así como las instrucciones para ponerlos juntos. El avance ha transformado la cosmología en un esfuerzo en gran medida cualitativa a una ciencia de precisión con una teoría estándar que ofrece poco margen de maniobra para otras ideas, incluso, ya que deja sin responder preguntas obvias. Nos guste o no, los cosmólogos están ahora más o menos sujetos a la teoría.

La receta necesita tres ingredientes: la materia ordinaria como el de las estrellas y los planetas, la misteriosa "materia oscura", cuya gravedad une a las galaxias, e incluso la más extraña "energía oscura" que se extiende en el espacio y permite la aceleración de la expansión del universo. Según las últimas cifras, las proporciones son 4,56% de materia ordinaria, el 22,7% de materia oscura, y el 72,8% de energía oscura.

Así es como permanecen juntos: El universo surgió, supercaliente y ultradenso, en el instante del Big Bang. Por una pequeña fracción de segundo se expandió a una velocidad más rápida que la luz. Conocida como "la inflación", que se extendía mediante pequeñas fluctuaciones cuánticas en la densidad del universo recién nacido a escalas colosales. La gravedad de estas "superdensas" regiones tiraron en la materia oscura, que atrajo junto con él la materia ordinaria, inicialmente una sopa de partículas subatómicas. Poco a poco, una gran "red cósmica" de filamentos y cúmulos de materia oscura formo dentro de ellas, las galaxias.

Antes de que el cambio de milenio, los cosmólogos habían reducido la lista de ingredientes cósmicos. Muchos sospechaban la presencia de materia oscura durante décadas. La energía oscura hizo una entrada ostentosa en 1998, cuando los astrónomos utilizanba explosiones estelares llamadas supernovas de tipo Ia para rastrear la tasa de expansión del universo y descubrió que se estaba acelerando. La idea surgió de la inflación en la década de 1980 para resolver diversos puzzles conceptual. Pero sólo recientemente han permitido a los científicos observaciones para tejer estos hilos en una teoría rigurosa.

Gran parte del progreso ha llegado a través de estudios de la luminiscencia residual del Big Bang, la radiación se conoce como el fondo de microondas cósmico (CMB). En 2000, un experimento conocido como Balloon Observations of Millimetric Extragalactic Radiation and Geophysics midieron el CMB en detalle en algunas zonas del cielo, un año más tarde, la terrestre Degree Angular Scale Interferometer midieron la CMB en el Polo Sur. Luego, en 2003, en el espacio la NASA produjo Wilkinson Microwave Anisotropy Probe (WMAP), un mapa de la CMB en el cielo, produciendo una imagen exquisita del cosmos.

La temperatura de la CMB varía alrededor de una parte en 100.000 de punto a punto en el cielo, con los puntos más calientes correspondientes a las regiones más densas en el universo primigenio. Mediante la medición de la distribución de tamaños de las manchas y su montaje con su modelo teórico, los científicos pueden investigar la interacción y las cantidades de materia ordinaria y oscura en el universo temprano. También se puede medir la geometría del espacio. Lo que permite deducir la densidad total de energía y materia en el universo y deducir la cantidad de energía oscura.

Los estudios CMB muestran que el universo es plano. Eso significa que si usted dibuja líneas paralelas en el espacio, estas se mantendrán a la misma distancia a lo largo de su longitud infinita en lugar de convergencia o divergencia. Esta llanura es una predicción central de la inflación, por lo que las mediciones impulsan esta idea descabellada. Así que si se hace un azar particular, se ve en los puntos calientes y fríos. El equipo del WMAP dio a conocer su últimos resultados en enero.

Lo más asombroso acerca de los resultados del CMB es que el modelo de los cosmólogos, tiene sólo una media docena de parámetros ajustables, que se adaptan a los datos en absoluto. Esto no es una aproximación marginal, la teoría se ajusta a los datos como la envoltura a la salchicha. Eso hace que sea difícil argumentar que la materia oscura y energía oscura no son reales y para explicar, por ejemplo, la modificación de la teoría de Einstein de la gravedad. Otros datos cosmológicos, como las mediciones de la distribución de las galaxias, también se adecuan al modelo.

Todo esto deja a los cosmólogos en una situación peculiar: tienen las proporciones exactas de los ingredientes del universo, pero todavía no sabemos lo que dos de los tres ingredientes-la materia oscura y energía oscura- realmente son. Es como si hubieran sido entregado una receta de brownie que llama a una "sustancia dulce granulado" y un "polvo blanco que se mezcla con agua para hacer una pasta", en lugar de especificar el azúcar y la harina.

Los cosmólogos pueden tener una mejor idea de lo que estamos hablando de finales de la próxima década. Una teoría de la partícula llamada "supersimetría" predice la existencia de partículas masivas de interacción débil (WIMPs), que podrían ser las partículas de materia oscura. Los investigadores se muestran optimistas de que pronto se puede detectar WIMPs chocando con detectores sensibles a grandes profundidades, producto de colisiones de partículas de alta energía en un acelerador de partículas, o la producción de rayos gamma en el espacio. Numerosos estudios astronómicos abarcan  la energía oscura, a pesar de que se podría tomar mucho más tiempo.

3. Antiguo ADN

Los científicos secuenciaron el genoma de este mamífero extinto. Créditos: David Bonadonna.

Durante cientos de años, los seres humanos para estudiar la vida antigua confiaban en restos y pruebas en huesos acerca de criaturas extintas. En la última década, las exploraciones de nuevas y potentes herramientas de rayos X y modelos computacionales tridimensionales han transformado el análisis de los huesos, dientes y conchas. Pero algo aún más revolucionario ha ocurrido: un nuevo tipo de análisis capaz de revelar las adaptaciones anatómicas que la evidencia ósea no puede proporcionar, como el color de las plumas de un dinosaurio o como los mamuts lanudos resistieron el frío.

Los nuevos puntos de vista del mundo prehistórico dependerá de la constatación de que "biomoléculas" como el ADN antiguo y el colágeno que puede sobrevivir por decenas de miles de años y dan información importante sobre seres extintos. En los últimos 10 años, este campo ha aumentado hacia adelante más allá de las expectativas. En 1997, la secuenciación del primer fragmento de ADN de un neandertal por un equipo del Instituto Max Planck de Antropología Evolutiva en Leipzig, Alemania, fue reconocido como un hito importante. Pero este año, el mismo laboratorio publicó el genoma nuclear de los neandertales, lo que representa 10 millones de veces más ADN ("Revelación del Año",). Durante la última década, estas moléculas han pintado el pasado en la vida: los genes antiguos han demostrado que algunos neandertales tenían el pelo rojo y piel pálida, y antiguos orgánulos poseían pigmentos llamado melanosomas han puesto de manifiesto el color castaño de la cola de un dinosaurio Sinosauropteryx.

ADN antiguo también puede exponer las relaciones entre las especies, por ejemplo, mostrando que la secuencia de aminoácidos del colágeno de un dinosaurio es más parecido a la de las aves que viven a la de los reptiles. ADN antiguo de mamut lanudo reveló que su sangre estaba adaptada al frío mediante la hemoglobina. ADN ha demostrado incluso que algunos neandertales se cruzaron con antepasados.

La investigación de ADN antiguo se inició a mediados de la década de 1980. Pero su promesa inicial se desvaneció en medio de una serie de reclamaciones espectaculares, que carecían de fundamento, como el ADN dinosaurio de 80 millones de años de antigüedad que fue en realidad de un ser humano. ADN antiguo estaba muy a menudo contaminado con ADN de bacterias o de los propios científicos. La financiación se detuvo y sólo unos pocos laboratorios sobrevivieron, sobre todo en Europa.

Pero en los últimos 10 años, las nuevas herramientas desarrolladas para la exploración del genoma humano dotaron de herramientas a la investigación del ADN. Por ejemplo, los nuevos secuenciadores de alto rendimiento resultaron eficientes con pequeños fragmentos de ADN, justo lo que degradaba el rendimiento de muestras antiguas. La tecnología permitió a los científicos secuenciar cada extracto de ADN extraído en forma relativamente barata. Por lo que fueron capaces de desarrollar métodos para reconocer y clasificar pequeños trozos de ADN antiguo de un aumento de trozos de ADN contaminante y también para obtener regiones de genes de interés.

Como la secuencia obtuvo potencia, los investigadores comenzaron a hacer descubrimientos a un ritmo sin precedentes. En 2005, dos equipos trabajaron juntos para secuencia de 27.000 bases de ADN de un antiguo oso de las cavernas. Seis meses más tarde, otro equipo generó 28 millones de bases de ADN de un hueso de mamut y mostró que los mamuts se separaron de los elefantes de África hace aproximadamente 6 millones de años. En 2008, el mismo equipo obtuvo el pelo de mamut en eBay y secuenciaron todo el genoma del mamut, el primer genoma de un animal extinto. Ese mismo año, el primer genoma mitocondrial completo de un Neandertal se publicó, y otros cinco pronto siguieron. En 2010, ese trabajo culminó con la publicación del genoma del Neandertal.

También este año, el equipo de Max Planck logró una hazaña que muchos investigadores hace una década habían descartado como imposible: Identificaron una especie previamente desconocida del hombre por su ADN. Secuenciaron el genoma mitocondrial de un dedo humano solo en una cueva de Siberia. El dedo no era ni Neandertal ni humanos, sino que al parecer pertenecían a una nueva especie que vivió en Asia Central hace unos 40.000 años.

Mientras tanto, los investigadores también están enfocándose en otras moléculas antiguas, como el ARN y el colágeno. Investigadores de la Universidad de Carolina del Norte hicieron la afirmación espectacular que habían aislado colágeno de un Tiranosaurio Rex de 68 millones de años y de un hadrosaurio de 80 millones de años. Algunos científicos sospechan que el colágeno proviene de las bacterias en lugar de los dinosaurios, pero otros están investigando colágeno como una forma de trozos de código de barras de los huesos no identificables. Algunos están incluso buscando en el ARN, que es mucho más frágil que el ADN en semillas antiguas para aprender acerca de la expresión genética en los cultivos tempranos.

El descubrimiento de las vidas secretas de organismos muertos puede tener consecuencias prácticas en el mundo actual, también. Algunos investigadores esperan utilizar ADN antiguo para introducir la diversidad genética de nuevo en las poblaciones amenazadas, por ejemplo, las de los osos polares. Si tienen éxito, las moléculas de los organismos muertos hace mucho tiempo puede que algún día sirvan para ayudar a salvar a los vivos.

4. Agua en Marte

Opportunity. Créditos: NASA/JPL

La búsqueda de agua y vida en el Planeta Rojo ha tenido sus altibajos. Ahora está claro que a principios de la historia de Marte, había agua líquida en el planeta o justo en el interior del planeta, persistiendo el tiempo suficiente para alterar la roca y, posiblemente, sostener el origen de la vida. Ahora se habla incluso de la humedad como prueba para aquellos que buscan vida, organismos alienigenas, que si existen, podrían ser la clave para explicar cómo la vida en nuestro planeta tiene su inicio.

A la vuelta del milenio, los expertos sabían que el Marte primitivo no había sido completamente seco. Cámaras en la nave espacial Mariner 9 habían revelado paisajes esculpidos por inundaciones catastróficas. Sedimentos en capas evocaban lagos de cráter e incluso hubo sugerencias de líneas de costa antigua que había abarcado un gran océano del norte. Pero por lo que nadie sabía, todos los embalses podrían haber sido demasiado efímeros para dar vida un comienzo.

Un toque de luz llegó a principios de 2004, cuando el rover Opportunity descubrió indicios de los mares, o por lo menos amplios lagos, en el Marte primitivo. Opportunity estaba investigando una mancha de color espectral, vista desde la órbita, que connotaba la hematita mineral de hierro relacionadas con el agua. De cerca, el lugar de aterrizaje parecía ser la sal que queda de un mar poco profundo o un lago. Science proclamó el hallazgo, junto con el descubrimiento de agua en rocas al otro lado del planeta por el rover Spirit, como el Descubrimiento del Año en 2004.

El entusiasmo duró poco. Opportunity nunca encontró evidencia mucho más allá de las aguas superficiales que agitó en los sedimentos. En lugar de un mar, el agua subterránea ácida puede estar rezumaba por entre las dunas de arena árida sal. Tal intensamente salobre, el agua corrosiva hubiera sido hostil a la vida como en la Tierra.

Espectrómetros de vuelo del Mars Reconnaissance Orbiter y Mars Express el año pasado fueron más capacesde estudiar los minerales alterados en agua, especialmente arcillas. Los astrobiólogos se apasionaron en las arcillas. Su formación requiere un contacto prolongado de agua y la roca en condiciones suaves, lo que favorece la vida, y son grandes para la conservación de la materia orgánica remanente de vida pasada. Los investigadores han descubierto arcillas en tantos lugares en Marte que enviaran un nuevo rover de alta potencia, también conocido como Mars Science Laboratory, para satisfacer tal curiosidad.

Instrumentos en órbita también han descubierto hielo enterrado a unos centímetros de la superficie del suelo, cientos de glaciares cubiertos de escombros con varios metros de espesor. El hielo cerca de la superficie marciana no se puede derretir, pero debido a que Marte se tambalea violentamente sobre su eje, su clima más cálido ha oscilado a través de cientos de miles de años, muchas veces en el pasado.

A principios de la década, los científicos planetarios comenzaron a encontrar indicios de que algunos rastros de este hielo que podría haber sido líquido en tiempos geológicamente recientes. Imágenes más nítidas revelaron barrancos en paredes de los cráteres que se ven como si estuvieran cortadas por el agua que brota por la pendiente, tal vez por el derretimiento de la nieve. En octubre, los miembros del equipo de la misión Phoenix obtuvieron pruebas de que el agua líquida, quizás poco más que un paño húmedo que se había filtrado a través de la parte superior unos pocos centímetros del suelo en el Norte. Y los miembros de Spirit  sugirieron una infiltración similar cerca del ecuador, donde se ha convertido en un vehículo atascado.

Como resultado de tales descubrimientos, la búsqueda de vida en Marte ahora significa algo más que andar a tientas en la tierra de restos moleculares. Por primera vez, muchos científicos creen que podrían encontrar microorganismos, ya sea vivos o recientemente fallecidos. Para biólogos, la perspectiva es incalculablemente emocionante. Si tales micro-marcianos estan, van a ser productos de un origen independiente, con su propia bioquímica y código genético distintivo¿O estará relacionado con la vida en la Tierra, tal vez como precursores de la hipótesis de un "mundo de ARN", llevado de un planeta a otro por los desechos espaciales?

Es posible. Los meteoritos de Marte, golpearon la superficie con impactos de asteroides, han sido encontrado en la Tierra. A veces esas rocas podrían hacer el viaje con la suficiente rapidez para que bacterias sobrevivieran la travesía. Marte fue húmedo lo bastante temprano y el tiempo suficiente, si alberga vida tal como la conocemos, entonces la vida en la Tierra podría haber comenzado allí.

5. Reprogramación celular

Adición de copias adicionales de unos pocos genes retrasan el reloj del desarrollo de una célula, produciendo  células madre pluripotentes inducidas. Crédito: Cortesía de Shinya Yamanaka, Universidad de Kioto.

Una metáfora clásica de la biología muestra imágenes de una célula embrionaria en la cima de una colina. A medida que el embrión se desarrolla, la célula rueda cuesta abajo en una serie de valles de ramificación. Una vez que una célula entra, por ejemplo, en el valle que lleva a convertirse en una célula de la piel, no puede de repente cambiar de rumbo y convertirse en una neurona. Cuando el biólogo del desarrollo Conrad Waddington mostro la imagen en la década de 1950, el mensaje era claro: El desarrollo es un viaje de ida.

No es así. En la última década, los científicos han descubierto la manera de impulsar las células diferenciadas en la colina y, quizás aún más sorprendente, directamente desde un valle a otro. Al solicitar una célula para sobreexpresar algunos genes, los investigadores pueden convertir una célula de la piel o de sangre en una célula pluripotente: uno que ha recuperado el potencial de convertirse en cualquier número de células en el cuerpo. Otros genes pueden llevar a las células de la piel se ponga directamente en las neuronas o las células sanguíneas. Los científicos ya están utilizando la técnica para hacer las líneas celulares de pacientes con enfermedades difíciles de estudiar, y en última instancia, esperan encontrar coincidentes genéticos de las células y tejidos de reemplazo, tal vez incluso órganos completos.

La base de esta idea innovadora fue construido durante varias décadas de investigación. John Gurdon puso la primera piedra en la década de 1960, cuando ranas clonadas a partir de células adultas mediante transferencia de núcleo de la célula en un óvulo enucleado. Por primera vez, un científico había engatusado material genético de una célula adulta en empezar a hacer un nuevo individuo completo. En 1996, la oveja Dolly amplió esta "transferencia nuclear" a las células de mamíferos. Tal trabajo aumentó las esperanzas de que los investigadores pudieron encontrar la manera en que los ovocitos pudieran reajustar el reloj celular de ADN de adultos, lo que permitiría el desarrollo para comenzar de nuevo en desafío de la metáfora de Waddington.

En 2006, sin embargo, Shinya Yamanaka, sorprendió al mundo cuando demostró que simplemente añadiendo más ejemplares de los cuatro genes a las células de ratón adulto, podría llevar a que se conviertan en pluripotentes-sin la ayuda de los ovocitos necesarios. Llamó a las células resultantes "células madre pluripotentes inducidas" las células (CMPi).

Un año más tarde, dos grupos: uno dirigido por Yamanaka y el otro por James Thomson, crearon de forma independiente CMPi empleando células de piel humana. Los grupos utilizaron combinaciones ligeramente diferente de genes, lo que demuestra que hay formas alternativas de hacer el proceso de trabajo. Poco después, varios grupos demostraron que era posible volver a programar un tipo de célula adulta a otro directamente, convertir los fibroblastos en las neuronas y fibroblastos en células sanguíneas, entre otros resultados.

El gran avance que ofrece es una forma de evitar algunos de los temas éticos y políticos que han afectado la investigación con células madre embrionarias humanas, que se toman de embriones tempranos. De repente, los científicos tenían una fuente de células pluripotentes libre de normas y reglamentos especiales.

Los principios de las técnicas de reprogramación tenían varios inconvenientes, sin embargo. En primer lugar, la froma permanente de insertar el material genético en el genoma de la célula reprogramada de. Aunque los genes parecen dar marcha atrás una vez fuera de las células pluripotentes, no estaba claro cómo podrían influir en el comportamiento de las células más tarde. En segundo lugar, por lo menos uno de los genes utilizados por Yamanaka se sabe accionar el cáncer, y de hecho pronto se hizo evidente que los ratones crecido de CMPi desarrollaron tumores. Por último, el proceso era ineficiente, la reprogramación sólo resultaba en una de cada 5,000 células tratadas.

Muchos de esos problemas han sido abordados. Algunos laboratorios han reprogramado las células con virus que no se insertan en el genoma. Otros han utilizado pequeños anillos de ADN llamados episomas que no se replican cuando la célula se divide. Otros investigadores han encontrado pequeñas moléculas que pueden sustituir a algunos de los factores genéticos y han encontrado formas para insertar una reprogramación de proteínas directamente en una célula. Hace unos meses, un grupo describió cómo utilizar modificaciones por ARN para reprogramar células más rápido y más eficiente que la técnica original.

Al mismo tiempo, los científicos han estado ansiosamente reprogramando de células de cientos de pacientes y controles sanos, en un esfuerzo por descubrir el origen de diversas enfermedades y tal vez encontrar nuevos tratamientos. Laboratorios están utilizando estas células para estudiar la esclerosis lateral amiotrófica, la enfermedad de Parkinson, enfermedad de Huntington, y el autismo, incluso. Las compañías farmacéuticas están utilizando las células del corazón crecido de CMPi para probar las drogas para los efectos secundarios cardíacos, una razón común que las drogas no prometedoras.

Los investigadores también están trabajando para entender exactamente cómo funciona la reprogramación. La evidencia hasta ahora sugiere quese trata de: Una célula tiene que recibir la dosis correcta de cada factor en el momento adecuado. Eso podría explicar por qué el proceso es tan ineficaz: Sólo en una pequeña fracción de células reciben la dosis correcta. La transferencia nuclear es mucho más eficiente, y algunos investigadores todavía están trabajando para reconstruir la forma del ovocito trabaja, con la esperanza de que podría aportar pistas para hacer una reprogramación de trabajo mejor.

La reprogramación ha reconfigurado el paisaje de la biología de desarrollo, tanto para las células como para los investigadores. Los científicos esperan que en las próximas décadas será reconfigurar la medicina también.

6. Microbioma: como los microbios obtienen un poco del respeto que merecen

La lista de bacterias varía entre las distintas partes del cuerpo. Créditos: Adaptado de Dethlefsen L. et al, Nature 449 (18 de octubre de 2007)
Los seres humanos han estado en batalla contra bacterias desde 1800, impidiendo la enfermedad con antibióticos, vacunas, y una buena higiene con un éxito desigual. Pero en el 2000, el premio Nobel Joshua Lederberg llamó a poner fin a la "Nosotros estamos bien, ellos están mal", pensando que tal argumento ha alimentado nuestra guerra contra los microbios. "Debemos pensar de cada huésped y sus parásitos como un superorganismo con los respectivos genomas en una quimera", escribió en Science en 2000.

Sus comentarios fueron proféticos. Esta última década ha habido un cambio en nuestra forma de ver a los microbios, los virus y nuestro cuerpo. Hay una aceptación creciente de que ellos son nosotros, y por buenas razones. Nueve de cada diez células en el cuerpo son microbios. En el intestino hay solo, hasta 1,000 especies que poseen 100 veces más genes como nuestro propio ADN. Hay pocos microbios que nos producen enfermedad, pero la mayoría son comensales y simplemente llaman la casa al cuerpo humano. Colectivamente, son conocidos como el microbioma humano. Del mismo modo, algunos virus se instalan en el cuerpo, creando una virome cuya influencia en la salud y la enfermedad está empezando a ser estudiado.

Los genes de los microbios y el nuestro forman un metagenoma que mantiene el funcionamiento del cuerpo. Esta última década hemos empezado a ver cómo los genes microbianos afectan la cantidad de energía que absorbemos de nuestros alimentos y cómo los microbios en conjunto con los virus para ayudan a preparar al sistema inmune. Viendo los componentes humanos, microbios y virus tan íntimamente entrelazados tiene amplias implicaciones. Como un inmunólogo lo dijo, un cambio "no sólo filosóficamente diferente del reconocimiento de que la Tierra no es el centro del sistema solar."

Esta apreciación ha ganado lugar poco a poco, como parte de un creciente reconocimiento de los microbios en un papel clave que desempeñan en el mundo. Microbiólogos de la secuenciación del ADN de tierra, agua de mar y otros entornos han descubierto un gran número de especies previamente no detectados. Otros investigadores genómica ha sacado a la luz intimidades increíble entre los microbios y sus huéspedes, como una bacteria llamada Buchnera y los áfidos dentro de la cual vive. Un estudio realizado en 2000 encontró que cada organismo tiene lo que al otro le falta, creando una interdependencia metabólica.

Uno de los primeros indicios de que los microbiólogos cambiaban el rumbose produjo en 1999, cuando David Relman de la Universidad de Stanford en Palo Alto, California, y sus colegas encontraron que los estudios previos de bacterias cultivadas a partir de las encías humanos habían subestimado seriamente la diversidad existente. En cuanto a las muestras tomadas en el intestino y las heces, los investigadores identificaron 395 tipos de bacterias, dos terceras partes de ellas nuevas para la ciencia.

En 2006, Steven Gill de la Universidad de Buffalo en Nueva York y sus colegas hicieron un estudio metagenómico del intestino, el análisis de todos los genes que pudieron encontrar se tradujo en 78 millones de bases secuenciadas. Encontraron genes metabólicos que complementan el genoma humano, incluidos los que descomponen la fibra, aminoácidos, drogas y otros que producen metano o vitaminas. Esto y un estudio más amplio en 2010 por Jun Wang, de BGI Shenzhen, en China y sus colegas proporcionan apoyo a la idea del superorganismo microbio-humano, con un amplio repertorio genético. Ahora, los estudios a gran escala ha hecho un repaso de la microflora en el intestino, la piel, la boca, la nariz y el tracto urogenital femenino. El proyecto Microbioma Humano ha secuenciado 500 genomas microbianos.

Algunos de estos microbios pueden desempeñar un papel importante en los procesos metabólicos. En 2004, el equipo liderado por Jeffrey Gordon, de la Escuela de Medicina de St. Louis, Missouri, Universidad de Washington, encontraron que los ratones libres de gérmenes ganaban peso después de que se suministraban bacterias intestinales, evidencia que estas bacterias ayudaron a la obtención de energía para el cuerpo más que la digestión de los alimentos. Estudios posteriores mostraron que los ratones obesos y las personas obesas albergaban pocas bacterias Bacteroidetes que sus contrapartes de peso normal.

El microbioma es también prueba crítica en muchos aspectos de la salud. El sistema inmune necesita para desarrollarse adecuadamente. Es más, para protegerse en el interior del cuerpo, las bacterias comensales pueden interactuar con los receptores de las células inmunes o incluso inducir la producción de ciertas células del sistema inmune. Una bacteria intestinal abundante, Faecalibacterium prausnitzii, ha demostrado tener propiedades anti-inflamatorias, y su abundancia parece ayudar a proteger contra la reaparición de la enfermedad de Crohn. Del mismo modo, Sarkis Mazmanian del Instituto de Tecnología de California en Pasadena mostró que la Bacteroides fragilis es simbionte humano que evito a los ratones conseguir la colitis. Y la inserción de las bacterias aisladas en órganos sanos restauraba las comunidades microbianas, curando la diarrea crónica en un paciente infectado con Clostridium difficile.

Herbert Virgin de la Escuela de Medicina en la Universidad de Washington  encuentra un papel similar para la virome. En ratones, su equipo encontró que el virus latente del herpes aceleraban el sistema inmunológico lo suficiente como para hacer que los ratones menos susceptibles a ciertas infecciones bacterianas.

Las ideas de un microbioma y virome ni siquiera existían hace una década. Pero ahora los investigadores tienen razones para esperar que algún día se manipulen virus y microbios del cuerpo para mejorar la salud y la batalla contra la enfermedad.

7. Exoplanetas: buscando planetas como la Tierra


El telescopio Kepler (en la imagen) en su búsqueda de exoplanetas. Créditos: ESO/NASA.
Hay incontables soles e incontables tierras todas girando alrededor de sus soles, exactamente del mismo modo que los siete planetas de nuestro sistema. Sólo vemos los soles porque son los cuerpos más grandes y luminosas, pero sus planetas permanecen invisibles para nosotros porque son más pequeños y no luminosos.
Giordano Bruno, 1584

Por mantener firme la idea de mundos plurales, Giordano Bruno pasó 7 años en un calabozo, y luego, el 17 de febrero de 1600, fue llevado a una plaza pública en Roma y quemado en la hoguera. Si Bruno habría tenido el poder de mirar el futuro, su mejor oportunidad de supervivencia podría haber sido mostrar a sus inquisidores la página web de la Enciclopedia de Planetas Extrasolares. La evidencia que surgió a partir del año 2000, cuando los planetas en la enciclopedia apenas eran 26, no podría haber logrado la aceptación. Pero en el último recuento, 505 y avanzando, seguramente habría hecho que apagaran sus antorchas.

En la última década, los astrónomos han descubierto tantos planetas fuera del sistema solar que sólo el más raro de ellos ahora es la corriente principal de noticias, como WASP-17, un planeta gigante descubierto en agosto de 2009, que orbita "hacia atrás" de su estrella madre. Una aplicación de software para el iPhone y iPads realiza un seguimiento de los descubrimientos de exoplanetas, puntuando 500, cuando este artículo se estaba escribiendo. Cientos más pronto serán gracias a que los astrónomos persiguen a unos 700 candidatos con el telescopio espacial Kepler de la NASA después de su lanzamiento en marzo de 2009.

Aunque la mayoría de los planetas descubiertos hasta ahora son gigantes gaseosos, un análisis de los datos de Kepler ha convencido a los investigadores que los pequeños planetas similares a la Tierra abundan en el universo y que la capacidad de detección mejorará en los próximos años. Esta idea ha abierto la posibilidad de detectar vida en otros lugares del universo. Mientras tanto, los tamaños y las órbitas de los planetas ya descubiertos están revolucionando la comprensión de los investigadores de cómo los sistemas planetarios se forman y evolucionan.

El descubrimiento de los exoplanetas comenzó como un goteo en la década anterior, a partir de la detección de "51 Pegasi b" en 1995 por un equipo suizo liderado por Michel Mayor, seguida al año siguiente por los descubrimientos de cinco planetas en EE.UU. por los astrónomos Geoffrey Marcy, Paul Butler, y sus colegas. En 2001, varios otros equipos se habían sumado a la búsqueda y el ritmo de los descubrimientos se aceleró.

La técnica más antigua y más popular para la búsqueda de planetas ha sido el uso de espectroscopia Doppler-azul-barrido o corrimiento hacia el rojo-luz de una estrella, ya que se tambalea bajo el tirón gravitacional de un planeta en órbita. En 1999, los astrónomos también empezaron a detectar planetas extrasolares mediante la técnica de tránsito, en busca de una estrella para atenuar un poco como su planeta viaja a través de su cara. Los tránsitos han producido el descubrimiento o la confirmación de más de 100 planetas hasta la fecha.

Desde 2001, los cazadores de planetas han añadido dos técnicas más para su caja de herramientas. Uno de ellos es el uso de micro-lente, en la que una estrella brilla brevemente como la gravedad de otra estrella en primer plano se dobla la luz, cambios en el brillo puede revelar un planeta que orbita la estrella en primer plano. Los investigadores dirigidos por Ian Bond, del Observatorio Real de Edimburgo, en el Reino Unido anunciaron el primer descubrimiento de un planeta a través de micro-lente en el año 2004, la técnica ha logrado encontrar 10 más desde entonces.

En 2008, los astrónomos publicaron las primeras imágenes directas de los exoplanetas: pequeños alfileres cerca de una estrella cercana. Con los avances en óptica adaptativa, la tecnología corrigió el efecto borroso de la atmósfera en los telescopios de tierra, y el desarrollo de mejores coronógrafos en los dispositivos que ayudan a bloquear la luz directa de una estrella, los astrónomos esperan a la imagen de muchos planetas directamente.

La diversidad de los sistemas planetarios descubiertos hasta la fecha ha obligado a los astrónomos a revisar sus teorías de cómo estos sistemas surgen y se desarrollan. El descubrimiento de "Júpiter calientes" que orbitan muy cerca de su estrella madre sugiere que los gigantes de gas, que se forman lejos de la estrella, pueden migrar hacia el interior a través del tiempo. Y el descubrimiento de planetas bailando alrededor de sus estrellas en órbitas inclinadas o retrógrada incluso sugiere que los planetas pueden ser arrancados de sus lugares de nacimiento en órbitas extrañas que los astrónomos no podían haber previsto.

Los astrónomos esperan que Kepler encuentre varios planetas similares a la Tierra en los próximos años. Los investigadores están planeando nuevos instrumentos en tierra y los instrumentos basados en el espacio para tomar espectros de la atmósfera de algunos de esos planetas habitables. Esas atmósferas pueden tener señales de vida, tales como el oxígeno, que los investigadores creen que sólo puede ser producido por procesos biológicos. Cuando eso ocurra, sería la última reivindicación de la visión fatal de Bruno de un cosmos lleno de mundos.

8. Inflamación: descubriendo su lado oscuro 

Los macrófagos son un indicio temprano de como la enfermedad crónica y la inflamación están estrechamente vinculados. Crédito: David M. Phillips/Photo Researchers Inc

No hace mucho tiempo, la inflamación tenía un papel claro: Era un compañero de los curanderos del cuerpo, exponer brevemente las células inmunes reconstruyendo tejido dañado por un trauma o una infección. Hoy en día, es la última idea. La inflamación tiene un gran momento. Durante la última década, ha sido ampliamente aceptado que la inflamación es una fuerza impulsora detrás de enfermedades crónicas que matan a casi todos nosotros: cáncer. La diabetes, la obesidad, Alzheimer, aterosclerosis. En este caso, la inflamación lleva una máscara lúgubre, derramando sus aspectos positivos y haciendo más enfermos a los enfermos.

Cuando un cuchillo de cocina se mueve mientras se está cortando las verduras, el organismo reacciona rápidamente. Los glóbulos blancos esterilizan la herida y empiezan el tejido de reparación. Esta respuesta inflamatoria tiene sus desventajas, causa hinchazón, enrojecimiento y dolor. (De hecho, "la inflamación" se deriva del verbo latino inflammare, que significa prender fuego.) Pero no hay duda de que la inflamación aguda es positiva, una respuesta al trauma que hace miles de años evolucionó para mantenernos vivos y saludables.

Una historia más oscura comenzó a surgir en la década de 1990. Los investigadores en interconexión de enfermedades aparentemente sin relación se dieron cuenta de que las células inmunes se congregan en los sitios de la enfermedad. La aterosclerosis, en el que placas de grasa se acumulan en las arterias, fue uno de los primeros corroborar tal hallazgo. En la década de 1980, el difunto Ross Russell de la Universidad de Washington, Seattle, vio macrófagos en el tejido aterosclerótico, estos glóbulos blancos son un sello distintivo de la inflamación. Poco a poco, a medida que se analizaba el tejido arterial, comprendían como surgía la respuesta inflamatoria. Había células T, había interferón-γ, que el sistema inmunitario produce como parte de sus esfuerzos inflamatorios. También en la combinación de variantes genéticas fueron identificadas por la compañía islandesa deCODE que predisponen a las personas con ataques al corazón, alimentando la inflamación en las placas. Y luego en abril de este año, investigadores utilizaron una técnica microscópica nuevo para describir, pequeños cristales de colesterol en las arterias que inducen la inflamación en las primeras etapas de la enfermedad en ratones, relatado en la revista Nature.

Otras condiciones desarrollaron historias paralelas. En 1993, un grupo de la Universidad de Harvard encontró que el tejido graso de ratones obesos producía una proteína inflamatoria clásica. Diez años más tarde, documentos mostraban una correlación entre la infiltración de macrófagos del tejido adiposo en los roedores de manera similar a las personas obesas. Los recién llegados a la historia inflamatoria incluían enfermedades neurodegenerativas como el Alzheimer y el Parkinson. En este caso, no se conoce si la inflamación es la perpetuación de la enfermedad o simplemente es un paseo.

En la mayoría de enfermedades crónicas para las que la inflamación ha sido señalada, parece conducir a la mala salud, pero no iniciarla. En el cáncer, por ejemplo, artículos publicados en la última década sugieren que los tumores de la inflamación avanzan junto al desastre: Tumores distorsionan el tejido sano, lo que desencadena la reparación de tejidos, que a su vez promueve la proliferación celular y el crecimiento de vasos sanguíneos, ayudando a ampliar el cáncer. Y aunque las mutaciones genéticas en las células tumorales inician el cáncer, hay evidencia de que la inflamación en el tejido circundante ayuda a convencer a las células a lo largo.

En el cáncer, la inflamación se presenta por lo menos en parte, por las mismas razones que normalmente hace: lesión de los tejidos. En otros lugares, su aspecto es más misterioso. En enfermedades neurodegenerativas, por ejemplo, hay algunos daños en los tejidos de neuronas, pero no hay evidencia, también, que la inflamación este ayudando a matar a las neuronas. La inflamación también parece promover dos componentes de la diabetes tipo 2: resistencia a la insulina y la muerte de las células beta pancreáticas que producen insulina.

Cuando se trata de la obesidad, no está claro por qué la inflamación impregna el tejido adiposo. Pero hay teoría. Una habla de una respuesta inmune equivocada: las células de grasa en las personas obesas son metabólicamente normales, y el sistema inmune los percibe como que necesitan ayuda y envía los macrófagos al rescate, a pesar de que sólo hacen daño.

La manera más segura de probar que la inflamación es la conducción de cualquier enfermedad es mediante el bloqueo de ella y probar si eso ayuda, los experimentos están en marcha. En 2007, Marc Donath, del Hospital Universitario de Zurich en Suiza y sus colegas describieron los resultados de un ensayo clínico sobre diabetes tipo 2. Setenta pacientes recibieron un placebo o anakinra, un medicamento que se usa ocasionalmente para tratar Artritis reumatoide que bloquea la interleucina-1. IL-1 una citoquina proinflamatoria, promueve la inflamación, que se ha encontrado en las células beta a partir de las personas con diabetes tipo 2. En el pequeño estudio, publicado en el New England Journal of Medicine, el medicamento ayudó a controlar la enfermedad. Anakinra no es una buena opción para el tratamiento de la diabetes a largo plazo, por lo que varias empresas están compitiendo para desarrollar alternativas.

Mediar la inflamación en las enfermedades crónicas es una nueva frontera, su éxito todavía incierto. Pero después de la inflamación eludida durante tanto tiempo, los investigadores están persiguiéndola a plomo, tratando de mantenerse un paso por delante y discernir cuando su necesidad sea apagar los incendios.

9. Metamateriales: nuevos trucos con luz

Metamateriales permiten dirigir la luz alrededor de un objeto. Una versión de disco funciona con microondas. Créditos: David Shurig.

Tres siglos después de que Isaac Newton publicara Óptica, el panorama ha cambiado. En la última década, los físicos e ingenieros pioneros han encontrado nuevas maneras de orientar y manipular la luz, han creado lentes que desafían el límite fundamental en la resolución de un objetivo común e incluso han construido capas" que hacen que un objeto invisible.

Tales hazañas surgieron de una mezcla más o menos de 50 a 50 de una nueva tecnología y una idea novedosa. La tecnología de "metamateriales": emplea un conjunto de barras, anillos y cables que actúan como los materiales con extrañas propiedades ópticas. La idea es la óptica de transformación, un esquema que indica a los científicos la manera de adaptar las propiedades de un metamaterial para lograr un efecto como de camuflaje.

Metamateriales trabajan en la dirección de ondas electromagnéticas de luz y otros. Cuando las ondas de luz atraviesan materiales normales, tales como vidrio, el material altera los campos eléctricos y magnéticos en la luz, produciendo una desaceleración de las ondas a una nueva velocidad en particular. La desaceleración da el nuevo medio de un índice de refracción diferente. Este efecto se explica por qué una popte en un vaso con agua parece doblarse en la superficie del agua. En los materiales naturales, las ondas de luz que entran en un ángulo siempre doblan en el material-el sello de un índice de refracción es mayor que 1-.

En 1968, Víctor Veselago, un físico ruso, razonó que un material puede ser diseñado para crear un índice negativo de refracción y doblar las ondas de luz más radical. Si el agua tenía un índice negativo de refracción, luego un popote colocado en un vaso parece doblarse debajo de sí mismo. Este material, Veselago considero podía constituir un superlente: una hoja plana capaz de enfocar la luz, incluso mejor que las lentes curvas. La noción permaneció latente durante décadas. Luego, a finales de 1990, John Pendry, físico del  College Imperial de Londres y sus colegas determinaron que la forma larga y delgada de nanotubos de carbono ayudaba a absorber ondas de radio.

Pendry comenzó reflexionando sobre cómo otros materiales artificiales podrían afectar electroondas magnéticas. Cables de cobre y anillos rasgados producían "eco", con los campos eléctricos y magnéticos de frecuencias específicas y Pendry se dio cuenta de que jugando con las resonancias se podía sintonizar las propiedades eléctricas y magnéticas de un metamaterial lograr un índice negativo de refracción para microondas. También razonó que sería posible construir superlentes Veselago para ver los objetos más pequeños que la mitad de la longitud de onda de la luz que transmite. Un lente no convencional que puede vencer el "límite de difracción". Pero los metamateriales, se dio cuenta Pendry, se pueden hacer mediante la amplificación de resonancias pequeñas, llamadas ondas evanescentes, que la luz crea bajo ciertas condiciones.

La idea de Pendry desencadenó un torrente de experimentos. En 2001, Pendry se asoció con el físico David Smith, de la Universidad de California (UC), San Diego, ahora en la Universidad de Duke en Durham, Carolina del Norte, para la construcción de un metamaterial con índice negativo de refracción de microondas, aunque para ello paso un par de años convenciendo a la comunidad científica que funcionaba. Sólo unos años más tarde, otros equipos informaron de un éxito inicial en la toma de una superlente y dispositivos relacionados llamado hyperlenses.

Entonces las cosas se pusieron realmente extrañas. En mayo de 2006, Pendry y colegas y de forma independiente, Ulf Leonhardt, un teórico de la Universidad de St. Andrews en el Reino Unido, informó de que los metamateriales podían usarse para hacer un objeto invisible, empleando la dirección de la luz alrededor de ella Sólo 5 meses después, David Schurig en su postdoctorado junto a otros colegas dieron a conocer un dispositivo de camuflaje en forma de anillo.

El dispositivo no es perfecto, sólo trabajaba con microondas de una frecuencia específica. El avance real reside en el concepto detrás de él. En su teoría de la relatividad general, Einstein se dio cuenta que el espacio y el tiempo se puede estirar y deformar de manera que cambia la trayectoria de la luz. Así Leonhardt y Pendry imaginaron doblar el espacio para dirigir la luz alrededor de una región circular, por lo que no se ve nada dentro de ese agujero invisible.

Los teóricos han podido imitar este extremo estiramiento del espacio por llenar una región sin deformar el espacio con un metamaterial cuyas propiedades eléctricas y magnéticas varían de una manera específica. Pusieron a la teoría matemática para hacer esa transformación. En principio, la teoría permite a los experimentadores curvar la luz casi de cualquier forma que quieran, siempre que puedan esculpir un metamaterial en consecuencia.

Las maravillas siguen llegando. En 2008, los investigadores construyeron un manto de microondas que trabaja en un rango de longitudes de onda. Ese mismo año, en la Universidad de Berkeley el físico Xiang Zhang y sus colegas crearon el primer dispositivo de camuflaje que trabajaba en tres dimensiones. Las capas relacionadas se han realizado para trabajar con los rayos infrarrojos y luz visible.

Sin embargo para decepción de los fans de Harry Potter, al encubrir un objeto de tamaño humano en longitudes de onda visibles parecen una posibilidad remota. Pero metamateriales para microondas podrían tener miles de aplicaciones prácticas. Y la idea de la óptica de transformación es tan hermosa que parece una pérdida derroche de inspiración si no se ha traducido en algo útil.

10. Cambio climático

Los impactos del calentamiento global-tanto sequías como inundaciones- han llegado antes de lo esperado. Créditos: Universidad de Colorado.

La mayoría de puntos de vista son una sorpresa: un estallido de entendimiento, una solución elegante a un problema. Pero la idea principal de esta década en la ciencia del clima es diferente. Durante 40 años, los investigadores habían luchado con tres grandes preguntas: ¿Es el calentamiento mundial? Si es así, ¿Los seres humanos detrás del calentamiento? Y ¿Son procesos naturales que puedan para frenar? En los últimos años, los científicos del clima finalmente estuvieron de acuerdo con respuestas sólidas: sí, sí, y no-tal como se había sospechado.

No hubo sorpresas. Los efectos de los gases de invernadero sobre los océanos y el hielo polar son más rápidos de lo que los modelos habían previsto. Sin embargo, ante la obvia reducción de emisiones de carbono el mundo se resistió. En los Estados Unidos, aun cuando la ciencia se hizo más fuerte, una reacción política forzó a los científicos del clima para defender su credibilidad y motivos.

El repentino cambio sorprendió a investigadores del calentamiento global. Ellos habían estado publicando evaluaciones del estado del efecto invernadero-calentamiento bajo la égida de una organización u otra desde 1979; en 1990, el nuevo Grupo Intergubernamental de Expertos sobre el Cambio Climático (IPCC) tomó la iniciativa. La segunda evaluación del IPCC, publicada en 1995, afirmaba ligeramente que "el balance de evidencias sugiere que los seres humanos estaban influyendo en el clima mundial. Pero en 2007, el IPCC había llegado a un consenso científico sólido: el calentamiento es "inequívoco", era "muy probable", debido sobre todo a los seres humanos, y los procesos naturales "muy improbables" pero con fuerza contundente. La amplitud y profundidad del proceso del IPCC parecía ahogar el coro pequeño, pero bien conocidos de inconformistas climáticos.

La evolución de todo el mundo amplifico el mensaje. En la década de 1980 y 90, la mayoría de los investigadores pensaron que los impactos previstos de los gases de invernadero no golpearía duro hasta bien entrado el siglo 21. Pero a mediados de la década de 2000, el hielo marino en el Ártico durante el verano fue, obviamente, desapareciendo, las plataformas de hielo fueron cayendo a pedazos, y Groenlandia y los glaciares de la Antártida Occidental se precipitaron hacia el mar. El huracán Katrina inundó Nueva Orleans al igual que los científicos debatían cómo el efecto invernadero podría intensificar y multiplicar los huracanes. Incluso la acidificación de los océanos es un hecho de observación de finales de la década. En abril de 2006, un artículo de portada en la revista Time advertía del calentamiento global como un hecho y advirtió claramente: "estarmos preocupados. Muy preocupados. "

Sin embargo, las naciones poderosas estaban actuando en contra. Como candidato presidencial en 2000, George W. Bush se había comprometido a regular el CO2, como presidente, no cumplió y se negó a firmar el Protocolo de Kyoto, un tratado de limitación de las emisiones que 187 países habían ratificado tres años anteriores. Siguieron años de esfuerzos por la Administración Bush para alterar un puñado de informes de la ciencia del clima para minimizar los posibles efectos del cambio climático, mientras los legisladores en Washington y los negociadores en el extranjero en varias ocasiones no podían pasar de EE.UU. o las normas internacionales. Europa tuvo un cierto éxito inicial con su sistema de topes y comercio, pero incluso el Fondo Mundial para la Naturaleza dice que no hay "ningún indicio de que el sistema influye en las decisiones de inversión a más largo plazo".

Una nueva Administración en Washington trajo un cambio en el tono, pero no en curso. Durante la campaña presidencial de 2008, Barack Obama se comprometió a reducir las emisiones de EE.UU. un 80% en 2050 respecto a 1990, después de las elecciones, la Cámara de Representantes de EE.UU. aprobó una ley que hizo básicamente eso. Pero el proyecto murió en el Senado este año, después que el presidente Obama no haya logrado obtener un tratado vinculante sobre las emisiones en las negociaciones clave en Copenhague en diciembre de 2009.

En noviembre, la publicación de la correspondencia por e-mail entre los científicos, tomada desde los servidores de la Universidad de East Anglia en el Reino Unido, había dado a la ciencia del clima una sacudida de la mala publicidad. Cinco grupos de expertos más tarde absolvió a los científicos de la mala conducta científica. Aun así, el evento pudo haber dañado profundamente la opinión del público en la ciencia del clima, con repercusiones políticas que aún no se desarrollan. Las elecciones del mes pasado del Congreso de EE.UU. pueden insinuar cosas por venir: La mayoría de los republicanos, que ganaron las elecciones a la Cámara y casi todos los candidatos republicanos del Senado han cuestionado la ciencia fundamental detrás del cambio climático, y algunos de ellos denuncian todo el campo como una conspiración. "La guerra contra la ciencia del clima y los científicos que está pasando ahora hace que la administración Bush mire moderado", dice Rick Piltz, un funcionario de la Casa Blanca, en el clima desde 1995 hasta 2005 que ahora dirige el grupo de vigilancia del clima Science Watch en Washington, DC

Hay indicios de movimiento. En los EE.UU., la Agencia de Protección Ambiental se está preparando para la batalla para reducir las emisiones de las plantas de gran potencia, y China, Indonesia, Brasil además de la India han hecho recientemente sus compromisos por primera vez para hacer frente a las emisiones. Pero los "halcones climático" han perdido el tiempo e impulso, y muchos expertos ahora creen que la adaptación al calentamiento del planeta, para no reducir las emisiones, dominará los debates de política en la próxima década.

Referencia:

"Insights of the Decade", Science.