3/14/2013

 
 
“Cuando un bosque se quema, algo suyo se quema”, así rezaba un antiguo eslogan de los años 60 con el que los responsables de entonces intentaban concienciar a nuestra sociedad de los peligros que tiene el descuido de una colilla mal apagada o una inocente barbacoa en medio del campo. Bien leída, aquella frase tiene mucho más alcance del que parecía en aquel momento, no sólo hace referencia a hechos aislados y fortuitos, sino al cambio profundo que ha tenido lugar en la sociedad y su relación con el fuego.
 
En tiempos pasados, los fuegos seguían una secuencia marcada por la propia naturaleza, los rayos eran la fuente principal de ignición, sin embargo, ahora, el origen de la mayoría de los incendios que tienen lugar en el mundo tienen causas relacionadas con la actividad humana. El mundo ha cambiado de una forma vertiginosa gracias a nosotros, además de nuestra inevitable presencia en la mayoría de los ecosistemas, ha cambiado también nuestra relación con el entorno.
 
Ya no necesitamos salir al campo a recoger la leña seca para calentar nuestros hogares, regiones donde antaño pastoreaban inmensos rebaños ahora permiten el crecimiento de enormes cantidades de hierba que se convierten en combustible durante la estación seca, muchos cultivos que entonces tenían una baja rentabilidad pero servían para sustentar a una familia, ahora se han abandonado y el terreno se explota de manera diferente. También hemos creado nuevos bosques pero muchos páramos se han repoblado con especies que generan madera aunque tienen el inconveniente de que arden con facilidad. Se han construido urbanizaciones en lugares idílicos sin pensar que, en caso de incendio, tal vez tengan que pagar un elevado precio por ello, en enseres y, tal vez, en vidas humanas. En resumen, ha cambiado todo nuestro entorno social y económico y ello ha modificado también nuestra relación con el fuego.
 
Otro factor viene a unirse al problema, multiplicando la secuencia y el poder destructor del fuego, un factor que también nosotros estamos potenciando: “el cambio climático”.
 
La elevación de la temperatura media del planeta tiene consecuencias difíciles de cuantificar, pero casi nadie discute ya su realidad. La continua emisión de gases de efecto invernadero está permitiendo que la atmósfera terrestre acumule más energía, una energía que potencia los efectos de todos los fenómenos que en ella suceden. El cambio del clima en el futuro no es algo que se producirá de la noche a la mañana, será gradual y con un reparto desigual, y se ha producido muchas veces a lo largo de la historia del planeta. Sin embargo, ahora, el proceso, gracias a nuestra ayuda, se está acelerando. Muchos factores que están conectados con el cambio del clima global se hacen presentes ya en el siglo XXI: aumento de la frecuencia y duración de los periodos de sequía en algunas zonas, el incremento de lluvias e inundaciones en otras, el deshielo de las grandes masas heladas del planeta, la subida del nivel de las aguas de mares y océanos, el incremento en la frecuencia y poder destructivo de huracanes y otros fenómenos adversos, son sólo algunas de la larga lista de consecuencias lógicas. En muchas regiones, el fuego tendrá en el cambio climático a su mejor aliado.
 
Hoy nos acompaña un científico que estudia la relación de fuego con los factores que hemos mencionado. Es Don José Manuel Moreno Rodríguez, Vicepresidente del Grupo II del IPCC (Panel Intergubernamental para el Cambio Climático) y responsable de un Proyecto europeo que tiene como objetivo estudiar los incendios forestales bajo condiciones de cambio climático, social y económico (FUME). Don José Manuel Moreno es Catedrático de Ecología y Director del Departamento de Ciencias Ambientales de la Universidad de Castilla-La Mancha en Toledo. Les invitamos a escucharlo.
 
 
  No podemos evitar un merecido sentimiento de culpa cuando una especie emblemática desaparece de lugares en los que antaño fue común, especialmente si, como suele ocurrir, hemos sido la causa directa o indirecta de su desaparición. Éste es el caso más dramático pero también hay lugares donde una especie amenazada sigue existiendo pero su población es tan escasa que tiene pocas posibilidades de futuro ¿Qué se puede hacer para favorecer la conservación de esas especies en sus hábitats de origen? ¿Qué estrategias son las más adecuadas para que nuestros esfuerzos se vean coronados por el éxito?

Si la especie ha desaparecido de su región de origen pero sigue existiendo en libertad en otros lugares o bien se conserva en cautividad, quizás exista la posibilidad de devolverla de nuevo a su hábitat natural. Se puede escoger un conjunto de individuos adultos y soltarlos en su antiguo territorio con la esperanza de que logren salir adelante y formen una población estable (hablamos entonces de “reintroducción”). Cuando la especie todavía existe en una zona determinada pero el problema es la escasez de individuos, se puede aumentar su número liberando ejemplares procedentes de su cría en cautividad o de otras poblaciones salvajes, con la esperanza de que la población supere las dificultades y logre tener en el futuro una población estable (en este caso se habla de “reforzamiento”).

Este tipo de actuaciones nada tiene que ver con el hecho de soltar ejemplares de una especie que jamás ha existido en el lugar, en ese caso, probablemente se trata de un delito ecológico (hablamos de “introducción”).
Definidas así las opciones, parece empresa fácil de realizar, pero nada más lejos de la realidad, como explica hoy nuestra invitada en “Hablando con Científicos”, Graciela Gómez Nicola, profesora de zoología en la Facultad de Ciencias Ambientales y Bioquímica de Toledo.

Los intentos de reintroducción o reforzamiento de poblaciones son variados y entrañan, muchas veces, dificultades insalvables. No obstante, la experiencia acumulada es muy valiosa y su estudio ha servido para elaborar criterios de actuación que potenciarán las posibilidades de éxito de proyectos futuros. Éste ha sido el objetivo de un estudio que ha recopilado los datos y experiencias de 280 trabajos publicados en ocho de las más relevantes revistas científicas en materia de conservación biológica y 174 proyectos relacionados con reintroducciones y reforzamiento de poblaciones en España. En el estudio, publicado en la revista Frontiers in Ecology and the Environment, han participado los investigadores Irene Pérez Ibarra y José Daniel Anadón, (Arizona State University), Mario Díaz (Museo Nacional de Ciencias Naturales. CSIC ), José L. Tella (Estación Biológica de Doñana ), Andrés Giménez y nuestra invitada, Graciela Gómez Nicola (Universidad de Castilla – La Mancha).
En el estudio se proponen 10 criterios básicos para evaluar la necesidad y viabilidad de las reintroducciones y reforzamiento de poblaciones de especies.

Les invitamos a escuchar “Hablando con Científicos”
REFERENCIAS
What is wrong with current translocations? A review and a decision-making proposal

 
 
Nos maravillan las construcciones y obras de ingeniería que han ido dando forma al mundo moderno. Nuestros ojos observan incrédulos los edificios altísimos de las ciudades, los monumentos, las grandes avenidas y calles asfaltadas, etc. Nos trasladamos de una ciudad a otra circulando por larguísimas carreteras o autopistas y, si el viaje es en tren, las vías se nos antojan infinitas, con sus raíles sobre traviesas de hormigón y piedras. Impresiona pensar la cantidad de conocimientos y cálculos que hay que hacer para llevar a cabo esas obras pero pocas veces nos paramos a pensar en los materiales básicos con los que son construidas.
En estos momentos es inconcebible erigir una obra arquitectónica sin utilizar cantidades considerables de hormigón, un material de construcción indispensable. Las carreteras y autopistas serían un sueño imposible sin esas piedrecitas que, convenientemente apisonadas y unidas por el asfalto, proporcionan la base sobre la que nos deslizamos con nuestros vehículos. Los trenes circulan sobre lechos de balasto, nombre con el que se identifica a las piedras sobre el que se apoyan las traviesas que sustentan los raíles. Ya lo ven, en el fondo no hemos cambiado los materiales básicos de construcción que se vienen usando desde los tiempos de los antiguos egipcios, griegos y romanos; ellos utilizaban sillares de piedra para sus construcciones y nosotros hacemos lo mismo pero empleando rocas de muy diverso tamaño unidas con sustancias aglomerantes que les da consistencia. A estos materiales pétreos de granos de distinto tamaño se les denomina con el nombre genérico de “áridos”.
¿Qué son los áridos?
Árido es la arena formada por pequeños granos de roca que no superan los cinco milímetros de diámetro. También son áridos las gravas y gravillas de cantos rodados, es decir, esas piedras de distinto tamaño que las aguas de los ríos han ido labrando durante cientos o miles de años. Áridos son los pedazos de rocas machacadas cuyos fragmentos angulosos sirven de base para la fabricación del hormigón, el pavimento de las carreteras o el balastro de las vías férreas. Por último, existen áridos ligeros que son creados de forma natural en las erupciones volcánicas y que contienen una gran cantidad de poros en su interior.
Después del agua, los áridos constituyen la primera materia prima consumida por el ser humano. Si repartiéramos equitativamente entre todos nosotros los áridos consumidos durante un año, por término medio, a cada uno nos corresponderían nada menos que 7 toneladas.
Áridos para el hormigón.
El hormigón se forma a partir de una mezcla de cemento, áridos y agua. Para fabricar un metro cúbico de hormigón se emplean entre 1.800 y 2.000 kilos de áridos. Piensen que para construir una vivienda aislada se consumen entre 100 y 300 toneladas de hormigón, la construcción de un colegio requiere entre 2.000 y 4.000 toneladas y un kilómetro de autopista se lleva unas 30.000 toneladas ¿Se imaginan la cantidad de áridos que debimos extraer de la tierra durante los pasados años de bonanza en España?
Lógicamente, todos esos áridos deben salir de algún lugar. La arena y las gravas se extraen de los restos que dejaron a su paso las aguas de los ríos pasados y presentes, otros áridos se obtienen directamente de las rocas en las canteras, que son posteriormente machacados para darle un tamaño medio útil para sus diversas aplicaciones. Cuando los áridos se apilan en las canteras, lo habrán visto alguna vez, se forman verdaderas montañas artificiales desde las que se distribuyen hasta los lugares de uso. También habrán visto ciertos lugares en los que colinas enteras son cortadas como si fueran mantequilla para obtener la piedra que, triturada, forma los áridos.
Ya han comprobado la importancia de los áridos, pero no acaba ahí la historia. Los áridos no pueden ser utilizados de cualquier manera para hacer hormigón, antes deben estar limpios. Dado que los trozos de piedra, en el momento de su extracción, suelen estar rodeados de una fina capa de arcilla, hay que someterlos a un proceso de limpieza con agua para liberarlos de la arcilla y de los restos orgánicos, si los hay. Ese proceso requiere ingentes cantidades de agua que, después de utilizada, se suele acumular en enormes estanques donde las partículas de arcilla se sedimentan creando lodos. Estos lodos no son tóxicos, pero ocupan lugar y darles salida es, a veces, difícil.
La investigación de nuevos áridos ligeros
Dar una salida útil a estos desechos es el objetivo de una investigación que, desde hace unos años, se ha estado desarrollando en la Facultad de Ciencias del Medio Ambiente de la Universidad de Castilla la Mancha en Toledo. Observen que hablo en pasado porque en estos momentos, debido a la crisis, la investigación se encuentra en punto muerto por falta de fondos. Allí se creó un laboratorio que cuenta con los más sofisticados equipos de análisis, hornos e instrumentación necesarios para investigar diversas formas de aprovechar los lodos generados por la elaboración de áridos, junto a los desechos que se producen en la minería e, incluso, el aceite usado de los vehículos. Con estos ingredientes básicos, en el laboratorio se logró elaborar un nuevo material, un árido ligero, que promete ser útil para la construcción, geotecnia, jardinería o agricultura.
El árido camino del investigador tras los recortes de la crisis económica.
El material elaborado (ver fotografía) nos lo ha mostrado, orgulloso, nuestro invitado de hoy, Jacinto Alonso Azcárate, profesor del área de Cristalografía y Mineralogía en la Facultad de Ciencias del Medio Ambiente de Toledo. D. Jacinto Alonso fue director de tesis de Beatriz González Corrochano, quien, como él mismo comenta en la entrevista, fue el alma del proyecto y así lo reflejan los artículos de investigación publicados.
Sin embargo, el éxito de una investigación no es suficiente para continuar, como no lo son los sofisticados y carísimos equipos que en estos momentos duermen el sueño de los olvidados en el laboratorio. Hacen falta personas preparadas para que esos equipos den nuevos frutos. Hay dos inversiones que ya están hechas: los equipos y la formación de los científicos que han luchado para adquirir unos conocimientos que ahora podrían dar nuevos frutos para la ciencia y la sociedad. Es una pena que todo se pierda por falta de una beca, de un contrato o de un apoyo económico que les permita sobrevivir mientras investigan nuevos caminos del conocimiento, unas investigaciones que, como el tema que nos ocupa hoy, en un futuro traerán beneficios a toda la sociedad. El laboratorio espera ahora la llegada de fondos, algunos ya concedidos y otros en concurso, para seguir adelante ¡Ánimo!
REFERENCIAS
“Microstructure and mineralogy of lightweight aggregates produced
from washing aggregate sludge, fly ash and used motor oil”
B. González-Corrochano, J. Alonso-Azcárate, M. Rodas, F.J. Luque, J.F. Barrenechea” Cement & Concrete Composites 32 (2010) 694–707
“Effect of thermal treatment on the retention of chemical elements in the structure of lightweight aggregates manufactured from contaminated mine soil and fly ash” B. González-Corrochano, J. Alonso-Azcárate, M. Rodas. Construction and Building Materials 35 (2012) 497–507
“Production of lightweight aggregates from mining and industrial wastes”
B. González-Corrochano a, J. Alonso-Azcárate, M. Rodas. Journal of Environmental Management 90 (2009) 2801–2812
“Characterization of lightweight aggregates manufactured from washing
aggregate sludge and fly ash” B. González-Corrochanoa, J. Alonso-Azcárate, M. Rodas. Resources, Conservation and Recycling 53 (2009) 571–581
 
La Tierra y la Luna forman un único conjunto astronómico, un sistema doble que danza sin fin alrededor de un centro común situado a 4.800 km del centro de nuestro planeta en la línea que une ambos cuerpos. Esa danza tiene un precio. Las mareas que provoca un astro en el otro frenan el movimiento de rotación tanto de la Tierra como de la Luna. En nuestro planeta los días son ahora mucho más largos que al principio de su formación y la Luna ha reducido su periodo de rotación, de tal manera, que tarda el mismo tiempo en dar una vuelta alrededor de la Tierra que en girar sobre su eje: 27 días, 7 horas y 43 minutos. Ese sincronismo obliga a la Luna a mostrarnos siempre la misma cara y, en consecuencia, ocultarnos su otra mitad.
Releyendo el magnífico libro de divulgación “A ras de Cielo” escrito por David Galadí Enríquez, astrónomo del Centro Astronómico Hispano-Alemán (Observatorio de Calar Alto) comprendí que el empeño de la Luna por mirar a la Tierra siempre con la misma cara no es excepcional, está escrito en las leyes físicas que gobiernan el movimiento de los astros. Muchos otros cuerpos celestes siguen un baile semejante: los satélites de Marte, los grandes satélites de Júpiter y Saturno, incluso el degradado planeta enano Plutón hace lo mismo con su satélite Caronte.
Plutón es un caso especial porque, en cierto sentido, tiene ciertas similitudes con la Tierra. Al igual que nuestro planeta, Plutón tiene un acompañante que, comparado con él en tamaño, es muy grande. Plutón es mucho más pequeño que la Tierra, su diámetro (2.390 km) es menor, incluso, que el de la Luna (3.474 km), de ahí su pérdida de protagonismo entre los planetas del Sistema Solar. Su luna Caronte es más pequeña que él (1.207 km de diámetro) pero, comparada con el planeta enano, es muy grande, por esa razón ambos cuerpos son considerados también como un sistema doble. Un sistema que giran mostrándose siempre la misma cara.
No obstante, los casos de nuestro sistema y el sistema de Plutón son sólo una de las soluciones que la naturaleza ofrece a la hora de sincronizar los movimientos de los astros. La combinación de los efectos debidos a la rotación junto a la excentricidad de la órbita puede dar soluciones distintas al sincronismo 1:1 (una vuelta alrededor del eje, por cada órbita). Mercurio es un buen ejemplo que trajo de cabeza a los científicos hasta 1965. En un principio se pensaba que su rotación estaba sincronizada con su traslación alrededor del Sol pero después se descubrió que el sincronismo es más curioso, da tres vueltas sobre su eje cada dos años mercurianos (tiene un sincronismo 2:3).
De todas estas cosas habla hoy David Galadí Enríquez en Hablando con Científicos.
 
 
Cuando escuchamos la palabra “radiación” tendemos a asociarla a procesos nucleares indeseables, sin embargo, el verdadero significado es mucho más amplio. La forma más cotidiana de radiación es la que lleva el apellido de “electromagnética”, una categoría a la que pertenecen, el radar, las ondas de radio y televisión, las microondas, la luz visible, los rayos ultravioleta o los rayos X y gamma. Todas esas formas de radiación muestran su particular firma al interactuar con la materia. Hoy hablamos con D. Josep Lluis Font, profesor de la Universidad Politécnica de Cataluña, de la interacción entre la radiación electromagnética y la materia.
Lo mismo que hay muchas más radiaciones, en general, de las que creemos, también existe más luz (radiación electromagnética) de la que podemos ver. Nuestros ojos son instrumentos maravillosos pero limitados. La luz visible es un trozo muy pequeño de todo el pastel de ondas electromagnéticas posibles. Si las pudiéramos ver todas, el arco iris sería muchísimo más ancho y estaría adornado por un número infinito de colores, unos se situarían entes del rojo y otros a continuación del violeta. Nuestros ojos no los pueden ver pero hemos desarrollado toda una tecnología que los ve por nosotros.
Las ondas electromagnéticas de frecuencia más baja hemos aprendido a detectarlas con instrumentos como el aparato de radio. Nosotros no las vemos, pero su receptor radiofónico sí. Su aparato de radio ha sido diseñado para captarlas y convertirlas en ondas sonoras que pueden ser detectadas por nuestro oído. Gracias a la tecnología que nos permite captar y generar ondas de radio se abrió una puerta que nos permite comunicarnos entre nosotros y escuchar los latidos de las estrellas.

NUEVOS OJOS PARA INVESTIGAR LA RADIACIÓN QUE LLEGA DEL COSMOS

Desde las lejanas galaxias están llegando continuamente señales de radio a la Tierra. Son señales muy débiles, tanto, que nuestro receptor radiofónico es incapaz de captarla es incapaz de y, si lo hiciera, sólo podría ofrecernos ruido. Un ruido que encierra los más íntimos secretos del Universo. La rama de la astronomía que se dedica a mirar el cosmos con ojos artificiales capaces “ver” las señales de radio es la radioastronomía. Utiliza instrumentos de gran tamaño, el mayor de todos es el radiotelescopio de Arecibo, una inmensa antena parabólica de 305 metros de diámetro situada en Puerto Rico, en una cuenca natural entre montañas.
Otra fórmula de escuchar los latidos de radio del universo es mediante asociaciones de antenas independientes que suman sus esfuerzos entre sí. Una de las instalaciones emblemáticas está en una llanura de Nuevo Méjico, allí 27 parábolas, de 25 metros de diámetro cada una, se extienden a lo largo de tres brazos de 21 kilómetros de largo.
Como las ondas que se superponen sobre las olas del mar, desde las profundidades del universo nos llegan señales electromagnéticas de longitud de onda más pequeña con otras mayores. Algunas, como las microondas, atraviesan la atmósfera terrestre y pueden ser detectadas tanto desde la tierra como desde el espacio. Otras, como las infrarrojas, llamadas así porque si las pudiéramos ver estarían situadas inmediatamente después del rojo en el arco iris, son absorbidas por las nubes y el dióxido de carbono. Por esa razón, tan solo pueden ser observadas desde telescopios situados en lugares muy altos y muy secos, desde aviones o desde el espacio.
La luz infrarroja es importante porque facilita información sobre los objetos fríos del universo. Es muy difícil de manejar porque cualquier objeto emite radiación de este tipo, salvo que esté lo más frío que un cuerpo puede estar, al cero absoluto. La atmósfera terrestre emite luz infrarroja y lo mismo hacen los instrumentos, máquinas y… nosotros mismos. Por encima del infrarrojo, la radiación de frecuencia más alta se hace visible. Los colores del arco iris son en realidad frecuencias distintas que van desde la más baja, el rojo, hasta la más alta, el violeta. Es una radiación que podemos ver pero que llega muy tenue cuando los objetos que la originan están muy lejos. Para aumentar la cantidad de luz se emplean grandes espejos o lentes de los telescopios ópticos. Son, en realidad, formas artificiales de aumentar el tamaño de nuestra retina.

Ver la radiación cósmica que tiene un “color” más allá del violeta requiere también la ayuda de la tecnología moderna. Los telescopios situados sobre la superficie terrestre pueden recoger determinadas frecuencias pero no todas. Algunas de las ondas del ultravioleta son absorbidas por la capa de ozono, de manera que, si queremos ver esa luz, tenemos que escapar hacia al espacio exterior a la Tierra.
Desde 1968 se han ido lanzado observatorios espaciales capaces de observar el ultravioleta, incluso se ha puesto uno de ellos en la Luna, lo hicieron los astronautas del Apolo en 1972. La luz ultravioleta nos habla de los objetos calientes del universo, estrellas lejanas y galaxias, su radiación es recogida por instrumentos sofisticados y traducida a colores visibles para que podamos disfrutar del espectáculo con nuestros ojos limitados.
Pero todavía se puede ir más allá del ultravioleta. Existe una astronomía de rayos X y otra de ondas aún más cortas, la de los rayos gamma. Son radiaciones que nos hablan de grandes cataclismos cósmicos: explosiones de estrellas, colisiones entre galaxias, etc. Todo un universo de comportamientos que podemos observar gracias a los esfuerzos de una legión inmensa de anónimos inventores, soñadores y entusiastas que lucharon para que la humanidad pudiera observar las olas del océano cósmico.

Las ondas electromagnéticas no sólo llegan del cielo, la mayor parte de las que recibimos se generan aquí, en la Tierra o, a lo sumo, en nuestra estrella. De ellas nos habla hoy D. Josep Lluis Font, profesor de la Universidad Politécnica de Cataluña. Les invito a escuchar la entrevista.
 

(Texto de Germán Fernández)
El pasado mes de julio el Laboratorio Europeo de Fïsica de Partículas (CERN) anunció el descubrimiento de una nueva partícula que podría ser el bosón de Higgs, buscado desde hace décadas. La partícula se ha detectado en los experimentos ATLAS y CMS del acelerador LHC, un anillo subterráneo de 27 kilómetros de circunferencia en el que se hacen chocar haces de protones que giran en sentidos opuestos. La enorme energía que adquieren estos protones permite, de acuerdo con la equivalencia entre masa y energía propuesta por Einstein (E = mc2), la creación de nuevas partículas masivas como esa recién descubierta, que tiene una masa que equivale a 134 veces la del protón, una masa superior a la de muchos átomos, y comparable por ejemplo a la de un átomo de bario. La confianza estadística del descubrimiento es del 99,99994%, hay menos de una probabilidad entre un millón de que lo detectado sea una fluctuación debida al azar.

El bosón de Higgs es un elemento fundamental para la unificación de las fuerzas de la naturaleza, un objetivo que los físicos persiguen desde hace décadas. Conocemos cuatro fuerzas fundamentales en la naturaleza. Dos de ellas, la electromagnética y la gravedad, son bien conocidas. Las otras dos son la fuerza nuclear fuerte, que mantiene unidos los núcleos atómicos, y la fuerza nuclear débil, responsable de la radiactividad. Los físicos buscan la simplicidad, y una fuerza es más simple que cuatro. Por eso, tratan de unificar las fuerzas, encontrar teorías que sean capaces de explicar esas fuerzas como manifestaciones diferentes de una sola fuerza fundamental. Es lo que se llama la Gran Unificación, que aún no se ha conseguido, principalmente porque la gravedad se resiste a mezclarse con las demás.
Todo empezó en el siglo XIX, antes incluso de que se desarrollara la física cuántica. En aquel tiempo, la electricidad y el magnetismo se consideraban fenómenos diferentes. Pero con la formulación de las ecuaciones de Maxwell se consiguió unificar la electricidad y el magnetismo en una sola fuerza, la electromagnética. Con sólo cuatro ecuaciones. Esas cuatro ecuaciones predecían además la existencia de ondas electromagnéticas que se propagaban a la velocidad de la luz, con lo que la nueva teoría abarcaba también la óptica. Gracias a esta unificación, además, se descubrieron las ondas de radio.

Después vino el descubrimiento de la radiactividad y el mundo cuántico. Y los físicos trataron de continuar por el camino abierto por Maxwell. La primera unificación que se consiguió fue la del electromagnetismo con la fuerza nuclear débil, en la llamada fuerza electrodébil. Sheldon Glashow planteó las ecuaciones en 1960; en 1967 Steven Weinberg y Abdus Salam incorporaron el mecanismo de Higgs, que era necesario para explicar por qué las fuerzas electromagnéticas y las fuerzas nucleares débiles son tan diferentes. La fuerza electrodébil unificada tiene cuatro componentes, tres correspondientes a la fuerza débil y una que corresponde a la electromagnética. Sin el mecanismo de Higgs, todas esas componentes son iguales, de la misma intensidad y de alcance infinito. Pero no es eso lo que observamos. En la naturaleza, las interacciones electromagnéticas tienen un alcance infinito, dos cargas eléctricas o dos imanes se atraerán o se repelerán sin importar lo lejos que estén uno de otro. La interacción nuclear débil, sin embargo, tiene un alcance muy corto, como una milésima del diámetro de un protón, y, como su nombre indica, es muy débil. ¿Por qué son tan diferentes? Es lo que en física se llama ruptura de la simetría, y se puede explicar con el mecanismo de Higgs. Aunque no fue sólo Higgs el que lo desarrolló. Peter Higgs lo llama “mecanismo de Anderson, Brout, Englert, Guralnik, Hagen, Higgs, Kibble y ‘t Hooft”.
El mecanismo de Higgs se comprende mejor desde el punto de vista de los campos. En física, un campo representa la distribución espacial de una magnitud física que muestra cierta variación (o no) en una región del espacio. Las ondas se pueden entender como alteraciones del campo. Y las partículas, según la física cuántica, son también ondas. Esta dualidad está presente en el mundo de lo infinitamente pequeño.

Es difícil imaginar un campo en tres dimensiones, así que podemos tomar como modelo un espacio de sólo dos dimensiones, como la superficie de una piscina. En esa superficie se pueden definir campos como la altura del agua, la temperatura o la concentración de cloro en cada punto. Cada una de esas magnitudes define un campo.
Si arrojamos un objeto al centro de la piscina, se forman olas: la altura del agua en cada punto oscila arriba y abajo, eso son las ondas.
En nuestra analogía de la piscina, las ondas se producen al arrojar un objeto se propagan con facilidad hasta los bordes de la piscina, como en uno de esos campos de alcance infinito. Cuando llega el invierno, sin embargo, se coloca una cubierta de plástico. Si ahora tiramos un objeto, las olas que se producen son mucho más pequeñas, y se amortiguan en seguida, no llegan muy lejos. Hemos reducido la intensidad y el alcance de las ondas. Es lo mismo que ocurre cuando añadimos el campo de Higgs.

La cubierta de plástico es análoga al campo de Higgs también en otro sentido. Si la separamos del agua y la mantenemos tensa, forma una superficie horizontal, sin alteraciones. Igual que la superficie del agua en reposo. En el agua, éste es el estado de mínima energía, el valor del campo es cero en toda su extensión y no hay ondas. Esto es lo que ocurre con los campos normales, como el campo electromagnético… ¿Pero qué pasa si destensamos el plástico? Por su propio peso, el plástico se abomba, formando una concavidad. Algo parecido le ocurre al campo de Higgs: Su estado de mínima energía no corresponde con el valor de campo cero en todos sus puntos; en el estado de mínima energía del campo de Higgs el valor del campo no es nulo. O sea, que el vacío no está vacío. Es ese valor no nulo del campo de Higgs el que hace que las partículas inmersas en él adquieran masa.

Hay varias maneras de definir el campo de Higgs. La más simple es un campo de cuatro componentes. Al combinarse con el campo electrodébil, tres de esos componentes se mezclan con las tres partículas mediadoras de las interacciones nucleares débiles, las partículas Z, W+ y W-, y hacen que adquieran masa. El fotón queda libre, sin masa y con alcance infinito. El cuarto componente del campo de Higgs también queda libre y es, al parecer, la partícula que se ha detectado en el CERN hace unos meses.
Otras definiciones del campo de Higgs suponen la existencia de más partículas libres, que también podrían detectarse. Pero según los últimos resultados publicados, las propiedades de partícula detectada en el CERN se corresponden con las de ese campo de Higgs simple. Por ahora no parece que hay nueva física que explorar. Pero eso no quiere decir que todo esté ya sabido y solucionado con la física que conocemos hasta ahora. Álvaro de Rújula, físico teórico del CERN, ha calculado la contribución del campo de Higgs a la energía oscura, esa energía que llena el Universo y que hace que su expansión se esté acelerando. Aún no sabemos lo que es la energía oscura, pero de la observación del movimiento de las galaxias se puede determinar el valor de su intensidad. Pues resulta que ese valor experimental es cincuenta y tantos órdenes de magnitud menor que lo que debería ser teniendo en cuenta únicamente la contribución teórica del campo de Higgs. Cincuenta órdenes de magnitud significa un uno seguido de cincuenta ceros. Es una discrepancia enorme. Cincuenta órdenes de magnitud es la relación que hay entre la masa de un protón y la masa de la Tierra. En palabras de Álvaro de Rújula, es “casi la mayor contradicción de todos los tiempos, un desastre maravilloso”. Aún quedan muchos misterios del Universo por desentrañar.
Entrevistamos a Germán Fernández, Físico, Doctor en Ciencias por la Universidad Autónoma de Madrid. Trabajó en el Laboratorio Europeo de Física de Partículas (CERN), en Ginebra.

MÁS INFORMACIÓN.

 
Casi todos, siendo niños, hemos intentado contar las estrellas alguna vez. Yo también. Mi infancia transcurrió en un pequeño pueblo extremeño, uno de esos lugares tranquilos donde las pocas bombillas que iluminaban pobremente las calles eran incapaces de competir con el brillo de las estrellas. En algunas noches sin Luna, el firmamento observable a simple vista era espectacular, preñado de infinidad de estrellas que yo, con la osadía que da la niñez, me empañaba en contar una y otra vez. Ante la imposibilidad de abarcar todo el cielo, opté por dividirlo en porciones y concentrarme en una de ellas cada noche. Aun así, contarlas resultó ser una empresa titánica porque, al enfocar mis ojos en una estrella concreta y a medida que me acostumbraba a la oscuridad, estrellas más débiles surgían alrededor obligándome a volver a empezar.
No tardé en comprender la inutilidad de mi intento pero después descubrí que muchos otros, mucho más sabios que yo, también lo habían intentado. Dicen que una noche cualquiera, una persona situada en un lugar a gran altitud, libre de las molestas luces urbanas, sin nubes y sin Luna podría llegar a distinguir unas 2.000 estrellas a simple vista. Es una cifra aproximada que depende de la sensibilidad de nuestros ojos, si gozáramos de una vista magnífica, capaz de captar la luz de estrellas muy débiles, de magnitud 7, el número podría subir hasta 16.000, una cantidad ridícula comparada con la inmensidad de estrellas que puebla nuestra galaxia.
Hiparco de Nicea
A pesar de todo, seguimos intentando contar estrellas, puede que por un secreto deseo de continuar siendo niños. Uno de los primeros científicos que contó estrellas, y dejó constancia de ello, fue Hiparco de Nicea. Aunque sus escritos no se han conservado, historiadores posteriores nos han dejado parte de su legado. Cuenta Estrabón que, en el 134 a.C., Hiparco descubrió una nueva estrella en la constelación de Escorpio. Como buen astrónomo que era, el descubrimiento le convenció de la necesidad de contar con mapas del cielo que reflejaran las estrellas fijas y permitieran detectar descubrimientos como ése. Hiparco elaboró un catálogo de alrededor de 850 estrellas clasificadas según su luminosidad de acuerdo con un sistema de seis magnitudes de brillo, muy similar a los sistemas actuales.
El telescopio espacial Hipparcos
Más de 2000 años después de la muerte de Hiparco, en 1989, la ESA lanzó al espacio Hipparcos, el primer satélite espacial dedicado a medir y estudiar la posición y el movimiento propio de los astros (astrometría). Durante los cuatro años que Hipparcos estuvo observando el cielo determinó con precisión la posición, la distancia y movimientos de 120.000 estrellas y proporcionó una información menos precisa de 2 millones y medio más.
Cuando los números se adentran en los millones, siempre nos parece muchísimo, pero también en los millones hay categorías. Comparado con el número de estrellas de una galaxia como la nuestra, un par de millones y medio que cartografió Hipparcos es una cantidad ridícula. Háganse una idea de la magnitud del problema. La Vía Láctea, la galaxia a la que pertenecemos y, por lo tanto, la más fácil de evaluar, tiene tantas estrellas que los científicos ni siquiera logran ponerse de acuerdo en la cantidad, hay quien defiende que son 100.000 millones y quien dice que son 400.000 millones. Como hablamos de miles de millones, parecen cantidades similares, sin embargo, una imprecisión de este calibre al medir nuestra estatura daría como resultado que medimos entre uno y cuatro metros.
Así pues, tirando por lo bajo, los 2,5 millones de estrellas del catálogo de Hipparcos apenas constituye un 0, 0025% del total de la galaxia. Como nos sucede a nosotros, que vemos con más nitidez los cuerpos más cercanos, Hipparcos obtuvo información de las estrellas más cercanas al Sistema Solar, la región que cubrió queda reflejada en la mancha con bordes rojizos que se puede observar en la imagen adjunta. Como ven, muy poquito, no es de extrañar que los científicos quieran contar muchas más estrellas. Ése es el cometido de la misión GAIA.
Gaia, contador de estrellas
Los científicos que idearon la misión GAIA de la ESA tienen un ambicioso objetivo en mente: cartografiar alrededor del uno por ciento de la estrellas de la Vía Láctea, es decir, 1.000 millones de estrellas. A lo largo de sus cinco años de operación, que comenzarán a contar tras su lanzamiento previsto para finales de 2013, Gaia observará cada estrella 70 veces, tomando medidas de su posición, brillo y color con una precisión jamás alcanzada. Con esos datos, los científicos aspiran a conocer la historia de la Vía Láctea, su forma y distribución estelar en las tres dimensiones del espacio. Pero Gaia no sólo estudiará estrellas. Sus delicados y precisos instrumentos detectarán, a buen seguro, una gran cantidad de cuerpos menores en el Sistema Solar, como cometas, asteroides y cuerpos helados; medirá los movimientos propios de las estrellas para extraer de sus débiles bamboleos la existencia de muchos planetas extrasolares; descubrirá estrellas en formación, estrellas variables, estrellas muertas, agujeros negros, nubes de gas, explosiones estelares, etc.
Gaia no es un telescopio espacial cualquiera y tampoco estará colocado en una órbita convencional. Observará el firmamento desde un punto situado a 1,5 millones de kilómetros de la Tierra, en dirección opuesta al Sol, de cuya luz se protegerá con un enorme parasol de alta tecnología. De esa manera, con la Tierra y el Sol a sus espaldas, observará el firmamento de forma continua, sin ser deslumbrado por nuestra estrella. Sus instrumentos principales son dos telescopios equipados con un total de 10 espejos de distinto tamaños y diseñados para detectar objetos 400.000 veces más débiles que aquellos que podemos ver a ojo desnudo. La luz se concentra en un panel de 106 CCDs, similares a los utilizados en las cámaras digitales, que operan en conjunto formando el mayor plano focal que jamás haya viajado al espacio, con una superficie receptora de 3800 cm2.
Les invito a escuchar los detalles de la misión GAIA de la ESA explicados por D. Jordi Torra, catedrático e Investigador principal del Proyecto Gaia en la Universidad de Barcelona.
MÁS INFORMACIÓN.
 
 

Cuando, durante mis años de estudiante, escuché por primera vez la palabra “macrófago”, no sé por qué, se me vino a la mente la imagen de un poderoso depredador, enorme de tamaño y con impresionantes mandíbulas. Mi profesor, siempre atento a bajarme de las más altas nubes, no tardó en informarme de la realidad: los macrófagos están formados por una única célula y viven en el interior de nuestros cuerpos. Comprendí que su aspecto real se alejaba bastante de la imagen que me había creado inicialmente, al fin y al cabo, una única célula no puede enseñar los colmillos ni presumir de los escalofriantes adornos dentales que engalanan a cualquier depredador de película que se precie.

A pesar de la ducha de realidad, pronto comprobé que el calificativo de “depredador”, al menos, no iba del todo descaminado. Después de todo, como los depredadores clásicos, un macrófago escoge presas que tienen un tamaño acorde con el suyo: bacterias, virus, partículas, células muertas, etc. Visto así, mi imagen mental cambió, pero no así su esencia, y el comportamiento de los macrófagos continuó alimentando mi imaginación. Son células, sí, pero no unas células cualesquiera, los macrófagos pertenecen a una categoría que nace en la médula ósea, y se integra en la sangre para recorrer nuestro cuerpo en permanente estado de alerta, vigilantes, dispuestos a atravesar las paredes de los vasos sanguíneos a la menor señal de alarma y acudir al lugar de la agresión para “tranformarse” en soldados especializados capaces de eliminar a todo el que, a su paso, despierte la más mínima sospecha.

Quizás les parezca un exceso de imaginación pero fue en aquellos lejanos días de instituto cuando aprendí que la ciencia, cuando se adorna con un poco de imaginación, es mucho más agradable y fácil de entender. Como, al final, me incliné por la física y no por la biología, desde entonces, han sido los textos de divulgación y las conversaciones con personas que investigan este campo las que me han servido de inspiración.

Hoy tengo la suerte de ofrecerles una conversación que ha venido a despertar, y aumentar de forma considerable, mis escasos conocimientos sobre los macrófagos. D. Lisardo Boscá Gomar , nuestro invitado en el programa Hablando con Científicos, desvela facetas de los macrófagos que superan ampliamente mis más imaginativas especulaciones estudiantiles.

D. Lisardo lleva años investigando el papel de los macrófagos en la fisiopatología de los grandes órganos, como el corazón, donde los macrófagos juegan un papel esencial cuando sufre algún daño debido, por ejemplo, a un infarto de miocardio o a una infección. Con extraordinaria habilidad, explica que los macrófagos tienen comportamientos que van más allá del puro papel de defensor. Por ejemplo, tras el fragor de la batalla los macrófagos abandonan su sed de lucha y se transforman en agentes reparadores que limpian y restauran el área dañada. Son tan versátiles que su actividad puede variar dependiendo del lugar en el que se encuentren y del tipo de estímulos que reciban del entorno.

Imagine que, por accidente, sufre un corte en la piel, lo más natural es que la herida cambie de temperatura, se ponga más roja y se inflame, pues bien, los macrófagos están involucrados en el proceso desde el principio hasta el final y después… desaparecen. Son los primeros en acudir, son capaces de favorecer la inflamación, pueden engullir materialmente los restos de células muertas y tejidos rotos, pueden atacar a los patógenos que aprovechen la vía de entrada para infectarle y pueden informar a otros defensores del tipo de enemigos a los que se enfrentan y de las armas más adecuadas para vencerlos. Curiosamente, cuando la situación está controlada, cambian de actitud y actuan en sentido contrario, contribuyendo a disminuir la inflamación y a reparar los daños.

Esos cambios de actitud tienen su reflejo en el metabolismo de los macrófagos, dicho de otra manera, lo mismo que nosotros cambiamos nuestros hábitos de alimentación en función de las circunstancias, asimismo ellos varían su forma de alimentarse dependiendo de la función que realicen. Las investigaciones que realiza D. Lisardo Boscá y su grupo de investigación en el Laboratorio de Fisiopatología de los procesos inflamatorios del Instituto de Investigaciones Biomédicas Alberto Sols, van encaminadas a comprender cómo participan los macrófagos en la regulación de los procesos inflamatorios, cómo interactuan con otras células de los órganos involucrados, por ejemplo, el hígado o el corazón (hepatocitos, cardiomiocitos o miofibroblastos) y qué aspectos de su metabolismo son susceptibles de control, una información esencial para abrir caminos que permitan el desarrollo de técnicas novedosas para la detección temprana de enfermedades y su posible tratamiento. Les invito a escuchar a D. Lisardo Boscá, profesor de investigación del CSIC.

D. Lisardo Boscá es investigador en el Laboratorio de Fisiopatología de los procesos inflamatorios del Departamento de Metabolismo y Señales Celulares que pertenece al “Instituto de Investigaciones Biomédicas Alberto Sols”:http://www.iib.uam.es/portal/web/guest/bienvenida (IIBM), centro mixto del Consejo Superior de Investigaciones Científicas y de la Universidad Autónoma de Madrid
 
La Tierra es un planeta vivo y tranquilo que, a veces, despierta violentamente de su letargo, como si quisiera recordarnos lo frágiles que somos. Hoy les invitamos a escuchar una entrevista sobre esos bruscos despertares en forma de terremotos y tsunamis. Hablamos con Elisa Buforn Peiró, catedrática de Física de la Tierra en la Universidad Complutense de Madrid.
Elisa Buforn ha investigado la física que gobierna el comportamiento de la tierra justo en el lugar en el que se produce el terremoto, el foco sísmico, y ha desarrollado un conjunto de algoritmos que permiten estudiar el comportamiento de los terremotos a distancias regionales. Sus aportaciones han servido para obtener un mayor conocimiento de las características sísmicas y tectónicas de la región Sur de España y Norte de áfrica, y se han aplicado también a zonas americanas como Perú, Bolivia y El Salvador.
Las palabras de la profesora Buforn nos invitan a aprender de estos fenómenos naturales. Como complemento al programa, les invitamos a leer el siguiente reportaje:
LOS COLETAZOS DE UN GRAN TSUNAMI.
Existen muchas imágenes de la potencia destructora de un tsunami o de un terremoto. Sus devastadores efectos nos hacen estremecer pero su historia no acaba ahí, las secuelas de la catástrofe perduran en el tiempo y se reflejan en muchos aspectos que provocan daños colaterales que conviene estudiar.
El 11 de marzo de 2011, Japón sufrió el azote de un seísmo de gran potencia seguido de un tsunami devastador. La destrucción no sólo se llevó por delante vidas humanas y construcciones costeras, sino que creó una cantidad de desechos que se estima en 25 millones de toneladas, muchos de los cuales fueron arrastrados al océano. Los satélites artificiales fotografiaron la región y descubrieron enormes cantidades de restos de construcciones, barcos y objetos domésticos que flotaban a lo largo de la costa japonesa. Desde entonces, todos aquellos desechos han sido arrastrados por las olas, el viento y las corrientes oceánicas dispersándolos por todo el Pacífico.
Cualquier desecho flotante es potencialmente peligroso en el mar, los de mayor tamaño, bloques de construcción, contenedores portuarios o vehículos, por ejemplo, son peligrosos para la navegación, las sustancias químicas toxicas que transportan algunos contenedores arrastrados por las aguas, los combustibles de vehículos y barcos o las fugas radiactivas de la central nuclear de Fukushima, amenazan a la vida marina y contaminan las playas, pero incluso las pequeñas bolsas de plástico pueden ser ingeridas por los animales marinos provocándoles la muerte. A la catástrofe siguió un mar de contaminación que todavía perdura.
Conocedores de los peligros, un grupo de investigadores de la Universidad de Hawaii, intenta hacer un seguimiento de todos estos desechos para prevenir otras catástrofes quizás no tan espectaculares pero no menos importantes. Para ello han elaborado programas de ordenador capaces de modelar el movimiento de los residuos del gran tsunami de Japón.
Los vientos y corrientes marinas han hecho un gran trabajo con todos los restos de la catástrofe. En un principio los desechos formaban enormes aglomeraciones tan inmensas que eran visibles desde los satélites de observación de la Tierra. Ahora toda esa contaminación se ha ido separando y dispersando por una zona cada vez mayor separada en trozos más pequeños que ahora es imposible ver desde los satélites. Los barcos que navegan por el Pacífico conocen bien el problema. En el mes de septiembre, un barco ruso que navegaba cerca del Atolón de Midway, a 4.000 kilómetros del lugar del desastre, se encontró con los restos de un barco de pesca japonés, un frigorífico, un televisor y otros electrodomésticos. En diciembre, otros restos fueron recogidos en Vancouver, Canadá.
La enorme cantidad de toneladas de desechos vagan ahora por el Pacífico y los científicos intentan detectar los peligros que representan para las comunicaciones marina y para la vida oceánica, los bloques grandes pueden dañar los arrecifes de coral y los restos pequeños son un peligro para los animales marinos como los albatros, las focas o las tortugas.
Nancy Wallace, directora del Marine Debris Program de la NOAA ha declarado a Scientific American que su organización se están preparando para el peor de los escenarios porque todas esas miles de toneladas de desechos producidos por el Tsunami están en algún lugar del océano. En el mapa adjunto se muestra el camino seguido por los desechos en su dispersión por todo el Océano Pacifico.
 
El cerebro humano es un inmenso conglomerado de miles de millones de neuronas interconectadas entre sí de forma complejísima. Ahora que nos gusta presumir de la cantidad de información que es capaz de manejar nuestro flamante ordenador pero, desgraciadamente para los amantes de tales comparaciones, nuestro cerebro es mucho más complejo, dinámico, con muchísima más capacidad de almacenamiento y maneja unos algoritmos que dejan a los informáticos a la altura del betún. Se habla, por poner unos ejemplos, de 10.000.000.000.000.000 conexiones neuronales, pero cada conexión neuronal tiene muchos más niveles de reacción que los pobres ceros y unos de la secuencia binaria que utilizan los ordenadores. Puede usted sentirse orgulloso de su cerebro, aunque no sea capaz de recordar cómo se hace una raíz cuadrada.
El cerebro, con su complejísimo entramado de conexiones logra recibir e interpretar las informaciones de los sentidos, controlar los movimientos corporales, almacenar recuerdos, aprender, hablar, pensar… en fin, todas las funciones que se nos puedan ocurrir y que nos identifican como seres humanos.
Lógicamente, como sucede a cualquier músculo u órgano de nuestro cuerpo ( y a los ordenadores), con el tiempo, el cerebro se deteriora. Las neuronas van muriendo y las conexiones que se establecen entre ellas disminuyen, una disminución que implica, inevitablemente, la pérdida de información y de las facultades mentales que atesoran. El envejecimiento es un proceso natural de perdida neuronal pero, a veces, al propio proceso de deterioro obligado por la naturaleza se añaden enfermedades que vienen hacen buena la expresión de “a perro flaco todo se le vuelven pulgas”. Algunas proteínas, necesarias para el funcionamiento normal de las neuronas, cambian sutilmente de forma, dado que suelen ser moléculas bastante largas, no tiene por qué ser un cambio grande, basta con un “pliegue” distinto al habitual, a partir de ahí todo comienza a torcerse. Las proteínas defectuosas son incapaces de llevar a cabo su cometido, a veces se aglutinan formando grumos, y generan problemas de transmisión de información o, incluso, provocan la muerte de la neurona. Las personas que sufren este tipo de trastornos decimos que padecen una enfermedad neurodegenerativa. El Parkinson o el Alzheimer son buenos ejemplos de ello, aunque hay otras menos conocidas.
No se conocen las causas que provocan estas enfermedades, unos trastornos que, por otra parte, pasan inadvertidos durante mucho tiempo antes de que aparezcan síntomas visibles. Cuando un enfermo de Parkinson muestra los primeros síntomas, temblores de las extremidades en reposo, rigidez muscular, lentitud de movimientos voluntarios, pérdida de reflejos… es porque la enfermedad ya se encuentra en un estado avanzado. Detectarla a tiempo, cuando las primeras neuronas comienzan a sufrir los efectos de la degeneración, podría ayudar enormemente, si no a curarla –eso es algo que por ahora está fuera del alcance de la medicina – al menos a retrasar progreso, un retraso que se traduce en vida para los enfermos.
En muchos centros de investigación se buscan marcadores biológicos capaces de revelar la presencia de la enfermedad neurodegenerativa durante los primeros momentos del desarrollo. Uno de esos lugares es el Laboratorio de Neuroplasticidad y Neurodegeneración de la Universidad de Castilla-La Mancha, allí, un grupo de investigadores dirigido por Alino Martínez Marcos, profesor de Anatomía y Embriología Humana en la Facultad de medicina de Ciudad Real, ha descubierto que existe una relación entre la pérdida o disminución de las facultades olfativas y la enfermedad de Párkinson, un descubrimiento que abre las puertas a su utilización futura como detector precoz de ésta y otras enfermedades neurodegenerativas.
Durante la entrevista, Alino Martínez Marcos habla de la “hipótesis prionoide” una idea con la que, recientemente, se intenta explicar el comportamiento de las proteínas que intervienen en el desarrollo de las enfermedades neurodegenerativas. Esta hipótesis se apoya en los descubrimientos sobre la enfermedad de Creutzfeldt-Jakob (ECJ), una enfermedad que durante las dos últimas décadas del siglo XX afectó a un número de personas habían consumido las vísceras, especialmente sesos, de reses enfermas, razón por la que tomó el nombre de “enfermedad de las vacas locas”. Su origen es debido a unas proteínas, los priones, que en su forma correcta no producen problemas, pero cuando se pliegan de forma incorrecta adquieren el poder de contagiar de otras moléculas sanas, como si fueran agentes infecciosos, y provocan la destrucción del cerebro del enfermo. En 1997 se concedió el premio Nobel de Fisiología y Medicina a su descubridor, Stanley Prusiner y ahora algunos científicos piensan que una forma parecida de infección podría ser la causante de enfermedades como el Alzheimer o el Parkinson.