3/14/2013

 

(Texto de Germán Fernández)
El pasado mes de julio el Laboratorio Europeo de Fïsica de Partículas (CERN) anunció el descubrimiento de una nueva partícula que podría ser el bosón de Higgs, buscado desde hace décadas. La partícula se ha detectado en los experimentos ATLAS y CMS del acelerador LHC, un anillo subterráneo de 27 kilómetros de circunferencia en el que se hacen chocar haces de protones que giran en sentidos opuestos. La enorme energía que adquieren estos protones permite, de acuerdo con la equivalencia entre masa y energía propuesta por Einstein (E = mc2), la creación de nuevas partículas masivas como esa recién descubierta, que tiene una masa que equivale a 134 veces la del protón, una masa superior a la de muchos átomos, y comparable por ejemplo a la de un átomo de bario. La confianza estadística del descubrimiento es del 99,99994%, hay menos de una probabilidad entre un millón de que lo detectado sea una fluctuación debida al azar.

El bosón de Higgs es un elemento fundamental para la unificación de las fuerzas de la naturaleza, un objetivo que los físicos persiguen desde hace décadas. Conocemos cuatro fuerzas fundamentales en la naturaleza. Dos de ellas, la electromagnética y la gravedad, son bien conocidas. Las otras dos son la fuerza nuclear fuerte, que mantiene unidos los núcleos atómicos, y la fuerza nuclear débil, responsable de la radiactividad. Los físicos buscan la simplicidad, y una fuerza es más simple que cuatro. Por eso, tratan de unificar las fuerzas, encontrar teorías que sean capaces de explicar esas fuerzas como manifestaciones diferentes de una sola fuerza fundamental. Es lo que se llama la Gran Unificación, que aún no se ha conseguido, principalmente porque la gravedad se resiste a mezclarse con las demás.
Todo empezó en el siglo XIX, antes incluso de que se desarrollara la física cuántica. En aquel tiempo, la electricidad y el magnetismo se consideraban fenómenos diferentes. Pero con la formulación de las ecuaciones de Maxwell se consiguió unificar la electricidad y el magnetismo en una sola fuerza, la electromagnética. Con sólo cuatro ecuaciones. Esas cuatro ecuaciones predecían además la existencia de ondas electromagnéticas que se propagaban a la velocidad de la luz, con lo que la nueva teoría abarcaba también la óptica. Gracias a esta unificación, además, se descubrieron las ondas de radio.

Después vino el descubrimiento de la radiactividad y el mundo cuántico. Y los físicos trataron de continuar por el camino abierto por Maxwell. La primera unificación que se consiguió fue la del electromagnetismo con la fuerza nuclear débil, en la llamada fuerza electrodébil. Sheldon Glashow planteó las ecuaciones en 1960; en 1967 Steven Weinberg y Abdus Salam incorporaron el mecanismo de Higgs, que era necesario para explicar por qué las fuerzas electromagnéticas y las fuerzas nucleares débiles son tan diferentes. La fuerza electrodébil unificada tiene cuatro componentes, tres correspondientes a la fuerza débil y una que corresponde a la electromagnética. Sin el mecanismo de Higgs, todas esas componentes son iguales, de la misma intensidad y de alcance infinito. Pero no es eso lo que observamos. En la naturaleza, las interacciones electromagnéticas tienen un alcance infinito, dos cargas eléctricas o dos imanes se atraerán o se repelerán sin importar lo lejos que estén uno de otro. La interacción nuclear débil, sin embargo, tiene un alcance muy corto, como una milésima del diámetro de un protón, y, como su nombre indica, es muy débil. ¿Por qué son tan diferentes? Es lo que en física se llama ruptura de la simetría, y se puede explicar con el mecanismo de Higgs. Aunque no fue sólo Higgs el que lo desarrolló. Peter Higgs lo llama “mecanismo de Anderson, Brout, Englert, Guralnik, Hagen, Higgs, Kibble y ‘t Hooft”.
El mecanismo de Higgs se comprende mejor desde el punto de vista de los campos. En física, un campo representa la distribución espacial de una magnitud física que muestra cierta variación (o no) en una región del espacio. Las ondas se pueden entender como alteraciones del campo. Y las partículas, según la física cuántica, son también ondas. Esta dualidad está presente en el mundo de lo infinitamente pequeño.

Es difícil imaginar un campo en tres dimensiones, así que podemos tomar como modelo un espacio de sólo dos dimensiones, como la superficie de una piscina. En esa superficie se pueden definir campos como la altura del agua, la temperatura o la concentración de cloro en cada punto. Cada una de esas magnitudes define un campo.
Si arrojamos un objeto al centro de la piscina, se forman olas: la altura del agua en cada punto oscila arriba y abajo, eso son las ondas.
En nuestra analogía de la piscina, las ondas se producen al arrojar un objeto se propagan con facilidad hasta los bordes de la piscina, como en uno de esos campos de alcance infinito. Cuando llega el invierno, sin embargo, se coloca una cubierta de plástico. Si ahora tiramos un objeto, las olas que se producen son mucho más pequeñas, y se amortiguan en seguida, no llegan muy lejos. Hemos reducido la intensidad y el alcance de las ondas. Es lo mismo que ocurre cuando añadimos el campo de Higgs.

La cubierta de plástico es análoga al campo de Higgs también en otro sentido. Si la separamos del agua y la mantenemos tensa, forma una superficie horizontal, sin alteraciones. Igual que la superficie del agua en reposo. En el agua, éste es el estado de mínima energía, el valor del campo es cero en toda su extensión y no hay ondas. Esto es lo que ocurre con los campos normales, como el campo electromagnético… ¿Pero qué pasa si destensamos el plástico? Por su propio peso, el plástico se abomba, formando una concavidad. Algo parecido le ocurre al campo de Higgs: Su estado de mínima energía no corresponde con el valor de campo cero en todos sus puntos; en el estado de mínima energía del campo de Higgs el valor del campo no es nulo. O sea, que el vacío no está vacío. Es ese valor no nulo del campo de Higgs el que hace que las partículas inmersas en él adquieran masa.

Hay varias maneras de definir el campo de Higgs. La más simple es un campo de cuatro componentes. Al combinarse con el campo electrodébil, tres de esos componentes se mezclan con las tres partículas mediadoras de las interacciones nucleares débiles, las partículas Z, W+ y W-, y hacen que adquieran masa. El fotón queda libre, sin masa y con alcance infinito. El cuarto componente del campo de Higgs también queda libre y es, al parecer, la partícula que se ha detectado en el CERN hace unos meses.
Otras definiciones del campo de Higgs suponen la existencia de más partículas libres, que también podrían detectarse. Pero según los últimos resultados publicados, las propiedades de partícula detectada en el CERN se corresponden con las de ese campo de Higgs simple. Por ahora no parece que hay nueva física que explorar. Pero eso no quiere decir que todo esté ya sabido y solucionado con la física que conocemos hasta ahora. Álvaro de Rújula, físico teórico del CERN, ha calculado la contribución del campo de Higgs a la energía oscura, esa energía que llena el Universo y que hace que su expansión se esté acelerando. Aún no sabemos lo que es la energía oscura, pero de la observación del movimiento de las galaxias se puede determinar el valor de su intensidad. Pues resulta que ese valor experimental es cincuenta y tantos órdenes de magnitud menor que lo que debería ser teniendo en cuenta únicamente la contribución teórica del campo de Higgs. Cincuenta órdenes de magnitud significa un uno seguido de cincuenta ceros. Es una discrepancia enorme. Cincuenta órdenes de magnitud es la relación que hay entre la masa de un protón y la masa de la Tierra. En palabras de Álvaro de Rújula, es “casi la mayor contradicción de todos los tiempos, un desastre maravilloso”. Aún quedan muchos misterios del Universo por desentrañar.
Entrevistamos a Germán Fernández, Físico, Doctor en Ciencias por la Universidad Autónoma de Madrid. Trabajó en el Laboratorio Europeo de Física de Partículas (CERN), en Ginebra.

MÁS INFORMACIÓN.

 
Casi todos, siendo niños, hemos intentado contar las estrellas alguna vez. Yo también. Mi infancia transcurrió en un pequeño pueblo extremeño, uno de esos lugares tranquilos donde las pocas bombillas que iluminaban pobremente las calles eran incapaces de competir con el brillo de las estrellas. En algunas noches sin Luna, el firmamento observable a simple vista era espectacular, preñado de infinidad de estrellas que yo, con la osadía que da la niñez, me empañaba en contar una y otra vez. Ante la imposibilidad de abarcar todo el cielo, opté por dividirlo en porciones y concentrarme en una de ellas cada noche. Aun así, contarlas resultó ser una empresa titánica porque, al enfocar mis ojos en una estrella concreta y a medida que me acostumbraba a la oscuridad, estrellas más débiles surgían alrededor obligándome a volver a empezar.
No tardé en comprender la inutilidad de mi intento pero después descubrí que muchos otros, mucho más sabios que yo, también lo habían intentado. Dicen que una noche cualquiera, una persona situada en un lugar a gran altitud, libre de las molestas luces urbanas, sin nubes y sin Luna podría llegar a distinguir unas 2.000 estrellas a simple vista. Es una cifra aproximada que depende de la sensibilidad de nuestros ojos, si gozáramos de una vista magnífica, capaz de captar la luz de estrellas muy débiles, de magnitud 7, el número podría subir hasta 16.000, una cantidad ridícula comparada con la inmensidad de estrellas que puebla nuestra galaxia.
Hiparco de Nicea
A pesar de todo, seguimos intentando contar estrellas, puede que por un secreto deseo de continuar siendo niños. Uno de los primeros científicos que contó estrellas, y dejó constancia de ello, fue Hiparco de Nicea. Aunque sus escritos no se han conservado, historiadores posteriores nos han dejado parte de su legado. Cuenta Estrabón que, en el 134 a.C., Hiparco descubrió una nueva estrella en la constelación de Escorpio. Como buen astrónomo que era, el descubrimiento le convenció de la necesidad de contar con mapas del cielo que reflejaran las estrellas fijas y permitieran detectar descubrimientos como ése. Hiparco elaboró un catálogo de alrededor de 850 estrellas clasificadas según su luminosidad de acuerdo con un sistema de seis magnitudes de brillo, muy similar a los sistemas actuales.
El telescopio espacial Hipparcos
Más de 2000 años después de la muerte de Hiparco, en 1989, la ESA lanzó al espacio Hipparcos, el primer satélite espacial dedicado a medir y estudiar la posición y el movimiento propio de los astros (astrometría). Durante los cuatro años que Hipparcos estuvo observando el cielo determinó con precisión la posición, la distancia y movimientos de 120.000 estrellas y proporcionó una información menos precisa de 2 millones y medio más.
Cuando los números se adentran en los millones, siempre nos parece muchísimo, pero también en los millones hay categorías. Comparado con el número de estrellas de una galaxia como la nuestra, un par de millones y medio que cartografió Hipparcos es una cantidad ridícula. Háganse una idea de la magnitud del problema. La Vía Láctea, la galaxia a la que pertenecemos y, por lo tanto, la más fácil de evaluar, tiene tantas estrellas que los científicos ni siquiera logran ponerse de acuerdo en la cantidad, hay quien defiende que son 100.000 millones y quien dice que son 400.000 millones. Como hablamos de miles de millones, parecen cantidades similares, sin embargo, una imprecisión de este calibre al medir nuestra estatura daría como resultado que medimos entre uno y cuatro metros.
Así pues, tirando por lo bajo, los 2,5 millones de estrellas del catálogo de Hipparcos apenas constituye un 0, 0025% del total de la galaxia. Como nos sucede a nosotros, que vemos con más nitidez los cuerpos más cercanos, Hipparcos obtuvo información de las estrellas más cercanas al Sistema Solar, la región que cubrió queda reflejada en la mancha con bordes rojizos que se puede observar en la imagen adjunta. Como ven, muy poquito, no es de extrañar que los científicos quieran contar muchas más estrellas. Ése es el cometido de la misión GAIA.
Gaia, contador de estrellas
Los científicos que idearon la misión GAIA de la ESA tienen un ambicioso objetivo en mente: cartografiar alrededor del uno por ciento de la estrellas de la Vía Láctea, es decir, 1.000 millones de estrellas. A lo largo de sus cinco años de operación, que comenzarán a contar tras su lanzamiento previsto para finales de 2013, Gaia observará cada estrella 70 veces, tomando medidas de su posición, brillo y color con una precisión jamás alcanzada. Con esos datos, los científicos aspiran a conocer la historia de la Vía Láctea, su forma y distribución estelar en las tres dimensiones del espacio. Pero Gaia no sólo estudiará estrellas. Sus delicados y precisos instrumentos detectarán, a buen seguro, una gran cantidad de cuerpos menores en el Sistema Solar, como cometas, asteroides y cuerpos helados; medirá los movimientos propios de las estrellas para extraer de sus débiles bamboleos la existencia de muchos planetas extrasolares; descubrirá estrellas en formación, estrellas variables, estrellas muertas, agujeros negros, nubes de gas, explosiones estelares, etc.
Gaia no es un telescopio espacial cualquiera y tampoco estará colocado en una órbita convencional. Observará el firmamento desde un punto situado a 1,5 millones de kilómetros de la Tierra, en dirección opuesta al Sol, de cuya luz se protegerá con un enorme parasol de alta tecnología. De esa manera, con la Tierra y el Sol a sus espaldas, observará el firmamento de forma continua, sin ser deslumbrado por nuestra estrella. Sus instrumentos principales son dos telescopios equipados con un total de 10 espejos de distinto tamaños y diseñados para detectar objetos 400.000 veces más débiles que aquellos que podemos ver a ojo desnudo. La luz se concentra en un panel de 106 CCDs, similares a los utilizados en las cámaras digitales, que operan en conjunto formando el mayor plano focal que jamás haya viajado al espacio, con una superficie receptora de 3800 cm2.
Les invito a escuchar los detalles de la misión GAIA de la ESA explicados por D. Jordi Torra, catedrático e Investigador principal del Proyecto Gaia en la Universidad de Barcelona.
MÁS INFORMACIÓN.
 
 

Cuando, durante mis años de estudiante, escuché por primera vez la palabra “macrófago”, no sé por qué, se me vino a la mente la imagen de un poderoso depredador, enorme de tamaño y con impresionantes mandíbulas. Mi profesor, siempre atento a bajarme de las más altas nubes, no tardó en informarme de la realidad: los macrófagos están formados por una única célula y viven en el interior de nuestros cuerpos. Comprendí que su aspecto real se alejaba bastante de la imagen que me había creado inicialmente, al fin y al cabo, una única célula no puede enseñar los colmillos ni presumir de los escalofriantes adornos dentales que engalanan a cualquier depredador de película que se precie.

A pesar de la ducha de realidad, pronto comprobé que el calificativo de “depredador”, al menos, no iba del todo descaminado. Después de todo, como los depredadores clásicos, un macrófago escoge presas que tienen un tamaño acorde con el suyo: bacterias, virus, partículas, células muertas, etc. Visto así, mi imagen mental cambió, pero no así su esencia, y el comportamiento de los macrófagos continuó alimentando mi imaginación. Son células, sí, pero no unas células cualesquiera, los macrófagos pertenecen a una categoría que nace en la médula ósea, y se integra en la sangre para recorrer nuestro cuerpo en permanente estado de alerta, vigilantes, dispuestos a atravesar las paredes de los vasos sanguíneos a la menor señal de alarma y acudir al lugar de la agresión para “tranformarse” en soldados especializados capaces de eliminar a todo el que, a su paso, despierte la más mínima sospecha.

Quizás les parezca un exceso de imaginación pero fue en aquellos lejanos días de instituto cuando aprendí que la ciencia, cuando se adorna con un poco de imaginación, es mucho más agradable y fácil de entender. Como, al final, me incliné por la física y no por la biología, desde entonces, han sido los textos de divulgación y las conversaciones con personas que investigan este campo las que me han servido de inspiración.

Hoy tengo la suerte de ofrecerles una conversación que ha venido a despertar, y aumentar de forma considerable, mis escasos conocimientos sobre los macrófagos. D. Lisardo Boscá Gomar , nuestro invitado en el programa Hablando con Científicos, desvela facetas de los macrófagos que superan ampliamente mis más imaginativas especulaciones estudiantiles.

D. Lisardo lleva años investigando el papel de los macrófagos en la fisiopatología de los grandes órganos, como el corazón, donde los macrófagos juegan un papel esencial cuando sufre algún daño debido, por ejemplo, a un infarto de miocardio o a una infección. Con extraordinaria habilidad, explica que los macrófagos tienen comportamientos que van más allá del puro papel de defensor. Por ejemplo, tras el fragor de la batalla los macrófagos abandonan su sed de lucha y se transforman en agentes reparadores que limpian y restauran el área dañada. Son tan versátiles que su actividad puede variar dependiendo del lugar en el que se encuentren y del tipo de estímulos que reciban del entorno.

Imagine que, por accidente, sufre un corte en la piel, lo más natural es que la herida cambie de temperatura, se ponga más roja y se inflame, pues bien, los macrófagos están involucrados en el proceso desde el principio hasta el final y después… desaparecen. Son los primeros en acudir, son capaces de favorecer la inflamación, pueden engullir materialmente los restos de células muertas y tejidos rotos, pueden atacar a los patógenos que aprovechen la vía de entrada para infectarle y pueden informar a otros defensores del tipo de enemigos a los que se enfrentan y de las armas más adecuadas para vencerlos. Curiosamente, cuando la situación está controlada, cambian de actitud y actuan en sentido contrario, contribuyendo a disminuir la inflamación y a reparar los daños.

Esos cambios de actitud tienen su reflejo en el metabolismo de los macrófagos, dicho de otra manera, lo mismo que nosotros cambiamos nuestros hábitos de alimentación en función de las circunstancias, asimismo ellos varían su forma de alimentarse dependiendo de la función que realicen. Las investigaciones que realiza D. Lisardo Boscá y su grupo de investigación en el Laboratorio de Fisiopatología de los procesos inflamatorios del Instituto de Investigaciones Biomédicas Alberto Sols, van encaminadas a comprender cómo participan los macrófagos en la regulación de los procesos inflamatorios, cómo interactuan con otras células de los órganos involucrados, por ejemplo, el hígado o el corazón (hepatocitos, cardiomiocitos o miofibroblastos) y qué aspectos de su metabolismo son susceptibles de control, una información esencial para abrir caminos que permitan el desarrollo de técnicas novedosas para la detección temprana de enfermedades y su posible tratamiento. Les invito a escuchar a D. Lisardo Boscá, profesor de investigación del CSIC.

D. Lisardo Boscá es investigador en el Laboratorio de Fisiopatología de los procesos inflamatorios del Departamento de Metabolismo y Señales Celulares que pertenece al “Instituto de Investigaciones Biomédicas Alberto Sols”:http://www.iib.uam.es/portal/web/guest/bienvenida (IIBM), centro mixto del Consejo Superior de Investigaciones Científicas y de la Universidad Autónoma de Madrid
 
La Tierra es un planeta vivo y tranquilo que, a veces, despierta violentamente de su letargo, como si quisiera recordarnos lo frágiles que somos. Hoy les invitamos a escuchar una entrevista sobre esos bruscos despertares en forma de terremotos y tsunamis. Hablamos con Elisa Buforn Peiró, catedrática de Física de la Tierra en la Universidad Complutense de Madrid.
Elisa Buforn ha investigado la física que gobierna el comportamiento de la tierra justo en el lugar en el que se produce el terremoto, el foco sísmico, y ha desarrollado un conjunto de algoritmos que permiten estudiar el comportamiento de los terremotos a distancias regionales. Sus aportaciones han servido para obtener un mayor conocimiento de las características sísmicas y tectónicas de la región Sur de España y Norte de áfrica, y se han aplicado también a zonas americanas como Perú, Bolivia y El Salvador.
Las palabras de la profesora Buforn nos invitan a aprender de estos fenómenos naturales. Como complemento al programa, les invitamos a leer el siguiente reportaje:
LOS COLETAZOS DE UN GRAN TSUNAMI.
Existen muchas imágenes de la potencia destructora de un tsunami o de un terremoto. Sus devastadores efectos nos hacen estremecer pero su historia no acaba ahí, las secuelas de la catástrofe perduran en el tiempo y se reflejan en muchos aspectos que provocan daños colaterales que conviene estudiar.
El 11 de marzo de 2011, Japón sufrió el azote de un seísmo de gran potencia seguido de un tsunami devastador. La destrucción no sólo se llevó por delante vidas humanas y construcciones costeras, sino que creó una cantidad de desechos que se estima en 25 millones de toneladas, muchos de los cuales fueron arrastrados al océano. Los satélites artificiales fotografiaron la región y descubrieron enormes cantidades de restos de construcciones, barcos y objetos domésticos que flotaban a lo largo de la costa japonesa. Desde entonces, todos aquellos desechos han sido arrastrados por las olas, el viento y las corrientes oceánicas dispersándolos por todo el Pacífico.
Cualquier desecho flotante es potencialmente peligroso en el mar, los de mayor tamaño, bloques de construcción, contenedores portuarios o vehículos, por ejemplo, son peligrosos para la navegación, las sustancias químicas toxicas que transportan algunos contenedores arrastrados por las aguas, los combustibles de vehículos y barcos o las fugas radiactivas de la central nuclear de Fukushima, amenazan a la vida marina y contaminan las playas, pero incluso las pequeñas bolsas de plástico pueden ser ingeridas por los animales marinos provocándoles la muerte. A la catástrofe siguió un mar de contaminación que todavía perdura.
Conocedores de los peligros, un grupo de investigadores de la Universidad de Hawaii, intenta hacer un seguimiento de todos estos desechos para prevenir otras catástrofes quizás no tan espectaculares pero no menos importantes. Para ello han elaborado programas de ordenador capaces de modelar el movimiento de los residuos del gran tsunami de Japón.
Los vientos y corrientes marinas han hecho un gran trabajo con todos los restos de la catástrofe. En un principio los desechos formaban enormes aglomeraciones tan inmensas que eran visibles desde los satélites de observación de la Tierra. Ahora toda esa contaminación se ha ido separando y dispersando por una zona cada vez mayor separada en trozos más pequeños que ahora es imposible ver desde los satélites. Los barcos que navegan por el Pacífico conocen bien el problema. En el mes de septiembre, un barco ruso que navegaba cerca del Atolón de Midway, a 4.000 kilómetros del lugar del desastre, se encontró con los restos de un barco de pesca japonés, un frigorífico, un televisor y otros electrodomésticos. En diciembre, otros restos fueron recogidos en Vancouver, Canadá.
La enorme cantidad de toneladas de desechos vagan ahora por el Pacífico y los científicos intentan detectar los peligros que representan para las comunicaciones marina y para la vida oceánica, los bloques grandes pueden dañar los arrecifes de coral y los restos pequeños son un peligro para los animales marinos como los albatros, las focas o las tortugas.
Nancy Wallace, directora del Marine Debris Program de la NOAA ha declarado a Scientific American que su organización se están preparando para el peor de los escenarios porque todas esas miles de toneladas de desechos producidos por el Tsunami están en algún lugar del océano. En el mapa adjunto se muestra el camino seguido por los desechos en su dispersión por todo el Océano Pacifico.
 
El cerebro humano es un inmenso conglomerado de miles de millones de neuronas interconectadas entre sí de forma complejísima. Ahora que nos gusta presumir de la cantidad de información que es capaz de manejar nuestro flamante ordenador pero, desgraciadamente para los amantes de tales comparaciones, nuestro cerebro es mucho más complejo, dinámico, con muchísima más capacidad de almacenamiento y maneja unos algoritmos que dejan a los informáticos a la altura del betún. Se habla, por poner unos ejemplos, de 10.000.000.000.000.000 conexiones neuronales, pero cada conexión neuronal tiene muchos más niveles de reacción que los pobres ceros y unos de la secuencia binaria que utilizan los ordenadores. Puede usted sentirse orgulloso de su cerebro, aunque no sea capaz de recordar cómo se hace una raíz cuadrada.
El cerebro, con su complejísimo entramado de conexiones logra recibir e interpretar las informaciones de los sentidos, controlar los movimientos corporales, almacenar recuerdos, aprender, hablar, pensar… en fin, todas las funciones que se nos puedan ocurrir y que nos identifican como seres humanos.
Lógicamente, como sucede a cualquier músculo u órgano de nuestro cuerpo ( y a los ordenadores), con el tiempo, el cerebro se deteriora. Las neuronas van muriendo y las conexiones que se establecen entre ellas disminuyen, una disminución que implica, inevitablemente, la pérdida de información y de las facultades mentales que atesoran. El envejecimiento es un proceso natural de perdida neuronal pero, a veces, al propio proceso de deterioro obligado por la naturaleza se añaden enfermedades que vienen hacen buena la expresión de “a perro flaco todo se le vuelven pulgas”. Algunas proteínas, necesarias para el funcionamiento normal de las neuronas, cambian sutilmente de forma, dado que suelen ser moléculas bastante largas, no tiene por qué ser un cambio grande, basta con un “pliegue” distinto al habitual, a partir de ahí todo comienza a torcerse. Las proteínas defectuosas son incapaces de llevar a cabo su cometido, a veces se aglutinan formando grumos, y generan problemas de transmisión de información o, incluso, provocan la muerte de la neurona. Las personas que sufren este tipo de trastornos decimos que padecen una enfermedad neurodegenerativa. El Parkinson o el Alzheimer son buenos ejemplos de ello, aunque hay otras menos conocidas.
No se conocen las causas que provocan estas enfermedades, unos trastornos que, por otra parte, pasan inadvertidos durante mucho tiempo antes de que aparezcan síntomas visibles. Cuando un enfermo de Parkinson muestra los primeros síntomas, temblores de las extremidades en reposo, rigidez muscular, lentitud de movimientos voluntarios, pérdida de reflejos… es porque la enfermedad ya se encuentra en un estado avanzado. Detectarla a tiempo, cuando las primeras neuronas comienzan a sufrir los efectos de la degeneración, podría ayudar enormemente, si no a curarla –eso es algo que por ahora está fuera del alcance de la medicina – al menos a retrasar progreso, un retraso que se traduce en vida para los enfermos.
En muchos centros de investigación se buscan marcadores biológicos capaces de revelar la presencia de la enfermedad neurodegenerativa durante los primeros momentos del desarrollo. Uno de esos lugares es el Laboratorio de Neuroplasticidad y Neurodegeneración de la Universidad de Castilla-La Mancha, allí, un grupo de investigadores dirigido por Alino Martínez Marcos, profesor de Anatomía y Embriología Humana en la Facultad de medicina de Ciudad Real, ha descubierto que existe una relación entre la pérdida o disminución de las facultades olfativas y la enfermedad de Párkinson, un descubrimiento que abre las puertas a su utilización futura como detector precoz de ésta y otras enfermedades neurodegenerativas.
Durante la entrevista, Alino Martínez Marcos habla de la “hipótesis prionoide” una idea con la que, recientemente, se intenta explicar el comportamiento de las proteínas que intervienen en el desarrollo de las enfermedades neurodegenerativas. Esta hipótesis se apoya en los descubrimientos sobre la enfermedad de Creutzfeldt-Jakob (ECJ), una enfermedad que durante las dos últimas décadas del siglo XX afectó a un número de personas habían consumido las vísceras, especialmente sesos, de reses enfermas, razón por la que tomó el nombre de “enfermedad de las vacas locas”. Su origen es debido a unas proteínas, los priones, que en su forma correcta no producen problemas, pero cuando se pliegan de forma incorrecta adquieren el poder de contagiar de otras moléculas sanas, como si fueran agentes infecciosos, y provocan la destrucción del cerebro del enfermo. En 1997 se concedió el premio Nobel de Fisiología y Medicina a su descubridor, Stanley Prusiner y ahora algunos científicos piensan que una forma parecida de infección podría ser la causante de enfermedades como el Alzheimer o el Parkinson.

No hay comentarios.:

Publicar un comentario