Hace unos 2600 años, surgió en un pequeño conjunto de colonias comerciales griegas nuestra actual forma de investigar, conocer y ,en definitiva, pensar: el LOGOS. En este blog, se pretende avivar el espíritu de esos primeros científicos. Un lugar en el que la opinión, el debate y el análisis predominen sobre el simple conocimiento de hechos, datos y cifras. Dejemos a un lado las apariencias y sumerjámonos en el mundo de las esencias.

sábado, 3 de octubre de 2009

Breve historia de la Medicina


La Medicina es una ciencia tan antigua casi como la mismísima raza humana. Sin embargo, le ha costado tomar la racionalidad y, de hecho, aún le resulta complicado ser una ciencia más. Aunque algunos no lo crean, el médico ha de ser ante todo un científico y un humanista. Un científico ha de saber de todo, incluso física, pese a los gustos de algunos. Por otro lado, su inclinación ha de ser humanística: el médico ha de amar al ser humano y toda su creación, desde la pintura hasta la música. Sumerjámonos en este viaje tan holístico que debería ser la Medicina desde sus comienzos.

Hacia el año 1600 a.C, los egipcios ya realizaban descripciones anatómicas de las prácticas de momificación.
Posteriormente, llegaría el médico griego Hipócrates, el llamado "Padre de la Medicina", que fue el autor de la doctrina humoral. Ésta sostenía que el ser humano se compone de cuatro fluidos o humores (sangre, flema, bilis amarilla y bilis negra) que han de encontrarse en equilibrio para que el individuo esté sano.

Asimismo, Hipócrates fue el creador del juramento hipocrático, una especie de acuerdo en el que sus alumnos se comprometían a la adecuada práctica de la medicina.

A Hipócrates también se le atribuye la frase: "el médico debe estudiar la enfermedad no al paciente".


Más tarde, el polifacético filósofo macedonio Aristóteles introduciría vocabulario médico tal como Anatomía.

Sin embargo, la irracionalidad hizo su aparición con Galeno en el año 130 d.C. Galeno sostenía que la disección estaba prohibida, lo que sumió en el oscurantismo a la Anatomía y a la Medicina durante siglos.


Asimismo, fue el creador del concepto de pneuma, el alma.

No fue hasta la llegada de Vesalio cuando la Medicina se convirtió de nuevo en una ciencia racional. Este médico belga realizó numerosas disecciones y anotó todas sus consideraciones. Es el autor de una de la obra médica más importante de su época: De humanis corporis fabrica.



Entre los siglos XVII y XVIII, se realizaron multitud de disecciones con lo que se produjo un amplio desarrollo de la Anatomía descriptiva y topográfica.

Ya en el siglo XIX la teoría microbiana de la enfermedad de Lister, Koch y Pasteur, la patología celular de Virchow y la Teoría Celular de Schleiden y Schwann abrieron nuevos horizontes a la medicina tales como la Microbiología y la Histopatología.




Asimismo, el descubrimiento de los rayos X por Röntgen y del resto de radiaciones ionizantes (Becquerel) permitirían algunos años más tarde el empleo de sofisticadas máquinas como TACs, RMs o PETs que aportarían nuevos datos anatómicos y que resultarían de vital importancia en el diagnóstico de las enfermedades.



Por último, cabe mencionar que la Medicina actual no sería nada sin la farmacología. El descubrimiento de la aspirina por Felix Hoffman y, sobre todo, de la penicilina por Alexander Fleming suponen las primeras "panaceas" efectivas de las que dispuso el ser humano.


Sin embargo, a la Medicina le queda mucho por recorrer. No sólo debe contentarse con sus conocimientos. Debe ser más holística, forma a partir de la cual logrará acumular un mayor número de conocimientos y llegará a una solución insólita que quizás sea la solución a muchos de los problemas que tiene el ser humano de hoy día.

lunes, 31 de agosto de 2009

Theodor Kaluza: un genio adelantado a su tiempo

Casi nadie lo sabe, pero Theodor Kaluza logró algo que ni el mismísimo Einstein consiguió: la unificación de las fuerzas conocidas en su época. Todo ello gracias a que dio con la clave exacta para ello: la introducción de nuevas dimensiones espaciales. Sin embargo, esta idea tan sumamente adelantada a su época acabó por minar completamente su reputación.

Este concepto revolucionario convierte a Kaluza en el padre, en última instancia, de la teoría de cuerdas. Pero, ¿quién fue este verdadero genio olvidado que consiguió lo que un sínfín de premios Nobel no lograron en una vida entera dedicada a la investigación?, y, quizás lo más importante ¿por qué no se dio a conocer?


Theodor Kaluza nació en Racibórz (Alemania) en 1885. De familia católica alemana, su padre era un experto en lengua inglesa. Estudió en la Universidad de Königsberg, institución en la que había trabajado el mismísimo Kant y en la que su padre era profesor. Más tarde, ya licenciado en física matemática (física teórica), trabaja como doecente en la Universidad de Kiel y, posteriormente, en Göttingen. Theodor Kaluza tuvo un hijo, también llamado Theodor, que fue un brillante matemático.



Robert Kaluza resolvió el gran problema que traía a los físicos de cabeza: la unificación de fuerzas. Logró la unión de la gravedad con el electromagnetismo, algo sorprendente, gracias a una idea brillante y fortuita que por su aparente absurdo no parece ser la solución. Kaluza supuso que el espacio poseía cuatro dimensiones, frente a las tres habituales. Esta solución dejó perplejos a muchos pero la unificación funcionaba. Sin embargo, muchos físicos se negaban a creer que el espacio tuviese más dimensiones que las visibles, por lo que fue tachado de chiflado y charlatán. Junto con el matemático Oskar Klein formalizó la teoría y actualizó los aspectos clásicos a la mecánica cuántica. Por esta razón se la conoce como teoría de Kaluza-Klein (1926).




El poco éxito de la teoría fue fruto de la mentalidad de la época. Nadie podía imaginar una dimensión adicional, lo que parecía algo absurdo. Aún a día de hoy cuesta entender la existencia de las 11 dimensiones espaciales que propone la teoría de cuerdas.






Theodor Kaluza era un auténtico genio: hablaba y escribía en 17 idiomas, algunos como el lituano o el húngaro, aunque su preferido era el árabe. Asimimismo, tenía una personalidad muy modesta y un gran sentido del humor. La leyenda cuenta que Kaluza aprendió a nadar con 30 años y sólo leyendo un libro, ya que confiaba ciegamente en el conocimiento teórico.


El 19 de enero de 1954 falleció un genio incomprendido, un auténtico hombre adelantado a su tiempo que tuvo la osadía y el coraje de defender sus creencias hasta el final pese a ser tildado de loco. El tiempo acabaría ganando la partida a la ignorancia.

domingo, 23 de agosto de 2009

La percepción sensorial I: la obsoleta maquinaria visual humana


Si nos acercamos al mundo de los sentidos, resulta casi algo mágico el que un puñado de células sean capaces de captar y, sobre todo, de distinguir una más que amplia gama de estímulos procedentes del medio. Sin embargo, un estudio más detallado de estos procesos nos muestra que no van más allá de un puñado de leyes físicas, aunque los resultados sean sorprendentes.

El estudio de la percepción humana desde un punto de vista biológico, no sólo nos muestra que en el fondo su fundamentación física sea simple, sino que se trata de un proceso que deja mucho que desear. De hecho, algunos de ellos son mecanismos que jamás un ingeniero hubiera aprobado. Queda bastante claro, por tanto, que el desarrollo de esas estructuras sólo ha podido ser fruto de un proceso azaroso y nunca fruto de una inteligencia superior ordenadora. El diseño inteligente no tiene en que sustentarse.

A continuación analizaremos el mecanismo de la visión humana desde un punto de vista biológico, el cual nos confirmará todo lo que he expuesto anteriormente.


Como bien sabemos, cuando la luz entra en el ojo se dirige a la retina, una superficie plagada de trminaciones nerviosas y células fotorreceptoras. Es ahí donde quiero centrarme.


Desde un punto de vista histológico, la retina se compone de varios tipos de células. La parte más profunda contiene células epiteliales pigmentadas que contienen rodopsina y se encargan del mantenimiento de la capa de células que se encuentran justo delante: las fotorreceptoras. Éstas últimas se dividen en dos tipos: los conos o células que captan los colores y los bastones que funcionan en condiciones de oscuridad y reciben tonalidades en blanco y negro. Estos conos y bastones convierten las diferentes longitudes de onda de la luz en impulsos nerviosos. Estas células hacen sinapsis con interneuronas o neuronas de relación que mandan las señal a la última capa de células y más externa de la retina: las neuronas ganglionares. Son los axones de estas neuronas los que constituyen el nervio óptico, llevando la señal nerviosa hasta el cerebro.


Como hemos podido ver, las células fotorreceptoras quedan en una de las capas más internas de la retina, encontrándose cubiertas por un entramado selvático de interneuronas y neuronas ganglionares. Supone una auténtica pérdida de energía luminosa y, en consecuencia, una disminución del rendimiento ocular. Por si no fuera poco, además, esta disposición celular de la retina obliga a los haces nerviosos a salir por la parte superficial de la misma (esto es debido, como hemos visto, a que las neuronas ganglionares se sitúan en su superficie), lo que provoca la existencia de un punto por el que sale el nervio óptico y carece de células fotorreceptoras. Es decir, ocasiona la existencia de un punto ciego en el ojo humano.
Supongamos que un haz de luz incide sobre la superficie de la retina. Éste, primero, alcanza las células fotorreceptoras, más concretamente el extremo de éstas que conecta con el epitelio pigmentario: el segmento externo. Dentro del mismo hay multitud de membranas que se encuentran cargadas de pigmentos visuales, como la rodopsina, principalmente. Se trata de una heteroproteína constituida por hasta tres tipos de opsina (una proteína) y por un grupo prostético integrado por retinol. Existen hasta tres tipos de rodopsina, cada una de ellas receptora de una determinada parte del espectro luminoso. Consecuentemente, existen conos y bastones de "tres tipos": uno para cada tipo de rodopsina, es decir, los que perciben el color rojo, el color azul o el verde, o bien, su escala de gris correspondiente. Pues bien, cuando una luz determinada incide sobre las membranas pigmentarias de una célula fotorreceptora puede llegar a excitar a los pigmentos luminosos. Es en ese caso cuando la célula fotorreceptora inicia la producción de neurotransmisores, haciendo que se propage una señal nerviosa a través de las interneuronas y de éstas a las células ganglionares que finalmente conducirán los impulsos nerviosos hasta las neuronas cerebrales que codifican la parte del espectro captada por esa célula fotorreceptora. Aunando todas las informaciones visuales recibidas es como el cerebro genera la imagen que percibimos finalmente.


El proceso aquí expuesto es otra muestra de como la naturaleza se encuentra en última instancia regida por leyes físicas deterministas que actúan arbitrando un mundo aleatoriamente cambiante.

viernes, 21 de agosto de 2009

Todo reducido a dos clanes: el modelo estándar de partículas

No se trata de dos familias enfrentadas sino todo lo contrario, de las correctas interacciones entre ellas surge el mundo tal y como lo conocemos. Se trata del modelo estándar de partículas, el cual fue creado entre los años 60 y 70 por un sinfín de científicos que casi a un ritmo diario descubrían partícula tras partícula. Sin embargo, su unificación total se debió al físico Steve Weinberg quien logró con ello crear una teoría que unificaba las fuerzas nuclear fuerte, nuclear débil y electromagnética. Sólo la correosa gravedad escapaba a esta genial unificación.

Según esta teoría todo queda reducido a dos familias, mejor dicho dos posibilidades, dos comportamientos únicos posibles para las unidades elementales que nos constituyen: las partículas.




Es bien sencillo de comprender. Expone que esas pequeñas partículas (imaginémoslas pequeñas bolitas materiales) presentan la capacidad de generar un campo magnético a su alrededor, hecho que se conoce como spin. La teoría supone que en la naturaleza existen dos grandes grupos: las partículas que posen spin 1/2 o fermiones y aquellas con spin 1, los bosones. Esta insignificante diferencia en esta propiedad las hace tremendamente diferentes, encomendándoles una de las dos posibles misiones de la naturaleza.


Los fermiones o particulas con un spin de 1/2 son aquellas partículas que poseen masa y, por lo tanto que constituyen el mundo material tal como lo conocemos. Son las componentes de los átomos.

Como bien sabemos, los átomos se componen de dos partes totalmente diferentes: el núcleo, que alberga la mayor parte de la masa, y la corteza electrónica. Por tanto, la familia de los fermiones distingue entre partículas que componen el núcleo o quarks y las partículas de la corteza, los leptones, entre los que se encuentra el electrón.
Los quarks se caracterizan por poseer carga fraccionaria mientras que los leptones poseen carga -1 o 0, es decir, entera.
Los quarks son de gran importancia ya que son los responsables de la existencia de los protones y neutrones atómicos. Son los componentes elementales de estos. Quedan agrupados en tres parejas posibles dependiendo de su estabilidad energética. La pareja más estable, es decir la de menor energía es la que compone la materia tal cual la conocemos. Es la pareja Up/Down. Se han descubierto otras dos más: Charm/Strange y Top/Bottom. Volviendo al núcleo, los protones se componen de dos quarks up y un down. Los neutrones de un up y dos down. Como los quarks down tienen carga -1/3 y los up, +2/3 se explica el porqué a que la carga del neutrón sea de 0 y la del protón de +1.
Por otro lado, y todavía dentro de este mundo material que representan los fermiones, se encuentran los leptones, partículas de carga entera. Al igual que los quarks encontramos diferentes leptones según su energía y estabilidad. Como es de esperar, la partícula de menor energía es la que constituye las cortezas atómicas: el electrón. Existen dos estados energéticos mayores en los leptones: los muones y los tauones. Sin embargo, la familia de los leptones no quedaría completa sin los los neutrinos correspondientes: el neutrino electrónico, el neutrino muónico y el neutrino tauónico.
Todas estas partículas presentan sus antipartículas correspondientes, las cuales consisten en partículas de igual masa y de carga contraria a aquella de la que proceden. Por ejemplo, el positrón o antielectrón tiene la misma masa que el electrón y carga +1. Asimismo, también existen antiquarks. Todas estas antipartículas constituyen la conocida como antimateria.



Sin embargo, hasta ahora no hemos hecho más que hablar de partículas materiales. Si sólo nos compusiéramos de partículas materiales no existiríamos ya que los fermiones de los que hemos hablado necesitan interaccionar entre sí para componer unidades elementales mayores (átomos, moléculas, etc). Los fermiones interaccionan unos con otros gracias a la existencia de otras partículas, los bosones, que carecen de masa y carga.

Los bosones son las partículas mediadoras de la fuerza. Carecen de carga y masa, pero poseen un spin de 1. Gracias a ellas existen las cuatro fuerzas fundamentales de la naturaleza: nuclear débil, nuclear fuerte, gravitatoria y electromagnética. La naturaleza necesita las fuerzas para funcionar, al igual que un automóvil el combustible. Los bosones, también conocidos como bosones de Gauge son: para la fuerza nuclear fuerte, el gluón, para la débil, las partículas W+ , W- y Z0 y el fotón como mediador de la fuerza electromagnética. Asimismo, existen otros tipos de bosones conocidos como mesones, tales como el kaón y el pión, que forman parte de la obsoleta teoría del intercambio mesónico formulada por el japonés Hidei Yukawa.

Por tanto, nuestro mapa de partículas queda completo: tenemos a las responsables de la materialidad y a aquellas que median las fuerzas. Sin embargo, necesitó de dos pequeños ajustes que a día de hoy están siendo sometidos a experimentación.


Por un lado, y como algo exitoso, esta teoría permitió unificar bajo una misma ecuación a las dos fuerzas nucleares (fuerte y débil) y al electromagnetismo, creando una teoría del "casi todo". Pero en esa ecuación aparecía un valor desconocido que corresponde con una partícula aún no descubierta. Esa partícula ha sido bautizada como bosón de Higgs, o más recientemente "partícula de Dios" y se postula que es la responsable de la existencia de la masa. Estas partículas inundarían el espacio-tiempo, siendo la masa ni más ni menos la dificultad de desplazamiento que experimentarían los fermiones al toparse con este océano bosónico. Actualmente, dos grupos de científicos rivales trabajan contrarreloj en dos aceleradores de partículas. Uno en el Tevatrón del Fermilab, en EEUU, el otro en el LHC del CERN, en Suiza. A día de hoy, el Fermilab es el que posee más posibilidades de ver el rostro de Dios, tras los recientes problemas técnicos acontecidos en el CERN.

Por otro lado, la unificación entre la fuerza electrodébil (nuclear débil + electromagnetismo) y cromodinámica cuántica (nuclear fuerte) no es exactamente perfecta si consideramos la teoría íntegramente como la hemos expuesto. Para que todas las ecuaciones funcionen a la perfección se hace necesaria la introducción de la supersimetría, es decir, la suposición de partículas indetectables que serían exactamente iguales a las anteriormente citadas. Aunque parezca algo que da complejidad a la teoría, simplifica enormemente los cálculos y la exactitud de la teoría. Además, permite dar una explicación a la existencia de la materia oscura, es decir, de materia indetectable (no debemos confundir la materia oscura con la antimateria. Ésta última es detectable y de hecho es utilizada en Medicina Nuclear en la técnica de la tomografía por emisión de positrones (PET)). El descubrir éstas pártículas supersimétricas es otra de las investigaciones que tanto el Fermilab como el CERN están llevando acabo actualmente.


El modelo estándar nos resulta familiar y fácil de comprender. Sin embargo, a pesar de sus éxitos sigue sin lograr la unificación entre la fuerza gravitatoria y las otras tres. Aún queda sin resolver, aquello que tanto preocupa a los físicos: el llegar a una teoría del todo que no unifique tres fuerzas sino las cuatro. El modelo estándar se nos queda corto. Sin embargo, una teoría muy controvertida, aunque cada vez con más adeptos, logra unificar todas las fuerzas de la naturaleza: se trata de la teoría de cuerdas. Su demostración definitiva se está poniendo también a prueba tanto en el CERN como el Fermilab.

sábado, 1 de agosto de 2009

La organogénesis: ¿milagro divino o simplemente física?


Resulta difícil pensar cómo a partir de un puñado de células se puede dar lugar a organismos tan complejos, los cuales se encuentran constituidos por agrupaciones de tejidos conocidas como órganos. Como bien sabemos, cada uno de estos órganos es un auténtico mundo si lo comparamos con otro. El tipo de células parenquimatosas, las capas de tejido o su función varían considerablemente de uno a otro. Asimismo, la complejidad interna de estos órganos resulta cuanto menos intrincada y laberíntica.


Pero, ¿qué provoca que las células embrionarias pluripotenciales se diferencien?, ¿qué les indica que se transformen en un tipo u otro? y aún más intrigante ¿a qué se debe la ordenación casi milimétrica existente entre cada uno de ellos?

Para poder explicar este fenómeno aparentemente mágico, comenzaremos desde el momento de la fecundación.

Una vez acontecida la unión entre el material genético procedente del progenitor A y el progenitor B tiene lugar la formación del huevo o cigoto, una célula diploide. Esta célula se encuentra indiferenciada: es lo que se conoce como célula pluripotencial o célula madre. Esta célula cigoto sufre múltiples divisiones convirtiéndose en una mórula pluricelular. Esto que queda aquí descrito es la primera fase del desarrollo embrionario: la segmentación.


Una vez acabada la fase de multiplicación del cigoto tiene lugar la gastrulación. En esta etapa, la masa de células indiferenciadas sufre una primera y ligera diferenciación previa a la organogénesis. Asismismo, adquieren una disposición particular. De forma resumida, las células se disponen en tres capas, que desde dentro hacia afuera son llamadas endodermo, mesodermo y ectodermo. Estas se encuentran rodeando a una cavidad interna de la gástrula conocida como gastrocele o arquénteron cuya salida al exterior es llamada gastroporo.

Pues bien, ahora llega el milagro "físico". El proceso en el cual las capas celulares de la gástrula dan lugar a complejos órganos que, cabe resaltar, nada se parecen al puñado de células iniciales.

El proceso de la organogénesis es consecuencia de la diferenciación celular, es decir, los órganos surgen porque las células pluripotenciales embrionarias se transforman en células especializadas. En este proceso, las células cambian sus rutas metabólicas biosintéticas y su conformación estructural. Para lograr esto transcriben sólo una parte de su ADN, mientras que el resto lo dejan inactivo. Esto ocurre gracias a la existencia de unas proteínas específicas llamadas factores de transcripción que se encuentran en el interior celular. Los factores de transcripción son específicos, uniéndose al gen promotor concreto que se encuentra en el comienzo de la secuencia de ADN que ese tipo celular transcribe. Como puede deducirse, cada tipo celular tiene su propio factor de transcripción que provoca la expresión de los genes implicados en su morfología y funcionamiento.


Pero queda algo por responder: ¿qué indica a la célula que debe diferenciarse en un tipo u otro? y ¿de dónde procede esta señal? Vayamos por partes.

La señal es externa, más concretamente una proteína que se encuentra bañando la gástrula conocida como activina. Esta proteína es la que provoca que las células se diferencien y la que determina que las células se conviertan en un tipo u otro. Esto último se debe a un gradiente de concentraciones. La gástrula es más o menos redondeada, por lo que gravitacionalmente, la cantidad de activina será mayor en la parte inferior (el conocido como polo vegetal) que en la parte superior (el llamado polo animal). Dependiendo de la concentración de activina que rodee a la célula está tomará un rumbo vital u otro.

La relación de esto último con los factores de transcripción antes descritos es sencilla. Se trata de una simple transducción de señales proteicas hacia el interior de las células. La activina se une a los receptores de membrana de las células, lo que provoca la aparición de una serie de proteínas que finalmente activan el factor de transcripción correspondiente. Dependiendo de la concentración de activina que bañe las células, la cantidad de esta sustancia que se una a los receptores de membrana será diferente y por tanto, las proteínas que como consecuencia de la transducción de la señal se configure. Esta diferencia de proteínas activadoras como consecuencia de la diferente concentración de activina es lo que de forma específica activa un factor de transcripción u otro y lleva a las células a diferenciarse en células hepáticas, cerebrales o cardíacas.


El conociemiento del proceso de la organogénesis es de vital importancia. De hecho, el profesor Asashima de la Universidad de Tokyo y su grupo de investigación estudian como aplicar este proceso para la obtención de órganos in vitro que posteriormente puedan ser trasplantados a las personas.

viernes, 15 de mayo de 2009

Chapuzas evolutivas


Frente a la idea generalizada de la supervivencia de los mejores se impone la realidad, es decir, la supervivencia de los más aptos. Como aptos no debe entenderse mejores, sino aquellos que dadas sus características son capaces de sobrevivir en un determinado ambiente porque poseen alguna modificación necesaria. Esa "modificación necesaria" puede ser ,de hecho, una chapuza evolutiva. Veamos un par de ejemplos que aclararán bastante este asunto.

Como sabemos existen enfermedades genéticas ligadas a cromosomas autosómicos. Pero, ¿a qué se deben esas modificaciones genéticas? La respuesta es evolutiva.


La fibrosis quística es una patología de origen genético autosómico recesivo, caracterizada por una excesiva producción de moco espeso, quistes pulmonares y problemas en la digestión como consecuencia de la falta de secreción exocrina del páncreas (jugos pancreáticos),entre otras complicaciones. Todo ello conlleva problemas respiratorios y nutricionales en los afectados. Su frecuencia poblacional aumenta en etnias de zonas frías (norte y este europeo). Precisamente en este último dato está la explicación al asunto. Se trata, no de una simple enfermedad, sino de una adaptación evolutiva. En climas fríos, la indcidencia de las infecciones respiratorias es mucho mayor, y por ello, la mortalidad por este tipo de patologías. La producción de moco espeso es una protección frente a los microorganismos invasores, ya que ayuda a inmovilizarlos y expulsarlos. Sin embargo, el remedio constituye una enfermedad en sí misma, ya que dificulta la respiración del individuo. Sin embargo, el objetivo impuesto por el ambiente se cumple: sobrevivir a las exigencias y patologías de los climas fríos.

Con esto queda demostrado que la selección natural no hace sobrevivir a los mejores, en este caso individuos sanos, sino a los más adaptados al ambiente (enfermos).

La enfermedad como adaptación evolutiva puede verse mucho más claro en el caso de la anemia falciforme.



Otra enfermedad genética autosómica es la anemia de células falciformes. Es codominante y se caracteriza por la presencia de glóbulos rojos con forma de hoz cuya capacidad de transporte de oxígeno es mucho menor. Y todo por la sustitución del aminoácido Glu (ácido glutámico) por Val(valina)en su hemoglobina.Pues bien, está demostrado que la anemia falciforme inmuniza a estas personas contra el paludismo. De hecho, es lógico ya que la forma de media luna que presentan estos glóbulos rojos impide que penetren en su interior los Plasmodium responsables de la malaria. La cosa no queda aquí, ya que la incidencia de esta enfermedad es mucho mayor en los países donde hay una gran incidencia de casos de malaria (África). Otro ejemplo que expone el desarrollo de una enfermedad como una "ventaja evolutiva".

Así que creo que queda ya desmitificado el hecho de que sobreviven los mejores. Repito, no son los mejores sino los aptos, que es distinto.

sábado, 18 de abril de 2009

La fotorrespiración, todavía un enigma


Las plantas en ambientes cálidos cierran sus estomas para evitar pérdidas de agua. Esto es algo normal y lógico, permitiendo que puedan sobrevivir en ambientes muy áridos. Sin embargo, el cierre de los estomas es contraproducente, ya que produce una disminución del CO2 en la cavidad subestomática. Esto desacelera el metabolismo de la planta, ya que, como bien sabemos, el CO2 es primordial para la síntesis de materia orgánica en el ciclo de Calvin-Benson-Bassham. Pero la cosa no acaba ahí, siendo mucho más graves las consecuencias de este proceso. ¿Por qué?

La enzima encargada de fijar el CO2 es la rubulosa difosfato carboxilasa, es decir, la RubisCO. Tiene gran afinidad por el CO2, como es lógico pensar. Sin embargo, y aunque parezca paradójico, también tiene gran tendencia a fijar el O2. Este proceso tiene lugar cuando la concentración de CO2 en la hoja es muy baja, es decir, cuando la planta se ve obligada a cerrar sus estomas como consecuencia de la aridez diurna. Esta fijación de O2 en lugar de CO2 es lo que se conoce bajo el nombre de fotorrespiración. Analicemos el proceso.



La fijación de O2 genera metabolitos intermedios oxidados que han de ser tratados en los peroxisomas. De ahí pasan a las mitocondrias donde son desechados mediante la producción de CO2 y el consumo de energía en forma de ATP.

Esto supone un verdadero problema para la planta, ya que aparte de ver su crecimiento ralentizado, se ve obligada a gastar sus reservas de almidón para metabolizar los productos de la fotorrespiración.

La fotorrespiración ha supuesto uno de los quebraderos de cabeza de los agricultores, quienes tienen que resignarse impotentemente ante la llegada de periodos de aridez inesperada que reducen con creces la producción agrícola.



Este proceso tiene lugar en las llamadas plantas C3. Sin embargo, las plantas de climas áridos han inventado estrategias para evitar la fotorrespiración. Existen dos formas de protegerse de este proceso. Por un lado se encuentran las plantas C4, las cuales fijan el CO2 con una enzima que no tiene afinidad alguna por el oxígeno: la PEP carboxilasa (fosfoenolpiruvato carboxilasa). Por otro lado, las plantas CAM, las cuales abren sus estomas por la noche, fijando el CO2 en ácidos orgánicos.
¿Por qué la RubisCo tiene afinidad por el O2? No se sabe aún, aunque a fotosíntesis del día siguiente. Para ello almacenan el CO2 en ácidos se cree que es un rasgo vestigial de la enzima, procedente de una época en la que la cantidad de O2 en la atmósfera era mucho menor. De hecho, la evolución ha tendido ha eliminarlo mediante nuevas formas de metabolismo (plantas C4 y CAM), adaptadas a la aridez. Sin embargo, siguen sin conocerse con precisión los orígenes de este defecto evolutivo.

martes, 27 de enero de 2009

Paleopatología, una breve reseña



La historia, aunque no lo parezca, es un campo extremadamente amplio y apasionante, que erróneamente hemos tendido a asociar a la política, la arquitectura, la pintura o la música. Sin embargo, la historia se compone de personas que, lejos de sus ambiciones póliticas, expansionistas e incluso amorosas, son entidades vivas. El prestigio, el poder, el dinero e incluso, la pobreza, eclipsan un pasado que está ahí y aún hoy continúa acehándonos: la enfermedad. Aristócratas o campesinos, burguesía o proletariado, todos padecieron enfermedades y fallecieron, muchas veces a causa de las mismas y otras por otros motivos. La enfermedad no entiende de clases, de movimientos, de ideologías... Quizá sea esto lo que diferencie a la paleopatología del resto de disciplinas históricas.


Pero la paleopatología no es una disciplina histórica, o sí, sino una rama de la medicina que estudia las enfermedades que padecieron nuestros antepadados, individuos y poblaciones. Es algo así como una epidemiología histórica. Por esto, el paleopatólogo es un ciéntífico, un médico, para ser más exactos.El paleopatólogo es un gran conocedor de la anatomía y la patología humanas, teniendo que dominar todos los sistemas y aparatos. Un paleopatólogo puede desde determinar la edad de un esqueleto hasta realizar un estudio sobre la incidencia de la peste bubónica en la población europea del S.XIV o estudiar la causa de la muerte de Napoleón Bonaparte. Además, debe tener conocimientos amplios en materia de zoología y botánica, ya que los animales y las plantas padecían enfermedades. Sin embargo, necesita una fuerte formación humanística, histórica, ya que estudia individuos y poblaciones pasados.


En esta ciencia se oponen dos, yo diría visiones del mundo enfrentadas, las "letras" y las "ciencias". El paleopatólogo es un integrador de ambas corrientes, un puente entre las "ciencias" y las "letras". Un médico humanista, sin duda.


En la investigación paleopatológica se entrecruzan dos tipos de fuentes: las biológicas y las documentales. En el estudio de las primeras prima la formación médica, sobre todo, forense, ya que la mayor parte de este tipo de fuentes consisten en huesos o momias. También habría que mencionar otras como los coprolitos (excrementos fosilizados). Cabe mencionar, que debido a la frecuencia de los restos óseos, la labor del paleopatólogo se centre en torno a ellos.



Las otras se conocen como documentales y consisten en cualquier documento, pintura o biografía que pueda aportar algún dato sobre la patología de un individuo o población.



Lejos de ser una mera "arqueología" la paleopatología puede tener una aplicación actual muy útil. Por ejemplo, podría investigar la incidencia del cáncer en la población mundial a lo largo de la historia y relacionarla con un suceso relevante a nivel histórico (revolución industrial, electricidad, radio, etc). Actualmente, y aparte del estudio de lo meramante antuguo, tiene gran importancia en la identificación de cadáveres encontrados en fosas pertenecientes al periodo de la Guerra Civil.

Desde el punto de vista del que escribe esta líneas, la paleopatología tiene una importancia enorme, no sólo valor histórico, sino también médico, e incluso, clínico.

Modified by Blogger Tutorial

Traperos de ideas ©Template Nice Blue. Modified by Indian Monsters. Original created by http://ourblogtemplates.com

TOP