VII. LA MEDICINA MODERNA (SIGLOS XIX Y XX)

INTRODUCCIÓN

LO QUE se conoce como medicina moderna tiene raíces muy antiguas en la historia, que se han intentado resumir en las páginas anteriores. Pero es a partir de la segunda mitad del siglo XIX en que la medicina científica se establece en forma definitiva como la corriente principal del conocimiento y la práctica médica.

Naturalmente, muchas otras medicinas continuaron ejerciéndose, aunque cada vez más marginadas conforme la cultura occidental avanzaba y se extendía. El surgimiento de Alemania como una nación unificada bajo la férrea dirección de Bismarck se acompañó de un gran desarrollo de la medicina, que la llevó a transformarse en uno de los principales centros médicos de Europa y que no declinó sino hasta la primera Guerra Mundial.

Así como en el siglo XVIII y en la primera mitad del XIX los estudiantes iban a París, después de 1848 empezaron a viajar cada vez más a las universidades alemanas y en especial a Berlín. Varias de las más grandes figuras de la medicina de la segunda mitad del siglo XIX trabajaban y enseñaban en Alemania, como Virchow, Koch, Helmholz, Liebig, Von Behring, Röntgen, Ehrlich y muchos más. Varias de las teorías más fecundas y de los descubrimientos más importantes para el progreso de la medicina científica se formularon y se hicieron en esa época, muchos de ellos en Alemania. Sin embargo, después de la primera Guerra Mundial, pero especialmente después de la segunda Guerra Mundial, Europa quedó tan devastada que el centro de la medicina científica se mudó a los países aliados, y en especial a los Estados Unidos.

A continuación se han seleccionado algunos de los avances que, a partir de la segunda mitad tad del siglo XIX, han completado la transformación de la medicina en una profesión científica.

LA TEORÍA DE LA PATOLOGÍA CELULAR

Esta teoría general de la enfermedad fue formulada por Rudolf Virchow (1821-1902) en 1858 y constituye una de las generalizaciones más importantes y fecundas de la historia de la medicina. Virchow nació en Schiwelbein, estudió medicina en el Friedrich-Wilhelms Institut (escuela médico-militar) de Berlín, donde se graduó en 1843. Participó en la revolución de 1848 contra el gobierno y en 1849 fue nombrado profesor de patología en la Universidad Main, de Würzburg. Permaneció siete años en esa ciudad, al cabo de los cuales regresó con el mismo cargo a la Universidad de Berlín. Dos años después dictó 20 conferencias que fueron recogidas por un estudiante y publicadas el 20 de agosto del mismo año (1858), con el título de Die Cellularpathologie (La patología celular). Virchow tomó el concepto recién introducido por Schleiden y Schwan de que todas los organismos biológicos están formados por una o más células, para plantear una nueva teoría sobre la enfermedad. Tres años antes ya había publicado sus ideas al respecto en sus famosos Archiv, donde escribió:

No importa cuántas vueltas le demos, al final siempre regresaremos a la célula. El mérito eterno de Schwann no descansa en su teoría celular [...] sino en su descripción del desarrollo de varios tejidos y en su demostración de que este desarrollo (y por lo tanto toda actividad fisiológica) es al final referible a la célula. Si la patología sólo es la fisiología con obstáculos y la vida enferma no es otra cosa que la vida sana interferida por toda clase de influencias externas e internas, entonces la patología también debe referirse finalmente a la célula.

Figura 29. Rudolf Virchow (1821-1902).

Las bases teóricas de la patología celular son muy sencillas: las células constituyen las unidades más pequeñas del organismo con todas las propiedades características de la vida, que son: i) elevado nivel de complejidad, ii) estado termodinámicamente improbable mantenido constante gracias a la inversión de la energía necesaria, iii) recambio metabólico capaz de generar esa energía y iv) capacidad de autorregulación, regeneración y replicación. En consecuencia, las células son las unidades más pequeñas del organismo capaces de sobrevivir aisladas cuando las condiciones del medio ambiente son favorables; los organelos subcelulares, membranas, mitocondrias o núcleo, muestran sólo parte de las propiedades vitales y no tienen capacidad de vida independiente. Por lo tanto, si la enfermedad es la vida en condiciones anormales, el sitio de la enfermedad debe ser la célula. Debe recordarse que en 1761 Morgagni había postulado que el sitio de la enfermedad no eran los humores desequilibrados o el ánima disipada, sino los distintos órganos internos, en vista de que se podían correlacionar sus alteraciones con diferentes síntomas clínicos. Cuarenta años después, en 1801, Bichat propondría que el sitio de la enfermedad no eran tanto los órganos sino más bien los tejidos, para explicar la afección de distintos órganos que daba lugar a manifestaciones clínicas similares. Finalmente, en 1858, Virchow concluyó que el sitio último de la enfermedad no era ni los órganos ni los tejidos, sino las células.

El concepto de patología celular incorporó a la biología más avanzada de su época al servicio del estudio de la enfermedad. Pronto se hizo imposible, hasta para sus más virulentos y anticientíficos enemigos, rechazar un postulado tan fácilmente demostrable en el laboratorio y de influencias tan amplias en la medicina. El uso del microscopio se estaba generalizando al tiempo que se mejoraban su óptica y su mecánica; simultáneamente se introdujeron nuevas técnicas para la preparación y tinción de los tejidos, con lo que el diagnóstico histológico basado en la patología celular demostró su utilidad y se generalizó. En pocos años un avance conceptual "básico" resultó en extensa aplicación "práctica"; naturalmente, esto no sorprendió a Virchow, quien estaba convencido de que todo progreso científico es útil y de que todo conocimiento tiene aplicación.

Hoy no resulta fácil concebir lo grande y profunda que fue esta revolución, porque desde los primeros días los estudiantes de medicina se enfrentan a las células en histología, embriología, fisiología, patología y otras muchas materias, de modo tan indisolublemente ligado a la estructura y a la función biológicas que no es imaginable que alguna vez haya podido ser de otro modo.

LA TEORÍA MICROBIANA DE LA ENFERMEDAD

De todos los conceptos de enfermedad postulados a lo largo de la historia, seguramente el más fantástico es el que la concibe como resultado de la acción nociva de agentes biológicos, en su mayoría invisibles. Sin embargo, la idea es muy antigua y se basa en la observación de la contagiosidad de ciertas enfermedades, registrada por primera vez por Tucídides (ca. 460 a.C.) en su Historia de las guerras del Peloponeso, y a partir de entonces por muchos otros autores; la creencia popular atribuía estas enfermedades a la corrupción del aire, a los miasmas, efluvios y las pestilencias. Ya se ha mencionado que en el siglo XVI Fracastoro (1478-1553) señaló que el contagio de algunas enfermedades se debía a ciertas semillas y además hizo otras especulaciones sorprendentemente atinadas, pero sus ideas tuvieron poca repercusión en su época. La primera demostración directa de un agente biológico en una enfermedad humana la hizo Giovanni Cosmo Bonomo (ca. 1687) cuando describió con su microscopio al parásito de la sarna, el ácaro Sarcoptes scabieii, y con toda claridad le atribuyó la causa de la enfermedad; sin embargo, su trabajo fue olvidado.

La primera prueba experimental de un agente biológico como causa de una enfermedad epidémica la proporcionó Agostino Bassi (1773-1856), abogado y agricultor lombardo que estudió leyes en la Universidad de Pavia y también llevó cursos de física, química, biología y medicina, que eran los que le interesaban. Debido a problemas con su vista (que lo acompañaron toda su vida y le impidieron el uso del microscopio) renunció a su profesión de abogado y se retiró a su granja en Mairago, pero su interés científico lo llevó a estudiar la enfermedad de los gusanos de seda calcinaccio o mal del segno, que consiste en que el gusano de seda se cubre de manchas calcáreas de color blanquecino y consistencia dura y finamente granular, especialmente después de que muere; la enfermedad había producido daños graves en la industria de seda de Lombardía. Bassi invirtió 25 años en el estudio sistemático del mal del segno, los primeros ocho intentando reproducir experimentalmente la enfermedad por medio de administración externa e interna de ácido fosfórico a los gusanos, sin éxito alguno, y los restantes explorando la hipótesis de que la causa fuera un "germen externo que entra desde fuera y crece", lo que resultó correcto.

Bassi identificó al agente causal como una planta criptógama u hongo parásito e intentó cultivarla sin éxito in vitro. Poco después G. Balsamo Crivelli la identificó como Botrytis paradoxa y la rebautizó como B. bassiana. Bassi publicó sus observaciones en el libro Del mal del segno, calcinaccio o moscardino, malattia che afflige i bachi de seta (1835), donde se consigna la naturaleza infecciosa de la enfermedad y se dan las instrucciones completas para curar a los cultivos de gusanos afectados con sustancias químicas que él también descubrió.

Bassi señaló en otras obras que ciertas enfermedades humanas: sarampión, peste bubónica, sífilis, cólera, rabia y gonorrea, también son producidas por parásitos vegetales o animales, pero sólo razonando por analogía y sin aportar pruebas objetivas de sus aseveraciones.

Otro partidario de la teoría infecciosa de las enfermedades contagiosas, todavía más teórico que Bassi, fue Jacob Henle (1809-1885), alumno de Johannes Müller en Bonn, al que siguió a Berlín, y donde coincidió como estudiante con Theodor Schwann. Henle fue un brillante profesor de anatomía, primero en Zurich, después en Heidelberg y finalmente en Gotinga, donde permaneció hasta su muerte. En la época en que fue privatdozen en Berlín se encontraba entre sus alumnos Roberto Koch, en quien tuvo gran influencia. En 1840 Henle publicó su libro Pathologische Untersuchungen (Investigaciones patológicas), cuya primera parte ocupa 82 páginas y se titula Von den Miasmen und Contagien und Von den Miasmatisch-Contagiösen Krankheiten (De las miasmas y contagios y de las enfermedades miasmático-contagiosas). Se trata de un comentario sobre las teorías generadas por la segunda pandemia de cólera que había alcanzado a Europa en 1832, pero incluye las observaciones de Bassi, Schwann y Caignard-Latour (que habían demostrado la naturaleza viva de las levaduras responsables de la fermentación), de Schönlein (quien describió el agente responsable del favus, después conocido como Achorium schönleinii), de Donné (quien describió la Trichomonas vaginalis) y de otros más. Entre otras cosas, Henle señala que para convencernos de que un agente biológico es la causa de un padecimiento es indispensable que se demuestre de manera constante en todos los casos, que se aisle in vitro de los tejidos afectados y que a partir de ese aislamiento se compruebe que es capaz de reproducir la enfermedad. Estos tres procedimientos (identificación, aislamiento y demostración de patogenicidad) son lo que se conoce como los postulados de Koch-Henle y que durante años sirvieron de guía (y todavía sirven) a las investigaciones sobre la etiología de las enfermedades infecciosas.

Otros precursores importantes fueron Casimir Davaine (1812-1882), el primero en sugerir el papel patógeno de una bacteria en animales domésticos y en el hombre, basado en sus observaciones experimentales sobre el ántrax, inspiradas por Pasteur, y Jean-Antoine Villemin (1827-1892), quien demostró por primera vez que la tuberculosis es una enfermedad contagiosa (en vez de un padecimiento degenerativo con un importante componente hereditario) y logró transmitirla experimentalmente del hombre al conejo.

La teoría infecciosa de la enfermedad se basa en las contribuciones fundamentales de Louis Pasteur (1822-1895) y Robert Koch (1843-1910), junto con las de sus colaboradores y alumnos, que fueron muchos y muy distinguidos. Pasteur no era médico sino químico, y llegó al campo de las enfermedades infecciosas después de hacer contribuciones científicas fundamentales a la fermentación láctica, a la anaerobiosis, a dos enfermedades de los gusanos de seda, a la acidez de la cerveza y de los vinos franceses (para la que recomendó el proceso de calentamiento a 50-60°C por unos minutos, hoy conocido como pasteurización), entre 1867 y 1881. En este último año Pasteur y sus colaboradores anunciaron en la Academia de Ciencias que habían logrado "atenuar" la virulencia del bacilo del ántrax cultivándolo a 42-43°C durante ocho días y que su inoculación previa en ovejas las hacía resistentes a gérmenes virulentos, lo que procedieron a demostrar en el famoso e importante experimento de Pouilly-le-Fort, realizado en mayo de 1881, que representa el nacimiento oficial de las vacunas. Pasteur y sus colaboradores desarrollaron otras vacunas en contra del cólera de las gallinas, del mal rojo de los cerdos, y de la rabia humana, esta última la más famosa de todas. No sólo se estableció un método general para preparar vacunas (que todavía se usa) por medio de la "atenuación" de la virulencia del agente biológico, sino que se documentó de manera incontrovertible la teoría infecciosa de la enfermedad y se inició el estudio científico de la inmunología. Cuando Robert Koch nació, Pasteur tenía 21 años de edad, pero entre 1878 (año en que Koch publicó sus estudios sobre el ántrax) y 1895 (muerte de Pasteur) los dos investigadores brillaron en el firmamento científico de Europa y del resto del mundo como sus máximos exponentes. Aunque ambos contribuyeron al desarrollo de la microbiología médica, sus respectivos estudios fueron realizados en campos un tanto diferentes, Pasteur en la fabricación de vacunas y Koch en la identificación de gérmenes responsables de distintas enfermedades infecciosas.

Figura 30. Los creadores de la teoría infecciosa de la enfermedad: a) Louis Pasteur (1822-1895); b) Robert Koch (1843-1910).

A Koch se le conoce principalmente como el descubridor del agente causal de la tuberculosis, el Mycobacterium tuberculosis, pero con toda su importancia, ésa no fue su contribución principal a la teoría infecciosa de la enfermedad, sino sus trabajos previos acerca del ántrax y las enfermedades infecciosas traumáticas, que realizó cuando era médico de pueblo en Wollstein. Respecto al ántrax, Koch demostró experimentalmente la transformación de bacteria en espora y de espora en bacteria, lo que explica la supervivencia del germen en condiciones adversas (humedad y frío); y en relación con las enfermedades infecciosas, reprodujo en animales a seis diferentes, de las que aisló sus respectivos agentes causales microbianos. Koch señaló:

La frecuente demostración de microorganismos en las enfermedades infecciosas traumáticas hace probable su naturaleza parasitaria. Sin embargo, la prueba sólo será definitiva cuando demostremos la presencia de un tipo determinado de microorganismo parásito en todos los casos de una enfermedad dada y cuando además podamos demostrar que la presencia de estos organismos posee número y distribución tales que permiten explicar todos los síntomas de la enfermedad.

Estas palabras recuerdan los postulados de Henle, su maestro. Koch fue nombrado profesor de higiene en la Universidad de Berlín y ahí tuvo muchos alumnos que luego se hicieron famosos, como Loeffler, Gaffky, Ehrlich, Behring, Wassermann y otros más. Todos, junto con los alumnos de Pasteur, contribuyeron a la consolidación de la teoría infecciosa de la enfermedad. El conocimiento de la etiología infecciosa de una enfermedad establece de inmediato el objetivo central de su tratamiento, que es la eliminación del parásito. Esto fue lo que persiguieron Pasteur con sus vacunas, Koch con su tuberculina, Ehrlich con sus "balas mágicas", Domagk con sus sulfonamidas, Fleming con su penicilina, y es lo que se persigue en la actualidad con los nuevos antibióticos.

LOS ANTIBIÓTICOS

El descubrimiento de los antibióticos se inició con la observación de Pasteur y otros microbiólogos de que algunas bacterias eran capaces de inhibir el crecimiento de otras, y con la de Babés en 1885, quien demostró que la inhibición se debía a una sustancia fabricada por un microorganismo que se libera al medio líquido o semisólido en que está creciendo otro germen; la sustancia es un antibiótico aunque el término no empezó a usarse sino hasta 1940. Entre 1899 y 1913 varios investigadores intentaron tratar infecciones generalizadas por medio de piocianasa, sustancia antibiótica producida por el Bacillus pyocyaneus (hoy conocido como Pseudomonas aeruginosa) pero a pesar de que usaba varias bacterias in vitro, resultó demasiado tóxico cuando se inyectó en animales, por lo que su uso se restringió a aplicaciones locales para infecciones superficiales. Al mismo tiempo, el éxito de las vacunas como profilácticas de ciertas infecciones y de los sueros inmunes como terapéuticos de otras, así como los espectaculares resultados obtenidos con compuestos arsenicales en la sífilis, desvió la atención de los investigadores en los antibióticos. Fue en ese ambiente en el que se produjo el descubrimiento de Alexander Fleming (1881-1955), escocés que estudió medicina en el hospital St. Mary's de Londres, se graduó en 1908 y se quedó a trabajar ahí toda su vida, dedicado a la bacteriología, interesado en las vacunas, en microbiología de las heridas de guerra y su tratamiento. Después de muchas frustraciones con el uso de antisépticos en las infecciones generalizadas, Fleming descubrió en 1922 la lisozima, una sustancia presente en las lágrimas y otros líquidos del cuerpo que lisa ciertas bacterias; pero al cabo de varios trabajos realizados por él y otros investigadores no se encontró la manera de usarla en el tratamiento de las infecciones. Entonces, en 1928:

Trabajando con distintas cepas de estafilococo se separaron varias cajas con cultivos y se examinaron de vez en cuando. Para examinarlas era necesario exponerlas al aire y de esa manera se contaminaron con varios microorganismos. Se observó que alrededor de una gran colonia de un hongo contaminante las colonias de estafilococo se hacían transparentes y era obvio que se estaban usando [... ] Se hicieron subcultivos de este hongo y se realizaron experimentos para explorar algunas propiedades de la sustancia bacteriolítica que evidentemente se había formado en el cultivo y se había difundido al medio. Se encontró que el caldo en el que había crecido el hongo a la temperatura ambiente durante una o dos semanas había adquirido marcadas propiedades inhibitorias, bactericidas y bacteriolíticas para muchas de las bacterias patógenas más comunes.
 

Figura 31. Alexander Fleming (1881-1955).

Fleming identificó al hongo como Penicillium notatum y bautizó a la sustancia antibiótica como penicilina. Demostró que era efectiva en contra de gérmenes grampositivos, menos para los bacilos diftérico y del ántrax y no tenía efecto sobre el crecimiento de gérmenes gramnegativos, incluyendo la Salmonella typhi. También demostró que la penicilina no alteraba los leucocitos polimorfonucleares en el tubo de ensayo y que no era tóxica en ratones y conejos, por lo que la recomendó como antiséptico de uso local en seres humanos o bien para aislar ciertos gérmenes en el laboratorio, gracias a su capacidad para inhibir el crecimiento de otras bacterias contaminantes. Nueve años después, en 1938, Howard Florey (1898-1968), profesor australiano de patología en Oxford, con la colaboración de Ernst Chain (1906-1979), bioquímico alemán refugiado, y varios otros asociados, iniciaron una serie de trabajos para purificar y producir penicilina en cantidades suficientes para hacer pruebas experimentales válidas sobre su utilidad terapéutica.

En mayo de 1940 inyectaron ocho ratones por vía intraperitoneal con estreptococos y a cuatro de ellos les administraron penicilina por vía subcutánea; en 17 horas los ratones controles estaban muertos mientras que los inyectados seguían vivos y dos de ellos 52 curaron por completo. Con otros experimentos usando estafilococos y clostridia, que dieron los mismos resultados, Florey y sus colegas publicaron un artículo titulado "Penicillinas as a Chemotherapeutic Agent" e iniciaron la parte más difícil de su trabajo: encontrar apoyo en la industria para continuar produciendo el antibiótico y explorar métodos para hacerlo en gran escala. Florey no tuvo suerte en Inglaterra, que estaba entonces enfrascada en la parte más difícil de la segunda Guerra Mundial, pero viajó a EUA (que todavía no entraba en la guerra) y con la ayuda de personajes influyentes logró que tres compañías farmacéuticas se interesaran en la empresa. En 1942 se produjo suficiente penicilina para tratar a un paciente, en 1943 ya se habían tratado 100, y en 1944 ya había suficiente para tratar a todos los heridos de los ejércitos aliados en la invasión de Europa. La penicilina fue el primero de los antibióticos que alcanzó desarrollo industrial y uso universal, y fue y sigue siendo el mejor tratamiento para varias enfermedades comunes y el único para ciertos padecimientos. Pero no es una panacea, ya que hay infecciones que no responden a ella y otras en las que los gérmenes adquieren resistencia; además, su uso inmoderado puede tener consecuencias más o menos graves. Pero su descubrimiento y sus aplicaciones abrieron la puerta a la búsqueda de nuevos antibióticos, de los que la estreptomicina fue el siguiente y el más celebrado, por su efecto sobre el Mycobacterium tuberculosis.

Selman A. Waksman (1888-1973), originario de Ucrania, emigró a EUA en 1910 y estudió en la Universidad Rutgers, de New Brunswick. Antes de graduarse mostró gran interés en la microbiología del suelo, y en especial en los actinomicetos; después de doctorarse en bioquímica en la Universidad de California regresó a Rutgers y continuó trabajando en lo mismo. Poco a poco su laboratorio adquirió fama como uno de los mejores en el campo de la microbiología del suelo, por lo que recibió estudiantes de muchas partes del mundo. Uno de ellos, René Dubos (1901-1982), llegó de París a estudiar con Waksman y se doctoró en 1927 con una tesis sobre la degradación del H2O2 en el suelo. De Rutgers pasó a a trabajar con O. T. Avery (1877-1955), en el Instituto Rockefeller, en Nueva York, y ahí logró aislar un antibiótico de bacterias del suelo, la tirotricina, una mezcla de polipéptidos demasiado tóxica para administrarla por vía parenteral. De todos modos, su descubrimiento estimuló a Waksman y a sus colaboradores, quienes iniciaron la búsqueda sistemática de antibióticos en los microorganismos del suelo .

El primer resultado de estos estudios fue la actinomicina, obtenida por Waksman y Woodruff en 1940, el mismo año en que Florey y sus colaboradores describieron el potente efecto antibiótico de la penicilina; sin embargo, en contraste con ésta, la actinomicina era muy tóxica. En 1942 Waksman y Woodruff publicaron el aislamiento de otro producto de los actinomicetos, la estreptotricina, con actividad antibiótica contra grampositivos y gramnegativos, así como contra las micobacterias, que no eran atacadas por la penicilina; sin embargo, otra vez resultó tener elevada toxicidad tardía. Dos años más tarde, en 1944, Waksman y sus colegas Schatz y Bugie describieron otro antibiótico más, la estreptomicina, también derivado de actinomicetos, y en ese mismo año Feldman y Hinshaw demostraron que era efectivo en la quimioterapia de la tuberculosis experimental en cobayos. En el laboratorio de Waksman se aislaron cerca de 20 antibióticos diferentes; además de los mencionados, la neomicina y un aminoglicósido, que se usa sobre todo en aplicaciones tópicas o por vía digestiva. Antes de 1950 otros autores aislaron el cloranfenicol, las tetraciclinas y la terramicina, también producidas por actinomicetos, y posteriormente surgieron otros antibióticos más, como la polimixina, la entromicina, las cefalosporinas, etc. A principios de la década se observó que en ciertas enfermedades infecciosas la combinación de dos o más antibióticos tenía un efecto sinérgico, pero casi al mismo tiempo se encontró también que con ciertas combinaciones el resultado podía ser el opuesto.

LA INMUNOLOGÍA

El origen de la inmunología se identifica con el de las vacunas, debidas a Jenner (véase p. 146), y con el del primer método general para producirlas, desarrollado por Pasteur (véase p. 175). Ninguno de estos dos benefactores de la humanidad llegó a tener una idea de lo que ocurría en el organismo cuando se hacía resistente a una enfermedad infecciosa. El primer descubrimiento importante en ese campo fue el de la fagocitosis, por Elie Metchnikoff (1845-1916) biólogo interesado en la embriología comparativa de los invertebrados. Originario de Rusia, estudió en Alemania e Italia y en su país natal. La mayor parte de su carrera la realizó en el Instituto Pasteur, de París, donde llegó en 1888. Sin embargo, su descubrimiento fundamental lo realizó en Mesina, Sicilia, en 1883. En sus palabras:

Un día, mientras toda la familia se había ido al circo a ver a unos monos amaestrados, me quedé solo en casa con mi microscopio observando la actividad de unas células móviles de una transparente larva de una estrella de mar, cuando repentinamente percibí una nueva idea. Se me ocurrió que células similares deberían funcionar para proteger al organismo en contra de invasores dañinos [...]

...] Pensé que si mi suposición era correcta una astilla clavada en la larva de la estrella de mar pronto debería rodearse de células móviles, tal como se observa en la vecindad de una astilla en el dedo. Tan pronto como lo pensé lo hice.

En el pequeño jardín de nuestra casa [...] tomé varias espinas de un rosal y las introduje por debajo de la cubierta de algunas bellas larvas de estrellas de mar, transparentes como el agua. Muy nervioso, no dormí durante la noche, esperando los resultados de mi experimento. En la mañana siguiente, muy temprano, encontré con alegría que había sido todo un éxito. Este experimento fue la base de la teoría fagocítica, a la que dediqué los siguientes 25 años de mi vida.

Figura 32. Elie Metchnikoff (1845-1946)

Metchnikoff discutió sus hallazgos con Virchow, cuando éste visitó Mesina meses después, y estimulado por el gran patólogo alemán publicó su famoso artículo "Una enfermedad producida por levaduras en Daphnia: una contribución a la teoría de la lucha de los fagocitos en contra de los patógenos" (1884), donde presenta con claridad su teoría y enuncia las relaciones de la fagocitosis con la inmunidad de la manera siguiente:
Ha surgido que la reacción inflamatoria es la expresión de una función muy primitiva del reino animal basada en el aparato nutritivo de animales unicelulares y de metazoarios inferiores (esponjas). Por lo tanto debe esperarse que tales consideraciones lleven a iluminar los oscuros fenómenos de la inmunidad y la vacunación, por analogía con el estudio del proceso de la digestión celular.

Metchnikoff comparó la fagocitosis de bacilos del ántrax por células sanguíneas en animales sensibles y resistentes a la enfermedad y observó que era más activa en los vacunados. Al poco tiempo regresó a Odesa a dirigir un laboratorio encargado de preparar vacunas contra el ántrax, pero su interés era la investigación y finalmente abandonó Rusia. Apenas dos años después de su llegada al Instituto Pasteur, en 1890, Carl Fränkel (1861-1915), colaborador de Koch, observó que si se inyectaba animales con cultivos de bacilo diftérico muertos por calor, al poco tiempo se les podía inyectar con bacilos diftéricos vivos sin que se enfermaran.

Al mismo tiempo, Emil von Behring (1854-1917) y Shibasaburo Kitasato (1852-1931) demostraron que la inyección de dosis crecientes pero no letales de toxina tetánica en conejos y ratones los hacía resistentes a dosis 300 veces mayores que las letales, y que además, el suero de estos animales, en ausencia de células, era capaz de neutralizar la toxina tetánica en vista de que mezclas de ese suero con toxina se podían inyectar en animales susceptibles sin que sufrieran daño alguno. Behring y Kitasato bautizaron a esta propiedad del suero como antitóxica.

El artículo de Frankel se publicó el 30 de diciembre de 1890, mientras que el de Behring y Kitasato apareció en otra revista al día siguiente. Además, una semana después Behring (esta vez solo) publicó otro artículo en el que informaba resultados semejantes pero con toxina diftérica, y la importante observación de que los sueros no producían inmunidad cruzada, o sea que el suero antidiftérico no tenía propiedades de antitoxina tetánica, ni viceversa. Pronto los resultados llamaron la atención de la industria química alemana y la casa Lucius y Bruning de Höchst (posteriormente conocida como Farbwerke Höchst) firmó un convenio con Behring para el desarrollo comercial de la antitoxina. Paul Ehrlich (1854-1915) también trabajó en ese proyecto, pero además hizo contribuciones teóricas fundamentales al conocimiento de la inmunidad, entre las que destaca su teoría de las cadenas laterales para explicar la reacción antígeno-anticuerpo.

De esta manera se establecieron las dos escuelas que iban a contender por la supremacía del mecanismo fundamental de la inmunidad: la teoría celular o de la fagocitosis, de Metchnikoff, y la teoría humoral o de los anticuerpos, de Behring (quien en 1896 ingresó a la nobleza y desde entonces añadió "von" a su apellido). La disputa fue histórica y rebasó con mucho los límites de la cortesía y hasta de la educación más elemental, revelando que la animosidad no era nada más por una teoría científica sino por un conflicto mucho más antiguo y más arraigado entre franceses y alemanes, que se había agudizado por la reciente derrota de Francia por Alemania, en la guerra de 1871. Pero como frecuentemente ocurre en disputas entre grandes hombres Behring admiraba mucho a Pasteur y era gran amigo y compadre de Metchnikoff; además, resultó que los dos bandos tenían razón y que tanto las células como los anticuerpos participan en la inmunidad. Behring recibió el premio Nobel en 1901 y Metchnikoff lo compartió con Ehrlich en 1908.

También a principios de este siglo se estableció que los mecanismos de la inmunidad, o sea las células sensibilizadas y anticuerpos específicos, no sólo funcionan como protectores del organismo en contra de agentes biológicos de enfermedad o de sus toxinas, sino que también pueden actuar en contra del propio sujeto y producirle ciertos padecimientos. La primera observación de este tipo la hizo Koch en 1891, al demostrar que la inyección de bacilos tuberculosos muertos en la piel de un cobayo previamente hecho tuberculoso (o sea, un cobayo inyectado cuatro semanas antes con bacilos tuberculosos vivos) resultaba en un proceso inflamatorio localizado de aparición lenta (24-48 horas) que tardaba varios días en desaparecer, mientras que en cobayos sanos no producía ninguna alteración. Koch pensó que se trataba de una sustancia química presente en bacilos vivos y muertos e intentó aislarla, lo que lo llevó a la preparación que llamó tuberculina y a proponer su uso como tratamiento de la tuberculosis humana, aunque después se retractó.

Aunque Koch no lo supo entonces, describió lo que hoy se conoce como hipersensibilidad celular, mecanismo inmunopatológico responsable de enfermedades como la tiroiditis de Hashimoto y la polimiositis, de parte de las lesiones de la misma tuberculosis, de la hepatitis viral y de otras afecciones infecciosas. En 1902 Charles Richet (1850-1935), profesor de fisiología en París, y sus colegas, describieron otro mecanismo inmunopatológico que llamaron anafilaxia, lo que literalmente significa ausencia de protección (recuérdese que profilaxia quiere decir protección). Usando extractos de ciertas anémonas marinas establecieron la dosis tóxica para perros; los animales que recibieron las dosis más bajas sobrevivieron después de presentar síntomas leves y transitorios. Pero cuando varias semanas después, a estos animales sobrevivientes se les inyectaron dosis mínimas de la misma toxina, mostraron una reacción inmediata y violenta que terminó con su muerte en pocas horas. Posteriormente se ha establecido que en la anafilaxia el antígeno reacciona con un anticuerpo que está fijo en las células cebadas, y que como consecuencia de esa reacción la célula cebada libera una serie de sustancias contenidas en sus granulaciones citoplásmicas, como histamina y serotonina, las responsables de los síntomas y de la muerte. Este mecanismo explica algunas enfermedades humanas, como la fiebre del heno y la urticaria.

En 1903 Maurice Arthus (1862-1945) señaló que la inyección repetida a intervalos adecuados de un antígeno (suero de caballo) en el mismo sitio del tejido subcutáneo de conejos al principio produce una reacción edematosa y congestiva transitoria, pero que con más inyecciones locales el sitio se endurece y acaba por mostrar necrosis hemorrágica y esfacelarse. Estudios ulteriores han demostrado que este fenómeno se debe a la acción de complejos antígeno-anticuerpo locales que activan C, generan moléculas con poderosa actividad quimiotáctica para leucocitos polimorfonucleares; éstos se acumulan en el sitio de donde proviene el estímulo, fagocitan los complejos mencionados y se desgranulan, liberando sus enzimas lisosomales al medio que los rodea. Hoy va sabemos que la expresión completa de este mecanismo inmunopatológico no sólo requiere cuentas normales de leucocitos polimorfonucleares (porque no ocurre en animales leucopénicos) sino también la presencia de la coagulación sanguínea normal (porque en su ausencia no se observa). El fenómeno de Arthus explica muchos casos humanos de vasculitis por hipersensibilidad.

Otra contribución fundamental fue la de Clements von Pirquet (1874-192) y Béla Schick (1877-1967), dos pediatras vieneses, quienes en 1905 publicaron Die Serumkrankheit (La enfermedad del suero), monografía en la que sugieren una explicación para los síntomas que desarrollaban muchos niños de 10 a 14 días después del tratamiento de la difteria con suero antidiftérico, que entonces se preparaba de los caballos. Los niños tenían fiebre, crecimiento ganglionar generalizado, esplenomegalia, poliartritis y un exantema transitorio que duraban más o menos una semana y desaparecían espontáneamente. Pirquet y Schick postularon que las proteínas del suero de caballo actuaban como antígenos, y como se inyectaban en grandes cantidades todavía se encontraban en la circulación cuando el aparato inmunológico del niño respondía formando anticuerpos. Así se formaban complejos antígeno-anticuerpo en exceso de antígeno, que son solubles y se depositan en distintas partes del organismo, produciendo los síntomas de la enfermedad del suero, que desaparece cuando ya se ha consumido todo el antígeno. Esta hipótesis fue confirmada experimentalmente 53 años después por Dixon y sus colaboradores. La enfermedad del suero ya no existe, pero el mecanismo se encuentra en un número considerable de enfermedades humanas en las que se producen complejos inmunes que causan daño tisular, como en el lupus eritematoso diseminado o en la glomérulonefritis aguda postestreptocóccica. Cuando los efectores de la respuesta inmune están dirigidos en contra de antígenos propios del organismo se producen las enfermedades de autoinmunidad, entre las que se encuentra el lupus eritematoso ya mencionado, así como la tiroiditis de Hashimoto, algunas anemias hemolíticas, la endoftalmitis facoanafiláctica, la miastenia gravis y muchas otras.

La naturaleza química y la estructura molecular de los anticuerpos se establecieron en la segunda mitad de este siglo, junto con los mecanismos genéticos que controlan su especificidad. Uno de los avances más importantes en la inmunología fue el descubrimiento de la participación de los linfocitos, realizado por James L. Gowans (1924- ) y sus colaboradores, aunque antes ya se había identificado a la célula plasmática como la responsable de la síntesis de los anticuerpos. La naturaleza "doble" de la respuesta inmune surgió como consecuencia de los estudios de L. Glick (1927- ) en aves a las que se les eliminó el órgano llamado bolsa de Fabricio, que regula la maduración de elementos responsables de la síntesis de anticuerpos y los trabajos de J. F. A. P. Miller (1920- ), en ratones timectomizados, en los que se reduce o se pierde el desarrollo de la inmunidad celular. La teoría general más aceptada sobre el funcionamiento general de la respuesta inmune es la de la selección clonal, que fue propuesta por Niels K. Jerne (1911-1995) y McFarlane Burnet (1899-1985). Los estudios de Peter B. Medawar (1915-1987) y sus colegas establecieron que el rechazo de los aloinjertos es a través de la respuesta inmune, y además descubrieron el fenómeno de la tolerancia inmunológica.

Existe un grupo de padecimientos congénitos muy poco frecuentes en los que alguna parte del aparato inmunológico no se desarrolla normalmente, lo que en general resulta en infecciones oportunistas más o menos graves, pero cuyo estudio ha permitido conocer mejor las funciones y la integración de las distintas partes del aparato inmunológico entre sí. A estos "experimentos de la naturaleza" se ha agregado, a partir de 1983, la epidemia mundial del sida (síndrome de inmunodeficiencia adquirida), enfermedad producida por el retrovirus VIH-1 que destruye a un subtipo de linfocitos que participa en la respuesta inmune en contra de agentes biológicos patógenos, por lo que los pacientes fallecen a consecuencia de infecciones secundarias.

LA ANESTESIA

Desde sus orígenes, la cirugía estuvo limitada en su desarrollo por tres grandes obstáculos: la hemorragia, la infección y el dolor. Ya hemos visto cómo en el siglo XVI Ambroise Paré (véase p. 88) la técnica de la ligadura de los vasos, en sustitución del cauterio tradicional, para cohibir la hemorragia en las heridas de guerra y en las amputaciones. También ya se ha mencionado que con el desarrollo de la teoría microbiana y la introducción de las vacunas, las antitoxinas, la quimioterapia y los antibióticos, la lucha contra las infecciones en cirugía ha tenido grandes éxitos en este siglo. La búsqueda de métodos para disminuir el dolor en las operaciones quirúrgicas es muy antigua: los médicos árabes usaban opio y hiosciamina, y la mandrágora es todavía más antigua, junto con el alcohol, pero ninguno de estos agentes impedía el dolor en ciertas operaciones, como las amputaciones. En 1799 un químico inglés, Humphry Davy (1778-1829) respiró óxido nitroso y sugirió que podría usarse en cirugía; sin embargo, como ese es el "gas de la risa más bien se usó como diversión en fiestas de gente joven, hasta que fue sustituido por el éter sulfúrico, que produce un efecto similar, y como es líquido se puede llevar en un frasquito. En 1842 un estudiante de química de EUA, William E. Clarke, que había asistido a varias "fiestas de éter", pensó que podía tener otro uso y se lo administró a una joven mientras un dentista le extraía un diente, con lo que ella no sintió dolor; sin embargo, Clarke no volvió a usar éter de esa manera. En ese mismo año Crawford Williamson Long (1815-1878), médico joven de Jefferson, que también había experimentado en "fiestas de éter", lo usó como anestésico general en una operación quirúrgica, y volvió a usarlo de la misma manera varias veces más en los siguientes cuatro años; sin embargo, no hizo pública su experiencia sino hasta 1849. En cambio, Horace Wells (1815-1848), dentista de Hartford, Connecticut, impresionado por una demostración popular de los efectos del óxido nitroso, hizo que le extrajeran uno de sus dientes bajo la influencia del gas y no sintió dolor, por lo que lo usó como anestésico en por lo menos 15 extracciones dentales y después hizo una demostración pública en enero de 1845 en el Hospital General de Massachussetts, en Boston. Aunque después de la extracción dental el paciente dijo que no había sentido nada, durante la demostración se quejó un poco, por lo que Wells no convenció a los asistentes. Sin embargo, uno de sus alumnos que estaba presente, William Morton (1819-1868), siguiendo el consejo del químico C. T. Jackson, usó éter con éxito, por lo que solicitó realizar una demostración pública en el mismo hospital, el 16 de octubre de 1846, en la que se extirpó un tumor del cuello con anestesia general. En la Biblioteca Countway, de la Universidad de Harvard, en Boston, hay un cuadro de Robert Hinckley, pintado en 1882, en el que se reproduce este episodio, y la sala en donde se llevó a cabo la operación se conoce hasta hoy como la Cúpula del éter. Después de confirmar en otros pacientes quirúrgicos que su técnica inducía anestesia general útil en cirugía, Morton intentó patentarla con el nombre de Letheon y se enfrascó en pleitos interminables acerca de la primacía de su descubrimiento. De todos modos, el método se generalizó, pues un mes después ya se usaba en Inglaterra y antes de un año en el resto de Europa. James Young Simpson (1811-1870) empezó a usarlo en obstetricia, pero como el éter no era tolerado por algunas pacientes cambió a cloroformo.

Nuevas técnicas se desarrollaron para administrar mezclas de los gases anestésicos con aire y para controlar con precisión sus concentraciones relativas. La vía intravenosa para lograr anestesia general fue usada en varios pacientes por Pierre Cyprien Oré (1828-1889) en 1874, por medio de hidrato de cloral, que a partir de 1903 se cambió por los derivados del ácido barbitúrico. La anestesia por depósito de la sustancia química en el canal raquídeo fue realizada por primera vez en 1898 por August Bier (1861-1949) de Alemania, logrando insensibilidad en la mitad inferior del cuerpo y conservando la conciencia del paciente, lo que se usó sobre todo en obstetricia. Para la anestesia local, Carl Koller (1857-1944) de Viena empezó a utilizar cocaína en la cirugía oftálmica primero, y después en la otorrinolaringología; al principio se usaba en forma local, pero pronto empezó a iuyectarse por debajo de la piel para operaciones locales. La técnica de la inyección de cocaína en los troncos nerviosos correspondientes a la región sometida a cirugía fue introducida en 1884 por William Halstead (1852-1922) de Baltimore; posteriormente se prepararon derivados de la cocaína (novocaína, lidocaína, xilocaína) que la sustituyeron.

Figura 33. Primera demostración de la anestesia por William T. Morton en el Hospital de Massachusetts, Boston, en 1846.

LOS RAYOS X Y LA ENDOSCOPÍA

El descubrimiento de los rayos X el 8 de noviembre de 1895 por Wilhelm Conrard Röntgen (1845-1923), profesor de física en Würzburg, fue el primero de una serie de avances en un campo de la biotecnología médica que hoy se conoce como exploración no invasora y que caracteriza mejor que muchos otros a la medicina de fines del siglo XX. No todos los procedimientos de la exploración no invasora utilizan rayos X, pero todos nos permiten ver lo que ocurre dentro del enfermo sin tener que abrirlo quirúrgicamente En el otoño de 1895 Röntgen experimentaba con los nuevos tubos de vacío de Crookes cuando observó fluoresencia en una placa de cianuro de bario y platino. El efecto se debía a un tipo de radiación desconocida hasta entonces, por lo que la llamó rayos X. En las semanas siguientes trabajó día y noche delimitando estos nuevos rayos, y el 28 de diciembre de ese año presentó un escrito de sus observaciones a la Sociedad Físico-Médica de Würzburg, que se publicó el 6 de enero del año siguiente con el título de Eine neue Art von Strahlen (Un nuevo tipo de rayos). Röntgen ya sabía que sus rayos atravesaban fácilmente el papel y la madera, mientras que eran detenidos por ciertos metales; una de sus primeras radiografías es de una caja de madera cerrada que contiene diferentes piezas de metal que servían como pesas en las balanzas granatarias, y se ven las piezas como si la caja estuviera abierta; otra es de la mano de su esposa, que muestra muy bien su anillo de bodas y los huesos de los dedos. La aplicación médica de los rayos X fue inmediata, primero para localizar cuepos extraños en los tejidos y para diagnosticar fracturas óseas, pero muy pronto tuvieron otras aplicaciones.

Figura 34. Conrad Röntgen (1845-1923)
.

En 1897 Walter B. Cannon (1871-1945), entonces estudiante de medicina en Harvard, demostró que si a un perro se le administraba una comida con sales de bismuto, el metal podía ser seguido a lo largo del tubo digestivo por medio de los rayos X; la observación se uso clínicamente de inmediato y las imágenes mejoraron cuando el bismuto se cambió por bario. Cannon se expuso demasiadas horas sin protección a los rayos X, porque entonces no se sabía nada sobre sus efectos dañinos en los tejidos, y durante toda su vida sufrió de una dermatitis pruriginosa y exfoliativa, que finalmente se transformó en leucemia linfocítica crónica que terminó con su vida. Nuevas técnicas de opacificación se desarrollaron para observar los bronquios, las pelvicillas renales, los ureteres y la vejiga urinaria, la cavidad uterina, las cavidades pleurales, los ventrículos cerebrales y los distintos segmentos del aparato digestivo. El uso de los rayos X cambió de manera radical la práctica de la medicina, que ahora podía "ver" directamente dentro del organismo, en lugar de tener que inferir, a través de los datos de la exploración física, el estado de los distintos órganos internos. Nuevas técnicas radiológicas, como el doble contraste, la tomografía, la, angiografía y la angiocardiografía, enriquecieron todavía más el valor de esta técnica, que ha alcanzado una resolución extraordinaria y una precisión diagnóstica admirable en la tomografía axial computarizada. De hecho, la proliferación de técnicas de exploración no invasora ha creado una nueva especialidad diagnóstica, la imagenología, que ha ocupado el lugar de la antigua radiología en virtud de que incluye procedimientos que no solo utilizan a los rayos X sino también otras fuentes de energía, como la ecosonografía (el sonido), la resonancia magnética nuclear (los electrones) y la tomografía por positrones .

Otro gran adelanto en las técnicas de exploración no invasora ha ocurrido en la endoscopía. Desde tiempo inmemorial los médicos han tratado de asomarse al interior del cuerpo humano a través de sus distintos orificios, y han diseñado diversos instrumentos para hacerlo con mayor eficiencia, como el otoscopio, para examinar el canal auditivo y la membrana del tímpano, el colposcopio, para acercarse al cuello uterino, o el laringoscopio, para observar la parte superior de las vías respiratorias. Hace 50 años se empezaron a usar otros instrumentos para explorar otros órganos, como el broncoscopio, para la tráquea y los grandes bronquios, el esofagoscopio y el gastroscopio, para las partes correspondientes del tubo digestivo alto, y el rectoscopio y colonoscopio, para las porciones terminales del intestino grueso. Los primeros instrumentos de este tipo eran tubos cilíndricos gruesos y rígidos, terriblemente incómodos para los enfermos, y con limitada resolución y escasa versatilidad, lo que resultaba muy frustrante para los médicos, por lo que su uso fue muy limitado. Pero en años recientes han aparecido instrumentos muy distintos, delgados y flexibles, que son bien tolerados por los pacientes y que poseen avances mecánicos y electrónicos que permiten gran movilidad y observación casi perfecta, y que además realizan distintos tipos de registros directos y, cuando es necesario, toma de biopsias múltiples. Gracias a estos adelantos, la endoscopía ya se ha ganado un sitio privilegiado entre las técnicas modernas de exploración no invasora.

Uno de los instrumentos de exploración no invasora desarrollados a principios de este siglo que más beneficios ha traído a los médicos y a los pacientes es el electrocardiógrafo, un galvanómetro de cuerda diseñado en 1903 por Willem Einthoven (1860-1927), quien estudió en Utrecht y se graduó en 1885; ese año fue nombrado profesor de fisiología en Leyden, donde permaneció toda su vida. Desde mediados del siglo XIX se sabía que, al contraerse, el corazón aislado de la rana producía una corriente eléctrica, y en 1887 Augustus Waller (1856-1922) demostró que el corazón humano generaba una corriente semejante y que podía medirse colocando electrodos en la superficie del cuerpo. El galvanómetro de Einthoven redujo la inercia y la periodicidad del trazo eléctrico al mínimo y permitió registros muy precisos de la actividad eléctrica; entre los primeros resultados de la electrocardiografía se cuenta el análisis de los distintos tipos de arritmias cardiacas, realizados entre otros por Thomas Lewis (1881-1945) y publicados en 1911 en su libro Mechanism and Graphic Registration of the Heart Beat. Pero la utilidad del método pronto se extendió al estudio de muchos otros aspectos de la cardiología, de modo que hoy es parte indispensable del examen de muchos pacientes.

LA ENDOCRINOLOGÍA

Una de las primeras sugestiones de la existencia de las hormonas se debe a De Bordeau, el famoso médico vitalista de Montpellier (véase p. 125), quien en 1775 postuló que cada órgano producía una sustancia específica que pasaba a la sangre y contribuía a mantener el equilibrio del organismo; sin embargo, ésta fue sólo una teoría y De Bordeau no realizó ningún experimento para documentarla. En cambio, en 1855 Claude Bernard (1813-1878) introdujo el término secreción interna para describir sus observaciones sobre la función gluconeogénica del hígado y posteriormente incluyó al tiroides y a las glándulas suprarrenales entre los órganos con secreción interna. Edward Brown-Séquard (1817-1894) dedicó toda su vida profesional al estudio de las secreciones internas del tiroides, de las suprarrenales, de los testículos y de la hipófisis, con tal persistencia que se ganó el título de "Padre de la endocrinología". Entre sus experimentos se encuentra el famoso intento de autorrejuvenecimiento por medio de la inyección de extractos testiculares, por lo que Harvey Cushing lo bautizó como el "Ponce de León de la endocrinología". Desde un punto de vista general, William Bayliss (1860-1924) y Ernest Henry Starling (1866-1927) fueron los primeros en proporcionar una demostración clara del mecanismo de acción de las secreciones internas, con su estudio publicado en 1902 sobre la secretina, una sustancia que estimula la secreción del jugo pancreático cuando el contenido ácido del estómago llega al píloro y éste se abre. La secretina fue la primera sustancia que recibió el nombre de hormona (del griego hormao, que significa yo excito), pero con el tiempo el término se ha usado para designar en forma genérica a todas las sustancias producidas por las diferentes glándulas endocrinas.

Figura 35. Claude Bérnard (1813-1878).

La hormona tiroidea fue aislada en forma cristalina por Edward Calvin Kendall (1886-1972) la Navidad de 1914, y sintetizada por Charles Harington (1897-1980) y George Barger (1878-1939) en 1927, aunque ya desde fines del siglo pasado se habían tratado con éxito algunos casos de mixedema con extractos tiroideos. Las glándulas paratiroides fueron descritas por Richard Owen (1804-1892) en 1852, durante la disección de un rinoceronte indio que murió en el zoológico de Londres. En el hombre fueron mencionadas primero por Virchow en 1863 y extensamente estudiadas por Victor Sandström (1852-1889) de Upsala, quien señaló la existencia de dos paratiroides en cada lado del cuello. La naturaleza endocrina de las paratiroides fue demostrada en 1909 por William G. MacCallum (1874-1944) y Carl Voetglin (1879-1960) por medio de sus estudios de raquitismo renal, una situación patológica pediátrica en la que los niños desarrollan lesiones óseas secundarias a la insuficiencia renal. Estos autores observaron hipertrofia de las paratiroides y concluyeron que la reabsorción del calcio de los huesos se debía a que las paratiroides regulan el metabolismo del calcio. Su conclusión se vio reforzada cuando lograron, por medio de la administración de calcio, evitar la tetania que se presenta después de la extirpación de las paratiroides. La parathormona fue aislada en 1915 por James B. Collip (1892-1965), de Montreal, quien además demostró que su administración resulta en la disminución del calcio de los huesos e hipercalcemia. Las glándulas suprarenales se conocían desde el siglo XVI y fueron bautizadas con ese nombre por Jean Riolan (1580-1657), pero su importancia fisiológica no se empezó a vislumbrar sino hasta 1855, cuando Thomas Addison (1793-1860), del Hospital Guy de Londres, publicó su monografía On the Constitutional and Local Effects of Disease of the Supra-renal Capsules (Sobre los efectos generales y locales de la enfermedad de las cápsulas suprarrenales), en la que se refiere a este padecimiento, hoy conocido como enfermedad de Addison, como "melasma suprarrenal''. La demostración de que la médula suprarrenal secreta una sustancia que induce la vasoconstricción, especialmente de la piel y el área esplácnica, hipertensión arterial y broncodilatación, fue realizada por Edward A. Sharpey-Schäfer (1850-1935) y George Oliver (1841-1915), de Londres, en 1894. Esa sustancia fue aislada en forma cristalina en 1901 por Jokichi Takamine (185}-1922), quien además le dio el nombre de adrenalina, y sintetizada en 1904 por Friedrich Stolz (1860-1936). Durante varios años se pensó que la secreción de adrenalina era continua y que de esa manera se mantenía normal la presión arterial, pero en 1919 Cannon publicó su famoso libro Bodily Changes in Pain, Hunger, Fear and Rage (Cambios somáticos en el dolor, el hambre, el miedo y la cólera) en el que demostró experimentalmante que la adrenalina sólo se secreta en respuesta a estímulos emocionales. Una contribución fundamental para el conocimiento de las funciones de la corteza suprarrenal fue hecha por un zoólogo comparativo vienés, Artur Biedl (1860-1933), en su libro Innere Sekretion (Secreción interna, 1910), donde relata que en 1899 extirpó el cuerpo interrenal de peces elasmobranquios sin tocar la médula, pero los peces murieron. A una conclusión semejante llegaron en 1927 Julius Moses Rogoff (1884-1938) y George Neil Stewart (1860-1930), de Cleveland, cuando observaron que en los perros la extirpación de la corteza suprarrenal era letal, mientras que la de la médula no; además, estos autores prepararon un extracto de corteza suprarrenal cuyo uso evitó la muerte de sus animales. En 1934 Kendall y sus colegas aislaron en forma cristalina una hormona, la cortina. y dos años después purificaron nueve esteroides disintos de la corteza suprarrenal, lo que también logró Tadeus Reichstein (1897-1941) independientemente en el mismo año. Uno de estos esteroides era la cortisona, que en 1949 se usó con gran éxito en el tratamiento de la artritis reumatoide y de la fiebre reumática por Kendall, Philip Hench (1896-1965) y sus colaboradores. En 1950 Kendall, Henry Reichstein recibieron el premio Nobel. El descubrimiento de las distintas hormonas que secreta la corteza suprarrenal ha aclarado una parte importante de su papel en el metabolismo de los electrolitos y de las grasas, en la maduración sexual y en la pigmentación de la piel, pero además ha introducido en la farmacopea potentes sustancias antiinflamatorias, que tienen múltiples indicaciones diferentes en terapéutica.

La existencia de la hipófisis se conoce desde hace muchos años, pero sus funciones sólo empezaron a dilucidarse a partir de este siglo, con los estudios de Henry H. Dale (1875-1968) sobre el efecto vasoconstrictor periférico de extractos del lóbulo posterior descrito en 1895 por Oliver y Sharpey-Schäfer. Dale descubrió en 1906 que la acción estimulante de la adrenalina y del sistema nervioso simpático en el útero embarazado de la gata se bloquea con la inyección previa de ergotamina, pero que este mismo útero se contrae activamente si el animal se inyecta con un extracto de hipófisis de buey; la conclusión fue que el factor hipofisiario que induce contracción muscular lisa actúa en un sitio distinto del estimulado por la adrenalina y el simpático. Pronto se empezaron a usar extractos de hipófisis (pituitrina) para estimular la contracción uterina en ciertas situaciones obstétricas, y a este efecto se le denominó acción oxitócica hipofisiaria. En 1908 Sharpey-Schäfer y Herring demostraron la existencia de un principio antidiurético, y en 1921 Herbert McLean Evans (1882-1969) y Joseph Abraham Long (1879-1956), de EUA, lograron producir gigantismo en ratas inyectándolas con un extracto del lóbulo anterior de la hipófisis, lo que condujo al aislamiento de la somatotrofina u hormona del crecimiento. La existencia de hormonas gonadotróficas fue sugerida en 1927 por Bernhard Zondek (1891-1946) y Selmar Aschheim (1878-1950), quienes implantaron fragmentos de hipófisis anterior en el tejido celular subcutáneo de animales jóvenes y observaron desarrollo sexual precoz. Se sugirió la existencia de una hormona, la tirotrófica, cuando se demostró que la hipofisectomía experimental se acompañaba de disminución en el metabolismo basal, mientras que en los animales tiroidectomizados la inyección de extractos de hipófisis anterior no produce un aumento en el metabolismo basal; la conclusión fue que la hipófisis actúa indirectamente a través de la tiroides. La prolactina y la hormona diabetogénica también fueron predichas y posteriormente identificadas durante las primeras tres décadas de este siglo.

Uno de los grandes triunfos de la medicina moderna fue el aislamiento de la insulina. La enfermedad caracterizada por polifagia o aumento en el apetito, polidipsia o aumento en la ingestión de líquidos, y poliuria o aumento en la eliminación de orina, se conoce desde la antigüedad y Arecio de Capadocia (81-138 d.c.) la bautizó con la palabra griega que significa sifón, "diabetes". El sabor dulce de la orina de los diabéticos también se conoce desde tiempos clásicos y aunque su redescubrimiento se atribuye a Thomas Willis (1621-1675), Molière lo menciona en su obra de teatro Le Médecin Volant, escrita 24 años antes. La determinación de que el sabor dulce se debe a la glucosa fue hecha en 1815 por Michael Engène Chevreul (1786-1889), un industrioso químico francés que también era el director de la famosa fábrica de tapetes Gobelin. La glándula endocrina pancreática fue descrita en 1869 por Paul Langerhans (1847-1888) en su tesis para graduarse de médico, en forma de islotes de tejido repartidos en forma irregular en el páncreas y con una histología diferente de la de la glándula exocrina. El experimento crucial que relacionó al páncreas con la diabetes fue realizado por Joseph von Mering (1849-1908) y Oskar Minkowski (1858-1931) en 1889, cuando trabajaban en Estrasburgo; estos autores hicieron pancreatectomía total en perros y demostraron que desarrollaban diabetes letal rápidamente. Se cuenta que fue un mozo del laboratorio el que llamó la atención de los investigadores al hecho peculiar de que las moscas se acumulaban en la orina de los perros operados, y que así fue como se dieron cuenta de que los animales tenían diabetes. En 1893 Gustave Édouard Laguesse (1861-1927), de Lille, confirmó el experimento de Mering y Minkowski y sugirió que los islotes de tejido diferente al páncreas exocrino producían una secreción interna y los denominó islotes de Langerhans. En 1901 Eugene L. Opie (1873-1971), patólogo de Johns Hopkins, en Baltimore, demostró que en muchos casos de diabetes 105 islotes de Langerhans estaban hialinizados. Los intentos de aislar el principio activo de los islotes tuvieron poco éxito, debido a que la principal enzima secretada por el páncreas exocrino, la tripsina, la degradaba rápidamente. Sin embargo, en 1908 Georg Ludwig Zuelzer (1870-1949), de Berlín, preparó un extracto pancreático y se lo aplicó a ocho pacientes diabéticos, con "buenos" resultados; sin embargo, una nueva preparación causó convulsiones y fiebre elevada, por lo que se consideró demasiado tóxico y se abandonó. Es posible que los síntomas se hayan debido a que el extracto pancreático era activo y produjo hipoglicemias graves, pero eso nunca lo sabremos. El descubrimiento y la purificación de la insulina, una de las tres hormonas que secretan los islotes de Langerhans, fue realizado en Toronto en el verano de 1921 por un cirujano ortopedista metido a investigador, Frederick Banting (1891-1941), de 30 años de edad, y un estudiante del segundo año de medicina, Charles H. Best (1899-1978), de 23 años de edad, quienes aprovecharon un método creado en 1902 por Leonid Vassilyevitch Soboleff (1876-1919) para evitar la degradación de la secreción de los islotes de Langerhans por la tripsina del páncreas exocrino: la ligadura del conducto pancreático resulta en la atrofia de los acini glandulares, mientras que los islotes no se alteran. El páncreas de los animales así tratados proporcionó extractos estables y ricos en el factor hipoglicemiante, lo que permitió su aislamiento y purificación. El trabajo se realizó en el laboratorio del profesor de fisiología, James MacLeod (1876-1935), quien estuvo ausente cuando ocurrió el descubrimiento, pero agregó su nombre a la primera comunicación que se hizo de los resultados a la Asociación Americana de Fisiología, en diciembre de ese mismo año (para poder inscribirla, porque una regla de esa asociación era que por lo menos uno de los autores que presentaban un trabajo debía ser miembro de ella, y ni Banting ni Best cumplían el requisito). Cuando el artículo se publicó a principios de 1922 apareció firmado por Banting, Best y MacLeod, y al año siguiente el Comité Nobel les concedió el premio de Medicina a Banting y MacLeod "por el descubrimiento de la insulina". Best fue excluido porque "no había sido postulado por nadie", pero Banting compartió en partes iguales su premio con él. En 1926, Johan Jacob Abel (1857-1938), profesor de farmacología en Johns Hopkins, Baltimore, sintetizó la insulina en forma cristalina.

LAS VITAMINAS

La existencia de enfermedades debidas a la falta de ciertos elementos en la dieta se demostró desde 1793, cuando apareció el libro A Treatise of the Scurvy (Un tratado sobre el escorbuto) de James Lind (1716-1794), médico escocés que dirigió el Hospital Haslar, nosocomio naval en Portsmouth. Lind demostró que el escorbuto podía prevenirse agregando fruta fresca a la dieta, y si esto no era posible, jugo de limón. A pesar de que Lind siempre tenía a su cuidado en el Hospital Haslar entre 300 y 400 casos de escorbuto, que se curaban con su tratamiento, éste no fue adoptado por la marina inglesa sino hasta dos años después de su muerte, luego de que en 1794 una flotilla inglesa llegó a Madras después de un viaje de 23 semanas sin que se presentara un solo caso de escorbuto, gracias a que llevaban suficientes limones. De todos modos, la importancia teórica del descubrimiento de las enfermedades por deficiencia dietética no se apreció sino hasta casi 100 años después, cuando un médico holandés, Christian Eijkman (1858-1930), que había estudiado con Robert Koch en Berlín, fue a trabajar a las Indias Orientales como director del laboratorio en Batavia (hoy Yakarta, Indonesia), en donde se interesó en el beri-beri y en 1890 publicó un estudio sobre la polineuritis en las gallinas, enfemedad rnuy parecida al beri-beri que se produce cuando se las alimenta con arroz descascarado y se cura cuando se les da arroz entero o extractos acuosos o alcohólicos de la cáscara del arroz. Sin embargo, su interpretación de los resultados no fue correcta, y fue su sucesor Gerrit Grijns (1865-1944) quien continuó los estudios y en 1901 sugirió que tanto el beri-beri como la polineuritis de las gallinas se debían a la ausencia en la dieta de un factor presente en la cáscara del arroz, o sea que son enfermedades por deficiencia dietética. Estas ideas fueron puestas a prueba en 1905 por William Fletcher (1874-1938) en un experimento realizado con los internos del manicomio de Kuala Lumpur. Ahí demostró que casi 25% de los sujetos que recibieron arroz descascarado enfermaron de beri-beri (la mitad murió), mientras que sólo 2 de 123 pacientes que recibieron arroz entero tuvieron la enfermedad. A partir de 1906 Frederick Gowland Hopkins (1861-1947) inició una serie de experimentos alimentando ratas con mezclas artificiales de sustancias puras que teóricamente deberían ser capaces de sostener su crecimiento pero que no lo hacían; en cambio, si se agregaba una cantidad muy pequeña de leche (menos de 2.5% del peso de la dieta) las ratas crecían normalmente. Hopkins publicó sus resultados en 1912, insistiendo en la naturaleza nutricional del proceso, aun cuando las sustancias deficientes (que él llamó "sustancias accesorias") todavía no se habían aislado. Sin embargo, en ese mismo año Casimir Funk (1884-1926), químico polaco que trabajaba en el Instituto Lister de Londres, observó que las levaduras eran tan efectivas para prevenir o curar el beri-beri como los extractos de la cáscara del arroz, y de estos últimos preparó un concentrado que curaba con dosis de 20 mg; además, Funk sugirió que las "sustancias accesorias" se llamaran vitaminas, porque pensó que químicamente se trataba de aminas. Pronto se estableció que en realidad no son aminas, pero el nombre se ha seguido usando. En la actualidad se conocen 14 vitaminas, todas descritas, aisladas, purificadas y sintetizadas en la primera mitad del siglo XX, que desde luego no son los únicos nutrientes esenciales, o sea aquellos necesarios para el crecimiento y la reproducción normal que no se sintetizan (o se sintetizan en cantidades insuficientes) en el organismo. Las vitaminas son de dos tipos, las solubles en agua o hidrosolubles, y las solubles en grasas o liposolubles. Las vitaminas hidrosolubles son el ácido ascórbico o vitamina C, y los componentes del complejo B, tiamina, riboflavina, niacina, piridoxina, ácido pantoténico, ácido lipoico, ácido fólico y vitamina B12. Las vitaminas liposolubles son A, D, E y K. Otros nutrientes esenciales son elementos inorgánicos que participan en distintos procesos metabólicos, de ellos los más importantes son el yodo, el calcio, el fierro y el cobre.

LA EPIDEMIOLOGÍA

Como su nombre lo indica, la epidemiología es la rama de la medicina que estudia las epidemias, pero en este siglo se ha transformado en mucho más que eso. Desde los tiempos de Hipócrates la ocurrencia de enfermedades en ciertos climas y épocas del año llamó la atención a los observadores, y en el texto conocido como Epidemias I y III del Corpus Hipocraticum el autor presenta los padecimientos epidémicos que prevalecen en cada una las cuatro "constituciones", que no son diferentes época del año sino más bien periodos que ocurren en distintos años. Sin embargo, las descripciones no contienen detalles cuantitativos sino juicios cualitativos, como "muchos" o "pocos", lo que no sólo no permite tener una idea clara de lo que se describe, sino que marcó un estilo de registro de las observaciones que prevaleció durante 2 000 años. Galeno (véase p. 49) creó un nuevo sistema para explicar todas las enfermedades en el que participan los temperamentos, la dieta, la ocupación, el ejercicio y otros factores, que resultan en un desequilibrio de los humores, que se aceptó ciegamente durante 14 siglos. No fue sino hasta que Sydenham (véase p. 109) recuperó el concepto de "constitución" de Hipócrates que se volvieron a examinar las epidemias; por ejemplo, Sydenham dividió en dos las fiebres que eran frecuentes en Londres, las estacionarias y las intercurrentes, y señaló que su aparición dependía de la "constitución" de cada año. Dos siglos después Henle publicó su libro Von den Miasmen und Kontagien, en el que separa a las enfermedades epidémicas en tres, grupos: 1) debidas a miasmas, con el paludismo como su único miembro; 2) debidas en un principio a miasmas, pero en su evolución se forma un parásito en el organismo que se multiplica y disemina el padecimiento, que incluye a la mayor parte de las enfermedades infeciosas, y 3) las contagiosas que incluyen la sarna y la sífilis. En 1848 un médico londinense, John Snow (1813- 1858), señaló que las deyeciones de pacientes de cólera podían contaminar accidentalmente el agua potable y que la enfermedad se diseminaba de esa manera. En1853- 1854 hubo otra epidemia de cólera en Londres, en la que en una zona central pequeña de la ciudad hubo más de 500 muertos en 10 días. Snow realizó una encuesta casa por casa y demostró que sólo aquellos que obtenían el agua potable de una bomba instalada en la Broad Street enfermaban de cólera, por lo que recomendó se cancelara, con lo que desaparecieron los brotes del padecimiento en esa zona. Un paso de gran importancia fue el que dio William Farr (1807-1883), médico inglés que estudió en París y después en Londres, y a quien por sus múltiples contribuciones se considera como el "padre de las estadísticas vitales". Farr observó en 1840 que la iniciación, el desarrollo y la terminación de una epidemia es con frecuencia un fenómeno regular, de modo que si se reúnen los casos que ocurren en breves intervalos de tiempo (generalmente semanas) y se grafican, los puntos que representan las frecuencias medias en cada intervalo pueden unirse con una línea curva que se describe con una fórmula matemática. Sin embargo, no todas las epidemias tienen ese comportamiento, y para ampliar el estudio de Farr el pionero de la ciencia llamada biometría, Karl Pearson (1857-1936), desarrolló seis tipos diferentes de curvas de frecuencia y para cada una de ellas derivó la ecuación adecuada. Sin embargo, las epidemias pueden tener evoluciones todavía más complicadas, por lo que su estudio demanda otra técnicas.

Con toda la importancia que tiene conocer la historia de las epidemias, su estudio tiene otros objetivos adicionales, entre los que se encuentra establecer correlaciones entre la presencia y el desarollo de la enfermedad y algunos factores que pudieran ser causales. Un ejemplo de este tipo de estudio fue el realizado primero por Franz Herman Müller, de Colonia, quien en 1939 estudió en forma restrospectiva los hábitos de 172 sujetos adultos fumadores, la mitad con cáncer del pulmón y el resto sano, y encontró que entre los fumadores había 65% con ese cáncer, mientras que entre los no fumadores sólo 3.5% lo habían padecido. A partir de este estudio se han publicado literalmente docenas de otros trabajos sobre el mismo tema, tanto retrospectivos como prospectivos, con resultados muy semejantes. El tabaquismo no sólo se asocia al carcinoma broncogénico sino también a otros cánceres, de boca, laringe, faringe, esófago, vejiga urinaria, etc. De hecho, en EUA se ha calculado que si se suman todas las muertes ocurridas por estos distintos tipos de cáncer en 1978 se obtiene la cifra de 115 000, el 30% de todas las muertes por cáncer de ese año. La conclusión es que si no fuera por el tabaco esas muertes no hubieran ocurrido.

Otro tipo de estudios epidemiológicos de desarrollo reciente son los experimentales, utilizando para ello colonias de distintos animales en las que se pueden introducir ciertas bacterias y virus no patógenos para el hombre. Este tipo de estudios fue desarrollado por William Topley (1886-1944) en la Escuela de Higiene y Medicina Tropical de Londres, a partir de 1921, y a lo largo de 15 años usaron cerca de 200 000 ratones. Se examinaron las condiciones que mantienen una epidemia, el papel de la inmunización natural, de la introducción de nuevas colonias de animales no infectados, de las infecciones latentes, del papel de los animales susceptibles, etc. Otra forma de epidemiología experimental es la teórica, que por medio de modelos matemáticos y con la ayuda de la computación realiza simulaciones de epidemias estableciendo una serie de patrones constantes y examinando su comportamiento cuando se introducen uno o más factores que tienden a a modificarlos.

EL LABORATORIO CLÍNICO

Una de las características sobresalientes de la medicina moderna es el uso del laboratorio en el estudio de los enfermos del siglo XIX empezó a introducirse una serie de técnicas para ampliar la variedad, la capacidad analítica y la resolución de los distintos datos que el médico obtiene por medio de la exploración física. Con el uso del estetoscopio, del termómetro, el microscopio y de otros instrumentos como el baumanómetro, y el oftalmoscopio el examen clínico del paciente se enriqueció en forma considerable. Pero al mismo tiempo se desarrolló otra dimensión en el estudio del enfermo, que fue el uso de toda esa nueva biotecnología en varias de sus secreciones como sangre y orina, jugo gástrico, el aire inspirado y expirado, en líquidos obtenidos de sus cavidades (pleura y peritoneo), y hasta en sus heces fecales. El estudio del paciente se amplió más allá de la toma de la historia clínica y el examen físico no instrumental, para incluir el uso de nuevos instrumentos y una serie de determinaciones realizadas en un espacio que se llamó laboratorio clínico y de pruebas funcionales.

Desde sus principios y hasta avanzado el siglo, la medicina se desarrolló al principio en el consultorio o en la casa del enfermo, por lo que se conoce como medicina clínica; posteriormente, y en especial en la Edad Media, el hincapié en los textos clásicos en detrimento de los pacientes la transformó en medicina de biblioteca, con el crecimiento y la multiplicación de los nosocomios, junto con las migraciones masivas de la población rural a las grandes ciudades, provocadas por hambrunas, guerras y otras catástrofes semejantes, a partir del siglo XVII y hasta la primera mitad del XIX surgió la medicina de hospital, caracterizada por el estudio anatomoclínico de grandes números de pacientes. Pero con la unificación de Alemania y el progreso de su medicina académica en la segunda mitad del siglo XIX, y el interés especial que se puso en el uso de técnicas químicas y microscópicas para ampliar el estudio de los pacientes, se pasó a la medicina de laboratorio.

Este último fue un salto cuántico en el ejercicio de la medicina, un cambio no sólo cuantitativo sino cualitativo. En menos de 100 años la profesión médica se transformó, de un arte empírico y con escasos recursos para modificar en forma favorable para el paciente la evolución natural de su enfermedad, en una profesión científica armada con técnicas cada vez más refinadas y exactas para alcanzar diagnósticos más precisos. Una visita a los laboratorios clínicos de un hospital contemporáneo de buen nivel académico es una experiencia memorable. El número y la variedad de los exámenes que pueden realizarse, cada vez con mayor exactitud, ha estado creciendo de manera exponencial durante la segunda mitad de este siglo y no muestra signos de alcanzar pronto un punto de saturación. Nadie los ha contado, pero es probable que hoy existan más de 1 000 exámenes y pruebas de laboratorio útiles para el diagnóstico y el tratamiento de la mayoría de los enfermos, con las que ni Hipócrates, ni Boerhaave, ni Laennec, soñaron en sus respectivos tiempos para auxiliar a sus pacientes.

La biotecnología contemporánea aplicada a la medicina es una bendición para médicos y enfermos; lo único que se obtiene de ella son beneficios para ambos, que antes de su introducción no eran accesibles. Es lamentable que recientemente se haya pretendido que la biotecnología conduce a la deshumanización de la medicina. La coexistencia temporal de dos fenómenos, sobre todo cuando se trata de una sola instancia (un solo experimento) no es prueba de relación causa-efecto entre ellos. En el caso específico mencionado existe otro elemento que no se toma en cuenta cuando se acusa a la biotecnología moderna de la pérdida de los valores humanos de la medicina, que es el desarrollo de la seguridad social. Ambas (biotecnología y seguridad social) se introdujeron en los mismos años del siglo XIX: Bismarck logró que en Alemania se aprobara la primera ley en 1889. Naturalmente, nadie duda que la toma de la responsabilidad de la seguridad social por parte del gobierno sea un hecho positivo, un avance en las estructuras que constituyen la sociedad moderna. Pero su realización en algunos países como México, ha caído en una serie de prácticas que van en contra de sus objetivos declarados; una de ellas es la masificación de las instituciones, con la consecuente pérdida del individuo en medio de la multitud. Es mucho más deshumanizante exigirle a un médico que vea 30 pacientes en 8 horas que todas las biotecnológias diagnósticas y terapeúticas juntas.

El laboratorio clínico es la parte más científica de la medicina moderna y por lo tanto es la que la distingue mejor de todas las otras medicinas "tradicionales". Ha surgido de la aplicación rigurosa de la biotecnología más avanzada al estudio de la enfermedad, y se ha hecho cada vez más útil y confiable conforme las técnicas se han hecho cada vez más complejas y específicas. Esto ha hecho a la medicina más eficiente en sus diagnósticos y, por lo tanto más efectiva en sus tratamientos.

LA GENÉTICA Y LA BIOLOGÍA MOLECULAR

Quizá uno de los avances que mejor caracterizan a la medicina es el que ocurrió en la genética y en la biología . La genética inició su desarrollo actual a mediados del siglo XIX en el jardín de un monasterio agustino en la ciudad de Brno, Hungría, en manos del sacerdote Gregor Mendel (1822-1884) quien había estudiado biología en Viena y estaba interesado en la herencia de distintos caracteres en las plantas como el color del albumen y del epistemo, la superficie lisa o rugosa de las semillas, la longitud de los tallos y la localización axial o terminal de las flores, todo en el chícharo Pisum sativum. Mendel hizo distintas cruzas de las plantas y calculó las variaciones de las siete características mencionadas en las nuevas generaciones, lo que reveló la persistencia de ciertos factores no identificados (y entonces ni siquiera imaginados) con ellas. Mendel también fue profesor de biología en la escuela de Brno durante 14 años, que fueron los que utilizó para realizar sus experimentos. Fundó la Sociedad de Historia Natural de Brno y publicó en 1866, en la revista de esa sociedad, su hoy famoso trabajo Versuche über Planzenhybriden (Estudios sobre híbridos vegetales), que pasó inadvertido durante 35 años, hasta que fue descubierto por Hugo de Vries (1848-1935) y otros investigadores en 1900. Mendel fue nombrado abad de su monasterio en 1868, con lo que terminó su carrera científica. La aplicación práctica de los resultados de Mendel la inició Archibald Garrod (1857-1936), médico inglés que en 1902 publicó un trabajo sobre la alcaptonuria, rara enfermedad metabólica con comportamiento hereditario peculiar, cuya explicación se encuentra en una de las leyes de Mendel. Garrod reunió otros padecimientos congénitos más en los que los patrones de herencia se explicaban de la misma manera, como la cistinuria y el albinismo, y en 1909 publicó su famosa monografía Inborn Errors of Metabolism (Errores congénitos del metabolismo ), con lo que creó una nueva disciplina dentro de la genética humana: la genética bioquímica. Los cromosomas fueron identificados por Walther Flemming (1843-1815) en 1882, pero el nombre se debe a W. Waldeyer, quien los bautizó en 1888 además, se reconocieron los dos tipos de división celular: mitosis y meiosis. Pronto llamó la atención el paralelismo que existe entre la ley mendiana de la segregación de los factores responsables de los caracteres hereditarios y los cromosomas como posibles portadores de esos factores, lo que dio origen a la citogenética.

Figura 36. Gregor Mendel (1822-1884).

Wilhelm Roux (1850-1924) propuso un modo teórico para explicar por que las células hijas heredan el complemento genético completo de la célula original, en lugar de heredar la mitad, en el que el núcleo posee hileras de estructuras individuales que se duplican; Theodor Boveri (1862-1915) y William Sutton (1876-1916) siguieron este modelo y propusieron que los genes están localizados en los cromosomas. El siguiente gran avance en este campo lo dio Thomas Hunt Morgan (1866-1945) con sus estudios en la mosca de la fruta del género Drosophila, que aparecieron en 1915 en un libro titulado The Mechanism of Mendelian Heredity, que tuvo gran influencia en el desarrollo de la genética. Morgan continuó trabajando en el campo y en 1928 publicó otro libro, The Theory of the Gene, en el que propone que las características del individuo se deben a pares de elementos o genes presentes en el material genético, que estos genes muestran enlace (linkage) que corresponde a los cromosomas, que los pares se separan cuando las células germinales maduran y que los gametos contienen una sola serie de genes; además, los genes ligados se combinan como grupo, aunque también existe cierto intercambio ordenado entre ellos.

En 1953 James Watson (1928- ) y Francis Crick (1916- ) publicaron un modelo de la estructura terciaria del ácido desoxirribonucleico que incluía un mecanismo para su replicación y las bases de su funcionamiento como portador de la información genética. Este modelo es el bien conocido de una doble hélice anticomplementaria en la que la parte central está ocupada por las bases púricas y pirimídicas y la parte externa por los residuos de los carbohidratos (desoxirribosa) unidos a ácido fosfórico. Este descubrimiento introdujo la revolución biológica más importante en el siglo XX, y ha ejercido gran repercusión en la medicina, pues representa la base de la biología molecular, que es el estudio de las moléculas de los ácidos nucleicos que participan en la codificación, expresión y síntesis de la información genética, que como regla se refiere a la estructura primaria de proteínas.

Figura 37. Los descubridores de la estructura del ADN, James Watson (1928- ) y Francis Crick (1916- ).

Ya desde 1940 se había iniciado la investigación epidemiológica de las enfermedades hereditarias en cuanto a prevalencia, mecanismos de transmisión, heterogeneidad y tasa de mutación; en 1949 Linus Pauling (1901-1995) y sus colaboradores demostraron que la anemia de células falciformes era una enfermedad molecular, producida por el cambio en un solo residuo de aminoácido en las cadenas b de la hemoglobina, y pronto se agregaron otros padecimientos que afectan otras moléculas, como las inmunoglobulinas y la colágena. También se estableció que muchos de 195 errores congénitos del metabolismo resultan del cambio en la estructura primaria de alguna enzima, casi siempre debido a una mutación. Se demostró el polimorfismo genético de enzimas y proteínas y se generó la hipótesis de que ésa fuera la causa de que existieran diferencias en la susceptibilidad o resistencia algunas enfermedades desencadenadas por factores ambientales. Otro factor complicado en el mismo fenómeno sería el sistema de histocompatibilidad, que además se asocia a la susceptibilidad a enfermedades de autoinmuniddad.

La biología molecular permite hoy la identificación, el aislamiento y la clonación de genes específicos y en muchos casos su transferencia y expresión en bacterias, que entonces producen moléculas llamadas recombinantes. Esto permite vislumbrar la posibilidad de la terapéutica génica, que se aplicaría no sólo a los errores congenitos del metabolismo sino a muchos otros padecimientos no hereditarios, porque la gran mayoría de las células somáticas del organismo se dividen continuamente durante toda la vida y pueden sufrir alteraciones en su material genético, como en el cáncer. En la actualidad se efectúa un programa internacional de investigación cuya meta es conocer la totalidad de la estructura primaria del ácido desoxirribonucleico humano, lo que seguramente proporcionará información muy útil para la prevención, el diagnóstico, el pronóstico y el tratamiento de muchas enfermedades.

InicioAnteriorPrevioSiguiente