domingo, septiembre 29, 2013

Recordando a McKeown..que salubrista....

The McKeown thesis

Geriatricians might be forgiven for thinking that the McKeown thesis is about bed blocking. Thomas McKeown did an important early study in the 1950s of elderly patients in Birmingham hospitals, in the UK, who didn't need hospital care but had no place to go. For historians, those involved with public health and anyone concerned with the wider role of medicine, however, the name McKeown points towards a historical thesis about the role of curative medicine in the collective mortality gains during the past two centuries.
McKeown (1912—88) spent most of his career as professor of social medicine at the University of Birmingham. He got the chair (1945) in this new field because he had impressed the appointment committee the previous year when he had applied for the chair of anatomy. Born in Northern Ireland, where both of his parents were officers in the Salvation Army, he spent his childhood in Canada, training in medicine at McGill. Returning to the UK as a Rhodes Scholar, he continued his research interests in physiology. After 1945, the wider social dimensions of medicine became his brief.
The McKeown thesis dates from 1955, when he and a colleague R G Brown, published a paper in Population Studies, evaluating the relation of medicine to the rise of British population from the late 18th century. The 1760s saw the beginning of the modern demographic regime, where human population growth has been sustained, beginning throughout Europe and North America and eventually embracing the whole world. McKeown and Brown wrote in a golden age of medicine, when the sulpha drugs, penicillin, streptomycin, cortisone, other pharmaceuticals, and new therapies had created a period of postwar optimism in the power of medicine to abolish the major historical scourges of humanity, the infectious diseases. This optimism had coloured historical interpretations of the effectiveness of medicine since the 1750s, when hospitals, medical education, and medical sciences began to emerge in modern dress. Starting with the indisputable fact that population growth had occurred throughout western countries, with different timing and rates of increase, McKeown and Brown questioned the part medicine had played in this phenomenon.
Populations in a given area increase for only three reasons: more people are born, fewer die, or immigration occurs, or some combination of the three. These are the reasons, but they are not the cause. Since McKeown and Brown confined themselves to the British population at the beginning of the upward population curve, in about 1760, they felt able to exclude immigration. They argued that in the absence of birth control, fertility was also at its highest, and in any case, larger family size in fairly undeveloped societies increases childhood mortality, since mothers have less time to devote to each child and the children become more exposed to communicable diseases. Adopting the method of Sherlock Holmes, they eliminated the impossible, and what was left was the answer: decline in mortality.
They then turned their Holmesian method on the possible causes of this decline. To the obvious answer that it must be the result of better medical therapeutics, advances in medical knowledge, and more hospitals, they issued a resounding “No”. Doctors had virtually no effective drugs at their disposal, and pre-Listerian surgery was barbaric and frequently led to death from sepsis or shock. Further, hospitals were places to which people went only as a last resort. They were known even then as “gateways to death”, as patients often died of hospital-acquired infections (and the vigorous misdirected attentions of doctors). Doctors were constantly learning new anatomy and physiology, but these attainments did not translate into more effective therapeutics. The natural philosopher Francis Bacon (1561—1626) had once written “Knowledge is power”; in the healing arts, the equation did not always obtain.
McKeown always acknowledged the importance of vaccination after 1798, although he was less sanguine about the effectiveness of the earlier practice of inoculation with the smallpox virus. Smallpox vaccination remained for him the unequivocal triumph of medical intervention in the early period. Admirable as it was, it could not by itself account for the 18th-century population rise. By their process of elimination, he and Brown concluded that the cause must be looked for outside of medicine and the medical profession.
This little paper launched McKeown on his major life's work. Although his general question remained “Why have populations increased?”, his subtext was “Has medicine mattered?”. In the 1960s, this was a radical question to ask, and he was placed in the vanguard of critics of modern medicine that had been spawned by the political and social revolts against authorities during the countercultural movement of the period. It was a mistaken placement: McKeown was not interested in tearing down, merely in understanding the historical role of medicine.
His later papers and books extended his analysis, both temporally and in the causative factors he invoked. As he examined the major infectious killers of the 19th century—tuberculosis, typhus, typhoid, scarlet fever, diphtheria, pneumonia, and the rest—his familiar trademark appeared. This was the recorded death rates from these individual diseases, invariably showing a steady decline, with places marked where specific therapies or preventives appeared. Most of the decline had always occurred before the specific measures came on the scene. Tuberculosis lost about 75% of its mortality from its known high before streptomycin was available. Scarlet fever and pneumonia did the same before the sulpha drugs and penicillin, diphtheria before antisera and inoculation. In each case, the contribution of specific modern medical interventions accounted for only a small part of the historical fall in the mortality of the major infectious diseases.
In the 1950s and early 1960s, this was pretty heady stuff. It seemed to fly against the many recent medical achievements, themselves built on gradually increasing clinical, preventive, and scientific knowledge. McKeown continued to modify his thesis, ironing out some of its starkness as he moved his analysis forward. He never budged on his conviction that medicine had contributed little to the western decline of mortality until well into the 20th century. Smallpox vaccination excepted, he even discounted a good deal of public-health activity before the 20th century, concluding that improved nutrition, the result of ameliorating standards of agriculture, was the major cause of mortality decline, and hence, population rise. In the bald version of his thesis, the modern demographic revolution was agricultural, not social or medical.
McKeown gathered exponents but also attracted critics. Historical demographers patiently counted births and deaths from local registers whenever the records permitted (the first census in the UK was 1801, civil registration of births and deaths 1837), and concluded that the initial population spurt in the 1760s was actually a fertility burst, based on decreasing average age of marriage. Clinicians quietly suggested that McKeown lacked much bedside experience and it told. His graphs took old diagnostic categories and lumped them into modern, unchanging ones. Historians began to examine more closely early public-health movements, and argued that medically motivated improvements in housing, water supply, isolation of the sick, and other measures had also contributed to the gradually lengthening life expectancies in the 19th century, made more impressive because of the mortality penalty attached to urbanisation. (Cities had always been unhealthy places, and the same death rate for a rural and an urban population was a positive achievement for the latter.)
Click to toggle image size
Full-size image (96K) BMJ 1988; 297: 129
Thomas McKeown
Reproduced with permission from BMJ Publishing Group.
During his lifetime, McKeown became a mouthpiece for a position about the ineffectiveness of medicine before the 20th century. He was hardly the first to argue this scenario, but he sometimes went further, in discounting most human agency in the modern decline in mortality. His position, argued with little reference to research other than his own and only modestly modified in his later volumes, became more dogmatic the older he got. His only concession was to contemporary medical capability: our medicine can at last do some good (as well as ill).
Despite McKeown's sharp reading of the therapeutics of our forebears, he never argued that it was valueless. He always allowed an important historical caring role for medicine. Unlike many of the 1960s countercultural critics with whom he was sometime grouped, he was situated firmly within the medical establishment and its traditions. His great virtue was to ask the right questions. He did not always provide the best answers.

Further reading

McKeown and Brown, 1955 McKeown TBrown RGMedical evidence related to English population changes in the eighteenth centuryPopul Stud 19559119-141PubMed
McKeown, 1976 McKeown TThe modern rise of populationLondon: Edward Arnold, 1976.
McKeown,1979 McKeown TThe role of medicine: dream, mirage or nemesisOxford: Blackwell, 1979.
Szreter, 1988 Szreter SThe importance of social intervention in Britain's mortality decline c. 1850—1914Soc Hist Med 19881:1-37PubMed

sábado, septiembre 28, 2013

¿Y si la adolescencia se prolonga hasta los 25 años?

¿Y si la adolescencia se prolonga hasta los 25 años?

Joven adolescente
Algunos expertos creen que la sociedad está "infantilizando" a los jóvenes.
Según las nuevas indicaciones que reciben los psicólogos en el Reino Unido, la adolescencia ahora dura hasta los 25 años de edad, para efectos de determinar la manera de administrar tratamientos a los jóvenes.
"La idea de que de repente a los 18 años eres un adulto simplemente no acaba de cuadrar", dice la psicóloga infantil Laverne Antrobus, que trabaja en la Clínica Tavistock de Londres.
"Mi experiencia con los jóvenes es que todavía necesitan una cantidad bastante considerable de apoyo y de ayuda más allá de esa edad", argumenta.
Antrobus cree que a menudo queremos que los jóvenes logren hitos muy rápidamente, pero que ahora "nos estamos volviendo mucho más conscientes y apreciamos el desarrollo más allá [de los 18 años] y creo que es una muy buena iniciativa".
Las nuevas directrices buscan evitar que los jóvenes no queden desamparados por el sistema de salud y educación cuando cumplen 18 años. El cambio llega con la evolución de nuestra comprensión de la madurez emocional, el desarrollo hormonal y particularmente la actividad cerebral.

Tres etapas

Las tres etapas de la adolescencia son:
  • adolescencia temprana - de 12 a 14 años,
  • adolescencia media - de 15 a 17 años,
  • adolescencia tardía - a partir de los 18 años.
La neurociencia ha demostrado que el desarrollo cognitivo de los jóvenes continúa más allá de los 18 años en esta etapa posterior y que su madurez emocional, imagen personal y el propio juicio se verán afectados hasta que la corteza prefrontal del cerebro se desarrolle completamente.
Entonces, ¿son los 25 los nuevos 18?
"Junto con el desarrollo del cerebro, la actividad hormonal también continúa hasta bien entrados los 20 años", asegura Antrobus.
Y añade: "Encuentro jóvenes de 16 a 18 años, en los cuales la actividad hormonal es tan grande que imaginar que se calmará al cumplir 18 es, realmente, un error", sentencia Antrobus.
Para Laverne Antrobus, algunos adolescentes pueden querer quedarse más tiempo con sus familias, ya que necesitan más apoyo durante estos años de formación, y que es importante que los padres se den cuenta de que no todos los jóvenes se desarrollan al mismo ritmo.
Pero, ¿existe algún peligro de que pudiéramos estar criando a jóvenes que se resisten a dejar la adolescencia?

Infantilización

Sarah Helps, ‎psicóloga consultora clínica

Solíamos pensar que el cerebro estaba totalmente desarrollado en la adolescencia temprana y ahora nos damos cuenta de que el cerebro no detiene su desarrollo hasta mediados de los 20 años o incluso los 30. Hay mucha más información y pruebas de que en realidad el desarrollo del cerebro en varias formas continúa durante toda la vida.

A lo largo de la adolescencia, la forma en que se procesa la información está cambiando drásticamente, y lo que han mostrado nuevas técnicas de exploración nos ha permitido demostrar lo que son los cambios neurológicos.

Esto es particularmente importante en términos de razonamiento social, planificación, y comprensión de la solución de un problema. Así que el cerebro se reorganiza a sí mismo, lo que a su vez significa que las diferentes estrategias de pensamiento se utilizan según el cerebro se asemeja más a un cerebro adulto.

La corteza prefrontal es el área clave que experimenta los cambios más interesantes en la adolescencia, así que si haces estudios de resonancia magnética funcional con niños, adolescentes y adultos, se aprecian diferencias en la forma en que procesan la información.
Frank Furedi, profesor de sociología de la Universidad de Kent en Inglaterra, dice que hemos infantilizado a los jóvenes y esto ha dado lugar a un número creciente de hombres y mujeres jóvenes que se acercan a los 30 años y aún viven en el hogar familiar.
"A menudo se ha reivindicado que es por razones económicas, pero en realidad ese no es el motivo", dice Furedi. "Hay una pérdida de la aspiración a la independencia y salir adelante por propia cuenta. Cuando yo estaba en la universidad, habría sido una 'muerte social' que se le viera a uno con sus padres, mientras que ahora es lo normal", cuenta.
"Este tipo de cambio cultural significa básicamente que la adolescencia se extiende hasta más allá de los 20 años y creo que la psicología, de forma inadvertida, refuerza ese tipo de pasividad, impotencia y falta de madurez y lo normaliza".
Furedi añade que esta cultura infantilizada ha intensificado la sensación de "dependencia pasiva", que puede dar lugar a dificultades en las relaciones entre adultos maduros.
"Hay un número creciente de adultos que ven películas infantiles en el cine", dice Furedi. "Si nos fijamos en los canales de televisión dirigidos a menores en Estados Unidos, el 25% de los espectadores son adultos en lugar de niños".

Dejar el nido

Furedi no cree que el mundo moderno sea mucho más difícil para los jóvenes.
"Creo que, no es que el mundo se haya vuelto más cruel, sino que retenemos a nuestros hijos desde una edad muy temprana. Cuando tienen 11 ó 12 años no los dejamos salir solos y cuando tienen 14 ó 15 años los aislamos de las experiencias de la vida real. Además, tratamos a los estudiantes universitarios como solíamos tratar a los escolares, por lo que creo que es ese tipo de efecto acumulativo de infantilización el responsable de esto".
Pero, ¿deben los padres alentar a los adolescentes a contruir su propio camino en el mundo?
La serie de televisión "Girls" (chicas) cuyo personaje principal, Hannah Horvath, lucha cada día con las contradicciones de la edad adulta, ha capturado el espíritu del momento.
Los padres de Hannah cortaron su financiación y de repente debe vivir por su cuenta y lidiar con sus "20 años", cometiendo sus propios errores.
Las protagonistas de la serie Girls
¿Deben los adolescentes buscarse la vida por su cuenta como ocurre en la serie Girls?
Uno de los tradicionales ritos de paso a la edad adulta siempre fue salir de casa, pero la experta en propiedad raíz Sarah Beeny dice que los adolescentes no tienen que salir de la casa de los padres con el fin de aprender a ser independientes y hay enormes ventajas de que varias generaciones convivan juntas.
"La solución para no tener inútiles de 25 (e incluso) 30 años viviendo en casa no está en echarlos, sino en que ellos laven su propia ropa, ayuden a pagar la renta, las facturas, asuman la responsabilidad de la limpieza de su habitación...", dice Beeny.

Pero, ¿existen los adultos?

Con la adolescencia tomando mucho más tiempo del que pensábamos, ¿cómo vamos a saber cuándo realmente llegamos a la edad adulta?
Para Antrobus ocurre cuando la independencia "se siente como algo que se quiere y se puede adquirir".
Pero para los adolescentes eternos, tal vez la definición de Beeny es la apropiada.
"Para mí", dice, "la edad adulta' se está dando cuenta de que no existen los adultos como tal y que todos los demás estamos improvisando", dice Beeny.

¿Realmente el azúcar pone hiperactivos a los chicos?

¿Realmente el azúcar pone hiperactivos a los chicos?

Manos de chicos en pastel de cumpleaños
Muchos de nosotros hemos visto a niños que llegan a una fiesta como seres humanos razonables y educados, comen copiosas cantidades de pasteles y golosinas y se transforman en diablitos sobrexcitados... ¿cómo se explica eso?
Se dice a menudo que el alboroto se debe a la cantidad de azúcar que han consumido. Y, para tratar de que las fiestas sean más calmadas y relajantes, algunos padres hacen eventos libres de azúcar, ofreciendo agua y emparedados de garbanzo en vez de gaseosas y bizcochos.
La idea de que el azúcar afecta a la conducta es muy generalizada y hay varias hipótesis que intentan explicar cómo, incluyendo suposiciones como que los niños pueden ser alérgicos a la azúcar refinada o tener patrones anormales de niveles de glucosa en la sangre (1).
Pero la evidencia de un vínculo entre el consumo de azúcar y la hiperactividad es sorprendentemente débil.
El estudio más completo es un metaanálisis llevado a cabo en 1995 en el que los autores buscaron los estudios mejor diseñados sobre el tema, combinaron la información arrojada y la volvieron a analizar (2).
Chico hiperactivo
Se dice que el azúcar torna a angelitos en diablillos...
Había dos tipos principales de investigación: algunos estudios le daban a los niños sacarosa o un endulzante artificial, como aspartamo, y luego les hacían seguimiento sin que ni ellos ni los padres supieran si comieron azúcar real o no. Los otros se enfocaban en niños diagnosticados con trastorno por déficit de atención con hiperactividad (TDAH) u otra condición para ver si el azúcar los afectaba particularmente.
Entre todas, las investigaciones cubrían las edades desde dos hasta 30 años, y estaban bien diseñadas aunque algo pequeñas: todos menos uno de los 16 estudios contaban con menos de 50 participantes y uno de ellos tenía apenas cinco.
No obstante, los resultados del metaanalisis fueron claros: no se pudo mostrar que el azúcar afecta la conducta o el desempeño cognitivo.

¡¿Pero, entonces?!

Muchos hemos estado en fiestas de cumpleaños de niños y los hemos visto corriendo de un lado al otro, cada vez más excitados e imposibles de controlar... si no es el azúcar, ¿qué es?
Niños comiendo chocolate
...pero al parecer son calumnias.
A medida que la fiesta avanza, los niños juegan más e inevitablemente se entusiasman y se cansan más, así que por supuesto que la conducta se deteriora.
Lo que vemos es a los niños más descontrolados, notamos cuántos dulces han ingerido y asumimos que debe haber un vínculo.
Un estudio se propuso probar la expectativa de los padres que pensaban que el azúcar tenía un efecto negativo en sus hijos (3). En el experimento, a la mitad de las madres se les hizo creer que sus hijos estaban tomando algo azucarado. A la otra mitad, le revelaron que las bebidas contenían un endulzante artificial, no azúcar.
Cuando se les pidió que observaran y calificaran la conducta de sus hijos, las que pensaban que habían consumido azúcar dijeron que estaban más hiperactivos que las que sabían que habían tomado un placebo.
Pero hubo otro truco en el estudio. Mientras las madres estaban observando a sus niños, los investigadores las estaban observando a ellas. Notaron que las madres que creían que sus hijos habían tomado demasiada azúcar no sólo los criticaban más, sino que se mantenían más cerca de ellos y los observaban con más ahínco.
Así que la presunta azúcar no había cambiado la conducta de los niños sino la de las madres.
Mamá furiosa con la hija
Son los padres los que se comportan diferente con el azúcar.

En busca del eslabón perdido

Hasta el momento no hay evidencia sólida de que la cantidad de azúcar que se consume en las fiestas hace más hiperactivos a los niños.
Se han publicado menos estudios sobre este tema recientemente pero algunos investigadores siguen buscando el vínculo entre el alto consumo de azúcar durante un período largo y TDAH (4).
Señalan que así como la ingestión de azúcar en Reino Unido y EE.UU. ha aumentado en los últimos dos siglos, también ha aumentado la diagnosis de TDAH en los últimos años.
Pero eso sigue siendo sólo una correlación y los autores del estudio subrayan que se necesita más investigación para que se pueda comprobar un vínculo causal.
A pesar de sus mejores esfuerzos, las causas de TDAH siguen siendo desconocidas.
Hay, por supuesto, muchas otras razones por las que es mejor que los chicos no consuman mucha azúcar, sobre todo el daño a los dientes y el aumento de peso.
Pero parece ser que el riesgo de que se sobrexciten en una fiesta no es una de ellas. Eso va a pasar en todo caso.


Descargo de responsabilidad
Todo el contenido de esta columna es para dar información general solamente, y no debe ser entendido como un sustituto del consejo médico de su doctor o cualquier otro profesional de la salud. La BBC no se hace responsable de ningún diagnóstico realizado por un usuario basándose en el contenido de este sitio. La BBC no se hace responsable por el contenido de sitios internet externos citados, ni respalda ningún producto comercial o de servicios mencionados o asesoramiento en cualquiera de los sitios. Siempre consulte a su médico de cabecera si usted está preocupado por su salud.
Síguenos en Twitter @bbc_ciencia

lunes, septiembre 23, 2013

Cómo el mercurio mata lentamente a los mineros

Cómo el mercurio mata lentamente a los mineros

Extracción de oro con mercurio
En el mundo hay unas 10 millones de minas de oro artesanal y en su mayoría se usa mercurio.
Se estima que el 15% del oro en el mundo se extrae de forma artesanal, en pequeñas minas donde en la mayoría de ellas se usa mercurio. Los mineros que lo utilizan se arriesgan a envenenarse, envenenar a sus hijos y contaminar el suelo.
Se calcula que en el mundo hay de 10 a 15 millones de minas de oro no reguladas que operan en 70 países. La minería artesanal a pequeña escala es, después de la quema de combustible fósil, la mayor fuente de contaminación de mercurio en el mundo.
En Indonesia, la industria es el sustento de tres millones de personas.
Fahrul Raji tiene unos 30 años y no se siente bien. En el centro sanitario de Kereng Pangi, un pueblo cerca de Kalimantan Central y rodeado de yacimientos de oro, explica sus síntomas. "Con frecuencia me dan dolores de cabeza y me siento débil. También tengo un sabor amargo en mi boca".
Según el doctor Stephan Bose-O'Reilly, quien lo examina, Fahrul se ha estado envenenando lentamente con mercurio.
"Fahrul ha estado trabajando con mercurio durante muchos años, y ahora muestra los síntomas típicos de una intoxicación", explica este médico alemán que hace una década empezó a estudiar el impacto del mercurio en la salud de los indonesios. "También tiene temblores y problemas de coordinación".
A pesar de que el uso de mercurio en minas pequeñas de oro es ilegal en Indonesia, los mineros todavía lo utilizan para extraer el metal precioso de la piedra o el suelo.

El peligro de los humos

Extracción de oro
Fahrul no es extrae oro él mismo, sino que tiene una tienda en Kereng Pangi. A diario recibe a mineros con los frutos de su trabajo, con frecuencia piezas amalgamadas de mercurio y oro del tamaño de un guisante.
Fahrul las quema para que se evapore el mercurio y deje el metal. Pero los humos son muy tóxicos, razón por la cual fundidores como él con frecuencia muestran síntomas más severos de intoxicación que los mineros que usan mercurio en el yacimiento.
"El mercurio es una neurotoxina", explica Bose-O'Reilly. "Afecta el cerebelo, que es la parte de cerebro que te ayuda a mover correctamente y a coordinar tus movimientos. El mercurio también afecta los riñones y otro órganos, pero el daño neurológico es irreversible".
La tienda de oro de Fahrul está en la calle principal de Kereng Pangi. Detrás de un mostrador de madera, y con el soplete a un costado, espera la llegada de clientes. Es a final del día cuando los mineros aparecen con sus pepitas listas para ser fundidas.
Fahrul confiesa que si bien le preocupa el impacto que el mercurio está teniendo en su salud, no tiene intención de cambiar de trabajo. "Esto es un negocio familiar que me ha sido entregado. Mi padre también era comprador de oro, y hoy en día, con 65 años, todavía luce saludable".
A pesar de que ya presenta síntomas de intoxicación, Fahrul está convencido de que el peligro que corre es pequeño. Este es el problema con el mercurio: sus efectos no son lo suficientemente dramáticos en el corto plazo como para que sean disuasivos.

El peor caso de la historia

En el mundo hay unas 10 millones de minas de oro artesanal y en su mayoría se usa mercurio.
El peor caso en el mundo de envenenamiento masivo por mercurio ocurrió en Japón a principio del siglo XX.
Los síntomas aparecieron gradualmente en la localidad de pescadores de Minamata. Al principio, nadie podía explicar la razón por la cual la gente empezó a arrastrar las palabras cuando hablaba, o por qué se caían cuando caminaban. Empezaron a tener problemas para tragar y temblores incontrolables. Incluso los niños nacieron con defectos y miles murieron a raíz de lo que se conoció como la enfermedad de Minamata.
Tomó 30 años, hasta la década de los 60, identificar la causa de tal sufrimiento: una fábrica de plástico local que estaba derramando mercurio a la bahía. El mercurio estaba contaminando a los peces, el alimento de primera necesidad de la población local.
Si Fahrul continúa fundiendo mercurio en su tienda de oro, e inhala los humos tóxicos, es posible que sus síntomas empeoren.
El doctor Bose-O'Reilly asegura que su orina contiene 697 microgramos de mercurio por litro, muy por encima de los niveles normales. "Esto es increíblemente alto", sentencia. "La mayoría de las personas tiene uno o dos microgramos como mucho".

Paisaje lunar

Minero
En Kalimantan Central, los efectos en el medio ambiente de la industria no regulada de extracción de oro han sido devastadores. Alrededor de Kereng Pangi los mineros han erosionado el bosque virgen que una vez fue hogar de orangutanes y bucerótidos. Lo que queda ahora es un paisaje lunar con pozos de agua contaminados.
"Se trata de 60.000 hectáreas de terreno desolado completamente lleno de hoyos", explica Sumail Agrawal, el director técnico de YTS, una ONG local que trabaja para mitigar el impacto de mercurio.
"Lo puedes ver en Google Earth, una mancha blanca en el medio de un paisaje verde. Esto una vez fue selva tropical en un sustrato arenoso. Si lo dejas tranquilo durante 50 años, crecerá algún tipo de vegetación, pero nunca volverá a ser la selva diversa que fue".
Alrededor de Kereng Pangi no hay pepitas grandes de oro por extraer, sólo pequeñas partículas del metal precioso que se esconden en toneladas de tierra. Los mineros utilizan escurrideros mecánicos para atrapar el lodo rico en oro. Usando sus propias manos y sin protección lo mezclan con mercurio en cubetas.

Mezcla explosiva

Campos de arroz contaminados
El mercurio es un contaminante persistente, no se degrada en el medio ambiente.
En la isla indonesia de Lombok, su daño potencial es mucho mayor, pues este metal pesado se usa en conjunto con cianuro.
"El mercurio y cianuro juntos generan un doble problema para el medio ambiente", señala la doctora Dewi Krisnayanti, científica del suelo especialista en metales pesados de la Universidad Mataram de Lombok.
El cianuro ayuda a disolver el mercurio, y cuando el desecho se tira a un campo de arroz, se pega a las moléculas orgánicas, convirtiéndose en metilmercurio. Esto es mucho más tóxico.
En Minamata fue el metilmercurio lo que envenenó a miles de personas.
Dewi ha analizado muestras de semillas de arroz y hojas de los campos del suroeste de la isla.
"La concentración de metilmercurio fue la mayor que se haya registrado en un laboratorio, 115 partículas por mil millones", explica la experta. "Me dio mucha tristeza ver esos datos, pues el metilmercurio puede ser absorbido por las plantas, meterse en la cadena alimentaria y afectar la salud de los humanos".

"Desastre nacional"

Los mismos métodos se usan para extraer oro en otros países asiáticos, donde el principal alimento es el arroz. Si se determina que la contaminación en los campos de arroz está extendida, las consecuencias podrían ser devastadoras.
"Hay contaminación en el ambiente, en los ríos, destrucción en las zonas montañosas y destrucción de nuestros bosques protegidos. Es una situación similar en casi todas las provincias y en Indonesia tenemos 34 "
Halimah, científico medioambientalista
Halimah Syafrul, del Ministerio de Medio Ambiente de Indonesia, asegura que los controles en importación ilegal de mercurio están siendo más estrictos.
El gobierno espera que la próxima ratificación de Naciones Unidas del tratado sobre mercurio, conocido como la Convención de Minamata, le aporte la ayuda internacional que necesitan para ofrecer alternativas a los mineros que utilizan mercurio.
"Hay contaminación en el ambiente, en los ríos, destrucción en las zonas montañosas y destrucción de nuestros bosques protegidos. Es una situación similar en casi todas las provincias y en Indonesia tenemos 34 ", explica Halimah, un científico medioambientalista.
El doctor Rachmadi Purwana, profesor de Salud Pública de la Universidad de Indonesia está preocupado.
"La amenaza está ahí, a diario, y es cada vez mayor. Tenemos que recordar que en Japón un pequeño lugar como Minamata destruyó al mundo con la reveladora enfermedad de Minamata. En Indonesia no se trata de una sola localidad, es en todo el país. Prácticamente en cada provincia existe la minería de oro artesanal".
¿A qué le teme Rachmadi si no se hace algo? "A un desastre nacional".

sábado, septiembre 21, 2013

Cuba realidad y posibilidad

se debe mezclar alcohol y antibióticos?

¿Realmente no se debe mezclar alcohol y antibióticos?

Antibióticos y vino
Las mujeres que están en los primeros meses de su embarazo, y que no quieren todavía compartir la feliz noticia, saben que decirle "no" a una bebida alcohólica en un evento social las delata. Pero si les dicen a sus amigos que están tomando antibióticos, la excusa es perfecta pues su uso es tan común.
Ni siquiera los más chismosos preguntarán por qué los están tomando.
Pero, ¿es cierto que hay que abstenerse de tomar alcohol cuando uno está en tratamiento con antibióticos?
Hay gente que asume que el alcohol impide que los antibióticos funcionen apropiadamente o piensan que causan efectos secundarios.
Cuando los empleados de una clínica genitourinaria londinense encuestaron a más de 300 pacientes, encontraron que el 81% creían lo primero y 71% lo segundo.

Cuáles tenían razón

En el caso de la mayoría de los antibióticos, ninguna de esas suposiciones es cierta.
Hombre con vaso de cerveza
El temor es que la gente deje los antibióticos por tomarse una copa, cuando no sea necesario.
Los doctores temen que debido esas creencias erróneas, los enfermos dejen de tomarse el medicamento si se beben una copa de vino. Cualquier cosa que haga que la gente se salte las dosis agrava el problema de la resistencia a los antibióticos.
De hecho, el alcohol no afecta a la mayoría de los antibióticos que son prescritos con más frecuencia.
Hay algunas excepciones: cefalosporina cefotetan y cefalosporina ceftriaxona hacen que el cuerpo procese el alcohol más lentamente, lo que aumenta los niveles de una sustancia llamada acetaldehído. Eso puede provocar varios síntomas desagradables como nausea, vómito, enrojecimiento facial, dolor de cabeza, dificultad para respirar y dolores en el pecho.
La droga llamada disulfiram, que a veces se usa como tratamiento contra la dependencia del alcohol, causa síntomas similares. La idea es que apenas el paciente se toma un trago, experimente sensaciones desagradables, lo que lo disuadirá de seguir tomando.
Los síntomas son muy molestos así que es importante abstenerse de tomar alcohol mientras se toman estos antibióticos en particular y durante unos días después de terminar de hacerlo.

Unos pocos más

Otro tipo de antibiótico que viene con una advertencia específica de no mezclarlo con alcohol es metronidazol. Se usa para tratar infecciones dentales, úlceras infectadas en las piernas y rozaduras por presión. Y se piensa que provoca la misma lista de síntomas que las de las cefalosporinas.
El vínculo ha sido disputado desde que una revisión de estudios hecha en 2003 no encontró evidencia para respaldarlo.
Luego hubo otra investigación modesta, en la que le dieron metronidazol a un grupo de hombres finlandeses durante cinco días y estos no experimentaron efectos secundarios tras consumir alcohol. Los autores conceden que eso no descarta la posibilidad de que algunos individuos puedan ser afectados, y el consejo que sigue vigente es de evitar las bebidas alcohólicas mientras se está tomando metronidazol.
Hay otros pocos antibióticos para los que hay buenas razones para abstenerse de tomar trago -incluyendo tinidazol, linezolida y eritromicina- pero esas interacciones son tan bien conocidas que los doctores advierten específicamente a los pacientes.

Intrigante origen

Eso deja una larga lista de antibióticos que pueden mezclarse con alcohol.
Aplicando antibióticos en la Segunda Guerra Mundial
El mito puede haberse originado durante la II Guerra Mundial, cuando se introdujo la penicilina.
Obviamente, si está enfermo y se emborracha, no ayuda: se sentirá cansado y deshidratado, pero no es por la interacción con el medicamento.
Es posible que casos aislados contribuyeran a que se creara el mito de que todos los antibióticos no se mezclan con bebidas alcohólicas, pero hay otras dos teorías más intrigantes.
Una es que debido a que los antibióticos se usan para tratar algunas de las enfermedades venéreas más comunes, los doctores en el pasado usaban esa prohibición para castigar de alguna manera a los pacientes por haberse infectado, así que los privaban de su bebida favorita.
O está la explicación que le dieron a uno de los autores en la clínica genitourinaria londinense: el brigadier Ian Fraser introdujo el uso de penicilina para soldados heridos en el norte de África durante la Segunda Guerra Mundial. En ese tiempo, la penicilina era tan escasa que después de que un paciente se la tomaba, recuperaban el antibiótico que salía en su orina y se reciclaba.
Los soldados que estaban recuperándose podían tomar cerveza, pero desafortunadamente eso incrementaba el volumen de orina, lo que hacía más difícil obtener la penicilina y, según el brigadier, eso fue lo que obligó a los generales a prohibir el trago.
Es una buena historia, sea o no el origen de ese popular mito. Pero aclarar que no es tan cierto es un arma de doble filo.
Alentar a quienes no pueden aguantarse las ganas de tomarse una copa mientras están tomando antibióticos a que no suspendan el tratamiento puede ayudar a disminuir la resistencia a estos medicamentos.
No obstante, el que la gente entienda mejor cuál es la situación real podría significar que las mujeres embarazadas que quieran mantener su secreto tendrán que ser más creativas en el futuro.


Descargo de responsabilidad
Todo el contenido de esta columna es para dar información general solamente, y no debe ser entendido como un sustituto del consejo médico de su doctor o cualquier otro profesional de la salud. La BBC no se hace responsable de ningún diagnóstico realizado por un usuario basándose en el contenido de este sitio. La BBC no se hace responsable por el contenido de sitios internet externos citados, ni respalda ningún producto comercial o de servicios mencionados o asesoramiento en cualquiera de los sitios. Siempre consulte a su médico de cabecera si usted está preocupado por su salud.

QUE HACRE SI TIENS SINTOMAS, ERES SOSPECHOSO O CONTATO

Aislarse, hacerse la prueba y avisar. Una guía detallada de qué hacer si hay sospecha de COVID-19 Los casos confirmados y las atenciones hos...