Gripe, mentiras y juegos de video


24.000 personas mueren diariamente de hambre, 3.000 de malaria, 3.500 de tuberculosis, algunas centenares de dengue. Estos son los números de las verdaderas epidemias, pandemias o como se quieran llamar a lo que rodean nuestras vidas y las hacen más inestables.

Hambre en Sudán. Septiembre de 1998. Fotos de Gervasio Sánchez

Si buscamos datos de estos desastres que asuelan este mundo injusto en que vivimos podemos quedarnos de piedra: hay poca información porque estas verdaderas epidemias no venden diarios ni inciden en la atención radiofónica de los oyentes ni en la mirada compasiva de los televidentes. No nos preocupan porque no nos afectan.

Salvo excepciones la gripe porcina ha provocado un regusto por el sensacionalismo en todos los medios de comunicación. La alerta sanitaria, lógica al producirse en un país tan deficiente desde el punto de vista médico como México, ha sido reconvertida en una amenaza galáctica como si el mundo estuviese a punto de enfrentarse a un virus mutante capaz de convertirnos a todos en primos de los cinematográficos Lobezno y los X men.

Enferma de ébola en la Republica Democrática del Congo mayo de 1995 Foto de Gervasio Sánchez

El circo mediático ha cruzado una vez más la línea del pudor y ha vomitado en los principios básicos del periodismo. En vez de utilizar una vara de medir lógica, la prensa ha jugado a provocar la histeria colectiva. Todo con tal de vender papel, aunque fuese pura basura, mentiras radiofónicas o videos adulterados. Todo con tal de desviar la atención de problemas más graves que nos afectan.
Cada uno de los supuestos muertos por el virus de moda ha tenido más espacio mediático que decenas de miles de muertos por virus antiguos o enfermedades que deberían estar erradicadas si nuestras autoridades políticas o sanitarias tuviesen una pizca de vergüenza. O si nosotros tuviésemos la decencia de protestar por los verdaderos virus de destrucción masiva.

El virus más cansino de la historia ya que parece que sólo le gusta viajar en avión, “sin voluntad asesina”, tal como lo ha definido algún epidemiólogo, ha sido presentado como un criminal en serie dispuesto a matar a un ritmo de película de terror de serie B.

Casi todos los informativos de televisión o de radio o casi todas las crónicas escritas han destacado con ambigüedad calculada cifras adulteradas, casos personales que carecían de interés médico y han escondido las llamadas a la calma de los especialistas más sensatos.

Algunas crónicas parecían copiadas de mediocres novelas de ciencia ficción. Otras empezaban por la anécdota y el verdadero lead, la sensata idea de que estamos ante un globo hinchado mediático e irresponsable, aparecía perdido o sepultado bajo paladas de verborrea.
El virus le ha venido de perlas al gobierno de nuestra nación. De repente el desastre económico del último año se ha volatilizado. La semana en que se anunció el derrumbe histórico de nuestro producto interior bruto, con cifras de parados que nos permite regresar a la cola de Europa, se ha superado con un simulacro interpretado por el virus menos letal de la historia.

A la oposición tampoco le ha disgustado el entretenimiento. Sus crisis internas y sus corruptelas han quedado aparcadas hasta mejores tiempos. En vez de asumir unos previsibles costes políticos se han dedicado a desempolvar la artillería de cara a las elecciones europeas. Otra vez asistiremos al bochornoso espectáculo al que gobierno y oposición nos tienen acostumbrados desde hace varios años cada vez que se acerca una cita electoral.


Niño afgano afectado por malnutrición severa Kabul (Afganistán), agosto de 1996 Foto de Gervasio Sánchez
Más de ocho millones de personas mueren al año de hambre, un millón y medio de malaria y una cantidad parecida de tuberculosis. 900 millones de seres humanos sufren hambre extrema, más de 52 millones en América Latina.

Y como explica el diario Público en su edición del sábado 300.000 personas mueren al año por enfermedades o virus que “no generan alarma”. Por ejemplo, 70.000 de Leishmaniasis, 50.000 de Cisticercosis, 55.000 de Rabia.

Niños ruandeses afectados por el cólera. Goma (República Democrática del Congo), julio de 1994 Foto de Gervasio Sánchez
Y además las variantes de la gripe causan 3.000 muertos anuales en España.
¿Por qué todos estos muertos no tienen derecho a su minuto de gloria? Porque han fallecido fuera de la hora punta de los informativos y en lugares alejados de nuestras vidas y nuestras conciencias.

Fuente: Gervasio Sanchez

Gripe, mentiras y juegos de video


24.000 personas mueren diariamente de hambre, 3.000 de malaria, 3.500 de tuberculosis, algunas centenares de dengue. Estos son los números de las verdaderas epidemias, pandemias o como se quieran llamar a lo que rodean nuestras vidas y las hacen más inestables.

Hambre en Sudán. Septiembre de 1998. Fotos de Gervasio Sánchez

Si buscamos datos de estos desastres que asuelan este mundo injusto en que vivimos podemos quedarnos de piedra: hay poca información porque estas verdaderas epidemias no venden diarios ni inciden en la atención radiofónica de los oyentes ni en la mirada compasiva de los televidentes. No nos preocupan porque no nos afectan.

Salvo excepciones la gripe porcina ha provocado un regusto por el sensacionalismo en todos los medios de comunicación. La alerta sanitaria, lógica al producirse en un país tan deficiente desde el punto de vista médico como México, ha sido reconvertida en una amenaza galáctica como si el mundo estuviese a punto de enfrentarse a un virus mutante capaz de convertirnos a todos en primos de los cinematográficos Lobezno y los X men.

Enferma de ébola en la Republica Democrática del Congo mayo de 1995 Foto de Gervasio Sánchez

El circo mediático ha cruzado una vez más la línea del pudor y ha vomitado en los principios básicos del periodismo. En vez de utilizar una vara de medir lógica, la prensa ha jugado a provocar la histeria colectiva. Todo con tal de vender papel, aunque fuese pura basura, mentiras radiofónicas o videos adulterados. Todo con tal de desviar la atención de problemas más graves que nos afectan.
Cada uno de los supuestos muertos por el virus de moda ha tenido más espacio mediático que decenas de miles de muertos por virus antiguos o enfermedades que deberían estar erradicadas si nuestras autoridades políticas o sanitarias tuviesen una pizca de vergüenza. O si nosotros tuviésemos la decencia de protestar por los verdaderos virus de destrucción masiva.

El virus más cansino de la historia ya que parece que sólo le gusta viajar en avión, “sin voluntad asesina”, tal como lo ha definido algún epidemiólogo, ha sido presentado como un criminal en serie dispuesto a matar a un ritmo de película de terror de serie B.

Casi todos los informativos de televisión o de radio o casi todas las crónicas escritas han destacado con ambigüedad calculada cifras adulteradas, casos personales que carecían de interés médico y han escondido las llamadas a la calma de los especialistas más sensatos.

Algunas crónicas parecían copiadas de mediocres novelas de ciencia ficción. Otras empezaban por la anécdota y el verdadero lead, la sensata idea de que estamos ante un globo hinchado mediático e irresponsable, aparecía perdido o sepultado bajo paladas de verborrea.
El virus le ha venido de perlas al gobierno de nuestra nación. De repente el desastre económico del último año se ha volatilizado. La semana en que se anunció el derrumbe histórico de nuestro producto interior bruto, con cifras de parados que nos permite regresar a la cola de Europa, se ha superado con un simulacro interpretado por el virus menos letal de la historia.

A la oposición tampoco le ha disgustado el entretenimiento. Sus crisis internas y sus corruptelas han quedado aparcadas hasta mejores tiempos. En vez de asumir unos previsibles costes políticos se han dedicado a desempolvar la artillería de cara a las elecciones europeas. Otra vez asistiremos al bochornoso espectáculo al que gobierno y oposición nos tienen acostumbrados desde hace varios años cada vez que se acerca una cita electoral.


Niño afgano afectado por malnutrición severa Kabul (Afganistán), agosto de 1996 Foto de Gervasio Sánchez
Más de ocho millones de personas mueren al año de hambre, un millón y medio de malaria y una cantidad parecida de tuberculosis. 900 millones de seres humanos sufren hambre extrema, más de 52 millones en América Latina.

Y como explica el diario Público en su edición del sábado 300.000 personas mueren al año por enfermedades o virus que “no generan alarma”. Por ejemplo, 70.000 de Leishmaniasis, 50.000 de Cisticercosis, 55.000 de Rabia.

Niños ruandeses afectados por el cólera. Goma (República Democrática del Congo), julio de 1994 Foto de Gervasio Sánchez
Y además las variantes de la gripe causan 3.000 muertos anuales en España.
¿Por qué todos estos muertos no tienen derecho a su minuto de gloria? Porque han fallecido fuera de la hora punta de los informativos y en lugares alejados de nuestras vidas y nuestras conciencias.

Fuente: Gervasio Sanchez

Buscando el origen de la gripe porcina


Fuente: ElMundo.es

Según los últimos datos, el nuevo virus de la gripe que se está transmitiendo entre humanos tiene componentes genéticos de cepas humanas, aviares y de dos tipos de cerdos: euroasiáticos y americanos.

Tras su descubrimiento se le denominó ‘gripe porcina’, si bien aún no ha podido demostrarse su presencia en cerdos.

No es la primera vez que un virus de origen animal se detecta antes en los humanos. Los científicos encontraron por primera vez el virus del sida a principios de los 80 en una comunidad gay estadounidense, pero tardaron años en probar que el origen del VIH estaba en chimpancés africanos.

Según publica ‘The New York Times’, las autoridades mexicanas han inspeccionado visualmente varias granjas cercanas a La Gloria -donde podrían haberse producido los primeros casos- en busca de animales enfermos, pero no han encontrado evidencias aparentes de la enfermedad.

Sin embargo, los científicos alertan de que los cerdos podrían ser portadores del virus y no sufrir sus consecuencias, al igual que la cepa H5N1, la más agresiva de la gripe aviar, es capaz de matar a los pollos, pero no suele producir problemas graves a los patos.

Analizar muestras de los animales estabulados en La Gloria podría arrojar luz sobre el asunto, si bien es posible que ni siquiera estas piaras sean el origen del problema.

Otra de las cuestiones que preocupa a los científicos es saber cómo se ha producido la mezcla genética de dos razas de cerdos.

Según parece, la importación legal de cerdos entre continentes no es habitual, ya que, dado que estos animales pueden transmitir un gran número de enfermedades, se exigen múltiples trámites, pruebas e incluso cuarentenas.

La prensa estadounidense sugiere que la clave puede estar en un tráfico ilegal de estos animales.

El primer humano afectado

La comunidad científica no sólo está tratando de encontrar dónde se gestó el virus, sino también cuál fue el primer humano afectado.

Hasta hace pocos días, se daba por hecho de que el foco inicial estaba en México. De hecho, se ha sugerido que el niño mexicano Édgard Hernández podría ser el paciente 0. Sin embargo, desde Estados Unidos ya se ha puesto en duda esa hipótesis.

Los cuatro primeros casos confirmados se dividen equitativamente entre México y California. De hecho, parece que dos niños de este estado estadounidense enfermaron a finales de Marzo, varios días antes de los dos primeros casos mexicanos conocidos.

Pese a esto, muchas voces recuerdan que México ya detectó a mediados de marzo un ligero incremento de pacientes que acudían al médico por problemas respiratorios severos, como neumonía. Se ha comprobado que el virus detectado, el H1N1, puede provocar esta complicación.

Este ligero incremento no causó al principio mucha preocupación ya que cada año mueren aproximadamente 20.000 personas por neumonía en México.

El hecho de que la infección haya provocado muertes únicamente en México ha generado especulaciones sobre la posibilidad de que la cepa mexicana fuera distinta a la del resto del mundo. Sin embargo, la directora de investigación de la OMS, Marie Paule Kieny, ha remarcado que los virus detectados en México, Estados Unidos y Europa son iguales en un 99% de su genoma. “Podemos decir que son los mismos virus. No tenemos una explicación satisfactoria sobre por qué los síntomas son más graves en México que en otros países”, ha afirmado.

Enfermedades a la carta


Fuente: El Pais

El raloxifeno (Evista, de Lilly) reduce un 75% el riesgo de fractura en las mujeres posmenopáusicas. El ropirinol (Requip, de Glaxo) alivia el síndrome de las piernas inquietas, que afecta al 20% de la población, y el metilfenidato (Ritalina, de Novartis) mitiga el de hiperactividad, padecido por el 8% de los niños. Prolifera la disfunción sexual femenina, crece el trastorno bipolar, arrecia la osteopenia.

    • La vacuna del papiloma ha sido la última envuelta en polémica

    El uso de estadísticas sesgadas desvirtúa los estudios

    El coste de los tratamientos puede ser desorbitado para lo que curan

    La osteopenia o la disfunción sexual femenina están en el punto de mira

    Las personas sanas son el objetivo de las campañas de mercadotecnia

    Todo lo anterior es verdad. Pero no es toda la verdad, porque las estadísticas están anguladas: aunque sean técnicamente correctas, miran al problema desde una perspectiva artificiosa. Y son la clave del emergente debate sobre el “tráfico de enfermedades” (disease mongering).

    “Tráfico de enfermedades” es una expresión muy cargada, y lo es de forma intencionada. Ha sido promovida por el periodista australiano Ray Moynihan, que ahora trabaja en la Escuela de Medicina y Salud Pública de la Universidad de Newcastle (Australia). Y quiere denunciar “la venta de enfermedades mediante la ampliación de las fronteras de lo patológico, a fin de abrir mercados para quienes venden y administran los tratamientos” (PLoS Medicine, mayo de 2008).

    Aunque la expresión disease mongering ha sido malversada por el movimiento antipsiquiátrico y la secta de la Cienciología, el debate es serio y ha llegado a la literatura técnica. Y también a los responsables de la salud pública. La Consejería madrileña de Sanidad, por ejemplo, exigió el año pasado a las firmas Lilly y Procter & Gamble que suavizaran la promoción de sus fármacos (Evista y Actonel) para prevenir las fracturas.

    “En Europa, las compañías farmacéuticas ya están comercializando sus medicamentos para prevenir las fracturas en mujeres con osteopenia [ligero déficit de masa ósea] y otras condiciones que, según sus cálculos, afectan a casi la mitad de las mujeres posmenopáusicas”, afirma el médico Pablo Alonso, del departamento de Epidemiología Clínica y Salud Pública del hospital de Sant Pau.

    Alonso es el autor principal de un estudio sobre el disease mongering y la osteopenia publicado este año por el British Medical Journal. Su conclusión es que “se han exagerado los riesgos de la osteopenia, y se han subvalorado los efectos secundarios de los fármacos”. Se refiere a cuatro principios activos: raloxifeno, alendronato, risedronato y ranelato de estroncio.

    Estos fármacos han probado su eficacia para prevenir las fracturas en las mujeres con osteoporosis. La cuestión es si hay que extenderlos a la mucho más común osteopenia. La industria se apoya para ello en cuatro trabajos científicos publicados en los últimos años, como el que abría este artículo: “El raloxifeno reduce un 75% las fracturas por osteopenia”. Parece un argumento contundente. Pero la estadística está sesgada. El matemático John Allen Paulos explica este tipo de sesgo en su libro Un matemático lee el periódico: hay una planta química contaminante en las cercanías, y un estudio concluye que el riesgo de un raro tipo de cáncer se ha duplicado en el barrio. Naturalmente, todo el mundo se larga de allí.

    Pero no deberían, porque ese cáncer es tan infrecuente (digamos que afecta al 0,0003% de la población general) que la duplicación de su riesgo (hasta el 0,0006%) es despreciable. En el caso de las mujeres con osteopenia, su riesgo de fractura es tan bajo que reducirlo un 75% es poco relevante: habría que medicar a 270 mujeres durante tres años sólo para evitar una fractura, según calculan Alonso y sus colegas.

    Pero hay más. Los posibles efectos secundarios del ranelato -causa diarrea, y hay dudas sobre sus consecuencias cardiovasculares y neurológicas- no se mencionan en ningún momento. Tampoco los del raloxifeno, pese a que incrementa el riesgo de trombos venosos y ataques cardiacos. Ni las secuelas gastrointestinales del alendronato.

    Para acabar, el trabajo sobre el fármaco de Lilly lleva la firma de tres empleados de Lilly; el del fármaco de Merck no sólo fue financiado por Merck, sino que tres de sus autores reconocen conflictos de intereses; el del medicamento que distribuye en España Procter & Gamble incluye a dos expertos de Procter & Gamble; y el del fármaco del laboratorio Servier lleva la firma de tres consultores de Servier, que además financió el estudio.

    Hasta la misma definición de osteopenia está bajo el punto de mira de los expertos entráfico de enfermedades. El criterio se basa en la densidad mineral de los huesos. Si es mucho menor de lo normal (2,5 desviaciones estándar bajo la media), se diagnostica osteoporosis. Si no tanto (entre 1,0 y 2,5 desviaciones estándar bajo la media), se diagnostica osteopenia.

    En realidad, esos criterios fueron publicados en 1994 por un pequeño grupo de estudio asociado a la Organización Mundial de la Salud (OMS), y no pretenden ser una pauta de diagnóstico -sus propios autores los tildan de “algo arbitrarios”-, sino una mera ayuda para normalizar los estudios epidemiológicos. Alonso subraya además que el grupo de la OMS tenía financiación de los laboratorios Rorer, Sandoz y SmithKline Beecham.

    La indefinición de los criterios diagnósticos es un asunto común en el debate del tráfico de enfermedades. Los investigadores Lisa Schwartz y Steven Woloshin, de la Universidad de Darmouth, afirman que la incidencia del síndrome de las piernas inquietas “se ha exagerado para abrir mercados a nuevos medicamentos”. Presentaron las evidencias en el primer congreso internacional dedicado al tráfico de enfermedades, celebrado hace dos años en Newcastle, Australia.

    En la misma reunión, la psiquiatra de la Universidad de Nueva York Leonor Tiefer documentó el papel de la industria farmacéutica en “la creación de una nueva patología llamada disfunción sexual femenina”. Y otro psiquiatra, David Haley, de la Universidad de Cardiff, certificó “la creciente promoción del trastorno bipolar, y de los fármacos para tratarlo”.

    La discusión se hace más delicada cuando afecta a algunos tipos de cáncer. Por ejemplo, el Gobierno español autorizó hace un año la comercialización de la vacuna contra el virus del papiloma humano para prevenir el cáncer de cuello de útero, y propuso a las comunidades autónomas su inclusión en el calendario de vacunaciones del Sistema Nacional de Salud (SNS). Alemania, Reino Unido, Bélgica, Francia y Dinamarca ya habían tomado medidas similares. La vicepresidenta María Teresa Fernández de la Vega explicó que el cáncer de cuello uterino es el segundo tumor más frecuente entre las mujeres, y que provoca 280.000 muertes anuales en el mundo. En España surgen cada año 2.100 nuevos casos.

    La mayoría de los especialistas avala esa decisión, pero no todos. El SNS “no ha tomado la decisión más racional posible”, según un grupo de seis investigadores encabezado por Carlos Álvarez-Dardet, catedrático de salud pública en la Universidad de Alicante y director del Journal of Epidemiology and Community Health.

    Estos expertos estiman el coste mínimo de la medida en 125 millones de euros anuales (cada vacuna cuesta 465 euros). Y calculan que, “para cuando se empiecen a prevenir los primeros casos de cáncer, dentro de 30 años, el SNS se habrá gastado 4.000 millones. Prevenir una sola muerte habrá costado entonces ocho millones de euros”. Cada año mueren por este cáncer en España 600 mujeres, una tasa de dos muertes por 100.000 mujeres en edad de riesgo.

    Con un fármaco de probada eficacia, los argumentos económicos pueden ser secundarios, pero éste no es el caso de la vacuna contra el papiloma, según estos especialistas en salud pública. El cáncer de útero suele tardar décadas en desarrollarse, y el más antiguo ensayo clínico de fase III empezó hace cuatro años. “La vacuna ha sido promocionada como una herramienta eficaz en la prevención del cáncer de cuello uterino”, aseguran, “pero esa evidencia científica aún no existe”.

    Este virus, sin embargo, causa una de las infecciones de transmisión sexual más comunes. Suelen remitir antes de dos años, pero si persisten pueden evolucionar a un cáncer en 20 o 30 años. Hay más de 100 cepas del virus, pero las vacunas autorizadas (Gardasil, de MSD, y Cervarix, de GSK) previenen contra las que causan el 70% de los casos de cáncer de cérvix.

    Un equipo de investigadores dirigido por Teresa Ruiz Cantero, del departamento de salud pública de la Universidad de Alicante, ha estudiado las estrategias de comunicación de los laboratorios, centrándose en los medicamentos para la menopausia y la disfunción eréctil.

    También aquí, una estrategia común es “ampliar el rango de indicaciones”, mediante “la extensión de la enfermedad desde cuadros graves a mínimos síntomas. Los fármacos ahora son consumidos por poblaciones sanas y fuera de las indicaciones iniciales”.

    Según Ruiz Cantero, se han emitido mensajes del tipo “más de la mitad de los hombres mayores de 40 años tiene problemas de erección”, que son “una manipulación clara, unos mensajes sesgados y simplistas que aumentan la percepción de que el problema es muy prevalente, prácticamente epidémico”.

    Estos expertos recuerdan que el objetivo de la OMS es hacer un uso racional del medicamento, y que no se podrá cumplir si la industria eleva las prevalencias, o no incluye toda la información en la publicidad del fármaco. La OMS, por cierto, también habla de la “búsqueda de la verdad” en medicina.

    “Debería propiciarse un concierto de las universidades españolas para regular el uso de su nombre en campañas de marketing de las empresas farmacéuticas”, dice Ruiz Cantero. “Y para imponer transparencia sobre la financiación de las investigaciones universitarias”. También las asociaciones de pacientes deberían difundir qué empresas las financian.

    La web podría ayudar, pero está llena de información sobre fármacos difundida por sus propios fabricantes. Ruiz Cantero cree que el Ministerio de Sanidad tiene que liderar la información en Internet. “Así las demás páginas web institucionales tendrían que actualizar periódicamente su información”. Las conclusiones del estudio han sido publicadas por el Instituto de la Mujer.

    El director de la Federación Internacional de Productores Farmacéuticos, Harvey Bale, defendió el año pasado, ante una reunión de consumidores de 100 países, la capacidad de la industria para promocionar sus medicamentos de forma ética. Pero sólo después de admitir ciertos “ejemplos de sobrepromoción mayúscula”.

    La patronal farmacéutica británica ha editado un folleto para periodistas donde admite que el número de enfermedades está creciendo, pero argumenta que las empresas del sector no son las responsables de definirlas. Por su lado, Glaxo niega que la promoción de su fármaco para el síndrome de las piernas inquietas sea un caso de tráfico de enfermedades.

    “Parte del problema”, afirma Moynihan, “es que la industria se gasta en promoción cerca del 25% de su cifra de ventas, casi el doble que en investigación”. Las estrategias de mercadotecnia, según este experto, incluyen anuncios en televisión sobre “fármacos para el estilo de vida”, campañas de concienciación pública sobre nuevas enfermedades y la “financiación de asociaciones de pacientes y médicos”.

    Pfizer manipuló datos sobre el Neurontin

    A principios de los años noventa, los laboratorios Pfizer manipularon la publicación de los ensayos sobre su fármaco Neurontin, según ha revelado un sumario judicial en los tribunales de Boston, recogido ayer por The New York Times. El Neurontin (Gabapentina) es un medicamento contra la epilepsia, y el objetivo de la multinacional era extenderlo a otras indicaciones como el dolor neuropático derivado de la diabetes. Ello ayudó al Neurontin a superar los 2.000 millones de euros de ventas anuales.

    Los expertos que han revisado para el juez miles de documentos de la compañía, incluidos correos electrónicos de sus directivos, muestran que Pfizer retrasó a propósito la publicación de algunos estudios que le iban mal -los que no encontraron evidencia de que el Neurontin sirviera para el dolor neuropático- y manipuló otros para mostrar los datos desde un ángulo más deseable para los fines de la empresa.

    La demanda fue presentada por grupos de consumidores, compañías de seguros médicos y sindicatos de Boston. Piden que Pfizer les devuelva miles de millones de dólares por prescripciones de Neurontin, y acusan a la compañía de “tergiversar las ventajas del fármaco de manera fraudulenta”.

    Pfizer niega la acusación y asegura que presentó los datos de una manera “objetiva, precisa, equilibrada y completa”.

    Se trata de “una estrategia de publicación que pretende convencer a los médicos de la efectividad del Neurontin, y para tergiversar o suprimir los hallazgos negativos”, según Kay Dickersin, de la Escuela de Salud Pública de la Universidad Johns Hopkins. Un sesgo que se da en más de la mitad de los artículos sobre ensayos, según publicó en septiembrePLoS.

    En 2000, el investigador principal de uno de los estudios negativos, el británico John Reckless, amenazó a la compañía con publicarlo por su cuenta si no lo hacía ella. En septiembre de ese año, un directivo de la firma escribió en un correo: “El doctor Reckless tiene muchas ganas de publicar, pero ello tendrá varias ramificaciones. Creo que podemos limitar los inconvenientes de ese estudio retrasando la publicación tanto como sea posible”. El trabajo no fue publicado hasta 2003, y para entonces los resultados aparecían combinados con otros dos estudios, y los tres juntos indicaban que el Neurontin sí era útil contra el dolor neuropático. En otro intercambio de mensajes electrónicos, un directivo demarketing de la compañía y un escritor profesional discuten cómo adornar unos resultados para su presentación en un congreso.


    Enfermedades a la carta


    Fuente: El Pais

    El raloxifeno (Evista, de Lilly) reduce un 75% el riesgo de fractura en las mujeres posmenopáusicas. El ropirinol (Requip, de Glaxo) alivia el síndrome de las piernas inquietas, que afecta al 20% de la población, y el metilfenidato (Ritalina, de Novartis) mitiga el de hiperactividad, padecido por el 8% de los niños. Prolifera la disfunción sexual femenina, crece el trastorno bipolar, arrecia la osteopenia.

      • La vacuna del papiloma ha sido la última envuelta en polémica

      El uso de estadísticas sesgadas desvirtúa los estudios

      El coste de los tratamientos puede ser desorbitado para lo que curan

      La osteopenia o la disfunción sexual femenina están en el punto de mira

      Las personas sanas son el objetivo de las campañas de mercadotecnia

      Todo lo anterior es verdad. Pero no es toda la verdad, porque las estadísticas están anguladas: aunque sean técnicamente correctas, miran al problema desde una perspectiva artificiosa. Y son la clave del emergente debate sobre el “tráfico de enfermedades” (disease mongering).

      “Tráfico de enfermedades” es una expresión muy cargada, y lo es de forma intencionada. Ha sido promovida por el periodista australiano Ray Moynihan, que ahora trabaja en la Escuela de Medicina y Salud Pública de la Universidad de Newcastle (Australia). Y quiere denunciar “la venta de enfermedades mediante la ampliación de las fronteras de lo patológico, a fin de abrir mercados para quienes venden y administran los tratamientos” (PLoS Medicine, mayo de 2008).

      Aunque la expresión disease mongering ha sido malversada por el movimiento antipsiquiátrico y la secta de la Cienciología, el debate es serio y ha llegado a la literatura técnica. Y también a los responsables de la salud pública. La Consejería madrileña de Sanidad, por ejemplo, exigió el año pasado a las firmas Lilly y Procter & Gamble que suavizaran la promoción de sus fármacos (Evista y Actonel) para prevenir las fracturas.

      “En Europa, las compañías farmacéuticas ya están comercializando sus medicamentos para prevenir las fracturas en mujeres con osteopenia [ligero déficit de masa ósea] y otras condiciones que, según sus cálculos, afectan a casi la mitad de las mujeres posmenopáusicas”, afirma el médico Pablo Alonso, del departamento de Epidemiología Clínica y Salud Pública del hospital de Sant Pau.

      Alonso es el autor principal de un estudio sobre el disease mongering y la osteopenia publicado este año por el British Medical Journal. Su conclusión es que “se han exagerado los riesgos de la osteopenia, y se han subvalorado los efectos secundarios de los fármacos”. Se refiere a cuatro principios activos: raloxifeno, alendronato, risedronato y ranelato de estroncio.

      Estos fármacos han probado su eficacia para prevenir las fracturas en las mujeres con osteoporosis. La cuestión es si hay que extenderlos a la mucho más común osteopenia. La industria se apoya para ello en cuatro trabajos científicos publicados en los últimos años, como el que abría este artículo: “El raloxifeno reduce un 75% las fracturas por osteopenia”. Parece un argumento contundente. Pero la estadística está sesgada. El matemático John Allen Paulos explica este tipo de sesgo en su libro Un matemático lee el periódico: hay una planta química contaminante en las cercanías, y un estudio concluye que el riesgo de un raro tipo de cáncer se ha duplicado en el barrio. Naturalmente, todo el mundo se larga de allí.

      Pero no deberían, porque ese cáncer es tan infrecuente (digamos que afecta al 0,0003% de la población general) que la duplicación de su riesgo (hasta el 0,0006%) es despreciable. En el caso de las mujeres con osteopenia, su riesgo de fractura es tan bajo que reducirlo un 75% es poco relevante: habría que medicar a 270 mujeres durante tres años sólo para evitar una fractura, según calculan Alonso y sus colegas.

      Pero hay más. Los posibles efectos secundarios del ranelato -causa diarrea, y hay dudas sobre sus consecuencias cardiovasculares y neurológicas- no se mencionan en ningún momento. Tampoco los del raloxifeno, pese a que incrementa el riesgo de trombos venosos y ataques cardiacos. Ni las secuelas gastrointestinales del alendronato.

      Para acabar, el trabajo sobre el fármaco de Lilly lleva la firma de tres empleados de Lilly; el del fármaco de Merck no sólo fue financiado por Merck, sino que tres de sus autores reconocen conflictos de intereses; el del medicamento que distribuye en España Procter & Gamble incluye a dos expertos de Procter & Gamble; y el del fármaco del laboratorio Servier lleva la firma de tres consultores de Servier, que además financió el estudio.

      Hasta la misma definición de osteopenia está bajo el punto de mira de los expertos entráfico de enfermedades. El criterio se basa en la densidad mineral de los huesos. Si es mucho menor de lo normal (2,5 desviaciones estándar bajo la media), se diagnostica osteoporosis. Si no tanto (entre 1,0 y 2,5 desviaciones estándar bajo la media), se diagnostica osteopenia.

      En realidad, esos criterios fueron publicados en 1994 por un pequeño grupo de estudio asociado a la Organización Mundial de la Salud (OMS), y no pretenden ser una pauta de diagnóstico -sus propios autores los tildan de “algo arbitrarios”-, sino una mera ayuda para normalizar los estudios epidemiológicos. Alonso subraya además que el grupo de la OMS tenía financiación de los laboratorios Rorer, Sandoz y SmithKline Beecham.

      La indefinición de los criterios diagnósticos es un asunto común en el debate del tráfico de enfermedades. Los investigadores Lisa Schwartz y Steven Woloshin, de la Universidad de Darmouth, afirman que la incidencia del síndrome de las piernas inquietas “se ha exagerado para abrir mercados a nuevos medicamentos”. Presentaron las evidencias en el primer congreso internacional dedicado al tráfico de enfermedades, celebrado hace dos años en Newcastle, Australia.

      En la misma reunión, la psiquiatra de la Universidad de Nueva York Leonor Tiefer documentó el papel de la industria farmacéutica en “la creación de una nueva patología llamada disfunción sexual femenina”. Y otro psiquiatra, David Haley, de la Universidad de Cardiff, certificó “la creciente promoción del trastorno bipolar, y de los fármacos para tratarlo”.

      La discusión se hace más delicada cuando afecta a algunos tipos de cáncer. Por ejemplo, el Gobierno español autorizó hace un año la comercialización de la vacuna contra el virus del papiloma humano para prevenir el cáncer de cuello de útero, y propuso a las comunidades autónomas su inclusión en el calendario de vacunaciones del Sistema Nacional de Salud (SNS). Alemania, Reino Unido, Bélgica, Francia y Dinamarca ya habían tomado medidas similares. La vicepresidenta María Teresa Fernández de la Vega explicó que el cáncer de cuello uterino es el segundo tumor más frecuente entre las mujeres, y que provoca 280.000 muertes anuales en el mundo. En España surgen cada año 2.100 nuevos casos.

      La mayoría de los especialistas avala esa decisión, pero no todos. El SNS “no ha tomado la decisión más racional posible”, según un grupo de seis investigadores encabezado por Carlos Álvarez-Dardet, catedrático de salud pública en la Universidad de Alicante y director del Journal of Epidemiology and Community Health.

      Estos expertos estiman el coste mínimo de la medida en 125 millones de euros anuales (cada vacuna cuesta 465 euros). Y calculan que, “para cuando se empiecen a prevenir los primeros casos de cáncer, dentro de 30 años, el SNS se habrá gastado 4.000 millones. Prevenir una sola muerte habrá costado entonces ocho millones de euros”. Cada año mueren por este cáncer en España 600 mujeres, una tasa de dos muertes por 100.000 mujeres en edad de riesgo.

      Con un fármaco de probada eficacia, los argumentos económicos pueden ser secundarios, pero éste no es el caso de la vacuna contra el papiloma, según estos especialistas en salud pública. El cáncer de útero suele tardar décadas en desarrollarse, y el más antiguo ensayo clínico de fase III empezó hace cuatro años. “La vacuna ha sido promocionada como una herramienta eficaz en la prevención del cáncer de cuello uterino”, aseguran, “pero esa evidencia científica aún no existe”.

      Este virus, sin embargo, causa una de las infecciones de transmisión sexual más comunes. Suelen remitir antes de dos años, pero si persisten pueden evolucionar a un cáncer en 20 o 30 años. Hay más de 100 cepas del virus, pero las vacunas autorizadas (Gardasil, de MSD, y Cervarix, de GSK) previenen contra las que causan el 70% de los casos de cáncer de cérvix.

      Un equipo de investigadores dirigido por Teresa Ruiz Cantero, del departamento de salud pública de la Universidad de Alicante, ha estudiado las estrategias de comunicación de los laboratorios, centrándose en los medicamentos para la menopausia y la disfunción eréctil.

      También aquí, una estrategia común es “ampliar el rango de indicaciones”, mediante “la extensión de la enfermedad desde cuadros graves a mínimos síntomas. Los fármacos ahora son consumidos por poblaciones sanas y fuera de las indicaciones iniciales”.

      Según Ruiz Cantero, se han emitido mensajes del tipo “más de la mitad de los hombres mayores de 40 años tiene problemas de erección”, que son “una manipulación clara, unos mensajes sesgados y simplistas que aumentan la percepción de que el problema es muy prevalente, prácticamente epidémico”.

      Estos expertos recuerdan que el objetivo de la OMS es hacer un uso racional del medicamento, y que no se podrá cumplir si la industria eleva las prevalencias, o no incluye toda la información en la publicidad del fármaco. La OMS, por cierto, también habla de la “búsqueda de la verdad” en medicina.

      “Debería propiciarse un concierto de las universidades españolas para regular el uso de su nombre en campañas de marketing de las empresas farmacéuticas”, dice Ruiz Cantero. “Y para imponer transparencia sobre la financiación de las investigaciones universitarias”. También las asociaciones de pacientes deberían difundir qué empresas las financian.

      La web podría ayudar, pero está llena de información sobre fármacos difundida por sus propios fabricantes. Ruiz Cantero cree que el Ministerio de Sanidad tiene que liderar la información en Internet. “Así las demás páginas web institucionales tendrían que actualizar periódicamente su información”. Las conclusiones del estudio han sido publicadas por el Instituto de la Mujer.

      El director de la Federación Internacional de Productores Farmacéuticos, Harvey Bale, defendió el año pasado, ante una reunión de consumidores de 100 países, la capacidad de la industria para promocionar sus medicamentos de forma ética. Pero sólo después de admitir ciertos “ejemplos de sobrepromoción mayúscula”.

      La patronal farmacéutica británica ha editado un folleto para periodistas donde admite que el número de enfermedades está creciendo, pero argumenta que las empresas del sector no son las responsables de definirlas. Por su lado, Glaxo niega que la promoción de su fármaco para el síndrome de las piernas inquietas sea un caso de tráfico de enfermedades.

      “Parte del problema”, afirma Moynihan, “es que la industria se gasta en promoción cerca del 25% de su cifra de ventas, casi el doble que en investigación”. Las estrategias de mercadotecnia, según este experto, incluyen anuncios en televisión sobre “fármacos para el estilo de vida”, campañas de concienciación pública sobre nuevas enfermedades y la “financiación de asociaciones de pacientes y médicos”.

      Pfizer manipuló datos sobre el Neurontin

      A principios de los años noventa, los laboratorios Pfizer manipularon la publicación de los ensayos sobre su fármaco Neurontin, según ha revelado un sumario judicial en los tribunales de Boston, recogido ayer por The New York Times. El Neurontin (Gabapentina) es un medicamento contra la epilepsia, y el objetivo de la multinacional era extenderlo a otras indicaciones como el dolor neuropático derivado de la diabetes. Ello ayudó al Neurontin a superar los 2.000 millones de euros de ventas anuales.

      Los expertos que han revisado para el juez miles de documentos de la compañía, incluidos correos electrónicos de sus directivos, muestran que Pfizer retrasó a propósito la publicación de algunos estudios que le iban mal -los que no encontraron evidencia de que el Neurontin sirviera para el dolor neuropático- y manipuló otros para mostrar los datos desde un ángulo más deseable para los fines de la empresa.

      La demanda fue presentada por grupos de consumidores, compañías de seguros médicos y sindicatos de Boston. Piden que Pfizer les devuelva miles de millones de dólares por prescripciones de Neurontin, y acusan a la compañía de “tergiversar las ventajas del fármaco de manera fraudulenta”.

      Pfizer niega la acusación y asegura que presentó los datos de una manera “objetiva, precisa, equilibrada y completa”.

      Se trata de “una estrategia de publicación que pretende convencer a los médicos de la efectividad del Neurontin, y para tergiversar o suprimir los hallazgos negativos”, según Kay Dickersin, de la Escuela de Salud Pública de la Universidad Johns Hopkins. Un sesgo que se da en más de la mitad de los artículos sobre ensayos, según publicó en septiembrePLoS.

      En 2000, el investigador principal de uno de los estudios negativos, el británico John Reckless, amenazó a la compañía con publicarlo por su cuenta si no lo hacía ella. En septiembre de ese año, un directivo de la firma escribió en un correo: “El doctor Reckless tiene muchas ganas de publicar, pero ello tendrá varias ramificaciones. Creo que podemos limitar los inconvenientes de ese estudio retrasando la publicación tanto como sea posible”. El trabajo no fue publicado hasta 2003, y para entonces los resultados aparecían combinados con otros dos estudios, y los tres juntos indicaban que el Neurontin sí era útil contra el dolor neuropático. En otro intercambio de mensajes electrónicos, un directivo demarketing de la compañía y un escritor profesional discuten cómo adornar unos resultados para su presentación en un congreso.


      Placebo: marketing vs. epidemiologia


      Un comentario al respecto fue hecho por Obiwan, que reprodujimos el 1 de Septiembre. Otro muy interesante por Vicente Baos, ambos en castellano.

      A 10-cent pill doesn’t kill pain as well as a $2.50 pill, even when they are identical placebos, according to a provocative study by Dan Ariely, a behavioral economist at Duke University.

      “Physicians want to think it’s the medicine and not their enthusiasm about a particular drug that makes a drug more therapeutically effective, but now we really have to worry about the nuances of interaction between patients and physicians,” said Ariely, whose findings appear as a letter in the March 5 edition of the Journal of the American Medical Association.

      Ariely and a team of collaborators at the Massachusetts Institute of Technology used a standard protocol for administering light electric shock to participants’ wrists to measure their subjective rating of pain. The 82 study subjects were tested before getting the placebo and after. Half the participants were given a brochure describing the pill as a newly-approved pain-killer which cost $2.50 per dose and half were given a brochure describing it as marked down to 10 cents, without saying why.

      In the full-price group, 85 percent of subjects experienced a reduction in pain after taking the placebo. In the low-price group, 61 percent said the pain was less.

      The finding, from a relatively small and simplified experiment, points to a host of larger questions, Ariely said.

      The results fit with existing data about how people perceive quality and how they anticipate therapeutic effects, he said. But what’s interesting is the combination of the price-sensitive consumer expectation with the well-known placebo effect of being told a pill works. “The placebo effect is one of the most fascinating, least harnessed forces in the universe,” Ariely said.

      Ariely wonders if prescription medications should offer cues from packaging, rather than coming in indistinguishable brown bottles. “And how do we give people cheaper medication, or a generic, without them thinking it won’t work”” he asks.

      At the very least, doctors should be able to use their enthusiasm for a medication as part of the therapy, Ariely said. “They have a huge potential to use these quality cues to be more effective.”

      Placebo: marketing vs. epidemiologia


      Un comentario al respecto fue hecho por Obiwan, que reprodujimos el 1 de Septiembre. Otro muy interesante por Vicente Baos, ambos en castellano.

      A 10-cent pill doesn’t kill pain as well as a $2.50 pill, even when they are identical placebos, according to a provocative study by Dan Ariely, a behavioral economist at Duke University.

      “Physicians want to think it’s the medicine and not their enthusiasm about a particular drug that makes a drug more therapeutically effective, but now we really have to worry about the nuances of interaction between patients and physicians,” said Ariely, whose findings appear as a letter in the March 5 edition of the Journal of the American Medical Association.

      Ariely and a team of collaborators at the Massachusetts Institute of Technology used a standard protocol for administering light electric shock to participants’ wrists to measure their subjective rating of pain. The 82 study subjects were tested before getting the placebo and after. Half the participants were given a brochure describing the pill as a newly-approved pain-killer which cost $2.50 per dose and half were given a brochure describing it as marked down to 10 cents, without saying why.

      In the full-price group, 85 percent of subjects experienced a reduction in pain after taking the placebo. In the low-price group, 61 percent said the pain was less.

      The finding, from a relatively small and simplified experiment, points to a host of larger questions, Ariely said.

      The results fit with existing data about how people perceive quality and how they anticipate therapeutic effects, he said. But what’s interesting is the combination of the price-sensitive consumer expectation with the well-known placebo effect of being told a pill works. “The placebo effect is one of the most fascinating, least harnessed forces in the universe,” Ariely said.

      Ariely wonders if prescription medications should offer cues from packaging, rather than coming in indistinguishable brown bottles. “And how do we give people cheaper medication, or a generic, without them thinking it won’t work”” he asks.

      At the very least, doctors should be able to use their enthusiasm for a medication as part of the therapy, Ariely said. “They have a huge potential to use these quality cues to be more effective.”

      Marketing o Epidemiologia: la experiencia del Rofecoxib


      Un envio de Martin Cañas a la lista de Atencion Primaria, gracias Martin y como siempre, eso de cosas que publican en revistas que comienzan con Annals me sigue dando impresion 😉

      Estimadas y estimados
      se publicó en el Annals  un estudio que analiza, una vez mas, los datos que emergen publicamente con  motivo de los jucios con Vioxx
      Este trabajo describe un análisis de los datos publicados por Merck como parte de los procedimientos judiciales, y que muestran que el Estudio ADVANTAGE, de rofecoxib contra naproxeno fue diseñado, analizado y difundido por la división de marketing de la empresa  para promover el uso del fármaco. 
      Desde hace tiempo se ha sospechado que algunos los ensayos clínicos de medicamentos, aparentemene científicos,  están diseñados como herramientas de marketing, con pocas finalidades que vayan mas alla de la de  familiarizar a los prescriptores con un nuevo fáramaco comercializado  o que pronto saldra a la venta. Estos estudios se denominan «ensayos de siembra» y, a pesar de las sospechas existen limitadas pruebas definitivas de su existencia.  Los autores de este análisis utilizaron doceumnetos  confidenciales  internos de la compañía, que salieron a  luz  como parte de los procedimientos judiciales para evaluar los antecedentes del estudio ADVANTAGE .  Examinaron todos los documentos proporcionados para determinar su relevancia para el estudio y determinar el contexto  y temas relacionados con el marketing. 
      Finalmente, para poner su trabajo en contexto, se llevó a cabo una búsqueda sistemática de la literatura para verificar si existían trabajos relevantes publicados anteriormente. 
      En el documento de búsqueda, fueron identificados alrededor de 2000  trabajos potencialmente aplicables, y de estos, alrededor de 100 considerados relevantes: estos fueron en su mayoría correspondencia interna e informes, notas y presentaciones de marketing.  La búsqueda sistemática de la literatura produjo  466 artículos posiblemente relevantes, de los cuales 5 fueron realmente relevantes; y otro  documento fue identificado mediante las bibliografías de estos artículos.

      El análisis de los documentos que la empresa mostró que el estudio ADVANTAGE  fue concebido por la la división  de marketing de la empresa antes del lanzamiento del fármaco, y que fue diseñado y analizado por ellos. El propósito subyacente del ensayo fue ocultado a los investigadores, a las juntas de revisoras institucionales, y a los participantes. Estuvo dirigido a médicos de atención primaria, y la división de marketng realizó el seguimiento de  las tasas de prescripción de rofecoxib realizadas por los investigadores del estudio. Comentarios del jefe de la división de Investigación de Merck, sugieren que la división de investigación consideró que este tipo de estudios era intelectualmente redundante y un despilfarro, y anteriormente habían discutido su realización. Los seis documentos identificados por la búsqueda en la literatura examinaron el concepto de ensayos de siembra  y levantaron  sospechas acerca de su realización. Sin embargo, ninguno incluyó pruebas documentales de su existencia. 

      Los autores del trabajo concluyen que el estudio ADVANTAGE fue un ensayo de siembra, diseñado específicamente para permitir que los principales prescriptores potenciales, adquirieran una experiencia positiva con rofecoxib. Ellos sugieren que las características de estos ensayos, principalmente el ocultamiento de sus verdaderos objetivos a  pacientes,  investigadores, o jcomites de revisión institucionales, no se dirigen para el mejor interés de los pacientes, la profesión, o la sociedad.

      el trabajo 
      Kevin P. Hill, Joseph S. Ross, David S. Egilman, AND Harlan M. Krumholz The ADVANTAGE Seeding Trial: A Review of Internal Documents. Annals 2008 149: 251-258
      disponible en:
      http://www.annals.org/cgi/reprint/149/4/251.pdf
      y el editorial acompañante  en 
      Harold C. Sox AND Drummond Rennie. Seeding Trials: Just Say “No”. Annals 2008 149: 279-280.
      http://www.annals.org/cgi/reprint/149/4/279.pdf

      Marketing o Epidemiologia: la experiencia del Rofecoxib


      Un envio de Martin Cañas a la lista de Atencion Primaria, gracias Martin y como siempre, eso de cosas que publican en revistas que comienzan con Annals me sigue dando impresion 😉

      Estimadas y estimados
      se publicó en el Annals  un estudio que analiza, una vez mas, los datos que emergen publicamente con  motivo de los jucios con Vioxx
      Este trabajo describe un análisis de los datos publicados por Merck como parte de los procedimientos judiciales, y que muestran que el Estudio ADVANTAGE, de rofecoxib contra naproxeno fue diseñado, analizado y difundido por la división de marketing de la empresa  para promover el uso del fármaco. 
      Desde hace tiempo se ha sospechado que algunos los ensayos clínicos de medicamentos, aparentemene científicos,  están diseñados como herramientas de marketing, con pocas finalidades que vayan mas alla de la de  familiarizar a los prescriptores con un nuevo fáramaco comercializado  o que pronto saldra a la venta. Estos estudios se denominan «ensayos de siembra» y, a pesar de las sospechas existen limitadas pruebas definitivas de su existencia.  Los autores de este análisis utilizaron doceumnetos  confidenciales  internos de la compañía, que salieron a  luz  como parte de los procedimientos judiciales para evaluar los antecedentes del estudio ADVANTAGE .  Examinaron todos los documentos proporcionados para determinar su relevancia para el estudio y determinar el contexto  y temas relacionados con el marketing. 
      Finalmente, para poner su trabajo en contexto, se llevó a cabo una búsqueda sistemática de la literatura para verificar si existían trabajos relevantes publicados anteriormente. 
      En el documento de búsqueda, fueron identificados alrededor de 2000  trabajos potencialmente aplicables, y de estos, alrededor de 100 considerados relevantes: estos fueron en su mayoría correspondencia interna e informes, notas y presentaciones de marketing.  La búsqueda sistemática de la literatura produjo  466 artículos posiblemente relevantes, de los cuales 5 fueron realmente relevantes; y otro  documento fue identificado mediante las bibliografías de estos artículos.

      El análisis de los documentos que la empresa mostró que el estudio ADVANTAGE  fue concebido por la la división  de marketing de la empresa antes del lanzamiento del fármaco, y que fue diseñado y analizado por ellos. El propósito subyacente del ensayo fue ocultado a los investigadores, a las juntas de revisoras institucionales, y a los participantes. Estuvo dirigido a médicos de atención primaria, y la división de marketng realizó el seguimiento de  las tasas de prescripción de rofecoxib realizadas por los investigadores del estudio. Comentarios del jefe de la división de Investigación de Merck, sugieren que la división de investigación consideró que este tipo de estudios era intelectualmente redundante y un despilfarro, y anteriormente habían discutido su realización. Los seis documentos identificados por la búsqueda en la literatura examinaron el concepto de ensayos de siembra  y levantaron  sospechas acerca de su realización. Sin embargo, ninguno incluyó pruebas documentales de su existencia. 

      Los autores del trabajo concluyen que el estudio ADVANTAGE fue un ensayo de siembra, diseñado específicamente para permitir que los principales prescriptores potenciales, adquirieran una experiencia positiva con rofecoxib. Ellos sugieren que las características de estos ensayos, principalmente el ocultamiento de sus verdaderos objetivos a  pacientes,  investigadores, o jcomites de revisión institucionales, no se dirigen para el mejor interés de los pacientes, la profesión, o la sociedad.

      el trabajo 
      Kevin P. Hill, Joseph S. Ross, David S. Egilman, AND Harlan M. Krumholz The ADVANTAGE Seeding Trial: A Review of Internal Documents. Annals 2008 149: 251-258
      disponible en:
      http://www.annals.org/cgi/reprint/149/4/251.pdf
      y el editorial acompañante  en 
      Harold C. Sox AND Drummond Rennie. Seeding Trials: Just Say “No”. Annals 2008 149: 279-280.
      http://www.annals.org/cgi/reprint/149/4/279.pdf

      Apuntes sobre subjetividad y estadistica en la investigacion en salud


      Luis Carlos Silva Ayçaguer1 y Alina Benavides Rodríguez

      Resumen

      La tarea más importante de la estadística es proporcionar alternativas cuantitativas objetivas al mero juicio personal, de manera que nos proteja de la subjetividad y los sesgos en el proceso de obtención de nuevos conocimientos. Las pruebas de significación se consideran la expresión más encumbrada de ese afán de objetividad, pues se cree que pueden generar conclusiones independientemente de las personas que las emplean. Este trabajo procura fundamentar que esta es una falsa ilusión y que, en realidad, este enfoque tiene serias limitaciones conceptuales y prácticas que le impiden cumplir cabalmente la tarea que le dio origen, las cuales se tornan cada día más difíciles de soslayar. Lo cierto es que la subjetividad no es enteramente evitable, por lo que resulta mucho más útil contar con un método que combine las evidencias subjetivamente acumuladas, con la información objetiva obtenida de un experimento en particular. Los métodos bayesianos ofrecen esta posibilidad.

      DeCS: ESTADÍSTICAS DE SALUD; TEOREMA DE BAYES.

      Introducción

      La estadística ha sufrido un proceso que pudiéramos llamar de tránsito: de la marginalidad a la cima. Si bien 50 años atrás prácticamente no se utilizaba en las investigaciones médicas, en estos momentos muchos investigadores del ámbito sociológico, salubrista, epidemiológico o clínico sienten que sus trabajos no tienen suficiente rigor científico si no vienen avalados por al menos un proceder estadístico.1 Por su carácter mecanicista, tal doctrina es insostenible, aunque sin duda esta disciplina puede muchas veces ocupar un importante espacio como recurso instrumental para operar en el mundo de la investigación médico-social.

      Dicho de manera general, la tarea más importante de la estadística es proporcionar alternativas cuantitativas objetivas al mero juicio personal, que permitan una interpretación adecuada de los datos producidos por los estudios.Este recurso no demoró en resultar extremadamente útil para los editores de revistas y responsables administrativos, pues a principios de siglo la ausencia de una herramienta que aquilatara cuantitativamente el significado de los hallazgos propició que las anécdotas clínicas poblaran las revistas médicas. Se hacía necesario, por tanto, usar procedimientos que cuantificaran el peso probatorio de los resultados y que complementaran los razonamientos verbales, de modo que los protegiera de la subjetividad (Silva LC. La crisis de las pruebas de significación y la alternativa bayesiana. Memorias del XI Congreso de la Sociedad Gallega de Estadística e Investigación Operativa, 1999. Santiago de Compostela).

      Lo cierto es que, aunque la objetividad es un deseo natural y legítimo, lamentablemente resulta inalcanzable en estado puro. La estadística no puede resolver este conflicto, pues todo proceso inferencial, incluso cuando se lleva adelante con el concurso de esta disciplina, tendrá siempre un componente subjetivo. Si bien las técnicas estadísticas pueden ser muy útiles, suelen generar una ilusión que es perniciosa en la medida que inyectan una convicción que conspira contra la obligación de examinar la realidad a través de un pensamiento integral. Nuestro propósito es desarrollar algunas ideas en la línea de fundamentarlo.

      Inevitabilidad de lo subjetivo

      En la investigación médico-social el componente subjetivo es ineludible, y en cierto sentido conveniente. Se supone que, al aplicar cierto procedimiento estadístico a un conjunto de datos, lo que se procura es que el análisis gane en objetividad; es decir, que los puntos de vista del investigador no puedan modificar sustancialmente las conclusiones, pero la verdad es que los métodos estadísticos están lejos de garantizar automáticamente tal desideratum.

      Todos sabemos que la forma de operacionalizar las variables, los puntos de corte que se eligen, el nivel de significación empleado, las escalas de medición adoptadas, las pruebas de significación utilizadas, son solo algunos ejemplos de la larga lista de instrumentos estadísticos que no hay más remedio que elegir según un punto de vista que varía entre investigadores. Tal carencia de pautas uniformes es especialmente acusada en el punto culminante del proceso: a la hora de realizar inferencias una vez examinados los resultados. De hecho, cuando un paquete estadístico concluye su tarea, muchos investigadores creen que también ha terminado la suya. Se trata de un error esencial: en ese punto comienza la zona más importante de la tarea del investigador, quien no podrá eludir dar una impronta subjetiva a su análisis.

      La creencia en la capacidad de la estadística para inyectar objetividad (e incluso, para garantizarla) tiene sus raíces en los procedimientos de pruebas de significación, ampliamente usados en la investigación médico-social. Sin embargo, como señalan Berger y Berry3 en un revelador artículo publicado hace ya algunos años en una prominente revista especializada, “…el uso común de la estadística parece haberse fosilizado, principalmente debido a la visión de que la estadística clásica es la forma objetiva de analizar datos”.
      La prueba de significación ¿paradigma de objetividad?

      Sin dudas, su aparición en escena representó un cambio importante con respecto a los métodos anteriores, ya que se trata de un proceder que esencialmente dictaba las acciones del investigador. De hecho, se convirtió en una estrategia ampliamente promovida y aceptada en el ámbito investigativo; tal acogida se debió, probablemente a que, como señala Goudman,4 tanto para los investigadores como para los editores de revistas y responsables administrativos, resulta muy atractivo contar con procedimientos cuantitativos capaces de generar conclusiones independientemente de las personas que realizan el estudio.

      Sin embargo, en realidad la prueba de significación actual procede de la unión de dos perspectivas originalmente divergentes, lo cual ha dado lugar a un procedimiento con serias limitaciones conceptuales y prácticas. Como apunta el importante estadístico y epistemólogo norteamericano Richard Royall,2 ni la literatura general ni los programas docentes de estadística informan de sus contradicciones. Tampoco se da cuenta del intenso debate que estas han animado durante casi 70 años entre muchos estadísticos que se cuestionan (o defienden) la “solidez” de las pruebas de significación.5-6

      Este escamoteo ha contribuido a abonar en la mayoría de los profesionales sanitarios la errónea convicción de que sus resultados tendrán más rigor científico por el solo hecho de venir acompañados de “valores p”.

      El debate en torno a las pruebas de significación en sociología data de la década del 50, pero sus raíces se remontan a un artículo de Margaret Hagood publicado en 1941 bajo el título “Estadística para sociólogos”.7 Desde entonces, muchas observaciones críticas se han venido acumulando, hasta conformar hoy un reclamo metodológico de tal magnitud que cada día se torna más difícil soslayar.

      Entre las diversas objeciones que se le hacen al método,8 la que mejor viene al caso es que no toma en cuenta de manera formal en el modelo de análisis, la información anterior a los datos actuales, la que proviene de estudios previos, o de la experiencia empírica informalmente acumulada que siempre se tiene sobre el problema que se examina. Esto supone un vacío de opiniones, una orfandad total de información, que es irreal en la práctica.9

      El precio que tenemos que pagar para disfrutar los beneficios de la “objetividad” inherente a estas pruebas es abandonar nuestra capacidad para juzgar presuntas verdades en un estudio individual. En la práctica esto significa que lo único que puede hacerse es comunicar si los resultados son estadísticamente significativos o no, y actuar de acuerdo con ese veredicto. Para algunos, se trata de un hecho profundamente anticientífico y contrario a la intuición. Ello explica que no sea infrecuente hallar trabajos en que el texto analítico que subsigue a la aplicación de la prueba parece desentenderse de las propias reglas que esta impone. Por eso no es extraño leer frases del tipo “aunque la diferencia no es significativa, nótese que…”, o del tipo “no hemos hallado significación, pero con una muestra más grande…”. A este último caso destinamos el siguiente párrafo.

      Otras críticas están relacionadas con el procedimiento per se y cuestionan seriamente el carácter objetivo que se les atribuye. La endeblez más grave en este sentido es que, dada la naturaleza de los valores p, el rechazo o la aceptación de una hipótesis resulta ser, simplemente, un reflejo del tamaño de la muestra: si esta es suficientemente grande, siempre se rechazará la hipótesis nula. Esto nos coloca en una aparente paradoja: cuando operamos con una parte muy pequeña de la realidad (una muestra muy pequeña), entonces no podemos obtener conclusión alguna, como es lógico e intuitivo, lo cual conduce a que muchos investigadores, cuyos resultados no alcanzan la esperada significación estadística, proclamen que con un tamaño de muestra mayor casi seguramente lo hubieran logrado. Lamentablemente, y esto es lo realmente grave, tienen razón; pero eso significa que tampoco se puede sacar nada en claro cuando se trabaja con una muestra muy grande, puesto que en tal caso el rechazo de la hipótesis nula queda virtualmente asegurado.10

      Por otra parte, para ilustrar el mal uso que se hace del procedimiento, baste reparar en la confusión que se ha establecido entre significación estadística y significación clínica o social. A pesar de que muchos han argüido que la decisión no debe basarse exclusivamente en la significación estadística sino que ha de atenderse también a la significación sustantiva clínica o social, este error se continúa cometiendo. Según Hagood,en la prisa por aplicar las pruebas de significación, los investigadores olvidaron que “significación estadística” es simplemente la base para el rechazo de una hipótesis nula En este sentido, hace más de 15 años Feinstein11 apuntaba:

      “Si la demanda crítica hubiera sido que la investigación produjese ambos tipos de significación (la que concierne al área estocástica y la que se vincula con los atributos cualitativos) entonces la alienación intelectual de hoy no hubiera ocurrido. Sin embargo, desafortunadamente la palabra significación fue reservada sólo en su connotación estocástica, y la palabra estadística le fue adjuntada para crear la significación estadística como paradigma de calidad e importancia en la investigación médica…”.

      Cohen,12 en un artículo cuyo ingenioso título resume una patética realidad cotidiana, escribía cáusticamente:

      “Después de cuatro décadas de duras críticas, el ritual de probar la significación de hipótesis nulas -decisiones dicotómicas mecánicas alrededor del sacralizado criterio de 0,05 -aún persiste. […] ¿Cuál es el problema con las pruebas de significación? Bueno, que entre otras cosas, no nos dicen lo que queremos saber, y deseamos tanto saber que lo que queremos saber es esto, que por desesperación, sin embargo, creemos que lo hace”.

      La situación ha llegado a tal punto que en sus recomendaciones de octubre del 2001, el Comité Internacional de Directores de Revistas Médicas (Grupo de Vancouver)13 llega a establecer que: “Se evitará la dependencia exclusiva de las pruebas estadísticas de verificación de hipótesis, tal como el uso de los valores p, que no aportan ninguna información cuantitativa importante” (Comité Internacional de Directores de Revistas Médicas. Octubre, 2001. Requisitos uniformes de los manuscritos enviados a revistas biomédicas).

      Pero si la significación estadística no aporta nada cuando no se involucra en el análisis a la significación clínica, entonces el componente subjetivo que se asocia inexorablemente a esta última, mediatiza automáticamente a la primera.

      El procedimiento de prueba de significación actual supuso un cambio en materia de autoridad médica, que pasó de estar en manos de aquellos con conocimiento de las bases biológicas y sociales de la medicina a las de quienes dominan los métodos cuantitativos, o hacia los resultados cuantitativos solamente, como si los números pudieran hablar por ellos mismos.14

      Lo inquietante en el procedimiento clásico no radica en que la subjetividad desempeñe un papel en el proceso; sino que en lugar de reducir la influencia del componente subjetivo, las pruebas de hipótesis puedan servir en realidad solamente para ocultar su participación.
      Métodos bayesianos: una nota final

      Lo cierto es que la subjetividad (algo bien diferente a la arbitrariedad o al capricho) es un fenómeno inevitable, especialmente en un marco de incertidumbre como el de las ciencias biológicas y sociales; siempre aparecerá en una u otra medida, e independientemente del recurso estadístico que se emplee. Por tanto, resultaría mucho más útil, además de ser consistente con las demandas de la intuición, contar con un método que combine las evidencias subjetivamente acumuladas con la información objetiva obtenida de un experimento en particular. Los métodos bayesianos ofrecen esta posibilidad.

      Si bien la exposición de este recurso exige un nivel teórico que desborda el que consideramos oportuno para estas reflexiones, procede destacar que se trata de una aproximación metodológica que está a salvo de casi todas las impugnaciones que se le hacen a las pruebas de significación y que goza del atractivo de incorporar formal y explícitamente los conocimientos aportados por experiencias previas dentro del proceso analítico y los contempla, por tanto, en las conclusiones.15 Tiene sus propios conflictos, pero ahora interesa subrayar uno de sus méritos indiscutibles: asume sin ambages la existencia de un marco subjetivo ineludible en el análisis y, en lugar de actuar como si no existiera, obligan al investigador a expresar probabilísticamente sus puntos de vista apriorísticos y luego incorpora ese resultado en el análisis formal de los datos. Tal es el planteamiento esencial del ya citado trabajo de Berger y Berrycuando llaman a descartar la noción de que la estadística puede ser incontaminadamente objetiva, y a “abrazar la necesidad de la subjetividad a través del análisis bayesiano, el cual puede conducir a un análisis de datos más flexible, poderoso y comprensible”.

      Según nuestro juicio, el proceso intelectual asociado a la inferencia bayesiana es mucho más coherente con el pensamiento natural del científico que el que se vincula con las pruebas clásicas de hipótesis. Estos procedimientos constituyen una tecnología emergente de procesamiento y análisis de la información para la que cabe esperar una presencia cada vez más intensa en el campo de la aplicación de la estadística a la investigación empírica contemporánea. Para tener una idea de en qué medida tal expectativa dista de ser un afiebrado deseo, basta detenerse en el elocuente resumen de sus aplicaciones recientemente publicado por David Malakoff15en la prestigiosa revista Science.

      Summary

      The most important task of statistics is to provide the mere personal judgement with quantitative objective alternatives in order to protect us from subjectivity and the sesgos in the process of obtention of new knowledge. The significance tests are considered the highest expression of this eagerness of objectivity, since it is believed that they may generate conclusions independently of the persons using them. This paper intends to establish that it is a false illusion and that, in reality, this approach has serious conceptual and practical limitations preventing it from fulfilling precisely the task that gave origin to it and which are more difficult every day to be ignored. It is true that subjectivity cannot be completely avoided and that’s why it is more useful to have a method combining the subjectively accumulated evidences with the objective information obtained from an experiment in particular. Bayes’ methods offer this possibility.

      Subject headings: HEALTH STATISTICS; BAYES THEOREM.

      Referencias bibliográcas

      1. Silva LC. Cultura estadística e investigaciones en el campo de la salud: una mirada critica. Madrid: Díaz de Santos; 1997.         [ Links ]
      2. Royall RM. Statistical evidence: a likelihood paradigm. Boca Raton: Chapman & Hall/CRC; 1997.         [ Links ]
      3. Berger JO, Berry DA. Statistical analysis and the illusion of objectivity. Am Scientist 1988;76:159-65.         [ Links ]
      4. Goodman SN. Toward evidence-based medical statistics (I): The p value fallacy”. Ann Int Med 1999;130:995-1004.         [ Links ]
      5. Morrison DE, Henkel RE. The Significance test controversy -A Reader. Chicago: Aldine Publishing Company; 1970.         [ Links ]
      6. Nickerson RS. Null hypothesis significance testing: a review of an old and continuing controversy. Psychol Methods 2000;5:241-301.         [ Links ]
      7. Hagood MJ. Statistics for sociologists. New York: Reynal and Hitchcock; 1941.         [ Links ]
      8. Silva LC. La alternativa bayesiana. Brotes 2000;1:1-4.         [ Links ]
      9. Silva LC, Benavides A. El enfoque bayesiano: otra manera de inferir. Gaceta Sanit 2001;15:341-6.         [ Links ]
      10. Benavides A, Silva LC. Contra la sumisión estadística: un apunte sobre las pruebas de significación. Metas Enferm 2000;3:35-40.         [ Links]
      11. Feinstein AR. Clinical epidemiology: The architecture of clinical research. Philadelphia: W.B. Saunders Company; 1985.         [ Links ]
      12. Cohen J. The earth is round (p<.05). Am Psychol 1994;49:997-1003.         [ Links ]
      13. Silva LC. Hacia una cultura epidemiológica revitalizada. Dimensión Hum 1997;1(5):23-33.         [ Links ]
      14. Silva LC, Suárez P. ¿Qué es la inferencia bayesiana?. JANO, Med Hum 2000;58(1338):65-6.         [ Links ]
      15. Malakoff D. Bayes offers a ‘new’ way to make sense of numbers. Science 1999;286:1460-4.
      16. Links ]

      Recibido: 8 de enero del 2003. Aprobado: 29 de enero del 2003.
      Luis Carlos Silva Ayzaguer. Vicerrectoría de Investigación y Posgrado, Instituto Superior de Ciencias Médicas de La Habana. E-mail:lcsilva@infomed.sld.cu

      Doctor en Ciencias. Investigador Titular, Profesor Auxiliar. Vicerrectoría de Investigación y Posgrado.
      Especialista de I Grado en Bioestadística. Hospital Universitario “Arnaldo Milián Castro”, Villa Clara. 

      Apuntes sobre subjetividad y estadistica en la investigacion en salud


      Luis Carlos Silva Ayçaguer1 y Alina Benavides Rodríguez

      Resumen

      La tarea más importante de la estadística es proporcionar alternativas cuantitativas objetivas al mero juicio personal, de manera que nos proteja de la subjetividad y los sesgos en el proceso de obtención de nuevos conocimientos. Las pruebas de significación se consideran la expresión más encumbrada de ese afán de objetividad, pues se cree que pueden generar conclusiones independientemente de las personas que las emplean. Este trabajo procura fundamentar que esta es una falsa ilusión y que, en realidad, este enfoque tiene serias limitaciones conceptuales y prácticas que le impiden cumplir cabalmente la tarea que le dio origen, las cuales se tornan cada día más difíciles de soslayar. Lo cierto es que la subjetividad no es enteramente evitable, por lo que resulta mucho más útil contar con un método que combine las evidencias subjetivamente acumuladas, con la información objetiva obtenida de un experimento en particular. Los métodos bayesianos ofrecen esta posibilidad.

      DeCS: ESTADÍSTICAS DE SALUD; TEOREMA DE BAYES.

      Introducción

      La estadística ha sufrido un proceso que pudiéramos llamar de tránsito: de la marginalidad a la cima. Si bien 50 años atrás prácticamente no se utilizaba en las investigaciones médicas, en estos momentos muchos investigadores del ámbito sociológico, salubrista, epidemiológico o clínico sienten que sus trabajos no tienen suficiente rigor científico si no vienen avalados por al menos un proceder estadístico.1 Por su carácter mecanicista, tal doctrina es insostenible, aunque sin duda esta disciplina puede muchas veces ocupar un importante espacio como recurso instrumental para operar en el mundo de la investigación médico-social.

      Dicho de manera general, la tarea más importante de la estadística es proporcionar alternativas cuantitativas objetivas al mero juicio personal, que permitan una interpretación adecuada de los datos producidos por los estudios.Este recurso no demoró en resultar extremadamente útil para los editores de revistas y responsables administrativos, pues a principios de siglo la ausencia de una herramienta que aquilatara cuantitativamente el significado de los hallazgos propició que las anécdotas clínicas poblaran las revistas médicas. Se hacía necesario, por tanto, usar procedimientos que cuantificaran el peso probatorio de los resultados y que complementaran los razonamientos verbales, de modo que los protegiera de la subjetividad (Silva LC. La crisis de las pruebas de significación y la alternativa bayesiana. Memorias del XI Congreso de la Sociedad Gallega de Estadística e Investigación Operativa, 1999. Santiago de Compostela).

      Lo cierto es que, aunque la objetividad es un deseo natural y legítimo, lamentablemente resulta inalcanzable en estado puro. La estadística no puede resolver este conflicto, pues todo proceso inferencial, incluso cuando se lleva adelante con el concurso de esta disciplina, tendrá siempre un componente subjetivo. Si bien las técnicas estadísticas pueden ser muy útiles, suelen generar una ilusión que es perniciosa en la medida que inyectan una convicción que conspira contra la obligación de examinar la realidad a través de un pensamiento integral. Nuestro propósito es desarrollar algunas ideas en la línea de fundamentarlo.

      Inevitabilidad de lo subjetivo

      En la investigación médico-social el componente subjetivo es ineludible, y en cierto sentido conveniente. Se supone que, al aplicar cierto procedimiento estadístico a un conjunto de datos, lo que se procura es que el análisis gane en objetividad; es decir, que los puntos de vista del investigador no puedan modificar sustancialmente las conclusiones, pero la verdad es que los métodos estadísticos están lejos de garantizar automáticamente tal desideratum.

      Todos sabemos que la forma de operacionalizar las variables, los puntos de corte que se eligen, el nivel de significación empleado, las escalas de medición adoptadas, las pruebas de significación utilizadas, son solo algunos ejemplos de la larga lista de instrumentos estadísticos que no hay más remedio que elegir según un punto de vista que varía entre investigadores. Tal carencia de pautas uniformes es especialmente acusada en el punto culminante del proceso: a la hora de realizar inferencias una vez examinados los resultados. De hecho, cuando un paquete estadístico concluye su tarea, muchos investigadores creen que también ha terminado la suya. Se trata de un error esencial: en ese punto comienza la zona más importante de la tarea del investigador, quien no podrá eludir dar una impronta subjetiva a su análisis.

      La creencia en la capacidad de la estadística para inyectar objetividad (e incluso, para garantizarla) tiene sus raíces en los procedimientos de pruebas de significación, ampliamente usados en la investigación médico-social. Sin embargo, como señalan Berger y Berry3 en un revelador artículo publicado hace ya algunos años en una prominente revista especializada, “…el uso común de la estadística parece haberse fosilizado, principalmente debido a la visión de que la estadística clásica es la forma objetiva de analizar datos”.
      La prueba de significación ¿paradigma de objetividad?

      Sin dudas, su aparición en escena representó un cambio importante con respecto a los métodos anteriores, ya que se trata de un proceder que esencialmente dictaba las acciones del investigador. De hecho, se convirtió en una estrategia ampliamente promovida y aceptada en el ámbito investigativo; tal acogida se debió, probablemente a que, como señala Goudman,4 tanto para los investigadores como para los editores de revistas y responsables administrativos, resulta muy atractivo contar con procedimientos cuantitativos capaces de generar conclusiones independientemente de las personas que realizan el estudio.

      Sin embargo, en realidad la prueba de significación actual procede de la unión de dos perspectivas originalmente divergentes, lo cual ha dado lugar a un procedimiento con serias limitaciones conceptuales y prácticas. Como apunta el importante estadístico y epistemólogo norteamericano Richard Royall,2 ni la literatura general ni los programas docentes de estadística informan de sus contradicciones. Tampoco se da cuenta del intenso debate que estas han animado durante casi 70 años entre muchos estadísticos que se cuestionan (o defienden) la “solidez” de las pruebas de significación.5-6

      Este escamoteo ha contribuido a abonar en la mayoría de los profesionales sanitarios la errónea convicción de que sus resultados tendrán más rigor científico por el solo hecho de venir acompañados de “valores p”.

      El debate en torno a las pruebas de significación en sociología data de la década del 50, pero sus raíces se remontan a un artículo de Margaret Hagood publicado en 1941 bajo el título “Estadística para sociólogos”.7 Desde entonces, muchas observaciones críticas se han venido acumulando, hasta conformar hoy un reclamo metodológico de tal magnitud que cada día se torna más difícil soslayar.

      Entre las diversas objeciones que se le hacen al método,8 la que mejor viene al caso es que no toma en cuenta de manera formal en el modelo de análisis, la información anterior a los datos actuales, la que proviene de estudios previos, o de la experiencia empírica informalmente acumulada que siempre se tiene sobre el problema que se examina. Esto supone un vacío de opiniones, una orfandad total de información, que es irreal en la práctica.9

      El precio que tenemos que pagar para disfrutar los beneficios de la “objetividad” inherente a estas pruebas es abandonar nuestra capacidad para juzgar presuntas verdades en un estudio individual. En la práctica esto significa que lo único que puede hacerse es comunicar si los resultados son estadísticamente significativos o no, y actuar de acuerdo con ese veredicto. Para algunos, se trata de un hecho profundamente anticientífico y contrario a la intuición. Ello explica que no sea infrecuente hallar trabajos en que el texto analítico que subsigue a la aplicación de la prueba parece desentenderse de las propias reglas que esta impone. Por eso no es extraño leer frases del tipo “aunque la diferencia no es significativa, nótese que…”, o del tipo “no hemos hallado significación, pero con una muestra más grande…”. A este último caso destinamos el siguiente párrafo.

      Otras críticas están relacionadas con el procedimiento per se y cuestionan seriamente el carácter objetivo que se les atribuye. La endeblez más grave en este sentido es que, dada la naturaleza de los valores p, el rechazo o la aceptación de una hipótesis resulta ser, simplemente, un reflejo del tamaño de la muestra: si esta es suficientemente grande, siempre se rechazará la hipótesis nula. Esto nos coloca en una aparente paradoja: cuando operamos con una parte muy pequeña de la realidad (una muestra muy pequeña), entonces no podemos obtener conclusión alguna, como es lógico e intuitivo, lo cual conduce a que muchos investigadores, cuyos resultados no alcanzan la esperada significación estadística, proclamen que con un tamaño de muestra mayor casi seguramente lo hubieran logrado. Lamentablemente, y esto es lo realmente grave, tienen razón; pero eso significa que tampoco se puede sacar nada en claro cuando se trabaja con una muestra muy grande, puesto que en tal caso el rechazo de la hipótesis nula queda virtualmente asegurado.10

      Por otra parte, para ilustrar el mal uso que se hace del procedimiento, baste reparar en la confusión que se ha establecido entre significación estadística y significación clínica o social. A pesar de que muchos han argüido que la decisión no debe basarse exclusivamente en la significación estadística sino que ha de atenderse también a la significación sustantiva clínica o social, este error se continúa cometiendo. Según Hagood,en la prisa por aplicar las pruebas de significación, los investigadores olvidaron que “significación estadística” es simplemente la base para el rechazo de una hipótesis nula En este sentido, hace más de 15 años Feinstein11 apuntaba:

      “Si la demanda crítica hubiera sido que la investigación produjese ambos tipos de significación (la que concierne al área estocástica y la que se vincula con los atributos cualitativos) entonces la alienación intelectual de hoy no hubiera ocurrido. Sin embargo, desafortunadamente la palabra significación fue reservada sólo en su connotación estocástica, y la palabra estadística le fue adjuntada para crear la significación estadística como paradigma de calidad e importancia en la investigación médica…”.

      Cohen,12 en un artículo cuyo ingenioso título resume una patética realidad cotidiana, escribía cáusticamente:

      “Después de cuatro décadas de duras críticas, el ritual de probar la significación de hipótesis nulas -decisiones dicotómicas mecánicas alrededor del sacralizado criterio de 0,05 -aún persiste. […] ¿Cuál es el problema con las pruebas de significación? Bueno, que entre otras cosas, no nos dicen lo que queremos saber, y deseamos tanto saber que lo que queremos saber es esto, que por desesperación, sin embargo, creemos que lo hace”.

      La situación ha llegado a tal punto que en sus recomendaciones de octubre del 2001, el Comité Internacional de Directores de Revistas Médicas (Grupo de Vancouver)13 llega a establecer que: “Se evitará la dependencia exclusiva de las pruebas estadísticas de verificación de hipótesis, tal como el uso de los valores p, que no aportan ninguna información cuantitativa importante” (Comité Internacional de Directores de Revistas Médicas. Octubre, 2001. Requisitos uniformes de los manuscritos enviados a revistas biomédicas).

      Pero si la significación estadística no aporta nada cuando no se involucra en el análisis a la significación clínica, entonces el componente subjetivo que se asocia inexorablemente a esta última, mediatiza automáticamente a la primera.

      El procedimiento de prueba de significación actual supuso un cambio en materia de autoridad médica, que pasó de estar en manos de aquellos con conocimiento de las bases biológicas y sociales de la medicina a las de quienes dominan los métodos cuantitativos, o hacia los resultados cuantitativos solamente, como si los números pudieran hablar por ellos mismos.14

      Lo inquietante en el procedimiento clásico no radica en que la subjetividad desempeñe un papel en el proceso; sino que en lugar de reducir la influencia del componente subjetivo, las pruebas de hipótesis puedan servir en realidad solamente para ocultar su participación.
      Métodos bayesianos: una nota final

      Lo cierto es que la subjetividad (algo bien diferente a la arbitrariedad o al capricho) es un fenómeno inevitable, especialmente en un marco de incertidumbre como el de las ciencias biológicas y sociales; siempre aparecerá en una u otra medida, e independientemente del recurso estadístico que se emplee. Por tanto, resultaría mucho más útil, además de ser consistente con las demandas de la intuición, contar con un método que combine las evidencias subjetivamente acumuladas con la información objetiva obtenida de un experimento en particular. Los métodos bayesianos ofrecen esta posibilidad.

      Si bien la exposición de este recurso exige un nivel teórico que desborda el que consideramos oportuno para estas reflexiones, procede destacar que se trata de una aproximación metodológica que está a salvo de casi todas las impugnaciones que se le hacen a las pruebas de significación y que goza del atractivo de incorporar formal y explícitamente los conocimientos aportados por experiencias previas dentro del proceso analítico y los contempla, por tanto, en las conclusiones.15 Tiene sus propios conflictos, pero ahora interesa subrayar uno de sus méritos indiscutibles: asume sin ambages la existencia de un marco subjetivo ineludible en el análisis y, en lugar de actuar como si no existiera, obligan al investigador a expresar probabilísticamente sus puntos de vista apriorísticos y luego incorpora ese resultado en el análisis formal de los datos. Tal es el planteamiento esencial del ya citado trabajo de Berger y Berrycuando llaman a descartar la noción de que la estadística puede ser incontaminadamente objetiva, y a “abrazar la necesidad de la subjetividad a través del análisis bayesiano, el cual puede conducir a un análisis de datos más flexible, poderoso y comprensible”.

      Según nuestro juicio, el proceso intelectual asociado a la inferencia bayesiana es mucho más coherente con el pensamiento natural del científico que el que se vincula con las pruebas clásicas de hipótesis. Estos procedimientos constituyen una tecnología emergente de procesamiento y análisis de la información para la que cabe esperar una presencia cada vez más intensa en el campo de la aplicación de la estadística a la investigación empírica contemporánea. Para tener una idea de en qué medida tal expectativa dista de ser un afiebrado deseo, basta detenerse en el elocuente resumen de sus aplicaciones recientemente publicado por David Malakoff15en la prestigiosa revista Science.

      Summary

      The most important task of statistics is to provide the mere personal judgement with quantitative objective alternatives in order to protect us from subjectivity and the sesgos in the process of obtention of new knowledge. The significance tests are considered the highest expression of this eagerness of objectivity, since it is believed that they may generate conclusions independently of the persons using them. This paper intends to establish that it is a false illusion and that, in reality, this approach has serious conceptual and practical limitations preventing it from fulfilling precisely the task that gave origin to it and which are more difficult every day to be ignored. It is true that subjectivity cannot be completely avoided and that’s why it is more useful to have a method combining the subjectively accumulated evidences with the objective information obtained from an experiment in particular. Bayes’ methods offer this possibility.

      Subject headings: HEALTH STATISTICS; BAYES THEOREM.

      Referencias bibliográcas

      1. Silva LC. Cultura estadística e investigaciones en el campo de la salud: una mirada critica. Madrid: Díaz de Santos; 1997.         [ Links ]
      2. Royall RM. Statistical evidence: a likelihood paradigm. Boca Raton: Chapman & Hall/CRC; 1997.         [ Links ]
      3. Berger JO, Berry DA. Statistical analysis and the illusion of objectivity. Am Scientist 1988;76:159-65.         [ Links ]
      4. Goodman SN. Toward evidence-based medical statistics (I): The p value fallacy”. Ann Int Med 1999;130:995-1004.         [ Links ]
      5. Morrison DE, Henkel RE. The Significance test controversy -A Reader. Chicago: Aldine Publishing Company; 1970.         [ Links ]
      6. Nickerson RS. Null hypothesis significance testing: a review of an old and continuing controversy. Psychol Methods 2000;5:241-301.         [ Links ]
      7. Hagood MJ. Statistics for sociologists. New York: Reynal and Hitchcock; 1941.         [ Links ]
      8. Silva LC. La alternativa bayesiana. Brotes 2000;1:1-4.         [ Links ]
      9. Silva LC, Benavides A. El enfoque bayesiano: otra manera de inferir. Gaceta Sanit 2001;15:341-6.         [ Links ]
      10. Benavides A, Silva LC. Contra la sumisión estadística: un apunte sobre las pruebas de significación. Metas Enferm 2000;3:35-40.         [ Links]
      11. Feinstein AR. Clinical epidemiology: The architecture of clinical research. Philadelphia: W.B. Saunders Company; 1985.         [ Links ]
      12. Cohen J. The earth is round (p<.05). Am Psychol 1994;49:997-1003.         [ Links ]
      13. Silva LC. Hacia una cultura epidemiológica revitalizada. Dimensión Hum 1997;1(5):23-33.         [ Links ]
      14. Silva LC, Suárez P. ¿Qué es la inferencia bayesiana?. JANO, Med Hum 2000;58(1338):65-6.         [ Links ]
      15. Malakoff D. Bayes offers a ‘new’ way to make sense of numbers. Science 1999;286:1460-4.
      16. Links ]

      Recibido: 8 de enero del 2003. Aprobado: 29 de enero del 2003.
      Luis Carlos Silva Ayzaguer. Vicerrectoría de Investigación y Posgrado, Instituto Superior de Ciencias Médicas de La Habana. E-mail:lcsilva@infomed.sld.cu

      Doctor en Ciencias. Investigador Titular, Profesor Auxiliar. Vicerrectoría de Investigación y Posgrado.
      Especialista de I Grado en Bioestadística. Hospital Universitario “Arnaldo Milián Castro”, Villa Clara. 

      Precariedades del exceso en las tecnologias de la informacion y la comunicacion


      Se discuten críticamente los posibles efectos secundarios del uso actual de las tecnologías de información y comunicación en salud y sus implicaciones para la teoría y la práctica de la Salud Pública. Para ello se invoca la idea de exceso y su precariedad bajo las perspectivas sociológicas de Ellul, Illich y Bauman, como una manera de observar las transformaciones provocadas por el uso en general de objetos técnicos y las estrategias de comunicación. En particular, se considera el rol del periodismo científico en la difusión de contenidos sobre biotecnología. Por otro lado se mencionan propuestas de desarrollo de pautas para reglamentar esta actividad. Además, bajo el
      concepto de framing, se presentan dimensiones persuasivas relevantes que pueden interferir en las prácticas modernas de comunicación en salud. En virtud de las implicaciones de otros aspectos en el ámbito de las precariedades de los excesos en la Salud Pública, como en el caso de la nutrición o las enfermedades emergentes se enfatiza el rol de los salubristas en estudiar las cuestiones de salud desde esta perspectiva como quizás una de las maneras de contribuir a una epidemiología global.


      Precariedades del exceso en las tecnologias de la informacion y la comunicacion


      Se discuten críticamente los posibles efectos secundarios del uso actual de las tecnologías de información y comunicación en salud y sus implicaciones para la teoría y la práctica de la Salud Pública. Para ello se invoca la idea de exceso y su precariedad bajo las perspectivas sociológicas de Ellul, Illich y Bauman, como una manera de observar las transformaciones provocadas por el uso en general de objetos técnicos y las estrategias de comunicación. En particular, se considera el rol del periodismo científico en la difusión de contenidos sobre biotecnología. Por otro lado se mencionan propuestas de desarrollo de pautas para reglamentar esta actividad. Además, bajo el
      concepto de framing, se presentan dimensiones persuasivas relevantes que pueden interferir en las prácticas modernas de comunicación en salud. En virtud de las implicaciones de otros aspectos en el ámbito de las precariedades de los excesos en la Salud Pública, como en el caso de la nutrición o las enfermedades emergentes se enfatiza el rol de los salubristas en estudiar las cuestiones de salud desde esta perspectiva como quizás una de las maneras de contribuir a una epidemiología global.


      Estimating Incidence from Prevalence in Generalised HIV Epidemics: Methods and Validation


      Fuente: PLoS Medicine

      Timothy B. Hallett1*, Basia Zaba2,3, Jim Todd4, Ben Lopman1, Wambura Mwita3, Sam Biraro4, Simon Gregson1,5, J. Ties Boerma6, on behalf of the ALPHA Network

      1 Imperial College London, London, United Kingdom, 2 London School of Hygiene and Tropical Medicine, London, United Kingdom, 3 National Institute for Medical Research, Mwanza, Tanzania, 4 Medical Research Council/Uganda Virus Research Institute, Uganda Research Unit on AIDS, Entebbe, Uganda, 5 Biomedical Research and Training Institute, Harare, Zimbabwe, 6 World Health Organization, Geneva, Switzerland

      Background

      HIV surveillance of generalised epidemics in Africa primarily relies on prevalence at antenatal clinics, but estimates of incidence in the general population would be more useful. Repeated cross-sectional measures of HIV prevalence are now becoming available for general populations in many countries, and we aim to develop and validate methods that use these data to estimate HIV incidence.

      Methods and Findings

      Two methods were developed that decompose observed changes in prevalence between two serosurveys into the contributions of new infections and mortality. Method 1 uses cohort mortality rates, and method 2 uses information on survival after infection. The performance of these two methods was assessed using simulated data from a mathematical model and actual data from three community-based cohort studies in Africa. Comparison with simulated data indicated that these methods can accurately estimates incidence rates and changes in incidence in a variety of epidemic conditions. Method 1 is simple to implement but relies on locally appropriate mortality data, whilst method 2 can make use of the same survival distribution in a wide range of scenarios. The estimates from both methods are within the 95% confidence intervals of almost all actual measurements of HIV incidence in adults and young people, and the patterns of incidence over age are correctly captured.

      Conclusions

      It is possible to estimate incidence from cross-sectional prevalence data with sufficient accuracy to monitor the HIV epidemic. Although these methods will theoretically work in any context, we have able to test them only in southern and eastern Africa, where HIV epidemics are mature and generalised. The choice of method will depend on the local availability of HIV mortality data.

      Funding: TBH, SG, BL, and WM thank the Wellcome Trust; BZ was supported by a grant from Global Fund to Fight AIDS, Tuberculosis and Malaria; JT and SB were supported by UK MRC. The funders had no role in the study design, analysis, and preparation of the manuscript or the decision to publish.

      Competing Interests: The authors have declared that no competing interests exist.

      Academic Editor: Peter Ghys, Joint United Nations Programme on HIV/AIDS, Switzerland

      Citation: Hallett TB, Zaba B, Todd J, Lopman B, Mwita W, et al. (2008) Estimating Incidence from Prevalence in Generalised HIV Epidemics: Methods and Validation. PLoS Med 5(4): e80 doi:10.1371/journal.pmed.0050080

      Received: May 21, 2007; Accepted: February 15, 2008; Published: April 8, 2008

      Copyright: © 2008 Hallett et al. This is an open-access article distributed under the terms of the Creative Commons Attribution License, which permits unrestricted use, distribution, and reproduction in any medium, provided the original author and source are credited.

      Abbreviations: ART, antiretroviral therapy; DHS, Demographic and Health Surveys; PYAR, person-years at risk

      * To whom correspondence should be addressed. E-mail: timothy.hallett@imperial.ac.uk

      Epidemiology and Biostatistics Secrets: with STUDENT CONSULT Access


      Product Details
      »Book Publisher: Mosby (21 October, 2005)
      »ISBN: 0323034063
      »Book author: Robert Nordness
      »Amazon Rating:

      Book Description:
      The Secrets Series® is breaking new ground again. A two-color page layout, a portable size, and a list of the “Top 100 Secrets” in biostatistics and epidemiology help readers to better meet the challenges they face today. And, at no extra charge, purchasers also receive online access to the complete contents of the text via Elsevier’s innovative STUDENT CONSULT website. Readers will still find all of the features they rely on the Secret Series® fora question-and- answer format, lists, mnemonics, and tables and an informal tone that make reference fast and easy. No matter what questions arise in practice or while preparing for boards, this new volume has the answersin print and online.
      The smart way to study!
      Elsevier titles with STUDENT CONSULT will help you master difficult concepts and study more efficiently in print and online! Perform rapid searches. Integrate bonus content from other disciplines. Download text to your handheld device. And a lot more. Each STUDENT CONSULT title comes with full text online, a unique image library, case studies, USMLE style questions, and online note-taking to enhance your learning experience.

      chm format… no pass…
      .
      http://rapidshare. com/files/ 58086611/ Epidemiology_ and_Biostatistic s_Secrets_

      This is the sigma stat 3.5 very god statistica program


      This is the sigma stat 3.5 very god statistica program

      SigmaStat offers a full range of the statistical procedures used most often by scientists, including t-tests, analysis of variance, nonparametric statistics, correlation, linear and nonlinear regression, rates and proportions, normality and equalvariance testing.

      sitio de descarga:

      http://rapidshare.com/files/18394526/Sigmastat_3.5_bY_Levifox_.rar

      Causalidad


      En epidemiología, el hecho de que dos fenómenos estén estadísticamente relacionados no implica necesariamente que uno sea causa del otro. Para poder afirmar esto último es necesario disponer de dos grupos comparables (constituidos por individuos elegidos al azar), y someter a la exposición al factor estudiado a uno de ellos, estudiando las diferentes tasas de aparición del efecto. Esto, en la mayoría de los casos es imposible por razones éticas y prácticas, por lo que se recurre a estudios descriptivos retrospectivos: Se toman dos grupos, uno con el efecto (por ejemplo, enfermedad) y otro sin él (“sanos”), y se estudia, de manera retrospectiva, cuál fue el grado de exposición a la hipotética causa (factor de riesgo) en cada caso. A falta, entonces, de una prueba experimental idónea se han postulado una serie de criterios cuyo cumplimiento garantiza que la asociación no sea “casual”, sino “causal”. Los más conocidos son los formulados por Sir Austin Bradford Hill:

      • Fuerza de la asociación, estimable mediante las medidas estadísticas correspondientes.
      • Gradiente o efecto dosis-respuesta (a mayor dosis de la causa, mayor cantidad del efecto).
      • Secuencia temporal.
      • Consistencia, o repetición del mismo resultado en otros estudios.
      • Coherencia con otros hallazgos.
      • Analogía con otros fenómenos.
      • Plausibilidad biológica, es decir, existencia de un mecanismo biológico plausible que explique la relación causa-efecto.
      • Especificidad.
      • Evidencia experimental, demostración mediante estudios experimentales.