Investigacion y ciencia en America Latina


English: New USLA (Usuarios Software Libre Arg...Image via Wikipedia

Via: Salud Loreto
Investigar en America Latina, parece ser uno de los mayores problemas existentes. Pese a que Argentina ha repatriado investigadores, muchos de ellos no cobran en tiempo y forma. Nuestro desarrollo tecnologico se basa en leyes, como la ley del software, defienden el copyright, y nuestros programadores se han transformados casi en lideres mundiales en software …….pero de juegos informaticos.
Incluso gran parte de nuestros ordenadores, se fabrican en Tierra del fuego, mas como ensamblaje que como diseños originales.
Aun asi, muchas provincias, y aun el estado Argentino, ha repartido netbooks entre estudiantes, desafortunadamente la mayoria del mismo con software propietario (lease guindos)…….pero en muchos lugares olvidaron instalar el wi fi necesario para acceder a la web, como las escuelas del Gobierno de la  Ciudad de Buenos Aires. E incluso gran cantidad de papers escritos por investigadores argentinos, se han hecho, al menos en el campo farmaceutico, con grants otorgados bajo escaso presupuesto. Solo como ejemplo, la evaluacion de una tecnologia, es pagada con 2 tratamientos mensuales, cuando de tecnologias emergentes hablamos.
La propia atencion primaria aparece carente de investigaciones, ya que la mayoria de las universidades no financian las mismas, y por ende solo sectores privados pueden financiarlas, lo que da lugar a graves conflictos de intereses.

En esto no estamos solos, esto sucede en toda America Latina, y a mal de muchos consuelo de tontos, les muestro un interesante video que habla sobre la investigacion en Peru.

Porque la mayoria de los resultados de investigacion publicados son falsos?


Existe una creciente preocupación de que los resultados de investigación más recientes publicados son falsos. La probabilidad de que una reivindicación de la investigación es cierto puede depender de la energía y el sesgo del estudio, el número de otros estudios sobre la misma cuestión, y, más importante, la proporción de fieles a ninguna relación entre las relaciones investigado en cada campo científico. En este marco, un hallazgo de investigación es menos probable que sea cierto cuando los estudios realizados en el campo son más pequeños, cuando son más pequeños tamaños del efecto, cuando existe un número mayor y menor prueba de preselección de las relaciones, donde existe una mayor flexibilidad en los diseños, definiciones, resultados, y los modos de análisis, cuando los intereses financieros y de otro no es mayor y los prejuicios, y cuando más equipos están involucrados en un campo científico a la caza de la significación estadística. Las simulaciones muestran que la mayoría de los diseños de estudio y configuración, sean más probable que los resultados de una investigación sean más falsos que verdaderos. Además, para muchos campos científicos actuales, los resultados de la investigación puede ser a menudo una medición simplemente precisa de la tendencia imperante. En este ensayo, se discuten las implicaciones de estos problemas para la realización e interpretación de la investigación.
El articulo completo puede encontrarse en http://dx.doi.org/10.1371/journal.pmed.0020124

Why Most Published Research Findings Are False. by: John P. A. Ioannidis

Ioannidis JPA. Why Most Published Research Findings Are False. PLoS Med. 2005 August;2(8):e124
Enhanced by Zemanta

Revision de la Declaracion de Helsinki


La  Asociación Médica Mundial (AMM), culmino la Asamblea General  en Corea del Sur. Como saldo  el organismo adoptó una versión revisada de la Declaración de Helsinki, en la que se detallan los principios eticos para la investigación médica que involucra seres humanos. 
La AMM  reafirma su posición contraria a las prácticas que abren la puerta a la explotación de los seres humanos sujetos participantes deinevstigaciones, particularmente en los países en desarrollo. 
Las novedades importantes son que la versión revisada de la declaración  incorpora mayores límites sobre el uso de placebos (incluyendo la clarificaciones del año 2002-2004) señalando que las nuevas intervenciones deberán ser probadas contra la  mejor  intervencion existente demostrada y que  los placebos solo podrían utilizarse cuando no existan intervenciones demostradas .  Por otra parte modifica los requisitos post-ensayo, incluyendo la necesidad de informar a los sujetos de investigación acerca de los resultados de los estudios y también se reafirma en el derecho de los sujetos participantes en la investigación a beneficiarse de cualquier resultado de la misma

la Declaración de Helsinki. Asociación Médica Mundial. Principios eticos para la investigación médica que involucra seres humanos Sexta Revisión. Octubre 2008 (  WORLD MEDICAL ASSOCIATION DECLARATION OF HELSINKI. Ethical Principles for Medical Research Involving Human Subjects)

esta disponible en la pagina web de la Fundacion Femeba 

http://www.femeba.org.ar/fundacion/documentos/0000000086.pdf
 

 
Martín Cañás

Centro de Información de Medicamentios Fundación FEMEBA(CIMEFF)

La Plata (Argentina)

miembro del GAPURMED

macanas@netverk.com.ar

Revision de la Declaracion de Helsinki


La  Asociación Médica Mundial (AMM), culmino la Asamblea General  en Corea del Sur. Como saldo  el organismo adoptó una versión revisada de la Declaración de Helsinki, en la que se detallan los principios eticos para la investigación médica que involucra seres humanos. 
La AMM  reafirma su posición contraria a las prácticas que abren la puerta a la explotación de los seres humanos sujetos participantes deinevstigaciones, particularmente en los países en desarrollo. 
Las novedades importantes son que la versión revisada de la declaración  incorpora mayores límites sobre el uso de placebos (incluyendo la clarificaciones del año 2002-2004) señalando que las nuevas intervenciones deberán ser probadas contra la  mejor  intervencion existente demostrada y que  los placebos solo podrían utilizarse cuando no existan intervenciones demostradas .  Por otra parte modifica los requisitos post-ensayo, incluyendo la necesidad de informar a los sujetos de investigación acerca de los resultados de los estudios y también se reafirma en el derecho de los sujetos participantes en la investigación a beneficiarse de cualquier resultado de la misma

la Declaración de Helsinki. Asociación Médica Mundial. Principios eticos para la investigación médica que involucra seres humanos Sexta Revisión. Octubre 2008 (  WORLD MEDICAL ASSOCIATION DECLARATION OF HELSINKI. Ethical Principles for Medical Research Involving Human Subjects)

esta disponible en la pagina web de la Fundacion Femeba 

http://www.femeba.org.ar/fundacion/documentos/0000000086.pdf
 

 
Martín Cañás

Centro de Información de Medicamentios Fundación FEMEBA(CIMEFF)

La Plata (Argentina)

miembro del GAPURMED

macanas@netverk.com.ar

Principios Basicos de la Investigacion Clinica


En la barra lateral podemos acceder a un excelente documento sobre principios basicos de la investigacion clinica de Joan Ramon Laporte, Instituto Catalan de Farmacologia: http://www.icf.uab.es/llibre/llibre.htm

Sin desperdicios y aprovecharlo!!!!!! 

Principios Basicos de la Investigacion Clinica


En la barra lateral podemos acceder a un excelente documento sobre principios basicos de la investigacion clinica de Joan Ramon Laporte, Instituto Catalan de Farmacologia: http://www.icf.uab.es/llibre/llibre.htm

Sin desperdicios y aprovecharlo!!!!!! 

Harming through prevention?


Fuente NEJM

Editor’s Note: On February 15, 2008, after this article had gone to press, the Office for Human Research Protections (OHRP) issued a statement (www.hhs.gov/ohrp/news/recentnews.html#20080215) expressing its new conclusion that Michigan hospitals may continue to implement the checklist developed by Pronovost et al. “without falling under regulations governing human subjects research,” since it “is now being used . . . solely for clinical purposes, not medical research or experimentation.” OHRP further stated that in the research phase, the project “would likely have been eligible for both expedited IRB review and a waiver of the informed consent requirement.”

About 80,000 catheter-related bloodstream infections occur in U.S. intensive care units (ICUs) each year, causing as many as 28,000 deaths and costing the health care system as much as $2.3 billion. If there were procedures that could prevent these infections, wouldn’t we encourage hospitals to introduce them? And wouldn’t we encourage the development, testing, and dissemination of strategies that would get clinicians to use them? Apparently not, judging from the experience of Peter Pronovost and other Johns Hopkins investigators who helped 103 ICUs in 67 Michigan hospitals carry out a highly successful infection-control effort,1 only to run into major problems with federal regulators.

The case demonstrates how some regulations meant to protect people are so poorly designed that they risk harming people instead. The regulations enforced by the Office for Human Research Protections (OHRP) were created in response to harms caused by subjecting people to dangerous research without their knowledge and consent. The regulatory system helps to ensure that research risks are not excessive, confidentiality is protected, and potential subjects are informed about risks and agree to participate. Unfortunately, the system has become complex and rigid and often imposes overly severe restrictions on beneficial activities that present little or no risk.

The Pronovost effort was part of a quality and safety initiative sponsored by the Michigan Hospital Association, with funding from the Agency for Healthcare Research and Quality (AHRQ). The intervention was designed to improve ICU care by promoting the use of five procedures recommended by the Centers for Disease Control and Prevention: washing hands, using full-barrier infection precautions during catheter insertion, cleaning the patient’s skin with disinfectant, avoiding the femoral site if possible, and removing unnecessary catheters. The hospitals designated the clinicians who would lead the teams and provided the necessary supplies. The investigators provided an education program for the team leaders, who educated their colleagues about the procedures and introduced checklists to ensure their use. Infection-control practitioners in each hospital gave the teams feedback on infection rates in their ICUs.

The investigators studied the effect on infection rates and found that they fell substantially and remained low. They also combined the infection-rate data with publicly available hospital-level data to look for patterns related to hospital size and teaching status (they didn’t find any). In this work, they used infection data at the ICU level only; they did not study the performance of individual clinicians or the effect of individual patient or provider characteristics on infection rates.

After the report by Pronovost et al. was published,1 the OHRP received a written complaint alleging that the project violated federal regulations. The OHRP investigated and required Johns Hopkins to take corrective action. The basis of this finding was the OHRP’s disagreement with the conclusion of a Johns Hopkins institutional review board (IRB) that the project did not require full IRB review or informed consent.

The fact that a sophisticated IRB interpreted the regulations differently from the OHRP is a bad sign in itself. You know you are in the presence of dysfunctional regulations when people can’t easily tell what they are supposed to do. Currently, uncertainty about how the OHRP will interpret the term “human-subjects research” and apply the regulations in specific situations causes great concern among people engaged in data-guided activities in health care, since guessing wrong may result in bad publicity and severe sanctions.

Moreover, the requirements imposed in the name of protection often seem burdensome and irrational. In this case, the intervention merely promoted safe and proven procedures, yet the OHRP ruled that since the effect on infection rates was being studied, the activity required full IRB review and informed consent from all patients and providers.

If certain stringent conditions are met, human-subjects researchers may obtain a waiver of informed consent. After the OHRP required the Hopkins IRB to review the project as human-subjects research, the board granted such a waiver. The OHRP had also ruled that the university had failed to ensure that all collaborating institutions were complying with the regulations. Each participating hospital should have received approval from its own IRB or another IRB willing to accept the responsibility of review and oversight. This requirement adds substantial complexity and cost to a study and could sink it altogether.

In my view, the project was a combination of quality improvement and research on organizations, not human-subjects research, and the regulations did not apply. The project was not designed to use ICU patients as human subjects to test a new, possibly risky method of preventing infections; rather, it was designed to promote clinicians’ use of procedures already shown to be safe and effective for the purpose. Each hospital engaged in a classic quality-improvement activity in which team members worked together to introduce best practices and make them routine, with quantitative feedback on outcomes being intrinsic to the process. Such activities should not require IRB review. Since the activity did not increase patients’ risk above the level inherent in ICU care and patient confidentiality was protected, there was no ethical requirement for specific informed consent from patients. Indeed, it is hard to see why anyone would think it necessary or appropriate to ask ICU patients whether they wanted to opt out of a hospital’s effort to ensure the use of proven precautions against deadly infections — or why anyone would think that clinicians should have the right to opt out rather than an ethical obligation to participate.

Did the situation change because hospitals shared their experiences with each other? Since no identifiable patient or clinician information was shared, I don’t think so. Did the fact that quality-improvement experts educated the teams about the best practices change the situation? I don’t think so; bringing in consultants to conduct training activities is normal managerial practice. Did the fact that these experts studied and reported the results change the situation? The investigators were asking whether the hospitals produced and sustained a reduction in ICU infection rates. From one perspective, this was simply an evaluation of the quality-improvement activity; from another, it might be considered research, but the object of study was the performance of organizations.

Of course, the complexity of the regulations leaves room for different interpretations. Moreover, small changes in the facts of the situation can make a large difference in the regulatory burden imposed, even when they make no difference in the risk to patients — a fact underscored by the OHRP’s 11 detailed decision-making charts summarizing the regulations.2 But technical debates about the meaning of “research” and “human subject” miss the most important point: if we want our health care system to engage in data-guided improvement activities that prevent deaths, reduce pain and suffering, and save money, we shouldn’t make it so difficult to do so.

In a public statement on this case,3 the OHRP has indicated that institutions can freely implement practices they think will improve care as long as they don’t investigate whether improvement actually occurs. A hospital can introduce a checklist system without IRB review and informed consent, but if it decides to build in a systematic, data-based evaluation of the checklist’s impact, it is subject to the full weight of the regulations for human-subjects protection.

Obviously, collaborative research and improvement activities require supervision. AHRQ, the state hospital association, hospital managers, and local staff members should all evaluate such projects before taking them on, with a primary focus on their effect on patients’ well-being. This kind of supervision must be in place and working well regardless of whether an activity qualifies as human-subjects research.4,5

The extra layer of bureaucratic complexity embodied in the current regulations makes using data to guide change in health care more difficult and expensive, and it’s more likely to harm than to help. It’s time to modify or reinterpret the regulations so that they protect people from risky research without discouraging low-risk, data-guided activities designed to make our health care system work better.

No potential conflict of interest relevant to this article was reported.
Source Information

Dr. Baily is an associate for ethics and health policy at the Hastings Center, Garrison, NY.

References

  1. Pronovost P, Needham D, Berenholtz S, et al. An intervention to decrease catheter-related bloodstream infections in the ICU. N Engl J Med 2006;355:2725-2732. [Free Full Text]
  2. Office for Human Research Protections, U.S. Department of Health and Human Services. Human subject regulations decision charts, September 24, 2004. (Accessed February 1, 2008, at http://www.hhs.gov/ohrp/humansubjects/guidance/decisioncharts.htm.)
  3. Office for Human Research Protections, U.S. Department of Health and Human Services. OHRP statement regarding the New York Times op-ed entitled “A Lifesaving Checklist.” (Accessed February 1, 2008, at http://www.hhs.gov/ohrp/news/recentnews.html#20080115.)
  4. Baily MA, Bottrell M, Lynn J, Jennings B. The ethics of using QI methods to improve health care quality and safety. Hastings Cent Rep 2006;36:S1-40. [CrossRef][ISI][Medline]
  5. Lynn J, Baily MA, Bottrell M, et al. The ethics of using quality improvement methods in health care. Ann Intern Med 2007;146:666-673. [Free Full Text]

La trampa de los estudios repetidos


ANÁLISIS DE SIETE MILLONES DE ABSTRACTS

La trampa de los estudios repetidos

  • La mayoría de publicaciones sólo acepta trabajos originales
  • Un estudio alerta del número de creciente de estudios que se ‘autoplagian’

MARÍA VALERIO

MADRID.- Es una tendencia creciente, y también preocupante. Investigadores de la Universidad de Texas (EEUU) han analizado siete millones de trabajos publicados en revistas científicas para tratar de dar con aquellos que se duplican: bien porque los propios autores envían su mismo trabajo a varias publicaciones, o bien porque comparten una excesiva ‘similitud’ con otros estudios.

Los promotores de este análisis, Mounir Errami y Harold Graner, critican que este tipo de prácticas distorsionan la literatura científica, inflan artificialmente el curriculum de publicaciones de algunos investigadores, y obligan a las revistas a emplear grandes sumas de recursos y tiempo para tratar de detectar este tipo de ‘fraude’.

En algunos casos, añaden, las similitudes entre dos textos pueden estar justificadas, por ejemplo, en el caso de las citas adecuadamente atribuidas o de actualizaciones que arrojan nuevos datos de un ensayo clínico. Sin embargo, estos especialistas señalan que en la mayoría de los casos se trata de plagio o incluso de autoplagio de documentos anteriores (artículos repetidos o duplicados). Las conclusiones de su búsqueda pueden leerse esta semana en un comentario en la revista ‘Nature’.

“No es equiparable copiarse a sí mismo (autoplagio) que copiar a otros autores”, apunta a elmundo.es José Alonso, director editorial en el grupo Elsevier en España, uno de los principales grupos editoriales de publicaciones científicas. “Aunque ambas sean mala práctica, la primera es más discutible y en algunos casos puede justificarse”. Como él mismo destaca, “partimos de la premisa de ofrecer al lector investigación original, novedosa, no publicada previamente o basada en artículos ya publicados, pero que ofrecen aspectos nuevos y de interés. Lo contrario es hacer perder el tiempo a los lectores y utilizar inútilmente recursos editoriales y humanos sin necesidad”.

Entre las soluciones que los expertos de Texas proponen para controlar estas prácticas destaca el uso de los nuevos programas informáticos y de software capaz de analizar varios textos en busca de similitudes sospechosas. Pero sobre todo, disuadir a los investigadores exponiendo públicamente estos ‘errores’.

70.000 identificados hasta ahora

Eso es lo que han hecho ellos de momento con los 70.000 abstracts (un resumen con los datos fundamentales de un trabajo científico) que por el momento han hallado duplicados en su búsqueda en MedLine (una de las principales bases de datos médicas). A través de una página web bautizada como Déjà Vu, cualquier internauta puede comprobar personalmente qué trabajos se han publicado en más de una ocasión.

Para afinar más sus conclusiones, el siguiente paso incluye un análisis ‘manual’ de estas copias para tratar de hallar una justificación a la duplicidad (por ejemplo, que sea una versión traducida en otro idioma), incluso contactando con los autores implicados si es necesario. De hecho, anuncian, la revisión que han comenzado ha desencadenado ya una investigación por parte de algunas revistas científicas, que prohíben expresamente en sus normas que los artículos se envíen simultáneamente a otros editores.

En el caso de las revistas que publica Elsevier, incluida Medicina Clínica, una de las más destacadas en España, Alonso subraya que las normas indican que sólo serán evaluados artículos originales (no publicados anteriormente ni presentados al mismo tiempo a otras revistas). “En este sentido, se siguen las normas del Comité Internacional de Publicaciones Biomédicas. Aunque esto no impide que en la práctica envíen sus trabajos a varias publicaciones a la vez, y es imposible de detectar”.

En este sentido, los comentaristas de ‘Nature’ reconocen que su revisión está aún en marcha y es necesario tomar sus datos con cautela, pero insisten en que existe una tendencia al alza desde el año 1975 de esta práctica “éticamente cuestionable”. Reconocen también que es probable que muchos casos pasen inadvertidos a cualquier mecanismo de control dado el enorme volumen de literatura científica que se publica en todo el mundo cada año.

Alonso destaca que todas las revistas publicadas por Elsevier-Doyma España tienen “un sistema de registro de artículos informatizado: Se registra el título, los autores y la filiación, además del contenido del manuscrito como fichero adjunto”. Para cada nuevo artículo registrado, esta tecnología compara el título y los autores con la base de datos y mediante un algoritmo es capaz de detectar similitudes. “Si existen, se revisan con detalle”, aclara.

Cuando estos controles detectan alguna duplicidad se sigue un protocolo interno de actuación. “En primer lugar se avisa al autor en cuestión y se permite que dé todas las explicaciones que considere oportunas. Inicialmente no se debe acusar de plagio o duplicidad, sino advertirle de que se han detectado una serie de coincidencias”, justifica el director editorial de este grupo. Si los argumentos no son satisfactorios y el artículo está indexado en alguna base de datos médica, la revista publica una retracción y lo retira. “En algunos casos detectados aprovechamos para publicar un editorial recordando a los autores todos estos aspectos éticos y reforzar así estos conceptos desde un punto de vista pedagógico”, concluye José Alonso.

Fuente: el Mundo.es