Торговец смертью: Торговец смертью. Большие гонки. Плейбой и его убийца
Торговец смертью: Торговец смертью. Большие гонки. Плейбой и его убийца читать книгу онлайн
В медицине царит хаос. Нам хочется верить в то, что врачи опираются на результаты честных исследований, а на самом деле отрицательные результаты экспериментов скрываются фармкомпаниями. Нам хочется верить, что сертификаты получают только эффективные лекарства, но в реальности в аптеках появляются препараты, вызывающие тяжелые побочные эффекты.Люди, которым вы должны доверять, обманывают вас! Но прочитав эту книгу, вы сможете противостоять мировому заговору фармкомпаний.Эта книга — настоящее объявление войны фармацевтической индустрии.
Внимание! Книга может содержать контент только для совершеннолетних. Для несовершеннолетних чтение данного контента СТРОГО ЗАПРЕЩЕНО! Если в книге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту [email protected] для удаления материала
Люди, работающие в научных лабораториях, скажут вам, что порой эксперименты много раз заканчиваются неудачей и только после ряда попыток вдруг появляется результат, который исследователь и хотел получить. Что это означает? Иногда неудачи вызваны юридическими или техническими проблемами, но иногда они формируют ряд важных статистических данных, которые даже могут ставить под сомнение правильность основных результатов исследования. Помните, что результаты многих исследований не всегда свидетельствуют строго в пользу того или иного предположения. Большинство из них представляют собой хрупкие статистические корреляции. В рамках существующей системы большинство вспомогательной статистической информации о количестве неудач просто заметается под ковер, что очень отражается на стоимости исследования, во время которого пытаются воспроизвести результаты первого эксперимента. Зависимость может быть неявной и не сразу проявиться. Например, исследователи, которым не удалось воспроизвести результаты первоначального опыта, могут и не знать, с чем связана такая неудача. Возможно, при первом опыте им просто повезло, а может быть, они допустили методическую ошибку.
В действительности на поиск доказательств ошибочности результатов тратится гораздо больше времени, средств и усилий, чем на их воспроизведение. Ведь исследователю нужно провести эксперимент много раз, чтобы доказать отсутствие результатов: так работает статистика обнаружения слабых эффектов. И вам нужно быть абсолютно уверенным в том, что вы исключили все технические неполадки, чтобы не попасть впросак, если данные окажутся воспроизведены неправильно. Эти препятствия при поиске опровергающей информации частично объясняют, почему проще уклониться от публикации данных, которые в конечном счете окажутся неправильными.31
Пристрастный отбор результатов для публикации — проблема, возникающая не только при проведении далеких от жизни психологических экспериментов. В 2012 году группа ученых сообщила в журнал Nature, как они попытались воспроизвести результаты 53 ранних лабораторных исследований, направленных на изучение возможностей разработки перспективных препаратов для лечения рака. В итоге 47 из 53 результатов не были воспроизведены.32 Это исследование имело серьезные последствия для разработки новых лекарств в медицине, так как невоспроизводимость данных не просто абстрактный научный вопрос:исследователи строят теории на их основе, верят в их правильность и исследуют тот же самый феномен, используя другие методы. Если же их просто водили за нос, заставляли воспроизвести случайно полученные неверные данные, то получается, что весомая часть выделенных на проведение исследований денег и усилия ученых были потрачены зря, а прогресс в открытии новых медикаментов в значительной мере замедлился.
Авторы исследования ясно подчеркивали и причину, и решение проблемы. По их мнению, случайно полученные положительные данные чаще высылаются для публикации в журналах и чаще издаются, чем скучные цифры отрицательных исследований. Нужно больше стимулировать ученых к публикации отрицательных результатов, но мы должны предоставлять им также и больше возможностей. Другими словами нам нужно изменить манеру поведения сотрудников научных журналов, и здесь мы сталкиваемся с еще одним затруднением. Несмотря на то что работающие в таких изданиях люди часто сами являются учеными, редакторы журналов ориентируются на свои интересы и приоритеты при публикации статей. В этом отношении они больше похожи на обычных журналистов и редакторов простых газет, что многие из них вряд ли согласятся признать, и пример с экспериментом по предвидению будущего, приведенный выше, хорошо доказывает это. Могут ли журналы, подобные такому, служить примером идеальной площадки для обнародования результатов исследований в принципе — жарко обсуждаемый вопрос в научных кругах, но такова текущая ситуация. Редколлегия журналов — это фильтраторы. Редакторы выносят суждения о том, что существенно и интересно для их аудитории. Они борются за читателей. Это может заставить их действовать в ущерб интересам науки, потому что личное желание редактора журнала наполнить издание привлекательным содержанием может войти в конфликт с объективной необходимостью предоставить исчерпывающую и полную картину исследования. В журналистике распространен хорошо известный афоризм: «Если собака укусила человека, это не новость. Но если человек укусил собаку…» Критерии, определяющие, что стоит публиковать в колонке новостей популярных изданий, даже были выражены количественно. Одно исследование, проведенное в 2003 году, например, на протяжении нескольких месяцев отслеживало способ подачи новостей о здоровье на канале ВВС. Было подсчитано, скольким людям нужно умереть от какой-либо болезни, чтобы сообщение об этом появилось в новостях. Так, в каждом сюжете о курении сообщалось о не менее чем 8571 умершем в среднем, но появилось по одному сообщению о каждом смертельном случае от новой разновидности коровьего бешенства (всего их было три).33 В другой работе от 1992 года исследователи изучили способ подачи печатными изданиями сообщений о смерти от лекарственных препаратов. Они обнаружили, что для появления сообщения в газете об отравлении парацетамолом нужно было зафиксировать 265 случаев смерти, но на каждый случай смерти от экстези в среднем появлялось по одному сообщению в новостях.34
Если такая оценка событий оказывает влияние на содержание научных журналов, тогда мы столкнулись с еще одной проблемой. Могло ли произойти так, что научные журналы превратились в крепость, а охраняющие ее часовые не дают врачам и ученым получить доступ к информации об исследованиях с отрицательными данными, о безопасности и эффективности лекарств, которые ежедневно прописывают медики? Этот аргумент часто используется представителями фармакологической индустрии в качестве оправдания, да и сами исследователи тоже склонны обвинять журналы в массовом отказе печатать их статьи с отрицательными результатами. К счастью, эта проблема уже была изучена, и на сегодня можно сказать, что в целом журналы пока невиновны в том грехе, в котором их обвиняют. Нельзя утверждать, что именно они являются источником серьезных проблем в сфере медицинских услуг и общественного здоровья. Это утверждение звучит особенно правдиво, если вспомнить, что есть специализированные научные журналы,занимающиеся публикацией данных клинических исследований, а обязательство публиковать отрицательные результаты прописано в уставе таких СМИ.
Но справедливости ради, для обеспечения полноты и еще потому, что фармацевтические компании и исследователи так любят сваливать вину на научные СМИ, мы можем проверить правдивость их заявлений.
Во время проведения одного из исследований авторов неопубликованных работ спросили, высылали ли они материалы своих работ для публикации. Было выявлено 124 исследования с необнародованными результатами, проведение каждого из которых было согласовано и контролировалось группой представителей комитета по этике США. Когда исследователи связались с авторами неопубликованных работ, оказалось, что только шесть из них подавались на публикацию и были отвергнуты.35 Возможно, скажете вы, это странный результат. Другой подход — отследить все работы, поданные в один журнал, и проверить, действительно ли статьи об исследованиях с отрицательными результатами отвергались чаще. И даже после этого те журналы, которые были проверены, похоже, трудно было обвинить в этом грехе: были отслежены 745 работ, присланных в редакцию журнала Американской медицинской ассоциации (JAMA). Оказалось, что не было разницы в частоте принятия в публикацию статей об исследованиях со значимыми или незначимыми данными.36 Такую же проверку работ провели в журналах «Британский медицинский журнал» (BMJ), «Ланцет» (Lancet), «Анналы внутренней медицины» и «Журнал костной и суставной хирургии».37И снова не было выявлено никакой разницы. Некоторые могут возразить, что это все равно может являться свидетельством пристрастного отношения редакторов, если ученые знают, что плохие результаты исследований должны предоставляться в более качественном виде, чтобы можно было победить предвзятое отношение редакторов. Возможно, журналы вели честную игру, так как знали, что за ними следят? Однако быстро перестроить всю систему ради публикации нескольких статей было бы сложно. В ходе этих исследований авторы наблюдали за тем, что происходило в редакциях журналов ежедневно. Осталось только провести эксперимент и выслать идентичные работы в различные журналы, указав в статьях различные результаты, как отрицательные, так и положительные, и посмотреть, будет ли наблюдаться разница в частоте принятий к публикациив зависимости от исхода исследования. На самом деле подобного рода опыты проводятся нечасто, так как это приводит к потере времени многих людей, но коль уж пристрастный подход к публикации научный статей имеет значение, данный эксперимент расценили как оправданное вторжение в жизнь редакций. В 1990 году исследователь по фамилии Эпштейн скомпилировал ряд поддельных работ со сходными методами и презентациями, которые отличались друг от друга лишь тем, что в одних сообщалось о положительных результатах, а в других — об отрицательных. Работы были высланы в 146 выбранных наугад журналов, пишущих о социальных проблемах: работы с положительными результатами принимались в 35 % случаев, а с отрицательными — в 26 %. Разница была совсем небольшой, чтобы считаться статистически значимой.38