En breve
- Los hechos:La periodista Laurie Clarke ha publicado un artículo en el British Medical Journal sobre la censura de la ciencia y quiénes son realmente estos “verificadores de hechos” de las grandes tecnologías.
- Reflexionar sobre:¿Por qué ha habido tal esfuerzo por ocultar información que amenaza la narrativa aceptada que obtenemos de la corriente principal? ¿Que esta pasando aqui? ¿Cómo es esto legal, moral y ético?
La censura de la información está en su punto más alto, pero ¿la gente realmente reconoce hasta qué punto se ha llevado a cabo y se está llevando a cabo? Unartículo reciente publicado en el British Medical Journal por la periodista Laurie Clarke ha destacado el hecho de que Facebook ya ha eliminado al menos 16 millones de piezas de contenido de su plataforma y ha agregado advertencias a aproximadamente 167 millones más. YouTube ha eliminado casi 1 millón de videos relacionados, según ellos, con “información médica peligrosa o engañosa de covid-19”.
Al ser un medio de comunicación independiente, Collective Evolution ha experimentado esta censura de primera mano. También hemos estado en contacto y hemos sido testigos de que muchos médicos y científicos de renombre mundial fueron sometidos al mismo tipo de tratamiento por parte de estas organizaciones de redes sociales. No hace mucho escribí unartículo sobre el Dr. Martin Kulldorff, un profesor de medicina de Harvard que ha tenido problemas con Twitter. Hice lomismo con el Dr. Carl Heneghan, profesor de medicina basada en evidencia de Oxford y médico de cabecera de emergencia que escribió un artículo sobre la eficacia de las mascarillas para detener la propagación del COVID. Su artículo no fue eliminado, pero Facebook le agregó una etiqueta que decía que era “información falsa”. Hay muchos más ejemplos.
El artículo de Clarke dice, con respecto a las publicaciones que se han eliminado y etiquetado, que,
“Si bien es probable que una parte de ese contenido sea intencionalmente erróneo o engañosamente vengativo, la pandemia está plagada de ejemplos de opiniones científicas que han quedado atrapadas en la red”.
Esto es cierto, tomemos por ejemplo los ‘orígenes de laboratorio del debate COVID’. Al principio de la pandemia, ni siquiera se le permitió mencionar que el COVID puede haberse originado en un laboratorio y, si lo hizo, se lecastigó por hacerlo. Las plataformas de medios independientes se desmonetizaron y se sometieron a cambios en los algoritmos. Ahora, de repente, los principales medios de comunicación lo están discutiendo como una posibilidad legítima. No tiene sentido.
Esto subraya la dificultad de definir la verdad científica, lo que genera la pregunta más importante de si las plataformas de redes sociales como Facebook, Twitter, Instagram y YouTube deberían tener la tarea de esto … “Creo que es bastante peligroso que el contenido científico sea etiquetado como información errónea, simplemente por la forma en que la gente podría percibir eso ”, dice Sander van der Linden, profesor de psicología social en la sociedad en la Universidad de Cambridge, Reino Unido. “Aunque podría encajar en una definición (de desinformación) en un sentido muy técnico, no estoy seguro de si esa es la forma correcta de describirlo de manera más general porque podría conducir a una mayor politización de la ciencia, lo cual no es deseable”. – Clarke
Este tipo de “politización de la ciencia” es exactamente lo que sucedió durante esta pandemia.
Se está suprimiendo la ciencia para obtener beneficios políticos y económicos. Covid-19 ha desatado la corrupción estatal a gran escala y es perjudicial para la salud pública. Los políticos y la industria son responsables de esta malversación oportunista. También lo son los científicos y los expertos en salud. La pandemia ha revelado cómo se puede manipular el complejo médico-político en una emergencia, un momento en el que es aún más importante salvaguardar la ciencia. – Kamran Abbas es médico, editor ejecutivo del British Medical Journal y editor del Bulletin de la Organización Mundial de la Salud. (fuente )
Un punto importante a transmitir es también el hecho de que estos “verificadores de hechos” independientes están trabajando con Facebook, quien a su vez está trabajando con el gobierno. El denunciante de la NSA Edward Snowden ofreció sus pensamientos sobre la censura que hemos estado viendo durante esta pandemia en noviembre del año pasado ydeclaró lo siguiente:
En secreto, todas estas empresas habían acordado trabajar con el gobierno de los EE. UU. Mucho más allá de lo que la ley les exigía, y eso es lo que estamos viendo con este nuevo impulso de censura que es realmente una nueva dirección en la misma dinámica. Estas empresas no están obligadas por ley a hacer casi nada de lo que realmente están haciendo, pero van más allá, para, en muchos casos, aumentar la profundidad de su relación (con el gobierno) y la voluntad del gobierno. para evitar tratar de regularlos en el contexto de sus actividades deseadas, que en última instancia es dominar el espacio de conversación e información de la sociedad global de diferentes maneras … Están tratando de hacer que cambie su comportamiento.
Si no se siente cómodo dejando que el gobierno determine los límites del discurso político apropiado, ¿por qué le ruega a Mark Zuckerberg que lo haga?
Creo que la realidad aquí es … no se trata realmente de la libertad de expresión, y no se trata realmente de proteger a las personas del daño … Creo que lo que ves es que Internet se ha convertido en el medio de facto de comunicación masiva. Eso representa la influencia que representa el poder, y lo que vemos es que vemos un gran número de tribus diferentes básicamente peleando para tratar de obtener el control sobre este instrumento de poder.
Lo que vemos es una tendencia creciente a silenciar a los periodistas que dicen cosas que son minoría.
Te hace preguntarte, ¿esta “verificación de datos” se trata en realidad de verificación de datos? ¿O pasa algo más aquí?
A continuación se muestra un desglose del artículo de Clarke que ilustra cómo funciona la verificación de hechos y cuál es el problema de seguir la ciencia. Dado que hemos informado de esto muchas veces durante los últimos 5 años, decidimos dejar que nuestros lectores lo escuchen de otra persona para variar, ya que es realmente bastante reivindicativo ver que más investigadores llegan a estas conclusiones.
Cómo funciona la verificación de hechos
La última década ha sido testigo de una carrera armamentista entre los usuarios que venden desinformación (intencionalmente diseñada para inducir a error) o inconscientemente comparten información errónea (que los usuarios no se dan cuenta que es falsa) y las plataformas de redes sociales que se encuentran encargadas de vigilarlo, ya sea que quieran o no.1
Cuando The BMJ cuestionó a Facebook, Twitter y YouTube (que es propiedad de Google), todos destacaron sus esfuerzos para eliminar el contenido potencialmente dañino y dirigir a los usuarios hacia fuentes autorizadas de información sobre el covid-19 y las vacunas, incluida la Organización Mundial de la Salud y el Centros para el Control y la Prevención de Enfermedades de EE. UU. Aunque sus políticas de moderación difieren levemente, las plataformas generalmente eliminan o reducen la circulación de contenido que cuestiona información proporcionada por autoridades sanitarias como la OMS y los CDC o difunde afirmaciones de salud falsas que se consideran nocivas, incluida información incorrecta sobre los peligros de las vacunas.
Pero la pandemia ha visto un mosaico cambiante de criterios empleados por estas empresas para definir los límites de la desinformación. Esto ha llevado a algunos cambios de sentido sorprendentes: al comienzo de la pandemia, las publicaciones que decían que las máscaras ayudaron a prevenir la propagación del covid-19 fueron etiquetadas como “falsas”; ahora es todo lo contrario, reflejando la naturaleza cambiante del debate académico y las recomendaciones oficiales.
Twitter gestiona su verificación de datos internamente. Pero Facebook y YouTube se basan en asociaciones con verificadores de hechos de terceros, convocados bajo el paraguas de la Red Internacional de Verificación de Datos, un organismo no partidista que certifica a otros verificadores de hechos, dirigido por el Instituto Poynter de Estudios de Medios, un periodismo sin fines de lucro escuela en San Petersburgo, Florida. Los principales donantes de Poynter incluyen el Instituto Charles Koch (una organización de investigación de políticas públicas), el National Endowment for Democracy (una agencia del gobierno de EE. UU.) Y Omidyar Network (una “empresa de inversión filantrópica”), así como Google y Facebook. Poynter también es propietario del periódico Tampa Bay Times y del verificador de hechos de alto perfil PolitiFact. El Instituto Poynter declinó la invitación del BMJ para comentar este artículo.
Para el contenido científico y médico, la Red Internacional de Verificación de Datos incluye equipos poco conocidos como SciCheck, Metafact y Science Feedback. Health Feedback, una subsidiaria de Science Feedback, selecciona a los científicos para que emitan su veredicto. Con este método, etiquetó como “engañoso” un artículo de opinión2 del Wall Street Journal que predice que Estados Unidos tendría inmunidad colectiva para abril de 2021, escrito por Marty Makary, profesor de política y gestión de la salud en la Universidad John Hopkins en Baltimore, Maryland. Esto llevó al periódico a emitir un título de refutación titulado “Verificación de hechos de los verificadores de hechos de Facebook”, argumentando que la calificación era “contra opinión disfrazada de verificación de hechos”.3 Makary no había presentado su argumento como una afirmación fáctica, decía el artículo, pero había hecho una proyección basada en su análisis de la evidencia.
Un portavoz de Science Feedback le dice a The BMJ que, para verificar las afirmaciones, selecciona a los científicos sobre la base de “su experiencia en el campo de la afirmación / artículo”. Explican: “Los editores de Science Feedback generalmente comienzan buscando en la literatura académica relevante e identificando a los científicos que han escrito artículos sobre temas relacionados o que tienen la experiencia necesaria para evaluar el contenido”.
Luego, la organización les pide a los científicos seleccionados que opinen directamente o recopila las afirmaciones que han hecho en los medios de comunicación o en las redes sociales para llegar a un veredicto. En el caso del artículo de Makary, identificó a 20 científicos relevantes y recibió comentarios de tres.
“Sigue la ciencia”
La naturaleza polémica de estas decisiones se debe en parte a cómo las plataformas de redes sociales definen los conceptos escurridizos de desinformación versus desinformación. Esta decisión se basa en la idea de un consenso científico. Pero algunos científicos dicen que esto sofoca opiniones heterogéneas, reforzando de manera problemática la idea errónea de que la ciencia es un monolito.
Esto se resume en lo que se ha convertido en un eslogan pandémico: “Siga la ciencia”. David Spiegelhalter, presidente del Centro Winton para la Comunicación de Riesgos y Evidencia en la Universidad de Cambridge, llama a esto “absolutamente horrible”, diciendo que a puerta cerrada los científicos pasan todo el tiempo discutiendo y discrepando profundamente sobre algunas cosas bastante fundamentales.
Él dice: “La ciencia no está al frente diciéndote qué hacer; no debería ser. Lo veo mucho más como caminar a tu lado murmurando para sí mismo, haciendo comentarios sobre lo que está viendo y haciendo algunas sugerencias tentativas sobre lo que podría suceder si tomas un camino en particular, pero no está a cargo “.
El término “desinformación” podría contribuir en sí mismo a aplanar el debate científico. Martin Kulldorff, profesor de medicina de la Facultad de Medicina de Harvard en Boston, Massachusetts, ha sido criticado por sus opiniones sobre el encierro, que se ajustan estrechamente a la estrategia más relajada de su Suecia natal.4 Dice que los científicos que expresan opiniones poco ortodoxas durante la pandemia están preocupados por enfrentar “diversas formas de difamación o censura. . . dicen ciertas cosas pero no otras, porque sienten que serán censuradas por Twitter, YouTube o Facebook ”. Esta preocupación se ve agravada por el temor de que pueda afectar la financiación de las subvenciones y la capacidad de publicar artículos científicos, le dice a The BMJ.
La idea binaria de que las afirmaciones científicas son correctas o incorrectas ha contribuido a la división que ha caracterizado a la pandemia. Samantha Vanderslott, socióloga de la salud de la Universidad de Oxford, Reino Unido, le dijo a Nature: “Invocar historias falsas puede elevar tu perfil”. En el mismo artículo, Giovanni Zagni, director del sitio web italiano de verificación de datos Facta, señaló que “puedes construir una carrera” sobre la base de convertirte en “una voz muy respetada que lucha contra la mala información”.5
Pero esto ha alimentado un incentivo perverso para que los científicos etiqueten las posiciones de los demás como desinformación o desinformación.6 Van der Linden compara esto con la forma en que Donald Trump utilizó el término “noticias falsas” para silenciar a sus críticos. Él dice: “Creo que ves un poco de lo mismo con el término ‘desinformación’, cuando hay ciencia con la que no estás de acuerdo y la etiquetas como desinformación”.
El sitio web de Health Feedback dice que no seleccionará científicos para verificar las afirmaciones si han socavado su credibilidad al “propagar información errónea, ya sea intencionalmente o no”. En la práctica, esto podría crear una situación kafkiana en la que los científicos no pueden ofrecer su opinión como parte del proceso de verificación de datos si expresaron una opinión que Facebook etiquetó como desinformación. Para fortalecer el efecto de la cámara de eco, Health Feedback a veces verifica las afirmaciones observando lo que los científicos han dicho en Twitter o en los medios de comunicación.
“Verdad” científica
Van der Linden dice que es importante que la gente entienda que en el ámbito científico “hay incertidumbre, hay debate y se trata de la acumulación de conocimientos a lo largo del tiempo y de revisar nuestras opiniones a medida que avanzamos”. Un debate saludable ayuda a separar el trigo de la paja. Jevin West, profesor asociado de la Escuela de Información de la Universidad de Washington en Seattle, dice que las plataformas de redes sociales deben, por lo tanto, tener “mucho cuidado cuando se trata de debates relacionados con la ciencia”. Él explica: “La institución de la ciencia ha desarrollado estas normas y comportamientos para ser autocorregibles. Entonces, para que [las plataformas de redes sociales] intervengan en esa conversación, creo que es problemático “.
Los expertos que hablaron con The BMJ enfatizaron la casi imposibilidad de distinguir entre una opinión científica minoritaria y una opinión objetivamente incorrecta (desinformación). Spiegelhalter dice que esto constituiría un difícil “juicio legalista sobre lo que sería una opinión científica razonable. . . Tengo mis propios criterios que utilizo para decidir si creo que algo es engañoso, pero me resulta muy difícil codificarlo “.
A otros científicos les preocupa que, si este enfoque de la desinformación científica sobrevive a la pandemia, el debate científico podría volverse preocupantemente sujeto a imperativos comerciales. Vinay Prasad, profesor asociado de la Universidad de California en San Francisco, argumentó en el sitio web MedPage Today: “El riesgo es que la miríada de actores de la biomedicina, desde grandes hasta pequeñas empresas biofarmacéuticas y de dispositivos [médicos], lleven sus preocupaciones a las redes sociales y empresas de revistas. En un tema como los medicamentos contra el cáncer, los líderes de opinión clave que trabajan con la empresa pueden superar en número 10: 1 a un puñado de personas que critican la aprobación de un nuevo medicamento “.7 Por lo tanto, la mayoría de los que hablan más alto, más visiblemente y con el mayor número en línea, pueden ser considerados “correctos” por el público y, como dice el refrán, la historia la escriben los vencedores.
Las empresas de redes sociales todavía están experimentando con la nueva serie de medidas introducidas desde el año pasado y pueden adaptar su enfoque. Van der Linden dice que las conversaciones que ha tenido con Facebook se han centrado en cómo la plataforma podría ayudar a fomentar una apreciación de cómo funciona la ciencia, “para dirigir a las personas al contenido que los educa sobre el proceso científico, en lugar de etiquetar algo como verdadero o falso . “
Este debate se desarrolla en contra de una lucha ideológica más amplia, donde el ideal de la “verdad” se coloca cada vez más por encima del “debate saludable”. Kulldorff dice: “Para eliminar cosas en general, creo que es una mala idea. Porque incluso si algo está mal, si lo quita, no hay oportunidad de discutirlo “. Por ejemplo, aunque favorece la vacunación en general, las personas con miedos o dudas sobre las vacunas utilizadas no deberían ser silenciadas en los espacios online, dice. “Si no tenemos un debate abierto dentro de la ciencia, eso tendrá enormes consecuencias para la ciencia y la sociedad”.
Existe la preocupación de que este enfoque pueda, en última instancia, socavar la confianza en la salud pública. En Estados Unidos, dice West, la confianza en el gobierno y los medios de comunicación está cayendo. Explica: “La ciencia sigue siendo una de las instituciones más confiables, pero si comienzas a etiquetar y cerrar la conversación dentro de la ciencia, para mí eso es incluso peor que la publicación real de estos artículos individuales”.
Para obtener referencias completas, utilice el enlace fuente a continuación.