La agencia noticiosa AFP, desde Nueva York, informó que YouTube anunció el miércoles un endurecimiento de su política de publicación contra los contenidos antivacunas e indicó que sus medidas no se limitarán a los videos de desinformación sobre los inmunizantes contra el Covid-19.

“Serán suprimidos los videos con contenidos que falsamente afirman que las vacunas aprobadas son peligrosas y causan efectos crónicos en la salud, que dicen que las vacunas no reducen la transmisión de enfermedades o hacen contraer enfermedades o que contienen información errónea sobre las sustancias empleadas”, dijo la plataforma en un comunicado.

La plataforma más poderosa de videos dijo que la medida abarca contenidos según los cuales las vacunas aprobadas causan autismo, cáncer o infertilidad o que pueden marcar a quienes las reciben.

Incluso, videos erróneos o mentirosos sobre vacunas más antiguas como la de la rubeola o la hepatitis B también podrían ser eliminados de sus archivos de contenido.

En contrapartida, “los contenidos sobre políticas de vacunación, nuevos ensayos vacunales así cómo los de éxitos o fracasos históricos de las vacunas” siguen permitidos en tanto respeten las normas de la plataforma.

La plataforma ya tomó medidas contra la desinformación sobre las vacunas anticovid y dijo haber eliminado en un año más de 130 videos que transgredían sus normas.

Y aprovechando el viaje, el martes suspendió las cuentas alemanas de la televisión pública rusa RT por difundir “falsas informaciones sobre el Covid-19”.

Moscú consideró que la sanción es una censura y amenazó con bloquear a YouTube.

Por otro lado, las grandes plataformas de redes sociales y de contenido están siendo presionadas a suprimir o mitigar los contenidos antivacunas de sus plataformas, especialmente desde el comienzo de la pandemia.

A mediados de este mes Facebook presentó una nueva herramienta contra grupos complotistas o violentos. Apuntó especialmente al movimiento alemán “Querdenken” (“Anticonformista”), que asocia las medidas sanitarias contra la pandemia a la privación de libertades.

Twitter también tiene un reglamento sobre el tema y se abroga el derecho de retirar contenidos y castigar en caso de infracciones.

No es la primera vez

Hay que recordar que desde febrero de 2020 eliminaron más de un millón de videos relacionados con información peligrosa sobre el coronavirus, como falsos remedios afirmaciones engañosas.

YouTube indicó en una entrada , desde entonces en su blog, que basa sus lineamientos en el “consenso de expertos de organizaciones de salud”, incluidos los Centros para el Control y la Prevención de Enfermedades y la Organización Mundial de la Salud, aunque admitió que en algunos casos “la desinformación es menos evidente”.

“Nuestras políticas se centran en eliminar cualquier video que podría conducir directamente a un daño grave en el mundo real”, escribió Neal Mohan, jefe de producto.

“Desde febrero de 2020 hemos eliminado más de un millón de videos relacionados con información peligrosa sobre el coronavirus, como falsos remedios o afirmaciones engañosas”, añadió.

“En medio de una pandemia, todo el mundo debería disponer de la mejor información posible para mantenerse a sí mismo y a su familia a salvo”.

YouTube indicó estar trabajando para acelerar el proceso de eliminación de videos engañosos al tiempo que favorece los de fuentes confiables.

Mohan dijo que la plataforma elimina actualmente alrededor de 10 millones de videos por trimestre y que la mayoría son vistos menos de 10 veces.

“Eliminarlos rápidamente siempre será importante, pero sabemos que no es ni remotamente suficiente (…) Lo mejor que podemos hacer es amplificar lo bueno y reducir lo malo”, agregó.

“Ahora cuando la gente busca noticias o información, obtiene resultados optimizados por su calidad, no por lo sensacionalista que puede ser su contenido”.

Con información de AFP, La Jornada, Excelsior.