YouTube flexibiliza las normas que rigen la moderación de los videos

Reportajes Especiales - Business

Guardar

SAN FRANCISCO - Durante años, YouTube ha eliminado videos con frases despectivas de insulto, desinformación sobre las vacunas COVID-19 y falsedades electorales debido a que el contenido infringía las normas de la plataforma.

Sin embargo, desde el regreso del presidente Donald Trump a la Casa Blanca, YouTube ha animado a sus moderadores de contenidos a dejar videos con contenido que infrinja las normas de la plataforma en lugar de eliminarlos, si consideran que estos son de interés público. Algunos ejemplos son debates sobre temas políticos, sociales y culturales.

Este cambio de política, que no se ha anunciado al público, convierte a YouTube en la plataforma de medios sociales más reciente que ha cejado en su empeño de vigilar el modo de expresión en Internet, a raíz de la presión republicana para que se dejen de moderar los contenidos. En enero, Meta adoptó una medida similar, con la que le puso fin a un programa de comprobación de hechos en las publicaciones de las redes sociales. Meta, propietaria de Facebook e Instagram, siguió los pasos de X, la plataforma social de Elon Musk, y les dejó a los usuarios la responsabilidad de vigilar los contenidos.

Pero, a diferencia de Meta y X, YouTube no ha hecho ninguna declaración pública sobre la relajación de la moderación de contenidos. El servicio de videos en línea presentó su nueva política a mediados de diciembre en un material de capacitación que fue revisado por The New York Times.

Para los videos considerados de interés público, YouTube elevó el umbral del contenido ofensivo permitido de un cuarto de video a medio video. La plataforma también animó a los moderadores a dejar videos como reuniones de ayuntamiento, mítines de campaña y conversaciones políticas. Con esta política, la plataforma se aleja de algunas de las prácticas que aplicó durante la pandemia, cuando eliminó videos de reuniones de ayuntamientos locales y de un debate entre el gobernador de Florida, Ron DeSantis, y un grupo de científicos por difundir desinformación médica.

Estas exenciones más amplias podrían beneficiar a algunos comentaristas políticos cuyos largos videos mezclan cobertura informativa con opiniones y afirmaciones sobre temas diversos, sobre todo ahora que YouTube adquiere un papel más destacado como principal distribuidor de pódcast. La política también ayuda a la plataforma de videos a evitar los ataques de políticos y activistas frustrados por el tratamiento que les dio a contenidos sobre los orígenes del COVID, las elecciones de 2020 y Hunter Biden, el hijo del expresidente Joe Biden.

Nicole Bell, portavoz de la empresa, hizo notar que YouTube actualiza continuamente las indicaciones que les da a los moderadores de contenidos con respecto a temas que surgen en el discurso público. Bell también explicó que la empresa retira las políticas que ya no tienen sentido, como ocurrió en 2023 en el caso de cierta desinformación sobre el COVID, y refuerza políticas cuando está justificado, como ocurrió este año cuando prohibió contenidos que dirigen a la gente a sitios web de apuestas.

En los tres primeros meses de este año, YouTube eliminó 192.586 videos debido a su contenido de odio y abusivo, un 22 por ciento más que un año antes.

"Puesto que la definición de 'interés público' siempre está en evolución, actualizamos nuestros lineamientos para que estas excepciones reflejen los nuevos tipos de debate que vemos hoy en la plataforma", puntualizó Bell en un comunicado. Además, añadió: "Nuestro objetivo sigue siendo el mismo: proteger la libertad de expresión en YouTube sin dejar de mitigar todo tipo de daños atroces".

Varios críticos afirman que los cambios introducidos por las plataformas de medios sociales han contribuido a la rápida difusión de afirmaciones falsas y podrían fomentar el odio digital. El año pasado, en X, una publicación contenía la siguiente afirmación errónea: "Las oficinas de asistencia social de 49 estados les están entregando solicitudes de registro al padrón electoral a extranjeros ilegales", según el Center for Countering Digital Hate, que estudia la desinformación y la incitación al odio. La publicación, eliminada antes de los recientes cambios de política, fue vista 74,8 millones de veces.

Desde hace mucho, Meta ha eliminado anualmente unos 277 millones de artículos de contenido pero, con las nuevas políticas, gran parte de esos contenidos podrían permanecer, incluidos comentarios como "Los negros son más violentos que los blancos", señaló Imran Ahmed, director general del centro.

"Lo que estamos observando es una rápida carrera hacia el fondo", indicó. Los cambios benefician a las empresas porque reducen los costos de la moderación de contenidos y mantienen más contenidos en línea para captar la atención de los usuarios, añadió. "No se trata de libertad de expresión. Se trata de publicidad, amplificación y, en última instancia, beneficios".

En el pasado, YouTube le ha dado prioridad a la vigilancia de los contenidos a fin de mantener la plataforma segura para los anunciantes. Desde hace tiempo prohíbe los desnudos, la violencia gráfica y la incitación al odio. Pero la empresa siempre se ha dado mucho espacio de maniobra para interpretar las normas. Las políticas permiten que los videos que infringen las normas de YouTube, que en general son pocos, permanezcan en la plataforma si tienen suficiente mérito educativo, documental, científico o artístico.

Las nuevas políticas, esbozadas en el material de capacitación, amplían las excepciones de YouTube. Se basan en los cambios realizados antes de las elecciones de 2024, cuando la empresa empezó a permitir videos cortos de candidatos electorales en la plataforma incluso si los candidatos infringían sus políticas, según el material de formación.

Anteriormente, YouTube eliminaba un video catalogado como de interés público si una cuarta parte del contenido infringía las normas de la plataforma. A partir del 18 de diciembre, los responsables de confianza y seguridad de YouTube les informaron a los moderadores de contenidos que la mitad de un video podía incumplir las normas de YouTube y seguir en línea.

Otros contenidos que mencionan cuestiones políticas, sociales y culturales también han quedado exentos de las directrices de contenido habituales de YouTube. La plataforma determinó que los videos son de interés público si los creadores dialogan o debaten sobre elecciones, ideologías, movimientos, raza, género, sexualidad, aborto, inmigración, censura y otras cuestiones.

Megan A. Brown, estudiante de doctorado de la Universidad de Míchigan que investiga el ecosistema de la información en línea, comentó que las políticas más laxas de YouTube suponían un retroceso respecto a una época en la que ésta y otras plataformas "decidieron que la gente podía compartir temas políticos pero que mantendrían cierto decoro". Teme que la nueva política de YouTube "no sea una buena estrategia para conseguirlo".

Durante la capacitación sobre la nueva política, el equipo de confianza y seguridad aclaró que los moderadores de contenidos debían abstenerse de restringir contenidos si "el valor de la libertad de expresión supera el riesgo de daño". Si los empleados tienen dudas sobre la idoneidad de un video, pueden planteárselas a sus superiores en lugar de eliminarlo.

A los empleados de YouTube se les presentaron ejemplos reales de aplicación de las nuevas políticas. La plataforma le dio el visto bueno a un video creado por un usuario titulado "RFK Jr. Delivers SLEDGEHAMMER Blows to Gene-Altering JABS", que infringía la política de YouTube contra la desinformación médica porque afirma incorrectamente que las vacunas COVID alteran los genes de las personas.

El equipo de confianza y seguridad de la empresa decidió que el video no debía retirarse, según el material de formación, porque el interés público en el video "supera el riesgo de daño". El video se consideró de interés periodístico porque presentaba noticias de actualidad sobre las recientes acciones en relación con las vacunas COVID del secretario del Departamento de Salud y Servicios Humanos, Robert F. Kennedy Jr. El video también mencionaba a figuras políticas como el vicepresidente JD Vance, Elon Musk y Megyn Kelly, lo que aumentaba su "interés periodístico".

Además, el creador del video también analizó un estudio médico universitario y presentó titulares de noticias sobre personas que experimentaban efectos adversos de las vacunas COVID, "señalando que se trata de un tema muy debatido (y un tema político delicado)", según el material. Como el creador no recomendaba explícitamente no vacunarse, YouTube decidió que el video tenía un riesgo bajo de causar daños.

Actualmente, el video ya no está disponible en YouTube. No está claro por qué.

Otro video compartido con el personal contenía un insulto sobre una persona transexual. El equipo de confianza y seguridad de YouTube explicó que el video de 43 minutos, en el que se hablaba de las audiencias para los nombramientos del gabinete del gobierno de Trump, debía seguir en línea porque la descripción solo contenía una única infracción de la norma de acoso de la plataforma que prohíbe una "expresión maliciosa contra un individuo identificable".

En un video de Corea del Sur aparecían dos comentaristas hablando sobre el expresidente del país Yoon Suk Yeol. Hacia la mitad del video de más de tres horas, uno de los comentaristas dijo que se imaginaba a Yoon puesto al revés en una guillotina para que el político "pudiera ver bajar la navaja".

El video fue aprobado porque en su mayor parte hablaba de la destitución y detención de Yoon. En su material de capacitación, YouTube añadió que también había considerado bajo el riesgo de daños porque "el deseo de ejecución por guillotina no es factible".

Youtube, la mayor plataforma de video del mundo, les ha dicho a los moderadores de contenidos que, para decidir qué retirar, antepongan la "libertad de expresión" al riesgo de sufrir daños. (Matt Chase/The New York Times)