
En el panorama digital actual, existe una creencia persistente sobre la existencia de una “lista secreta” de palabras prohibidas en las redes sociales. Ese es el punto de partida del fenómeno conocido como Algospeak: el uso intencionado de palabras y códigos alternativos por parte de los usuarios para evitar la supuesta censura algorítmica de las grandes plataformas. Expresiones como “unalived” en vez de “killed”, “pew pews” para armas o “seggs” en lugar de sexo circulan en internet, impulsadas por la idea de que ciertos términos pueden detener la expansión de los contenidos e incluso llevar a su eliminación.
Lejos de ser exclusivamente un acto de rebeldía, la adopción del Algospeak responde a una autocensura generalizada alimentada por la incertidumbre: los usuarios sospechan que los algoritmos pueden ocultar o penalizar contenidos con palabras controversiales, ya sea por agendas políticas empresariales o por la necesidad de ofrecer espacios “seguros” y atractivos para los anunciantes. Quienes emplean este código reconocen a menudo el carácter absurdo del lenguaje, pero muchos creen que no tienen otra opción si desean que su contenido prospere.
La postura de las plataformas: un fenómeno negado

A pesar de las sospechas extendidas entre creadores y usuarios, las principales redes sociales rechazan tajantemente la existencia de un listado de términos vetados. Portavoces de YouTube, Meta y TikTok insisten en que no hay listas negras de palabras, y que sus sistemas de moderación y recomendación actúan exclusivamente sobre contenidos que infringen normas comunitarias claras. Boot Bullwinkle, portavoz de YouTube, lo expresa con contundencia: “YouTube no tiene una lista de palabras prohibidas o restringidas”. Además, subraya: “Nuestras políticas reflejan nuestra comprensión de que el contexto importa y que las palabras pueden tener distintos significados e intenciones. La eficacia de este enfoque matizado se refleja en la diversidad de temas, voces y perspectivas que se ven en YouTube”.
Meta y TikTok sostienen un discurso similar: aseguran que eliminan o suprimen publicaciones únicamente cuando lo exige la violación de normas comunitarias, con procesos transparentes y notificaciones a los usuarios. No obstante, la experiencia cotidiana de miles de usuarios —sumada a diversas investigaciones— revela un panorama mucho más complejo, donde la opacidad y el secretismo en el funcionamiento de los algoritmos generan un terreno fértil para la sospecha y la autocensura.
Censura, creatividad y ambigüedad: el camino del Algospeak
El caso de Alex Pearlman, creador de contenido con millones de seguidores en TikTok, Instagram y YouTube, ejemplifica la tensión constante con la moderación algorítmica. Pearlman comenta: “Solo para empezar, hablando únicamente de TikTok, rara vez digo la palabra ‘YouTube’. Al menos según mi experiencia, si reviso mis estadísticas, cuando digo algo como ‘ve a mi canal de YouTube’, el video va a [fracasar]”. En sus contenidos sobre temas delicados —como los videos dedicados a Jeffrey Epstein— llegó a experimentar bloqueos y sanciones de TikTok, aunque esos mismos videos permanecían disponibles en Instagram y YouTube. Ante la falta de claridad sobre qué palabras o frases detonan la intervención algorítmica, Pearlman adoptó el Algospeak y utilizó apodos como “el Hombre de la Isla” para esquivar eventuales restricciones: “Empecé a hablar de él usando lenguaje codificado, llamándolo ‘el Hombre de la Isla’”.
Su estrategia encierra una paradoja: el uso de lenguaje codificado dificulta la comprensión para la audiencia general, a la vez que alimenta la idea de que existen mecanismos de censura invisibles e impredecibles. Pearlman lo resume así: “El problema del lenguaje codificado es que gran parte del público no sabe de quién estás hablando”. Según Pearlman, este clima de ambigüedad llevó a otros creadores a evitar temas sensibles, y el miedo a las sanciones acabó impulsando una autocensura que trasciende la verificación objetiva de las reglas.
Los algoritmos y su sombra: investigaciones e intervencionismo

A pesar de los desmentidos públicos, investigaciones independientes han documentado la intervención directa de las plataformas en la difusión de determinados contenidos.
TikTok habría instruido a moderadores para minimizar la visibilidad de personas consideradas “poco atractivas”, pobres o pertenecientes a la comunidad LGBTQ+, supuestamente para mantener un entorno favorable para la imagen de la aplicación.
Incluso se supo de la existencia de un botón “heating”, con el cual TikTok podía promover manualmente videos determinados, en ocasiones para crear alianzas comerciales, ilustrando el poder real —aunque opaco— de las plataformas para decidir qué contenidos triunfan o fracasan. El propio Pearlman ofrece un razonamiento concluyente sobre ello: “Bueno, si tienen un botón para calentar, también tienen uno para enfriar”.
Creadores atrapados en la ambigüedad

Para figuras como Ariana Jasmine Afshar, popular por su activismo, el Algospeak es al mismo tiempo un recurso útil y una muestra de la falta de certeza en la relación con las plataformas. Afshar reconoce: “Ninguno de nosotros sabe qué funciona y qué no. Solo estamos lanzando todo contra la pared a ver qué se queda pegado”. Afirma también: “No tengo ni idea” sobre si las palabras en clave realmente hacen la diferencia. Así, muchos creadores sienten que la censura algorítmica condiciona su trabajo, aunque no siempre puedan comprobar su eficacia. Su experiencia concreta lleva a una conclusión directa: “De verdad me confunden, para serte completamente sincera”.
La propia Afshar fue contactada por representantes de Instagram para recibir asesoramiento, lo que refuerza la contradicción: la polémica y los temas controvertidos circulan y se premian, pero bajo reglas que cambian y no siempre se explican. “Es algo real, pero es difícil distinguir entre lo que es verdad y lo que no”, agrega Afshar.
Moderación, intereses económicos y consecuencias
El fondo de esta tensión radica en la naturaleza económica de las redes sociales. La prioridad de las plataformas es mantener entornos atractivos para los usuarios y especialmente para los anunciantes, evitando fricciones que puedan ahuyentar inversiones o atraer regulaciones estatales. Así, la moderación algorítmica no responde necesariamente a criterios políticos o éticos, sino a la preservación de la viabilidad comercial. La profesora Roberts lo resume: “Si las personas están insatisfechas con aspectos de nuestra vida cívica, ¿es realmente la mejor forma de expresarlo desahogarse dentro de plataformas que se benefician de esa insatisfacción y frustración?”. Y advierte: “Creo que como sociedad debemos empezar a cuestionarnos si esta es realmente la mejor manera de relacionarnos”.
La consecuencia es clara: la opacidad y flexibilidad de las reglas, más que una lista secreta de palabras, impone límites imprevisibles al debate público. El resultado es una comunidad que se autocensura y experimenta con códigos, alimentando el ciclo entre percepción, algoritmo y discurso social.
Últimas Noticias
Una joven creyó que la visión doble era por la presión del avión y era un tumor cerebral mortal
Abi Smith, oriunda de Birmingham, detectó síntomas iniciales durante un vuelo a Estados Unidos que derivaron en el hallazgo de un tumor cerebral

El aliado menos pensado del corredor: cuál es la clave para prevenir lesiones
En el mundo del running abundan los consejos para proteger a los músculos y articulaciones, pero el secreto podría no estar ni en el entrenamiento ni en la alimentación. Una reciente investigación destaca el valor de un factor subestimado que muchos corredores deberían tener en cuenta

La trágica historia de Lilavati: cómo un acertijo matemático nació de un corazón roto
La leyenda de Lilavati y su padre, el sabio Bhaskara II, mezcla amor, tragedia y matemáticas en una aventura sorprendente que aún fascina a científicos y soñadores de todo el mundo

Prueban que los residuos de tabaco impactan en los niños, aunque vivan en casas libres de humo
Investigadores de Estados Unidos detectaron biomarcadores de exposición a esa sustancia tóxica en menores de edad que habitan viviendas donde nadie fuma. Cómo comprobaron que los contaminantes se mantenían en prendas, muebles y juguetes

Santiago Serrano: el artista argentino que convierte el mar en emoción y color
Ocho paisajes marinos —desde Panamá hasta la Costa Amalfitana— protagonizan la exposición del pintor en Buenos Aires, una invitación a contemplar el pulso vital de las aguas y su evolución que se define por la búsqueda de luz y movimiento



