La plataforma social Discord, con 200 millones de usuarios activos mensuales, prepara un cambio drástico en la manera en que gestiona la edad y la privacidad de sus miembros. A partir de marzo de 2026, tanto nuevas como antiguas cuentas deberán verificar la edad si desean modificar ajustes de comunicación o acceder a contenidos restringidos.
Esta verificación podrá hacerse mediante un escaneo facial o presentando un documento de identidad. La medida transformará el anonimato que hasta ahora caracterizaba a Discord, con el objetivo de reforzar la seguridad para adolescentes.
Verificación obligatoria de edad en Discord
En el nuevo sistema, cualquier usuario que quiera desbloquear canales, servidores o contenidos clasificados por edad deberá demostrar que es mayor de edad. Discord exigirá una de dos opciones: reconocimiento facial a través de un video realizado con el propio dispositivo o el envío de una copia de un documento oficial.
La verificación será necesaria también para cambiar ciertas configuraciones de comunicación y solo los adultos verificados podrán modificar estos parámetros.
La experiencia para adolescentes se activará automáticamente en todas las cuentas, independientemente del país o antigüedad. Esta configuración por defecto limitará el acceso a funciones sensibles. Los filtros de contenido permanecerán activos y no podrán desactivarse. Los mensajes directos de desconocidos se enviarán a una bandeja separada, dificultando el contacto no solicitado.
Savannah Badalich, responsable de política de producto en Discord, aseguró: “Nuestro trabajo de seguridad es más importante que nunca cuando se trata de usuarios adolescentes”. La declaración refleja la prioridad que la plataforma otorga a la protección de los menores en línea.

Restricciones para cuentas no verificadas y despliegue global
Las cuentas que no completen la verificación quedarán sujetas a una serie de restricciones. Los filtros de contenido sensible estarán siempre activos, y los canales o servidores restringidos por edad permanecerán inaccesibles.
Además, la opción de modificar la configuración de mensajes directos solo estará habilitada para adultos que hayan probado su edad.
Discord ya había iniciado pruebas de este modelo durante 2025 en Reino Unido y Australia, impulsada por la Ley de Seguridad Online británica. Ahora, la plataforma extiende el sistema a nivel global mediante un despliegue gradual que abarcará a todos los usuarios, tanto nuevos como existentes.
Seguridad de los datos y controversias tras la filtración
La exigencia de verificación de edad llega en un contexto sensible para la plataforma. En octubre de 2025, la compañía admitió que un grupo de ciberdelincuentes comprometió a uno de sus proveedores externos de atención al cliente.

El incidente expuso fotografías de documentos de identidad de aproximadamente 70.000 usuarios, imágenes que habían sido enviadas durante apelaciones de verificación de edad. Los atacantes afirmaron haber robado datos de más de dos millones de cuentas, aunque Discord nunca reconoció esa cifra.
La gestión de datos personales se ha convertido en uno de los puntos más controvertidos del nuevo sistema. La empresa informa que ha cambiado de proveedor y ajustado su política desde el ataque. Los videos usados para reconocimiento facial ahora se procesan en el propio dispositivo y “nunca abandonan el teléfono”.
Los documentos de identidad enviados para verificación “se eliminan, en la mayoría de los casos, inmediatamente después de confirmar la edad”. Además, el estado de verificación no es visible para otros usuarios y, en principio, la compañía asegura que solo será necesario completar el proceso una vez.

Verificación de edad y endurecimiento de medidas en plataformas digitales
El endurecimiento de las reglas en Discord se da en el marco de un movimiento global hacia una mayor verificación de edad en entornos digitales. Roblox, por ejemplo, fue pionero al exigir escaneos faciales para acceder a su chat, política implementada en todo el mundo desde enero de 2026 tras pruebas en Australia, Nueva Zelanda y Países Bajos.
Roblox segmenta a sus usuarios en seis franjas etarias para impedir la comunicación entre menores y adultos, una medida relevante considerando que cerca del 40% de sus jugadores tiene menos de 13 años.
Otras redes sociales como Instagram y TikTok han reforzado sus configuraciones de seguridad para adolescentes, implementando cuentas privadas por defecto, límites de tiempo de pantalla y restricciones en las notificaciones nocturnas.

El año 2025 resultó un punto de inflexión para la protección de menores en línea. La mitad de los estados de Estados Unidos exige ya algún tipo de verificación de edad para acceder a redes sociales o contenidos para adultos.
Australia prohibió el acceso a redes sociales a menores de 16 años en diciembre de ese año. Francia, por su parte, promulgó en enero de 2026 una ley que veta el uso de redes sociales a menores de 15 años.
Últimas Noticias
Youtube en España: la lista de los 10 videos más reproducidos de este sábado
Google compró YouTube en el 2006 por un valor de 1650 millones de dólares; en ese entonces se visualizaban 100 millones de videos al día

Cómo configurar tu celular para mejorar los selfies nocturnos
Mejorar los selfies nocturnos es posible con simples cambios en la iluminación, la posición y los ajustes de la cámara

Tu lavadora puede durar más tiempo si sigues estos 5 consejos
El correcto uso de las funciones digitales, programas eficientes y pequeñas rutinas de mantenimiento diario pueden transformar el rendimiento de la lavadora y reducir el riesgo de fallos inesperados

El código que no debes compartir para evitar que roben tu cuenta de WhatsApp
Los ataques coordinados por redes criminales aprovechan la ingeniería social y la manipulación de estos datos para apoderarse de perfiles en la aplicación de mensajería

Cómo funciona Li-Fi, la tecnología que podría desplazar al Wi-Fi
Este avance permite una conexión mucho más rápida y segura, aunque requiere componentes ópticos específicos y su señal solo llega a los dispositivos que están bajo la luz directa



