Guardar
Australia ha impulsado uno de
Australia ha impulsado uno de los entornos regulatorios más estrictos respecto a la gestión de contenidos digitales y protección de menores. (Imagen Ilustrativa Infobae)

El gobierno australiano ha intensificado sus esfuerzos regulatorios en torno a la inteligencia artificial al requerir a cuatro empresas de chatbots que expliquen de manera detallada sus mecanismos de salvaguarda para proteger a niños y adolescentes frente a contenidos sexuales o autolesivos.

La Comisión para la Seguridad en las Redes Electrónicas dirigió notificaciones formales a firmas como Character Technologies (character.ai), Glimpse.AI, Chai Research y Chub AI, en un contexto de creciente preocupación ante los riesgos que representan las conversaciones simuladas y realistas con inteligencia artificial.

Regulación y exigencias para las empresas de IA en Australia

La decisión de las autoridades australianas responde al creciente interés público y las inquietudes planteadas por la falta de filtros efectivos en los sistemas de IA conversacional. El comunicado oficial recoge declaraciones de la comisaria Julie Inman Grant, quien subraya el potencial “lado más oscuro en algunos de estos servicios, ya que muchos... chatbots son capaces de entablar conversaciones sexualmente explícitas con menores”.

Snap y TikTok centraron su
Snap y TikTok centraron su respuesta en fortalecer los controles de seguridad y en promocionar campañas educativas sobre el uso responsable de sus aplicaciones. REUTERS/Edgar Su/Ilustración

La funcionaria también advirtió que existen riesgos relacionados con la promoción del suicidio, las autolesiones y los trastornos alimentarios. Las empresas que no cumplen con la obligación de detallar sus procesos de seguridad pueden enfrentar sanciones diarias de hasta 825.000 dólares australianos (536.000 dólares estadounidenses).

En ese sentido, la normativa vigente faculta a la comisaria a exigir la entrega de información precisa sobre el funcionamiento interno de las salvaguardas en las plataformas de IA, con la finalidad de evaluar la exposición a materiales que puedan suponer un peligro para los menores.

La acción específica sobre Character.ai viene precedida por demandas en Estados Unidos y señalamientos sobre la eficacia de sus herramientas de protección. Según el regulador, escuelas australianas han reportado casos de niños tan jóvenes como 13 años que pasan varias horas al día interactuando con estos sistemas, a menudo accediendo a contenido inapropiado para su edad o estableciendo vínculos emocionales potencialmente peligrosos.

Un chatbot es un programa
Un chatbot es un programa informático diseñado para interactuar con las personas mediante mensajes de texto o voz, simulando una conversación natural. (Imagen Ilustrativa Infobae)

Character.ai declaró que ha introducido ventanas emergentes que remiten a líneas nacionales de atención al suicidio cuando se detectan pensamientos autolesivos, aunque el debate sobre la efectividad de estas salvaguardas sigue abierto.

Consecuencias para la industria de IA

Australia ha impulsado uno de los entornos regulatorios más estrictos respecto a la gestión de contenidos digitales y protección de menores. Desde diciembre, las empresas de redes sociales deberán rechazar o suspender cuentas de menores de 16 años o enfrentar multas que pueden ascender a 49,5 millones de dólares australianos.

Por otro lado, es pertinente señalar que OpenAI y su producto ChatGPT quedan fuera de las investigaciones actuales al no estar alcanzados por el código de industria vigente, aunque la situación podría cambiar a partir de marzo de 2026.

Character.ai declaró que ha introducido
Character.ai declaró que ha introducido ventanas emergentes que remiten a líneas nacionales de atención al suicidio cuando se detectan pensamientos autolesivos. (Imagen ilustrativa)

En el contexto global, la acción australiana presiona a las empresas tecnológicas para que avancen en mecanismos automáticos de filtro e intervención, y utiliza un efecto ejemplificador sobre otras jurisdicciones interactuantes en la seguridad de los niños frente a la rápida evolución de la inteligencia artificial y los servicios digitales interactivos.

Restricciones a redes sociales dividen a empresas tecnológicas y sociedad

La decisión de Australia de imponer restricciones en redes sociales provocó una ola de reacciones y abrió un debate público, evidenciando la complejidad del tema tanto a nivel tecnológico como social. El sector tecnológico respondió de manera diversa: mientras algunas compañías defendieron la supervisión y el acompañamiento parental como alternativa a las prohibiciones, otras optaron por reforzar herramientas de control y promover la educación digital responsable.

YouTube, en particular, manifestó una postura crítica al ser incluido en la lista de servicios bajo restricción, defendiendo el uso supervisado y la utilidad de su plataforma para las familias, respaldada por la opinión de padres australianos y reportes anteriores. Por su parte, Snapchat y TikTok hicieron hincapié en la actualización de sistemas de seguridad y en el lanzamiento de campañas educativas dirigidas a fomentar un uso seguro entre los más jóvenes.

Character.ai es una plataforma que
Character.ai es una plataforma que permite crear y conversar con inteligencias artificiales personalizadas. (Imagen ilustrativa Infobae)

Desde Meta, la empresa detrás de Facebook e Instagram, se destacó la experiencia ya implementada de cuentas para adolescentes en otros países y se prometieron próximas mejoras en la protección de menores a escala global.

El debate no se limitó al entorno empresarial. Voces influyentes de la industria, como Elon Musk, condenaron la medida argumentando que representan una amenaza a la libertad de expresión y puede derivar en censura digital. Al mismo tiempo, la sociedad civil —incluidas organizaciones como Unicef ​​Australia y actores del ámbito de la salud mental— expresó reservas sobre los efectos de restricciones tajantes.

Estos grupos señalan el riesgo de que las prohibiciones dejen a ciertos adolescentes sin acceder a recursos de apoyo y espacios pedagógicos en línea que podrían ser fundamentales para su bienestar emocional y desarrollo educativo.