California regula la inteligencia artificial: nuevas normas para proteger a menores ante chatbots

Normas pioneras exigirán a plataformas de IA avisos periódicos, filtros contra contenido peligroso y pausas obligatorias, marcando una nueva era de seguridad digital para niños y adolescentes usuarios de chatbots conversacionales

Guardar
Ley de California obliga a
Ley de California obliga a chatbots a alertar a usuarios y prohibir contenido sexual para menores - (Imagen ilustrativa Infobae)

El estado de California ha dado un paso decisivo en la regulación de la inteligencia artificial, con especial énfasis en la protección de niños y adolescentes frente a los riesgos asociados al uso de chatbots.

El gobernador Gavin Newsom firmó la ley SB 243, diseñada para establecer límites claros para la utilización de asistentes virtuales por parte de menores de edad y responder a las crecientes preocupaciones sobre el impacto de la tecnología en la salud mental y la seguridad.

Qué propuso la ley SB 243

A partir de la entrada en vigor de la legislación, las plataformas que operan con inteligencia artificial deberán informar de forma clara y periódica a los usuarios cuando interactúan con un chatbot y no con un ser humano.

Ley de California obliga a
Ley de California obliga a chatbots de inteligencia artificial a priorizar la seguridad emocional de menores - (Imagen Ilustrativa Infobae)

Según la normativa, los menores recibirán una notificación al menos cada tres horas, recordándoles esta diferencia. Esta medida busca reducir la confusión y mitigar el riesgo de que niños y adolescentes atribuyan emociones o intenciones humanas a sistemas automatizados.

La ley requiere, además, que las empresas desarrollen sistemas que reconozcan y bloqueen conversaciones relacionadas con autolesiones, suicidio o contenido peligroso. Cuando un usuario muestra signos de angustia, el chatbot deberá dejar de interactuar y redirigir a la persona hacia servicios de asistencia en crisis, reforzando los protocolos de protección y soporte.

Control del contenido en los chatbots

Los chatbots están obligados a rechazar cualquier intento de conversación sexual explícita o inapropiada dirigida a menores, así como a abstenerse de compartir información perjudicial o peligrosa.

Además, la ley incorpora una cláusula de “pausa obligatoria”, con la que se obliga a recordar a los menores que deben tomar un descanso de la plataforma cada tres horas continuas de uso. Este punto responde al aumento sostenido en el tiempo de exposición de los jóvenes a las tecnologías digitales.

El estado implementa requisitos inéditos,
El estado implementa requisitos inéditos, como informes anuales y recordatorios de descanso, para mitigar riesgos y responder al aumento del uso tecnológico entre jóvenes y adolescentes - (Imagen Ilustrativa Infobae)

Desde cuándo se aplicará la nueva legislación a la IA

A partir del 1 de julio de 2027, todas las empresas de inteligencia artificial que ofrezcan chatbots en California estarán obligadas a presentar un informe anual describiendo las acciones implementadas para gestionar los riesgos relacionados con la autolesión y el bienestar emocional de los usuarios.

Este reporte, regulado por agentes estatales, servirá de base para ajustar las políticas públicas y responder con rapidez ante nuevas amenazas tecnológicas.

El impulso de esta ley se da tras una serie de informes y demandas que pusieron en evidencia los vacíos en la protección de usuarios menores frente a IA conversacionales. Organizaciones activistas alertaron sobre casos en los que chatbots ofrecían consejos peligrosos acerca de drogas, alcohol o salud mental.

Destacan las investigaciones que involucran tanto a OpenAI como a Meta, cuyos sistemas fueron señalados por mantener diálogos inapropiados y sexualizados con menores, además de incidentes donde se relacionan instrucciones sensibles y casos de afectaciones serias en la salud de los jóvenes.

OpenAI permitirá contenido erótico para sus usuarios adultos

Sam Altman anunció la flexibilización
Sam Altman anunció la flexibilización de restricciones en ChatGPT, permitiendo que usuarios verificados accedan a experiencias más libres y protegidas, mientras crece el debate sobre regulación y ética en IA - REUTERS/Dado Ruvic/Ilustración/Foto de archivo/Foto de archivo

El reciente anuncio de OpenAI sobre la flexibilización de sus normas para permitir experiencias personalizadas y contenido erótico para adultos verificados con ChatGPT refleja el acelerado avance de la inteligencia artificial y la complejidad ética que esto implica.

La decisión, divulgada por Sam Altman, responde al desarrollo de herramientas de seguridad más precisas para manejar problemáticas de salud mental, permitiendo a la empresa ampliar el tipo de contenido sin descuidar la protección de los usuarios más vulnerables.

Esta apertura coincide con un debate cada vez más intenso en Estados Unidos sobre cómo regular la relación entre menores y asistentes virtuales, tras incidentes que involucraron a chatbots de empresas como Meta, señalados por mantener conversaciones inadecuadas con adolescentes.

El ajuste de OpenAI se enfoca en brindar mayores libertades a los adultos, aunque también en establecer barreras claras que impidan el acceso de contenidos sensibles por parte de menores.