Guardar
La nueva ley de California
La nueva ley de California obliga a las empresas de inteligencia artificial a publicar sus protocolos de pruebas de seguridad y certificar su cumplimiento. (Imagen Ilustrativa Infobae)

La legislatura de California aprobó en la madrugada del sábado 13 de septiembre un proyecto de ley considerado histórico en materia de regulación de inteligencia artificial (IA).

Ahora el gobernador Gavin Newsom deberá decidir si promulga la iniciativa, lo que supondría un movimiento decisivo en su relación con la poderosa industria tecnológica del estado.

La propuesta legislativa podría marcar el inicio de un estándar nacional de seguridad en IA, dada la influencia de California como epicentro de empresas tecnológicas y su historial de impulsar regulaciones que luego adoptan otros estados.

De qué se trata la ley

El texto obliga a las compañías desarrolladoras de IA a revelar sus protocolos de pruebas de seguridad y certificar su cumplimiento, una exigencia inédita en Estados Unidos. Alrededor del avance de la tecnología persisten dudas y reservas, tanto de parte de la industria como entre los votantes preocupados por los riesgos potenciales de sistemas avanzados.

Gavin Newsom enfrenta el desafío
Gavin Newsom enfrenta el desafío de equilibrar la presión de la industria tecnológica con la demanda ciudadana de más seguridad en IA. (REUTERS/Fred Greaves)

Para Newsom, quien, según el portal especializado POLITICO, se perfila como candidato presidencial en 2028, la decisión representa un delicado equilibrio entre las presiones de los titanes tecnológicos y las demandas por mayor protección social.

El propio gobernador expresó en el pasado sus inquietudes sobre el posible impacto negativo de regulaciones demasiado estrictas. En 2023, tras vetar una medida previa más contundente impulsada por el senador estatal Scott Wiener, declaró: “dominamos este espacio, y no quiero perder esa competitividad. El impacto de aprobar los proyectos de ley equivocados, durante algunos años, podría afectar profundamente nuestra fortaleza competitiva”.

La propuesta aprobada, impulsada nuevamente por Wiener —aspirante también al escaño de la representante Nancy Pelosi—, representa una versión más limitada luego del veto del año pasado.

Wiener explicó que basó la iniciativa en un informe encargado por Newsom a un grupo de expertos en seguridad en IA, en respuesta a las objeciones previas. “Este sería el reglamento de seguridad en IA más sólido del país”, sostuvo Wiener en declaraciones a POLITICO, resaltando que agradecía la retroalimentación recibida y la disposición del gobernador para dialogar.

La legislación distingue entre desarrolladoras
La legislación distingue entre desarrolladoras de IA por su nivel de ingresos, exigiendo reportes más detallados a grandes empresas. (Imagen Ilustrativa Infobae)

Una de las novedades de la medida es que surgió de un proceso de negociación con representantes del sector tecnológico, logrando cierto respaldo de actores clave como Anthropic, competidor de OpenAI.

El proyecto de ley introduce una distinción relevante entre las empresas según su volumen de ingresos. Los desarrolladores de modelos avanzados de IA que facturen menos de 500 millones de dólares anuales solo deberán revelar información básica y general sobre sus procesos de evaluación de seguridad.

Las compañías por encima de esa cifra enfrentarán requerimientos más detallados. La ley obliga a las grandes empresas a redactar y publicar un marco de trabajo que rija sus programas de IA de frontera y que contemple estándares nacionales, internacionales y mejores prácticas consensuadas en el sector.

Reacciones de los involucrados

Pese a estos cambios, organizaciones como la Cámara de Comercio de California y TechNet —que agrupa a Apple, Amazon y Google, entre otras— continúan oponiéndose a la legislación.

OpenAI no expresó un apoyo
OpenAI no expresó un apoyo directo, pero reconoció avances en la última versión de la propuesta. (REUTERS/Dado Ruvic)

Una carta enviada a Wiener antes de la votación final criticó el enfoque en grandes empresas y alertó sobre posibles omisiones de desarrolladoras más pequeñas con modelos potentes.

“Nos preocupa que el proyecto se centre en los ‘grandes desarrolladores’ excluyendo a otros que trabajan con modelos cuyas capacidades avanzadas también pueden representar riesgos de daños catastróficos”, señala la misiva firmada por Ronak Daylami, en nombre de la Cámara de Comercio, y representantes de la Computer & Communications Industry Association y TechNet.

OpenAI propuso que se permitiera cumplir la norma a través de la adhesión voluntaria a marcos federales de pruebas o al Código de Prácticas de la Unión Europea para IA. Sin embargo, el texto definitivo no incorporó esta opción y mantuvo el requisito de publicar un marco propio de seguridad.

La aprobación final se produjo tras múltiples enmiendas negociadas entre la oficina del gobernador y la industria. El debate que rodea a la norma, lejos del rechazo frontal observado en ocasiones anteriores, esta vez mostró un tono más constructivo.

El futuro de la legislación, y su posible impacto como modelo nacional, ahora depende de la decisión de Newsom, quien debe evaluar el amplio espectro de intereses implicados: desde el fomento a la innovación, hasta las crecientes exigencias por mayor transparencia y seguridad en la inteligencia artificial.

Últimas Noticias

El móvil del asesinato de Charlie Kirk sigue sin ser establecido: las hipótesis del gobernador Cox

Las pesquisas se centran en el entorno digital y las creencias del sospechoso, un joven de 22 años, mientras la comunidad política y religiosa rinde homenaje a la figura del activista conservador asesinado

El móvil del asesinato de

Efemérides del 15 de septiembre; qué pasó un día como hoy

Acontecimientos que transformaron el rumbo de la historia y que se conmemoran este lunes

Efemérides del 15 de septiembre;

El Banco Mundial organiza un foro para mejorar las políticas públicas vinculadas a la pobreza, la desigualdad y la crisis climática

Con el objetivo de compartir conocimiento y experiencias para enfrentar los desafíos globales, el organismo multilateral coordinará dos jornadas de debate en Washington que inician con la exposición de James Robinson, premio Nobel de Economía en 2024

El Banco Mundial organiza un

La demanda de habilidades en inteligencia artificial eleva los salarios globales un 28%, según un estudio

El análisis de más de 1.300 millones de ofertas laborales revela que los empleos que requieren conocimientos en IA ofrecen una prima salarial significativa, impulsando la transformación del mercado laboral internacional

La demanda de habilidades en

Asesinato de Charlie Kirk: proponen que sistemas de drones vigilen actos públicos en Estados Unidos

La iniciativa del legislador demócrata Ritchie Torres plantea que el Departamento de Seguridad Nacional estudie la viabilidad de emplear vigilancia aérea para detectar riesgos y evitar atentados en concentraciones de alto perfil

Asesinato de Charlie Kirk: proponen