
El Perú marcó un nuevo hito en la transformación digital con la aprobación del Reglamento de la Ley N.° 31814, oficializado mediante el Decreto Supremo N.° 115-2025-PCM, publicado el 9 de septiembre de 2025 en el Diario Oficial El Peruano. Este reglamento busca impulsar el uso de la inteligencia artificial (IA) en favor del desarrollo económico y social, pero con un enfoque centrado en la dignidad humana y en la protección de los derechos fundamentales.
La norma coloca al país en el grupo de naciones que regulan la IA bajo principios de ética, transparencia y responsabilidad. El objetivo es que la tecnología sea una herramienta de bienestar social y no un factor de riesgo, asegurando que su implementación respete la privacidad, la equidad y la no discriminación.
Con este marco legal, el Estado, el sector privado, la academia y la sociedad civil se convierten en actores corresponsables para guiar el desarrollo de la IA en el país. De esta manera, el reglamento abre la puerta a oportunidades de innovación tecnológica, al tiempo que refuerza mecanismos de control frente a posibles abusos.
IA con enfoque en el bienestar humano
El reglamento establece como finalidad primordial el uso de la inteligencia artificial de manera segura, responsable y ética, garantizando que los sistemas digitales no vulneren los derechos humanos. Esta disposición se inspira en la Constitución y en tratados internacionales ratificados por el Perú.
El énfasis está puesto en generar un impacto positivo en la sociedad, fomentando la equidad y el desarrollo integral. Además, el reglamento ordena medidas para prevenir y corregir sesgos algorítmicos, evitando decisiones injustas o discriminatorias que afecten a ciudadanos en procesos automatizados.
En esa línea, se busca que la IA no solo sea un motor de productividad, sino también una herramienta de inclusión que ayude a cerrar brechas sociales y tecnológicas.

Privacidad y protección de datos
Uno de los puntos centrales del reglamento es la defensa de la privacidad. Se dispone que las entidades que desarrollen o usen sistemas de IA integren la protección de datos personales desde el diseño, minimizando la recolección de información sensible y aplicando técnicas como la anonimización.
De esta manera, se garantiza la seguridad de la información en entornos digitales cada vez más interconectados. Además, se exige a las instituciones públicas y privadas promover la transparencia en el tratamiento de datos, informando a los ciudadanos sobre cómo son procesados y utilizados.
Este enfoque protege a la población frente a riesgos de filtraciones o de un mal uso de la información, lo cual refuerza la confianza en la implementación de soluciones basadas en IA.
Usos prohibidos de la inteligencia artificial
El reglamento también traza límites claros al uso de la IA para evitar abusos. Entre los usos prohibidos destacan:
- Manipular de manera engañosa o explotando vulnerabilidades para influir en las decisiones de las personas.
- Generar capacidad letal autónoma en el ámbito civil sin supervisión humana.
- Realizar vigilancia masiva sin base legal o con impacto desproporcionado en los derechos fundamentales.
- Analizar datos sensibles —como origen étnico, orientación sexual u opiniones políticas— con fines discriminatorios.
- Predecir delitos basándose en perfilamiento o rasgos de personalidad.
Estas restricciones buscan garantizar que la tecnología no se convierta en una herramienta de control social ni en un riesgo para las libertades individuales.

Transparencia y algoritmos de alto riesgo
Para los sistemas catalogados como de “alto riesgo”, es decir, aquellos que pueden afectar la vida, dignidad o libertad de las personas, el reglamento establece la obligación de informar al usuario de manera clara y previa sobre el funcionamiento y las decisiones de la IA.
En caso de que un sistema tome decisiones que impacten en los derechos humanos, los usuarios afectados tienen derecho a recibir una explicación comprensible de los resultados, lo que refuerza la rendición de cuentas.
Esto resulta fundamental en áreas críticas como salud, justicia, educación o finanzas, donde la transparencia es indispensable para mantener la confianza ciudadana.

Supervisión humana y enfoque inclusivo
El reglamento también refuerza el rol humano como último filtro en la toma de decisiones. En los sistemas de IA de riesgo alto, los equipos técnicos deben estar capacitados para detener, corregir o invalidar decisiones automatizadas cuando estas representen riesgos o errores.
Asimismo, la norma ordena que los servicios digitales con soporte de IA sean diseñados con un enfoque inclusivo, considerando las necesidades de mujeres, niños, personas mayores, personas con discapacidad y otros grupos vulnerables.
Este principio busca que la tecnología no genere exclusión, sino que garantice accesibilidad, estabilidad y seguridad digital para todos los peruanos.

Denuncia de usos indebidos
El reglamento habilita canales de denuncia para que cualquier persona pueda alertar sobre el uso indebido de sistemas de IA o sobre el incumplimiento de obligaciones por parte de desarrolladores o implementadores.
Las entidades competentes para recibir estas denuncias son el INDECOPI, la División de Investigación de Ciberdelincuencia, y la Autoridad Nacional de Protección de Datos Personales (ANPDP) del Ministerio de Justicia y Derechos Humanos, entre otras.
De esta forma, se otorga a la ciudadanía un rol activo en la vigilancia del correcto uso de la inteligencia artificial, fortaleciendo la confianza en el sistema.

Educación y futuro de la IA en Perú
Finalmente, el reglamento promueve la alfabetización digital y la capacitación en inteligencia artificial en todas las etapas de la vida. También dispone campañas de sensibilización para que la población conozca los beneficios y riesgos de la IA.
El Gobierno, a través de la Secretaría de Gobierno y Transformación Digital, elaborará la Estrategia Nacional de Inteligencia Artificial (ENIA) al 2030 y la Estrategia Nacional de Gobierno de Datos (ENGD), con participación de la sociedad civil y la academia.