El 2 de mayo de 2024, se publicó para comentarios el Proyecto de Reglamento de la Ley N.º 31814, Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país (la "Ley" y el "Proyecto", respectivamente), el cual tiene por objeto establecer las condiciones que garanticen el desarrollo y el uso responsable de la inteligencia artificial ("IA").
Las principales disposiciones son las siguientes:
1. Ámbito de aplicación
La Ley y su Reglamento son aplicables a:
Las entidades de la administración pública, incluidas las personas jurídicas bajo el régimen privado que presten servicios públicos o ejercen función administrativa, en virtud de una autorización del Estado;
Las empresas que realizan actividad empresarial del Estado que se encuentran en el ámbito del Fondo Nacional de Financiamiento de la Actividad Empresarial del Estado; y
Las organizaciones de la sociedad civil, ciudadanos, empresas y academia en lo que corresponda.
2. Principios rectores adicionales a los previstos en la Ley para el uso y desarrollo de la IA
Seguridad, proporcionalidad y fiabilidad: Los sistemas basados en IA deben ser seguros para garantizar la finalidad prevista y minimizar los riesgos vinculados a dichos sistemas a través de un enfoque de riesgos. El uso de estos sistemas debe ser proporcional a su finalidad.
Transparencia y explicabilidad: Se debe incorporar medidas de transparencia algorítmica y de trazabilidad; y brindar información sobre sus usos para mayor entendimiento de las personas que pueden verse afectadas por su uso.
Responsabilidad humana: La responsabilidad generada por el uso y desarrollo de los sistemas basados en IA recae en última instancia en la persona humana, por lo que son pasibles de responsabilidad ética, civil, administrativa y penal.
Rendición de cuentas y supervisión humana: Los sistemas basados en IA deben contar con mecanismos para la rendición de cuentas y supervisión. De ser el caso, se deben incorporar mecanismos de supervisión humana.
3. Clasificación de los sistemas basados en IA
Los sistemas basados en inteligencia artificial se clasifican, como mínimo, en función del riesgo de afectación al trato equitativo, transparencia y derechos fundamentales generados por su uso. La clasificación abarca las categorías de riesgo inaceptable, alto, medio y bajo.
4. Las principales disposiciones de gestión de riesgos en los sistemas basados en IA
El implementador de un sistema basado en IA debe tomar las medidas de gestión adecuadas en función a su nivel de riesgo.
Un sistema basado en IA es considerado de riesgo alto cuando no cuenta con mecanismos para interpretar cómo se ha llegado un determinado resultado o cuánto se utiliza para actividades como, por ejemplo, la identificación biométrica y categorización de personas naturales; la selección de trabajadores o postulantes a un puesto de trabajo; y la evaluación crediticia de las personas.
Un implementador de un sistema basado en IA de riesgo alto debe, entre otros aspectos, identificar y evaluar los riesgos generados e implementar medidas para su gestión; elaborando informes que describan el proceso de validación del sistema.
Un sistema basado en IA es considerado de riesgo inaceptable cuando se utiliza para modificar el comportamiento de una persona a través de técnicas subliminales; y clasificar la fiabilidad de una persona o colectivo a través de la cuantificación de su conducta social siempre que dicha clasificación le genere un efecto perjudicial. Está prohibido hacer uso de un sistema basado en IA de riesgo inaceptable dentro del territorio nacional.
5. Medidas para fortalecer el uso responsable y ético de la IA
Informar al ciudadano, de forma previa, clara y sencilla, el uso de dicho sistema;
Explicar el funcionamiento y los parámetros utilizados para llegar a un resultado;
Proveer información sobre las personas responsables de la toma de decisiones y los derechos con los que dispone el afectado;
Garantizar el cumplimiento de los derechos de autor y propiedad intelectual en el uso y desarrollo de los sistemas basados en IA; y
Establecer un canal de comunicación para que una persona pueda alertar sobre el uso indebido de los sistemas basados en IA o el incumplimiento de una norma.
6. Medidas para la seguridad y confianza en el uso y desarrollo de la IA
Comunicar los incidentes de seguridad digital de los sistemas basados en IA al Centro Nacional de Seguridad Digital; y
Incluir un etiquetado visible en los textos, imágenes, videos y audios que permitan identificar que han sido generados por un sistema basado en IA.
Puede encontrar el Proyecto en este enlace.
Los interesados pueden enviar sus comentarios al Proyecto hasta el 14 de junio de 2024, al correo electrónico rinfante@pcm.gob.pe.
Confiamos que esta información sea de relevancia para usted y su empresa. No dude en contactarnos de requerir asesoría al respecto.