Reflexiones Legales sobre la IA en el Perú: Consideraciones desde Asilomar

Reflexiones Legales sobre la IA en el Perú: Consideraciones desde Asilomar

Adolfo Morán

Gerente de EY Law

Matías Lavanda

Staff de EY Law


Resumen: La irrupción de la Inteligencia Artificial (IA) en el escenario global plantea desafíos significativos en términos de ética, derechos humanos y prácticas tanto gubernamentales como corporativas. Los Principios de Asilomar, formulados en 2017, ofrecen una guía ética para el desarrollo y aplicación de la IA, subrayando la necesidad de adaptar el marco legal a las complejidades introducidas por esta tecnología. En el contexto peruano, a pesar de la reciente promulgación de la Ley N° 31814, que promueve el uso de la IA, la integración efectiva de estos principios en políticas públicas y prácticas corporativas es esencial. Las corporaciones, en particular, deben trascender la mera formalidad y comprometerse genuinamente con la ética de la IA. Además, la educación y capacitación en IA y ética son cruciales para profesionales y la sociedad en general.

1. Introducción

A lo largo de la historia, pocas invenciones han tenido el potencial de redefinir nuestra sociedad como la inteligencia artificial (IA). Desde las primeras herramientas de piedra hasta la invención de la imprenta y la revolución industrial, la humanidad ha sido testigo de transformaciones que han reconfigurado las estructuras de poder, la economía y la cultura. Hoy, la IA emerge como una fuerza inconmensurable en su capacidad para remodelar el mundo que conocemos.

A nivel global, la IA no es simplemente una herramienta tecnológica; es un reflejo de nuestras aspiraciones, temores y, en última instancia, de nuestra humanidad. Su presencia en sectores que van desde la medicina hasta la economía y la seguridad plantea preguntas fundamentales sobre lo que significa ser humano en un mundo donde las máquinas pueden replicar, e incluso superar, muchas de nuestras capacidades cognitivas.

Sin embargo, esta revolución no está exenta de dilemas éticos. La intersección de la IA con los derechos humanos se ha convertido en un punto focal de debate. ¿Cómo garantizamos que la IA respete y promueva la dignidad humana? ¿Qué sucede cuando las máquinas toman decisiones que afectan nuestras vidas, libertades y derechos? ¿Estamos preparados como sociedad para enfrentar las consecuencias de una entidad que puede discriminar, perpetuar prejuicios o, en el peor de los casos, actuar en contra de los intereses humanos?

Estas cuestiones no son meramente retóricas. En un mundo interconectado, donde la IA tiene el poder de influir en decisiones masivas, determinar el acceso a recursos trascendentales y moldear nuestra percepción de la realidad, resulta sumamente necesario que abordemos estos desafíos con una combinación de precaución, curiosidad y responsabilidad ética. 

La historia nos ha mostrado repetidamente que con grandes avances tecnológicos vienen grandes responsabilidades y desafíos. La energía nuclear, por ejemplo, trajo consigo cambios, beneficios, consecuencias y, con ellas, regulaciones importantes que llevaron a la necesidad de acuerdos y tratados internacionales para garantizar su uso seguro y responsable. De manera similar, la IA, con su capacidad para transformar industrias, economías y vidas, requiere una reflexión cuidadosa sobre sus límites y aplicaciones.

2. Los 23 Principios de Asilomar: Una Brújula Ética

En 2017, diversos expertos en tecnología, física, derecho, filosofía y economía se reunieron en California con motivo de la Conferencia Asilomar, organizada por el Future of Life Institute. Este encuentro tuvo por objetivo establecer los denominados Principios de Asilomar, definidos como directrices éticas elaboradas con el fin de guiar el desarrollo, aplicación y adopción de la inteligencia artificial, en respuesta a sus significativos desafíos[1]. Los Principios de Asilomar sirven como una base ética a ser tenida en cuenta por desarrolladores y legisladores para que puedan establecer una dirección concreta en el desarrollo de la IA, considerando cuestiones como la transparencia, justicia, privacidad, y responsabilidad.

La creación de estos principios no debe quedarse como un marco teórico, sino que debe ser un llamado a la acción para juristas, legisladores y gobiernos en general para adaptar la legislación de sus países a fin de abordar las complejidades de la IA y garantizar que se desarrolle y aplique respetando los derechos fundamentales. En este contexto, los Principios de Asilomar no solo sirven como una guía ética, sino también como un marco susceptible de integración al ordenamiento jurídico peruano, otorgando una estructura para la regulación y supervisión de la IA. Aunque son 23, a continuación, destacamos los más relacionados al ámbito legal[2].

a. Principio de Seguridad. “Los sistemas de IA deben ser seguros y protegidos durante toda su vida útil operativa y verificables cuando proceda y sea factible”. 

Comentario: La seguridad es fundamental en cualquier tecnología, y más aún en la IA, que tiene el potencial de influir en decisiones críticas. En el Perú, donde la confianza en las nuevas tecnologías es esencial para su adopción, garantizar sistemas de IA seguros y protegidos es crucial. Este principio se alinea con el Artículo 2 de la Constitución peruana, que establece el derecho a la integridad moral y física.

b. Principio de Transparencia Judicial. “Toda participación de un sistema autónomo en la toma de decisiones judiciales debe proporcionar una explicación satisfactoria auditable por una autoridad humana competente”. 

Comentario: En línea con el Principio de Transparencia ante Fallos, la participación activa de los sistemas judiciales es necesaria para la cohesión social y el estado de derecho. Por ejemplo, si un sistema de IA se utiliza para asistir en la toma de decisiones judiciales, como la evaluación de pruebas o la predicción de reincidencia, las partes interesadas deben tener acceso a una explicación clara y comprensible de cómo el sistema llegó a sus conclusiones.

c. Principio de Responsabilidad. “Los diseñadores y constructores de sistemas avanzados de IA son partes interesadas en las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y la oportunidad de dar forma a esas implicaciones”. 

Comentario: Este principio dispone que, aunque la IA este construida con la capacidad autónoma de tomar acciones, el creador de esta asume parte de la responsabilidad legal por las consecuencias o efectos generados por ella.

d. Principio de Alineación de Valores. “Los sistemas de IA altamente autónomos deben diseñarse para que se pueda garantizar que sus objetivos y comportamientos se alineen con los valores humanos a lo largo de su operación”. 

Comentario: En el Perú, esto significa que la IA debe respetar y reflejar valores como la equidad, la justicia, la dignidad humana y el respeto por los derechos fundamentales. Ello implica que los sistemas de IA no deben perpetuar ni amplificar prejuicios existentes y deben ser diseñados y entrenados de manera que promuevan decisiones justas y equitativas.

3. Contexto Peruano: Una Visión Crítica y Prospectiva

La adopción de la IA en el Perú, hasta la fecha, ha sido limitada y, en algunos casos, aplicada hacia usosdopcións[3]. Por ejemplo, el uso de técnicas de aprendizaje profundo para crear deepfakes, que permiten la creación de imágenes y videos falsos, así como la clonación de voz, ha sido explotado para estafas y suplantaciones de identidad[4], demostrando la necesidad de una regulación más estricta conforme al derecho y a los principios de Asilomar, que enfatizan la necesidad de desarrollar y utilizar la IA de forma ética, dado que es el uso que le damos lo que determina su impacto. En este sentido, el Perú debe priorizar y activar su enfoque respecto al uso ético de la Inteligencia Artificial, garantizando que sus beneficios se extiendan a lo largo de toda la sociedad y no queden circunscritos en únicamente los usos maliciosos.

La recientemente promulgada Ley N° 31814[5] es un intento para abordar la regulación y promoción de la IA en Perú. Aunque pretende establecer estándares de seguridad basados en riesgos y privacidad, su enfoque es superficial y no plantea marcos sobre necesidades reales para una adopción responsable de la IA. Asimismo, dada la escasa profundidad y visión de la norma hasta la actualidad nos encontramos lejos de lograr una verdadera armonía entre el derecho y la tecnología, lo que pone en riesgo el desarrollo y aplicación adecuada de la IA en beneficio de la población.

La designación de un autoridad técnico-normativa, como la Secretaría de Gobierno y Transformación Digital, es esencial para asegurar la supervisión y promoción adecuada de esta tecnología. Sin embargo, es aún más crucial que dicha autoridad esté preparada para enfrentar los desafíos que esta tecnología presentará en los próximos años. Tal reto implica no solo tener claridad sobre los conceptos relacionados con la tecnología, sino también anticiparse para ofrecer soluciones cuando los problemas que hoy todavía son teóricos se vuelvan reales.

4. Recomendaciones para el Perú: Hacia una IA acorde con los Derechos Humanos

Aún queda mucho por avanzar en la integración efectiva de principios éticos en la IA. Los Principios de Asilomar, pese a sus buenas intenciones, pueden resultar abstractos y lejanos para muchos tomadores de decisiones en el país.

El gobierno peruano debe ser proactivo y no simplemente esperar que los avances tecnológicos se adapten a las normativas existentes. Es imperativo que se establezcan comités especializados que traduzcan estos principios en políticas concretas adaptadas a la realidad social, política y legal del Perú. Además, es esencial que se realicen consultas públicas para que la ciudadanía tenga voz en el debate público sobre la implementación y regulación de la IA.

Por su parte, el sector empresarial en el Perú debe asumir un rol central en esta tarea. Si bien las empresas a menudo operan bajo una lógica de maximización de beneficios, cuando se trata de la implementación y uso de la IA, esta lógica puede contravenir principios éticos fundamentales. La adopción de los Principios de Asilomar por parte de las empresas no debería ser una mera formalidad o una estrategia de marketing, sino un compromiso genuino con la ética que incluya una revisión profunda de cómo se desarrollan, implementan y utilizan estos sistemas. Esto implica, por ejemplo, garantizar que los algoritmos no perpetúen prejuicios o discriminaciones, asegurar la privacidad y protección de los datos de los usuarios y ser transparentes sobre cómo funcionan estos sistemas y para qué se utilizan.

Además, es esencial que las empresas permitan y faciliten auditorías independientes de sus sistemas de IA para garantizar que se adhieran a estándares éticos. Las corporaciones que operan en el Perú deberían ser líderes en la promoción de una IA ética, no solo porque es lo correcto, sino porque es esencial para construir y mantener la confianza del público en esta tecnología emergente.

5. Conclusión

La rápida evolución de la inteligencia artificial en la sociedad moderna ha llevado a la necesidad de directrices éticas claras y coherentes, como los Principios de Asilomar. Estos principios, que abarcan desde la seguridad y la transparencia hasta la cooperación global y la ética, buscan garantizar que la IA se desarrolle y se utilice de manera que beneficie a la humanidad en su conjunto, evitando daños potenciales y concentraciones desequilibradas de poder. Es esencial que, a medida que la IA se integra aún más en nuestras vidas, tanto desarrolladores como usuarios y reguladores tengan en cuenta y apliquen estos principios. Solo así podremos aprovechar al máximo las ventajas de la IA, enfrentando sus desafíos de manera responsable y garantizando un futuro en el que la tecnología actúe en armonía con nuestros valores y aspiraciones compartidos.


Referencias

[1] Future of Life Institute. (2017). Asilomar AI Principles. Future of Life Institute.

https://futureoflife.org/person/asilomar-ai-principles/

[2] Crowe, S. (2017). Asilomar AI Principles: 23 Tips for Making AI Safe. Robotics Business Review.  https://www.roboticsbusinessreview.com/rbr/asilomar_ai_principles_23_rules_for_making_ai_safe/

[3] Ramírez Mendoza, S. (2023). Clonan voces de personas con IA para estafar o fingir secuestros: al menos 55 casos en Perú. El Comercio. https://elcomercio.pe/lima/clonacion-de-voz-para-estafar-con-inteligencia-artificial-como-funciona-esta-modalidad-y-que-recomendaciones-seguir-inseguridad-deepfake-ciberdelincuencia-hackers-secuestros-noticia/

[4] Miranda, O. (2023). El peligro de la pornografía deepfake. La República.

https://larepublica.pe/domingo/2023/09/03/el-peligro-de-la-pornografia-deepfake-porno-chorrillos-inteligencia-artificial-111374.

[5] Ley N° 31814. Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país.

Bibliografía

1. Crowe, S. (2017). Asilomar AI Principles: 23 Tips for Making AI Safe. Robotics Business Review. https://www.roboticsbusinessreview.com/rbr/asilomar_ai_principles_23_rules_for_making_ai_safe

2. Future of Life Institute. (2017). Asilomar AI Principles. Future of Life Institute.

https://futureoflife.org/person/asilomar-ai-principles/

3. Ley N°31814. Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país.

4. Miranda, O. (2023). El peligro de la pornografía deepfake. La República.

https://larepublica.pe/domingo/2023/09/03/el-peligro-de-la-pornografia-deepfake-porno-chorrillos-inteligencia-artificial-111374.

5. Ramírez Mendoza, S. (2023). Clonan voces de personas con IA para estafar o fingir secuestros: al menos 55 casos en Perú. El Comercio. https://elcomercio.pe/lima/clonacion-de-voz-para-estafar-con-inteligencia-artificial-como-funciona-esta-modalidad-y-que-recomendaciones-seguir-inseguridad-deepfake-ciberdelincuencia-hackers-secuestros-noticia/