Jennifer Rojas Alvarado
Jefa del Observatorio de Inteligencia Artificial y Derecho de la URP y docente universitaria. Cuenta con más de 30 años de trayectoria profesional en el ejercicio independiente del derecho laboral, tributario y civil.
Introducción
El Código Civil peruano de 1984 construye al sujeto de derecho sobre una premisa que nunca fue necesario explicitar: la persona es una unidad cognoscible, presente y autónoma. El artículo 1 la declara sujeto de derecho desde el nacimiento; el artículo 140 exige que el acto jurídico emane de una voluntad libre. Nadie, al redactar esas normas, tuvo que aclarar que la persona y su voluntad coinciden en el mismo cuerpo, en el mismo momento, en el mismo acto. Era obvio. Ya no lo es.
La inteligencia artificial genera representaciones del individuo —perfiles predictivos construidos a partir de datos de comportamiento, historial financiero y geolocalización— que producen efectos jurídicos antes de que la persona real haya manifestado voluntad alguna. Ese perfil no es la persona del artículo 1 CC. Pero actúa como si lo fuera: determina si alguien accede a un crédito, si es contratado, si aparece en una lista de riesgo. El derecho civil peruano no tiene categoría para ese fenómeno.
Este artículo examina ese vacío. La tesis es concreta: existe una disociación estructural entre el sujeto de derecho que el Código Civil presupone y la persona algorítmica que los sistemas de IA producen, y esa disociación genera tres fracturas que el ordenamiento civil vigente no puede resolver.
El sujeto de derecho en el Código Civil: presupuestos que la IA no satisface
El artículo 1 del Código Civil no define a la persona; la declara. Detrás de esa brevedad opera un sistema de presupuestos que la tradición civilista raramente hace explícitos: el sujeto es uno solo, es la misma entidad que actúa, padece y responde, y su voluntad es el origen de los efectos jurídicos que le conciernen. El artículo 3 vincula la capacidad de ejercicio a la persona misma. El artículo 140 coloca la manifestación de voluntad en el centro del sistema.
La inteligencia artificial rompe esa lógica antes de que empiece. Un sistema de scoring crediticio no espera a que el ciudadano solicite un préstamo: lo ha evaluado ya, ha asignado una puntuación, y cuando la persona llega la decisión está tomada. Su voluntad de contratar no produce el efecto jurídico; se lo encuentra. La persona llega después de su perfil.
El Código fue diseñado para un mundo donde el sujeto precede al acto. La IA ha invertido esa secuencia. El artículo 1 protege a la persona desde el nacimiento, pero nada dice sobre una representación digital que opera en su nombre sin su intervención. El artículo 3 vincula la capacidad al sujeto, pero no contempla que ese sujeto pueda quedar fácticamente excluido del ejercicio de sus derechos por decisión algorítmica, sin proceso y sin notificación. Y el artículo 140 exige voluntad libre, pero carece de herramientas para evaluar una decisión tomada antes de que esa voluntad tuviera oportunidad de formarse.
La persona algorítmica: un agente sin estatuto jurídico
Luciano Floridi describió cómo los individuos contemporáneos existen como entidades informacionales —“inforgs”— cuya identidad se reconstruye en la infósfera digital fuera de su control consciente (Floridi, 2014). Antoinette Rouvroy identificó el mecanismo concreto: la “gubernamentalidad algorítmica” no opera sobre los sujetos sino sobre sus perfiles, anticipando comportamientos sin pasar por la consciencia del individuo (Rouvroy & Berns, 2013). Mireille Hildebrandt añadió la dimensión jurídica: los sistemas de perfilado no describen al sujeto, lo construye, determinando qué derechos puede ejercer en la práctica (Hildebrandt, 2015).
Existe así un agente que no es persona natural ni jurídica, no ha sido declarado incapaz ni sometido a proceso alguno, y sin embargo produce efectos en la esfera jurídica del individuo con la eficacia de una sentencia. A ese agente lo denominamos aquí persona algorítmica —una categoría que la doctrina comparada más reciente reconoce como el próximo desafío no resuelto de la personería jurídica (Novelli et al., 2025) y que hunde sus raíces en un proceso histórico más largo (Koopman, 2019). Una aclaración es necesaria: identificarla no equivale a proponer que los algoritmos sean titulares de derechos. Es exactamente lo contrario: precisamente porque el perfil actúa sin voluntad ni estatuto jurídico, el ordenamiento civil debe intervenir para devolver esa capacidad fáctica al único sujeto que el Código Civil reconoce.
El ordenamiento peruano vigente no reconoce a la persona algorítmica. La Ley N.° 31814 y su Reglamento abordan la IA desde una lógica de gestión de riesgos, no de sujeto de derecho. La Ley N.° 29733 protege la información personal, pero no la autonomía del individuo frente a las consecuencias jurídicas que su perfil produce. Hay, en consecuencia, un agente que actúa, afecta derechos patrimoniales y extrapatrimoniales, y no tiene nombre en el derecho civil peruano.
Tres fracturas entre el Código Civil y la realidad algorítmica
Fractura 1: Capacidad fáctica sin proceso
El artículo 3 establece que las restricciones a la capacidad son excepcionales y exigen proceso judicial. Los algoritmos de perfilado producen ese efecto sin ninguno de esos requisitos: una persona con plena capacidad puede quedar excluida del crédito, el seguro o el empleo formal sin sentencia, sin proceso y sin notificación jurídicamente válida. La llamada “decisión humana final” es en la práctica una ficción: la economía conductual documenta consistentemente que los operadores tienden a validar la recomendación algorítmica sin cuestionarla —el denominado sesgo de automatización (Kahneman, 2011)—, y el acto que generó la exclusión no es un acto jurídico en el sentido del artículo 140 CC. La persona sigue siendo capaz según el Código. Pero ha perdido el ejercicio fáctico de derechos centrales para su vida patrimonial.
Fractura 2: Voluntad sin dolo clásico
El artículo 210 tipifica el dolo como causal de anulabilidad cuando el engaño fue determinante para que la otra parte manifestara su voluntad. Supone un engañador consciente, un engañado y un acto deliberado de inducción. Los sistemas de recomendación digital no engañan en ese sentido: no hay intención, el algoritmo optimiza. Lo que hace es explotar, sistemáticamente y a escala, los sesgos cognitivos documentados por la economía conductual: el sesgo de disponibilidad, el anclaje, la aversión a la pérdida (Kahneman, 2011; Thaler & Sunstein, 2008). El artículo 210 CC no tiene respuesta para eso —y la literatura más reciente confirma que este déficit es estructural (Bar-Gill & Sunstein, 2025).
Conviene precisarlo: no se trata de un problema de cumplimiento de la Ley N.° 29733, cuyo objeto es proteger la información, no la integridad de la manifestación de voluntad. Un perfil puede ser técnicamente correcto en sus datos y aún así explotar los sesgos del sujeto. La protección de datos resguarda el dato; el Código Civil debería resguardar la voluntad.
Fractura 3: Identidad sin mecanismo de corrección
Los derechos de la personalidad —el nombre (arts. 19-27), la imagen (art. 15), la intimidad (art. 14)— protegen una identidad estática. El perfil algorítmico es dinámico, opaco y autónomo. Se actualiza sin intervención del sujeto e incorpora inferencias que éste no produjo conscientemente. Una persona disciplinada en sus finanzas puede tener un score bajo porque el algoritmo correlacionó su código postal con patrones de morosidad.
La Ley N.° 29733 otorga derechos ARCO sobre datos personales, pero los perfiles algorítmicos son inferencias y correlaciones que el sistema construyó. Rectificar un dato no rectifica la inferencia que ese dato produjo. La persona puede reclamar que su nombre está mal escrito. No puede reclamar, con las herramientas civiles actuales, que su representación algorítmica la está dañando.
Conclusiones
El Código Civil de 1984 no fue diseñado para un mundo en el que el sujeto de derecho tiene un doble. La persona algorítmica no existía entonces. Existe ahora, produce efectos jurídicos ahora, y el ordenamiento civil no tiene categorías para contenerla. Las tres fracturas identificadas no son patologías del sistema, sino consecuencias previsibles de un desajuste entre una arquitectura jurídica construida sobre la unidad del sujeto y una realidad tecnológica que ha fragmentado esa unidad.
Tres conclusiones se siguen de ese diagnóstico. Primero, el vacío no es subsanable con la legislación de datos vigente: la Ley N.° 29733 protege información; la Ley N.° 31814 regula riesgos tecnológicos. Ninguna redefine las categorías del derecho civil, y la doctrina comparada más reciente confirma que incluso en sistemas jurídicos avanzados esos estándares son insuficientes (Cotino Hueso, 2023). Segundo, los artículos 1 y 3 CC requieren una reinterpretación: la capacidad de goce y ejercicio no puede leerse sin considerar que el sujeto puede quedar fácticamente privado de ambas por decisión algorítmica sin proceso. Tercero, el artículo 140 necesita una lectura actualizada frente a la arquitectura de decisión algorítmica: el requisito de voluntad libre no puede evaluarse con las herramientas del dolo clásico cuando el entorno ha sido diseñado para explotar, sistemáticamente, los sesgos cognitivos del sujeto.
El derecho civil tiene una larga tradición de adaptarse a realidades que sus fundadores no podían prever. Lo hizo con la persona jurídica, con el contrato de adhesión, con la responsabilidad objetiva. La persona algorítmica es el próximo desafío de esa tradición. Y a diferencia de otros, este ya llegó.
Referencias
Doctrina
Bar-Gill, O., & Sunstein, C. R. (2025). Algorithmic harm: Protecting people in the age of artificial intelligence. Oxford University Press. ISBN 978-0-19-777819-7.
Cotino Hueso, L. (2019). Ética en el diseño para el desarrollo de una inteligencia artificial, robótica y big data confiables y su utilidad desde el derecho. Revista Catalana de Dret Públic, 58, 29-48. https://doi.org/10.2436/rcdp.i58.2019.3303
Cotino Hueso, L. (2023). Una regulación legal y de calidad para los análisis automatizados de datos o con inteligencia artificial: los altos estándares que exigen el Tribunal Constitucional alemán y otros tribunales. Revista General de Derecho Administrativo, 64.
Floridi, L. (2014). The fourth revolution: How the infosphere is reshaping human reality. Oxford University Press.
Hildebrandt, M. (2015). Smart technologies and the end(s) of law: Novel entanglements of law and technology. Edward Elgar Publishing. ISBN 978-1-84980-876-7.
Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux.
Koopman, C. (2019). How we became our data: A genealogy of the informational person. University of Chicago Press. https://doi.org/10.7208/chicago/9780226626611.001.0001
Mittelstadt, B., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 1-21. https://doi.org/10.1177/2053951716679679
Novelli, C., Floridi, L., Sartor, G., & Teubner, G. (2025). AI as legal persons: Past, patterns, and prospects. Journal of Law and Society, 52, 533-555. https://doi.org/10.1111/jols.70021
Rouvroy, A., & Berns, T. (2013). Gouvernementalité algorithmique et perspectives d’émancipation. Réseaux, 177(1), 163-196. https://doi.org/10.3917/res.177.0163
Sunstein, C. R. (2022). Governing by algorithm? No noise and (potentially) less bias. Duke Law Journal, 71(6), 1175-1205.
Thaler, R. H., & Sunstein, C. R. (2008). Nudge: Improving decisions about health, wealth, and happiness. Yale University Press.
Normas
Congreso de la República del Perú. (1984). Decreto Legislativo N.° 295, Código Civil. Diario Oficial El Peruano.
Congreso de la República del Perú. (2024). Ley N.° 31814, Ley que promueve el uso de la inteligencia artificial en favor del desarrollo económico y social del país. Diario Oficial El Peruano.
Ministerio de Justicia y Derechos Humanos. (2024). Decreto Supremo N.° 016-2024-JUS, Reglamento de la Ley N.° 29733. Diario Oficial El Peruano.
Presidencia del Consejo de Ministros. (2025). Decreto Supremo N.° 115-2025-PCM, Reglamento de la Ley N.° 31814. Diario Oficial El Peruano.
