Mg. Sofía Andrea Alarcón García
Abogada, Investigadora en la Universidad Católica de Temuco.
El término inteligencia artificial apunta al proceso de reproducir, desde el punto de vista informático, el comportamiento inteligente observado en sistemas biológicos. Para lograr desempeñar estas funciones, los procesos informáticos requieren de la utilización de modelos matemáticos, que describen de forma numérica las acciones a realizar dependiendo de determinadas condiciones. Además, los sistemas informáticos utilizan algoritmos, los cuales corresponden a un determinado conjunto de pasos, para el tratamiento de los datos.
La inteligencia artificial no es un campo de estudio reciente, sus orígenes datan de la década de los cincuenta con las investigaciones de McCarthy acerca de lenguajes para procesamiento simbólico, las investigaciones con relación a neuronas artificiales de Rosenblatt y métodos de entrenamiento de redes neuronales propuestos por Werbos y Linnainmaa en los años 70s. No obstante, sólo durante las últimas décadas, gracias a la masificación de procesadores potentes y económicos en computadores, laptops y celulares, que permiten efectuar la computación a grandes velocidades de distintos algoritmos de inteligencia artificial es que es que se ha producido una vigorosa revitalización y perfeccionamiento en la aplicación de la inteligencia artificial.
Un ejemplo representativo de la cercanía que actualmente mantenemos con la inteligencia artificial viene de la mano de las cámaras inteligentes integradas en los smartphones. La inteligencia artificial posee el potencial de aportar múltiples beneficios en términos de eficiencia y eficacia, en relación con la automatización de tareas que hasta hace poco solo podían ser realizadas por humanos. De ahí que cada día sean más los gobiernos de países que se encuentran impulsando políticas tendientes a fomentar la inteligencia artificial, la digitalización y el internet en el sector público y privado. Sin embargo, junto con los beneficios que ha aportado la inteligencia artificial, también se han evidenciado grandes desafíos, muchos de ellos directamente atingentes al ámbito del derecho.
Desde hace algunos años, en distintos países de Europa y en Estados Unidos se viene discutiendo si el derecho existente está preparado para responder a los problemas que pueden presentarse a raíz de la rápida expansión de la inteligencia artificial. Este debate ha adquirido especial relevancia a propósito del aumento de la circulación de vehículos parcialmente autónomos y de los esfuerzos del sector empresarial por impulsar la comercialización de vehículos con autonomía completa. El problema que surge en este ámbito se debe, por una parte, a las graves consecuencias para la vida humana que pueden derivar de los “errores” de la inteligencia artificial, y por otra, por la falta de claridad con respecto a los criterios que debiesen emplearse para la imputación de responsabilidad. Por ahora, hay consenso con respecto a la necesidad de distinguir el nivel de autonomía del vehículo. Actualmente se distinguen cinco niveles de automatización en la conducción, no obstante, únicamente el nivel cinco permite prescindir de un conductor de respaldo. Por lo tanto, en los automóviles con un nivel de autonomía inferior a cinco, determinar la responsabilidad del conductor del vehículo sería —en principio— relativamente sencillo, puesto que se trata de un vehículo que se sabe fabricado para operar con un usuario de respaldo. Lo anterior conlleva a que al igual que en un vehículo convencional, el conductor sea llamado a estar atento y disponible para tomar el control del vehículo. Por ello, en estos casos resultarían aplicables las normas generales que regulan la responsabilidad del conductor negligente o imprudente. Sin embargo, aunque la respuesta parezca fácil, rápidamente podemos avizorar otros escenarios, como, por ejemplo, ¿qué pasaría con aquellos casos en los que el conductor de un vehículo semiautónomo no puede retomar el mando del mismo a causa de un error en alguno de sus algoritmos? Ante esta eventualidad, aun cuando se estableciera la responsabilidad del fabricante, en la práctica, podría suscitarse gran dificultad para determinar que se está frente a un caso de error de la inteligencia artificial. Lo anterior ocurriría cada vez que estemos frente a tecnologías que incorporen algoritmos de “caja negra” los cuales son ampliamente utilizados en la fabricación de tecnologías inteligentes. Este tipo de algoritmo ofrece resultados, pero no explica y/o no registra cómo se tomó la decisión de ejecutar las acciones u omisiones que condujeron a los mismos. Esta situación es uno de los aspectos que abordó el reglamento dictado por la Organización de las Naciones Unidas en junio de 2020 y que entrará en vigencia a partir del año 2021. Este reglamento busca regular el funcionamiento y fabricación de vehículos semiautónomos. En términos generales, este documento establece la obligación de que estos vehículos cuenten con un sistema de almacenamiento de datos[1]. No obstante, esta medida de inmediato hace surgir preguntas como ¿de qué manera asegurar que el sistema de almacenamiento no sea objeto de sabotajes?, ¿quiénes deberían estar autorizados para acceder a la información contenida en el sistema de almacenamiento? o ¿quién y cómo debiese responderse por las fallas en el sistema de almacenamiento? Como podemos observar, los sistemas de almacenamiento de datos, la inteligencia artificial y el internet, traen consigo un nuevo riesgo para el ámbito automotriz, y que se relaciona directamente con el derecho, ya que abre la posibilidad de ciberataques, los que, junto con suponer un peligro para la privacidad de los usuarios, pueden afectar gravemente la seguridad de los vehículos. Todavía más problemas podrían surgir a mediano plazo, cuando las personas puedan acceder a movilizarse en vehículos con autonomía completa, es decir, en aquellos que son fabricados para prescindir totalmente de la figura del conductor, pues en estos casos, las normas basadas en el actuar de este no serían aplicables, y en consecuencia, nuevamente aparecería problemas similares a los antes descritos, pudiendo incluso maximizarse los riesgos ligados a las deficiencias en ciberseguridad.
Otra de las problemáticas jurídicas actuales que presenta la inteligencia artificial se refiere a la posibilidad de que ésta pueda vulnerar derechos fundamentales de las personas sin que éstas puedan siquiera percibirlo. Existe el riesgo de que deliberadamente se introduzca un sesgo algorítmico en un sistema inteligente, para que el sistema aprenda los valores o estereotipos de las personas que lo desarrollaron o entrenaron, y que esto no sea percibido a causa del uso de algoritmos de “caja negra”. No obstante, aun cuando no sea éste el fin, también es probable que un sistema inteligente pueda aprender algún tipo de sesgo durante su entrenamiento. De esta manera, un sistema inteligente utilizado para la selección de personal podría llegar a discriminar arbitrariamente a un grupo determinado de la población, sin que los afectados puedan percibirlo o haciendo casi imposible la posibilidad de que los afectados puedan acreditar que se produjo dicha vulneración.
Pese a las problemáticas antes descritas, la inteligencia artificial también ha llegado de lleno a la administración de justicia, tal es el caso de Estonia donde un “juez robot” es quien resuelve las disputas contractuales cuya cuantía no exceda de 7,000 euros[2]. Casos como este, dan cuenta de la confianza que los distintos gobiernos están depositando en la inteligencia artificial. Sin embargo, no se debe perder de vista el peligro que conllevaría, por ejemplo, la utilización de inteligencia artificial sesgada en la administración de justicia, pues de esa manera, se afectaría gravemente los derechos fundamentales de las personas, partiendo por la garantía de imparcialidad de los jueces. Otro problema gravísimo podría suscitarse si el sistema inteligente tuviese acceso a internet, pues con ello se abre de inmediato la posibilidad de sufrir ciberataques que afecten el funcionamiento del algoritmo o los derechos de las personas involucradas en los procesos judiciales. Por esta razón, más que en cualquier otro ámbito, aquí debiese existir normativa expresa para erradicar los algoritmos de “caja negra” e implementar mecanismos que aseguren su transparencia y seguridad durante todo su ciclo de vida. Otras de las cuestiones que debiesen estar claramente determinadas antes de que la inteligencia artificial sea parte de la justicia son: si habrá un control externo de la imparcialidad y de la precisión de las decisiones tomadas por el algoritmo, y la consecuente responsabilidad del controlador en caso de negligencias; quiénes se encargarán del mantenimiento técnico de la inteligencia artificial una vez en funcionamiento; cómo se velará para que esta instancia no sea utilizada maliciosamente, y cuál será la responsabilidad del encargado de mantención en caso de negligencias; así como también, cuál será la responsabilidad que cabrá a quienes participaron en el diseño o entrenamiento de los algoritmos.
Como podemos observar, la inteligencia artificial es un campo complejo desde el punto de vista jurídico. En cualquier caso, la inteligencia artificial es un fenómeno que ya se encuentra instalado en el mundo, y que desafía la seguridad y completitud de los ordenamientos jurídicos. En los países que han comenzado a analizar las implicancias jurídicas del uso de la inteligencia artificial, si bien aparece la idea de que el derecho actual resulta insuficiente, todavía no hay certeza con respecto a cómo debiese ser regulada esta materia. El problema es que existe una multiplicidad de factores presentes y futuros que deben ser cuidadosamente considerados para diseñar una normativa general capaz de responder apropiadamente en el tiempo. Si bien un conocimiento detallado acerca de las características actuales y las proyecciones futuras de la inteligencia artificial serían útiles para evitar un exceso de normas de corta aplicabilidad, las que en definitiva, afectarían la estabilidad que debe evidenciar todo orden jurídico, su demora también podría incentivar la puesta en marcha de sistemas inteligentes peligrosos, capaces de dañar a un gran número de personas, las que además podrían encontrarse con escenarios judiciales verdaderamente complejos frente a los daños sufridos. Por el momento, algunos organismos internacionales han tomado la iniciativa de dictar lineamientos para la regulación de la inteligencia artificial. Particularmente, la Organización para la Cooperación y el Desarrollo Económicos, que en el año 2019 dictó directrices para velar por el diseño de sistemas de inteligencia artificial robustos, seguros e imparciales[3]; la Unión Europea, que en el año 2019 entregó pautas para fomentar la creación de un marco regulador uniforme para la inteligencia artificial en sus Estados miembros[4] y la Organización de las Naciones Unidas, en relación a la reglamentación de los automóviles semiautónomos. De todas formas, todavía son muchas las dudas que quedan en torno a la regulación de los sistemas inteligentes, sobre todo en lo que dice relación con la inteligencia artificial avanzada, que podría razonar, aprender y decidir autónomamente, pudiendo llegar a ser imprevisible incluso para sus propios creadores. De esta forma, la experiencia comparada nos muestra que el debate jurídico en esta materia resulta profuso y complejo, al tiempo que la expansión y nivel de desarrollo de la inteligencia artificial demuestra aumentar cada día. Por ello, es importante recalcar que aun cuando la inteligencia artificial parezca una realidad incipiente en los países Sudamericanos, desde ya se requiere que éstos consideren las normas y perspectivas internacionales para analizar la completitud de sus ordenamientos jurídicos, haciéndose parte activa de los debates en torno a los estándares de fabricación y uso de la inteligencia artificial. Todo ello, con el fin de fomentar de manera oportuna la creación de un escenario jurídico avanzado, que sea capaz de dar respuestas eficaces a las problemáticas de la inteligencia artificial, sin que ello conlleve el estancamiento del progreso tecnológico digital, una inadecuada protección de la persona, o la inobservancia de los valores y principios de los ordenamientos jurídicos.
[1] Véase: https://undocs.org/ECE/TRANS/WP.29/2020/81
[2] Véase: Park, Joshua (2020), “YOUR HONOR, AI”, Harvard International Review, Vol. 41, No. 2, pp. 46-48.
[3]Véase: https://www.oecd.org/centrodemexico/medios/cuarentaydospaisesadoptanlosprincipiosdelaocdesobreinteligenciaartificial.htm
[4]Véase: https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_es.pdf