Inicio Derechos Humanos Entre la protección y la incertidumbre: el alcance real de la Convención sobre los Derechos de las Personas con Discapacidad ante la Inteligencia Artificial

Entre la protección y la incertidumbre: el alcance real de la Convención sobre los Derechos de las Personas con Discapacidad ante la Inteligencia Artificial

por PÓLEMOS
3 vistas

Italo Giancarlo Alvarez Lozano

Abogado por la Pontificia Universidad Católica del Perú. Magister en Estudios Avanzados en Derechos Humanos de la Universidad Carlos III de Madrid. Pre-doctor contratado y adscrito al Departamento de Derecho Internacional, Eclesiástico y Filosofía del Derecho de la Universidad Carlos III de Madrid. Presidente de AIEDI – Discapacidad e Inclusión.


1. Introducción

Las tecnologías de la información (en adelante, TIC) han transformado profundamente la vida moderna desde su impulso inicial entre 1936 y 1946 y, tras la Segunda Guerra Mundial, con el desarrollo de los ordenadores. El nacimiento de Internet en 1983 inauguró una nueva era digital y un paradigma donde la información se convierte en fuente esencial de poder y productividad. Esta revolución dio origen a la ética de la computación —conocida ahora como ciberética, ética de la red y ética de la información—, que analiza problemas como la privacidad, la brecha digital, la propiedad de contenidos y la protección de datos. No obstante, los desafíos éticos se multiplican con la aparición de nuevas disciplinas como la nanotecnología, la biotecnología, la ciencia cognitiva, la inteligencia artificial (en adelante, IA) y la robótica, cuyo conjunto se denomina tecnologías convergentes o disruptivas (De Asís Roig, 2022, pp. 18-19).

Las tecnologías disruptivas, como la IA, han generado importantes beneficios para la sociedad. No obstante, es necesario recordar que la IA se encuentra hoy integrada en múltiples ámbitos y servicios vinculados con el ejercicio de derechos fundamentales. La evidencia disponible muestra que su uso también ha producido impactos negativos.

Esto ha dado lugar a amplios debates filosóficos, sociales y jurídicos en torno a cuestiones como la identidad, las relaciones sociales, la responsabilidad, la propiedad industrial, la autonomía, la libertad, entre otros. En este documento se abordarán específicamente los desafíos que plantean los riesgos de la IA para el principio de igualdad y no discriminación, con especial atención a su impacto en las personas con discapacidad. Asimismo, se analizará si la Convención sobre los Derechos de las Personas con Discapacidad (en adelante, CDPD) ofrece un marco suficiente para responder adecuadamente a estos riesgos y garantizar su protección efectiva.

2. Los beneficios y riesgos hacia las personas con discapacidad

Es innegable que los sistemas de IA han aportado innumerables beneficios a la sociedad. Gracias a su aplicación, los estudios radiológicos y de diagnóstico están experimentando una mejora exponencial en la interpretación de imágenes médicas (Ford, 2018). Asimismo, la IA potenciará el ámbito educativo al permitir una enseñanza personalizada, flexible y adaptada a la diversidad del alumnado (Carey, 2016). Ejemplos concretos pueden ser el Proyecto Euphonia, que busca mejorar la comunicación en las personas con discapacidad que tengan alguna afectación del habla [1]. También el sistema Kwido, que ofrece servicios de teleasistencia a las personas con discapacidad para monitorear la salud en un sistema remoto[2]. Otro aplicativo con IA es Be My Eyes que ahora ostenta un voluntario virtual para generar el mismo nivel de contexto, comprensión y detalle que un voluntario humano[3]. Asimismo, Baidu AI Cloud desarrolló una aplicación de avatares digitales destinada a la traducción a lengua de señas y a la interpretación en tiempo real. Esta tecnología busca responder, de manera específica, al déficit de profesionales cualificados en lengua de señas existente en China[4].

No obstante, los riesgos para las personas con discapacidad son evidentes y palpables. En contextos donde se encuentran en juego los principios de igualdad y no discriminación, la IA puede reproducir patrones culturales y valores presentes en los datos con los que ha sido entrenada, incorporando concepciones distorsionadas o sesgadas sobre las personas con discapacidad. De acuerdo con la investigación de Atari et al. (2023), demuestra que la mayoría de los datos utilizados para entrenar modelos de lenguaje a gran escala (LLMs), como ChatGPT, proceden de sociedades occidentales, educadas, industrializadas, ricas y democráticas (WEIRD). Esta procedencia genera una visión culturalmente limitada del mundo. Tal mirada parcial favorece representaciones estereotipadas, invisibiliza apoyos esenciales y produce decisiones automatizadas que refuerzan desigualdades; esto puede afectar de forma especialmente intensa a las situaciones interseccionales de la discapacidad. En definitiva, los sesgos de los datos hacia las personas con discapacidad no responden a meros errores técnicos, sino que reflejan estructuras culturales profundamente arraigadas que se trasladan a los sistemas de IA.

En ese sentido, para demostrar cómo los datos sesgados pueden promover una vulneración en la igualdad y no discriminación hacia las personas con discapacidad, se mostrarán tres ejemplos. Un estudio de Nakamura (2019) sostiene que los reverse Turing-tests pueden excluir a personas con discapacidad, porque los sistemas de IA suelen estar entrenados con datos que no reflejan su diversidad comunicativa. Es así como se advierte que los sistemas de reconocimiento de voz y expresión pueden no identificar adecuadamente a usuarios con alteraciones en el habla, generando fallos de acceso y situaciones en las que la máquina no responde a sus solicitudes.

Otro estudio de Vila i Pàmies y Benjamins (2025) demuestra el sistema de perfilado para el acceso a empleos del Gobierno de Polonia en 2014. Este sistema de perfilado laboral clasificaba a las personas desempleadas en tres grupos con el objetivo de facilitar su acceso al empleo. No obstante, la IA situaba de manera sistemática a las personas con discapacidad en el grupo de mayor dificultad de inserción, al considerarlas una inversión poco rentable para las instituciones. Esta práctica no solo distorsionaba el propósito del sistema, sino que reforzaba desigualdades existentes y perpetuaba la exclusión laboral del colectivo con discapacidad.

Por último, de acuerdo con otro estudio de Treviranus (2018), advierte que la IA reproduce y refuerza la lógica normativa del promedio, dejando fuera a quienes no entran dentro de esos márgenes: al probar un modelo para vehículos autónomos con una grabación de su amiga, que se desplaza hacia atrás en su silla de ruedas, todos los sistemas optaron por atropellarla, y al ser “mejorados” con más datos, la atropellaron con mayor confianza, pues el algoritmo asumió —a partir del comportamiento promedio— que las sillas de ruedas solo avanzan hacia adelante. Esto sucede porque los métodos estándar de análisis de datos se rigen por la media y, por tanto, privilegian a la mayoría; añadir más datos no soluciona el problema, sino que lo agrava, porque empuja aún más lejos a quienes se desvían de la norma y los convierte en “outliers” estructurales que ningún volumen de información adicional podrá integrar en un sistema construido para ignorarlos.

En efecto, incluso en las propias clasificaciones empleadas por ciertos modelos de IA se perpetúan categorías heredadas de concepciones antiguas, en las que aún se utilizan los términos “normal” y “anormal” para distinguir entre personas con y sin discapacidad. Estas distinciones reproducen marcos conceptuales excluyentes y contrarios a los enfoques contemporáneos de derechos humanos (Linton, 1998, p. 22).

Estas prácticas que vulneran el principio de igualdad y no discriminación de las personas con discapacidad provocan una discriminación que afecta derechos vitales del colectivo. Esto constituye un claro ejemplo de discriminación algorítmica: un trato diferenciado hacia un grupo por razón de discapacidad que menoscaba sus derechos. La respuesta del sistema de IA no es neutral; deriva de datos de entrenamiento sesgados y de algoritmos que no contemplan, o directamente excluyen, la diversidad de las personas con discapacidad. Ante estos riesgos —profundos, estructurales y crecientes— surge una pregunta ineludible: ¿responde la CDPD de manera suficiente a estos nuevos escenarios de vulneración algorítmica?

3. La Convención sobre los Derechos de las Personas con Discapacidad y los riesgos de los sistemas de la inteligencia artificial

En el proceso de redacción de la CDPD era evidente que no se habían previsto los desafíos derivados del desarrollo de la IA. Aunque en 2006 la IA ya existía, todavía no había alcanzado el auge vertiginoso y global que caracteriza su impacto en la actualidad. Por esta razón, la Convención no contiene referencias explícitas a esta tecnología. No obstante, es posible identificar disposiciones relevantes que permiten una interpretación extensiva aplicable a los entornos digitales y algorítmicos contemporáneos.

En primer lugar, el artículo 4.1.g) de la CDPD establece que los Estados Parte deben promover la investigación y la disponibilidad de nuevas tecnologías, incluidas las TIC y las tecnologías de apoyo, garantizando su asequibilidad. A ello se suma la obligación prevista en el artículo 4.1.h), que exige proporcionar a las personas con discapacidad información accesible sobre dichas tecnologías.

Asimismo, el artículo 9.2.g) dispone que los Estados Parte deben adoptar medidas para asegurar el acceso de las personas con discapacidad a los nuevos sistemas y a las TIC, incluido Internet. De forma complementaria, el artículo 9.2.h) insta a promover el diseño, desarrollo, producción y distribución temprana de sistemas y TIC accesibles y asequibles.

En el ámbito del derecho a la libertad de expresión, opinión y acceso a la información, el artículo 21.d) alienta a los Estados Parte a que los medios de comunicación —incluidos aquellos que suministran información en Internet— garanticen la plena accesibilidad de sus servicios. Finalmente, el artículo 22.2 impone la obligación de proteger la privacidad de la información personal, de salud y vinculada a procesos de rehabilitación de las personas con discapacidad.

Conviene destacar que estas disposiciones se inscriben en un marco amplio, pues el artículo 2 de la CDPD define la “comunicación” como un concepto que incluye los dispositivos multimedia y las TIC. Este elemento resulta particularmente relevante: aunque la CDPD no se refiere de manera expresa a la IA, esta puede entenderse incluida dentro del conjunto de tecnologías mencionadas en el tratado —como Internet y las TIC—, dado que en la actualidad dichas herramientas incorporan sistemas de IA en su funcionamiento. Ello permite orientar su regulación y protección desde el marco general ya previsto por la CDPD, sin necesidad de una referencia explícita para que resulte aplicable.

Otro punto importante dentro de la CDPD es la definición de discriminación por motivos de discapacidad. Según el artículo 2 de la CDPD, dice lo siguiente:

Por “discriminación por motivos de discapacidad” se entenderá cualquier distinción, exclusión o restricción por motivos de discapacidad que tenga el propósito o el efecto de obstaculizar o dejar sin efecto el reconocimiento, goce o ejercicio, en igualdad de condiciones, de todos los derechos humanos y libertades fundamentales en los ámbitos político, económico, social, cultural, civil o de otro tipo. Incluye todas las formas de discriminación, entre ellas, la denegación de ajustes razonables.

De acuerdo con Bariffi (2021), esta definición adquiere particular relevancia en relación con los sistemas de IA y su régimen de responsabilidad. En primer lugar, la discriminación por motivos de discapacidad no exige la constatación de una intención discriminatoria; lo determinante es que el acto, la decisión o el resultado produzca efectivamente una discriminación. En segundo lugar, la expresión “motivos de discapacidad” amplía el ámbito de protección al incluir también a personas asociadas a la discapacidad, lo que permite abarcar supuestos en los que un sistema de IA infiere erróneamente la existencia de una discapacidad a partir de determinados patrones de comportamiento. Por último, la negativa a proporcionar ajustes razonables constituye una vulneración del derecho a la igualdad y a la no discriminación. Por ello, la CDPD exige que los sistemas, servicios y entornos —incluidos los digitales y algorítmicos— se adapten a las necesidades específicas de las personas con discapacidad (p. 8).

A pesar de lo señalado, la CDPD resulta insuficiente para dar respuesta a la totalidad de los desafíos que plantea la IA. No obstante, constituye un punto de partida particularmente idóneo para orientar la interpretación y adecuación de los estándares de derechos humanos a este nuevo contexto tecnológico. Precisamente por ello, el Relator Especial sobre los derechos de las personas con discapacidad emitió, el 28 de diciembre de 2021, un informe final sobre la IA y los derechos de las personas con discapacidad, en el que identifica y analiza los riesgos que los sistemas de IA generan respecto de los derechos reconocidos en la CDPD. Por ejemplo, siguiendo también la línea de Valle Escolano (2023), la IA puede afectar el derecho a la autonomía, a la igualdad de reconocimiento ante la ley y al respeto del hogar y de la familia (arts. 3, 12 y 23 de la CDPD) no solo en la toma de decisiones, sino también mediante su uso en los cribados de salud y reproducción. Estos sistemas pueden influir en el consentimiento, introducir sesgos y condicionar decisiones médicas. Su opacidad y carácter automatizado pueden erosionar la voluntad de la persona. Otro derecho por desarrollar es el derecho al trabajo y al empleo (arts. 9 y 27 CDPD), pues la CDPD obliga a los empleadores a evitar efectos discriminatorios, lo cual debería incluir el impedimento de que los sistemas de IA excluyan a personas con discapacidad por atributos considerados “atípicos” incluso antes de una entrevista humana. Del mismo modo, el derecho a la educación (art. 24 CDPD) debería exigir que se evite que la IA refuerce prácticas segregadoras y, por el contrario, promueva su uso para ofrecer apoyos más personalizados, accesibles y efectivos (pp. 14-15).

Resulta evidente que se requiere un mayor desarrollo sobre la forma en que los derechos de las personas con discapacidad reconocidos en la CDPD se relacionan con los riesgos emergentes de los sistemas de IA. La CDPD, por sí sola, no es suficiente para afrontar estos desafíos; se necesitan observaciones generales que interpreten sus disposiciones a la luz de los nuevos riesgos tecnológicos. En esta línea, no sorprende que el Relator Especial sobre los derechos de las personas con discapacidad, en su informe dedicado a la IA y los derechos de este colectivo, destacara que los órganos creados en virtud de tratados y los procedimientos especiales del Consejo de Derechos Humanos —incluido el Grupo de Trabajo sobre la cuestión de los derechos humanos y las empresas transnacionales y otras empresas— deben continuar el seguimiento del desarrollo de la IA, evaluar sus implicancias específicas en materia de discapacidad e incorporar esta dimensión en la elaboración de observaciones generales u otros instrumentos relacionados con la IA. No obstante, el Relator va más allá y solicita expresamente al Comité sobre los Derechos de las Personas con Discapacidad que elabore una observación general dedicada a la relación entre la CDPD y la IA.

4. Conclusiones

En definitiva, aunque la CDPD ofrece un marco normativo pertinente para orientar la protección frente a los riesgos de la IA, su formulación previa al auge tecnológico actual la convierte en un instrumento insuficiente para responder de manera integral a los desafíos que plantean. Los beneficios de la IA conviven con riesgos profundos y estructurales que reproducen sesgos, erosionan la igualdad y comprometen derechos como la autonomía, el trabajo, la educación o la vida privada, afectando de forma especialmente intensa a las personas con discapacidad. Por ello, se vuelve imprescindible una actualización interpretativa mediante observaciones generales que adapten el contenido de la CDPD a la nueva realidad digital, así como un compromiso más firme de los órganos de tratados y mecanismos especiales para incluir la perspectiva de discapacidad en la gobernanza global de la IA. La protección efectiva de este colectivo en la era algorítmica exige no solo reconocer estos riesgos, sino abordarlos mediante una interpretación evolutiva, inclusiva y orientada a derechos humanos.

El tema es mucho más complejo de lo aquí expuesto y plantea desafíos aún más profundos; sin embargo, este análisis inicial permite evidenciar la necesidad de impulsar cambios sustantivos tanto en las políticas públicas como en el marco normativo. No basta con elaborar regulaciones sobre IA sin incorporar la perspectiva de discapacidad, ni con desarrollar normas sobre discapacidad que ignoren los impactos de la IA. Es indispensable que ambas dimensiones se articulen e intersecten de manera coherente en la actividad legislativa y regulatoria, a fin de construir respuestas integrales que garanticen la protección efectiva de los derechos de las personas con discapacidad en la era algorítmica.


Bibliografía:

Atari, M., Xue, M. J., Park, P. S., Blasi, D. E., & Henrich, J. (2023). Which humans? Department of Human Evolutionary Biology, Harvard University. https://doi.org/10.31234/osf.io/5b26t

Bariffi, F. J. (2021). Artificial intelligence, human rights and disability. Pensar – Revista de Ciências Jurídicas, 26(2), 1-14. https://doi.org/10.5020/2317-2150.2021.12704

Carey, K. (2016). The end of college: Creating the future of learning and the university of everywhere. Riverhead Books.

De Asís Roig, R. (2022). Derechos y tecnologías. Dykinson.

Ford, M. (2018). Architects Of Intelligence: The truth about AI from the people building it. Packt Publishing.

Linton, S. (1998). Claiming disability: Knowledge and identity. New York University Press.

Nakamura, K. (2019). My algorithms have determined you’re not human: AI-ML, reverse Turing-tests, and the disability experience. In Proceedings of the 21st International ACM SIGACCESS Conference on Computers and Accessibility (ASSETS ’19) (p. 1). Association for Computing Machinery. https://doi.org/10.1145/3308561.3353812

Treviranus, J. (2018, October 30). Sidewalk Toronto and why smarter is not better. Medium. https://medium.com/datadriveninvestor/sidewalk-toronto-and-why-smarter-is-not-better-b233058d01c8

United Nations. (2006). Convention on the Rights of Persons with Disabilities. https://www.un.org/esa/socdev/enable/documents/tccconvs.pdf

United Nations, Human Rights Council. (2021). Report of the Special Rapporteur on the rights of persons with disabilities on artificial intelligence and the rights of persons with disabilities (A/HRC/49/52).

Valle Escolano, R. (2023). Inteligencia artificial y derechos de las personas con discapacidad: el poder de los algoritmos. Revista Española de Discapacidad, 11(1), 7-28. https://doi.org/10.5569/2340-5104.11.01.01

Vila i Pàmies, L., & Benjamins, R. (2025). Guía sobre el impacto de la IA para personas con discapacidad. ODISEIA.


  1. Google Research. (s. f.). Project Euphonia: How it works. https://sites.research.google/euphonia/about/#how-it-works
  2. Kwido. (s. f.). Descubre Kwido: innovación y cuidado en la era digital. Recuperado de https://kwido.com/nosotros/
  3. OpenAI. (2023). Be My Eyes uses GPT-4 to transform visual accessibility. https://openai.com/customer-stories/be-my-eyes
  4. AmeriDisability. (2022). 2022 Winter Paralympics Games is using this AI sign language interpreter. https://www.ameridisability.com/2022-winter-paralympics-games-is-using-this-ai-sign-language-interpreter/

Artículos relacionados

Deja un comentario

¿Quieres publicar en Pólemos? Envía tu artículo y revisa nuestras Políticas de Publicación antes de enviarlo.

 

    El Portal Jurídico-Interdisciplinario «Pólemos» es un espacio académico orientado al análisis de temas jurídicos y de actualidad. Nos distinguimos por tratar el Derecho desde un enfoque interdisciplinario, integrando conocimientos de distintas disciplinas para ofrecer una comprensión más integral y enriquecedora.

    EQUIPO EDITORIAL

    Directora: Camila Alexandra Infante García

    Consejo Editorial:
    Marilyn Siguas Rivera
    Carlos Curotto Aristondo
    Gustavo Sausa Martínez
    Guadalupe Quinteros Guerra
    Daira Salcedo Amador

    Mariana Isabel Garcia Jiménez

    Sarah Michelle Chumpitaz Oliva

    Bryan Alexander Carrizales Quijandria

    SELECCIONADO POR EDITORES

    ÚLTIMOS ARTÍCULOS