Al hablar de tecnología, es muy difícil no hacer referencia a la Inteligencia Artificial (IA). Un área en constante desarrollo, pero que, para algunos, representa un inminente peligro en virtud de los riesgos que implica su empleo inapropiado. Son múltiples los interesados en lograr una regulación uniforme que garantice su buen uso y correlativo respeto a los derechos humanos, por lo que se ha observado una proliferación de textos tendientes a desarrollar “principios” rectores de dicha tecnología y su debida gobernanza. En este sentido, el Berkman Klein Center for Internet & Society de la Universidad de Harvard realizó un estudio comparado, publicado en enero de este año, denominado “Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-based Approaches to Principles for AI[1], mediante el cual se hizo un análisis de 36 documentos de distintas procedencias (regiones, culturas, organizaciones e instituciones promotoras), relacionados con principios en el ámbito de la IA y con el fin de verificar sus coincidencias.

De acuerdo al estudio, el concepto de IA no es uniforme, puesto que cambia a medida que avanza la tecnología. No obstante, se utiliza el concepto del Grupo de Expertos de Alto Nivel sobre Inteligencia Artificial de la Comisión Europea como punto de partida. Así, “los sistemas de inteligencia artificial (IA) son sistemas de software (y posiblemente también de hardware) diseñados por los seres humanos que, dado un objetivo complejo, actúan en la dimensión física o digital percibiendo su entorno mediante la adquisición de datos, interpretando los datos estructurados o no estructurados recogidos, razonando sobre el conocimiento, o procesando la información, derivada de estos datos y decidiendo la(s) mejor(es) acción(es) a tomar para alcanzar el objetivo dado. Los sistemas de IA pueden utilizar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento analizando la forma en que el medio ambiente se ve afectado por sus acciones anteriores”.

Si bien los instrumentos comparados presentan enfoques variados, el estudio señala que en cada uno de ellos se puede encontrar 8 temas clave y primordiales, a saber: (i) privacidad, presente en un  97%; (ii) rendición de cuentas, presente en un 97%; (iii) seguridad y protección, presente en un 81%; (iv) transparencia y explicabilidad, presente en un 94%; (v) equidad y no discriminación, presente en un 100%; vi) control humano de la tecnología, presente en un 69%; vii) responsabilidad profesional, presente en un 78%; y (viii) promoción de los valores humanos, presentes en un 69%. Adicionalmente, se señala que el 64% de los instrumentos contiene una referencia a los derechos humanos, y cinco de ellos toman a los derechos humanos internacionales como marco general. A fin de tener una mayor comprensión sobre el alcance de cada uno de estos temas clave (que engloban principios relacionados), veamos una breve referencia a los mismos:

– Privacidad: representa la idea de que los sistemas de IA deben respetar y garantizar la privacidad de los individuos y la protección de sus datos en todas las fases del ciclo vital de dichos sistemas.

– Rendición de cuentas: se debe asegurar que la responsabilidad por los efectos de los sistemas de IA se distribuya adecuadamente, y que se proporcionen los remedios adecuados.

– Seguridad y protección: los sistemas de IA deben ser seguros, funcionar según lo previsto y ser resistentes en caso de ser “comprometidos” por partes no autorizadas.

– Transparencia y explicabilidad: los sistemas de IA se deben diseñar y aplicar de manera que permitan su supervisión, incluso mediante la traducción de sus operaciones en resultados inteligibles y el suministro de información sobre dónde, cuándo y cómo se están utilizando.

– Imparcialidad y no discriminación: En vista de que la preocupación por el sesgo de la IA ya está afectando a las personas a nivel mundial, los principios de imparcialidad y no discriminación exigen que los sistemas de IA se diseñen y utilicen para maximizar la equidad y promover la inclusión. Los principios de justicia y no discriminación están presentes en todos los instrumentos.

– Control humano de la tecnología: se requiere que las decisiones importantes permanezcan sujetas a la revisión humana.

– Responsabilidad profesional: se reconoce el papel vital que tienen los individuos involucrados en el desarrollo e implementación de los sistemas de IA, por lo que se impone un alto grado de profesionalismo para asegurar se consulte a los especialistas apropiados.

– Promoción de los valores humanos: los objetivos a los que se dedica la IA y los medios por los que se implementan, deben corresponderse con nuestros valores fundamentales y, en general, promover el bienestar de la humanidad.

Adicionalmente, el estudio indica, entre otras cosas, que: i) si bien estos ocho temas clave ofrecen una visión sobre los requisitos fundamentales para una IA ética y respetuosa de los derechos humanos, todavía queda una amplia brecha entre los conceptos y la realidad; ii) es cierto que hay puntos de convergencia, sin embargo, todavía no hay unanimidad absoluta; iii) el panorama global de la ética de la IA se está desarrollando y se confirma la tendencia a favorecer un mayor acceso a la tecnología y una mayor participación de múltiples interesados; iv) los litigios sobre las consecuencias perjudiciales de la IA son todavía incipientes debido a que se han presentado pocos casos; v) solo unas pocas jurisdicciones han adoptado normas relativas a la IA.

Finalmente, el documento también resalta la necesidad de hacerle seguimiento a la forma en que los instrumentos sobre los principios de la IA se relacionan con la forma en que los tribunales, las legislaciones y los órganos administrativos reparten la responsabilidad por los daños relacionados con esta tecnología, e influyen en ella.

[1] Jessica Fjeld/Nele Achten/Hannah Hilligoss/Adam Nagy/Madhulika Srikumar, Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI (January 15, 2020). Berkman Klein Center No. 2020-1. https://cyber.harvard.edu/publication/2020/principled-ai

Image by Gerd Altmann from Pixabay

Últimos post

Sigue con nosotros

Te invitamos a continuar en nuestro sitio web

El INVEDET - Blog - Normativa -  Doctrina - Instituciones

Contacto

Si quieres comunicarte con el INVEDET puedes revisar la información en nuestro módulo de contacto

Síguenos

Te invitamos a seguir los demás medios del Instituto Venezolano de Derecho y Tecnología