El principio de no discriminación en el desarrollo de algoritmos. La era de la inteligencia artificial
El principio de no discriminación es fundamental en el ámbito de la inteligencia artificial, ya que los algoritmos y sistemas automatizados pueden tener impactos negativos en la sociedad si no se diseñan y utilizan de manera ética y responsable.
¿Cómo entender esta discriminación?
La discriminación puede ser directa o indirecta:
- La discriminación directa se produce cuando un algoritmo trata a una persona o grupo de personas de manera diferente y desfavorable debido a su raza, género, orientación sexual, edad, discapacidad u otra condición.
- La discriminación indirecta se produce cuando un algoritmo tiene un impacto desproporcionado en un grupo de personas que comparten una determinada característica.
Para evitar la discriminación en el desarrollo de algoritmos, es necesario implementar medidas específicas, como i) la selección de datos adecuados y representativos, ii) la identificación y eliminación de sesgos en los datos y en el proceso de entrenamiento del algoritmo, y iii) la evaluación continua del impacto del algoritmo en diferentes grupos de personas.
¿Qué ha hecho Colombia al respecto?
Colombia ha avanzado en la regulación de la IA, por ejemplo:
- En 2019, el Consejo Nacional de Política Económica y Social (CONPES) publicó el proyecto número 3975 la Política Nacional de Transformación Digital e Inteligencia Artificial;
- En 2021, se expidió el documento CONPES 4023, por medio del cual se acoge la propuesta técnica del CAF de crear un grupo especializado para la Gobernanza de IA, y se propone la creación del Consejo Internacional de IA para Colombia y, en este mismo año, se expide el Marco Ético para la IA en Colombia, el cual tiene en cuenta los principios de IA de la OCDE y UNESCO.
Dentro del Marco Ético para la IA en Colombia
https://inteligenciaartificial.gov.co/static/img/MARCO_ETICO.pdf, se estable el principio de no discriminación a la hora de desarrollar las estructuras lógicas y el conocimiento de base de la IA, para que estas tengan unos condicionantes que le permitan excluir razonamientos que conlleven a la amplificación de los sesgos existentes sobre comunidades históricamente marginalizadas.
Lo anterior, implica un esfuerzo adicional frente a los desarrolladores y usuarios de esta tecnología, toda vez que, si se le permite a la IA el aprendizaje autónomo sobre informaciones antiguas en donde era éticamente correcta la marginalización de las minorías, esta tendrá supuestos lógicos que atenten directamente e impidan la verdadera equidad y neutralidad que se busca con estas herramientas en las diferentes esferas de la vida del ser humano.
Por lo tanto, es necesario tener en cuenta el principio de no discriminación en el desarrollo de algoritmos para garantizar que la tecnología sea justa e inclusiva.
Si desea tener acceso a temas relacionados lo invitamos a acceder a siguiente link https://mslegal.com.co/publicaciones/
Comments are closed.
Desarrollado por Connexxio Media