La obra, publicada por La Pollera Ediciones, es un ensayo destinado a todos quienes busquen entender los factores éticos y sociales implicados en el desarrollo de la inteligencia artificial. Entre estas aristas, está la importancia de alcanzar un acceso más universal a la tecnología e integrar a personas con diversas necesidades cognitivas o sociales.
“Cuando se habla de ética en inteligencia artificial se piensa en cómo hacer ‘algoritmos éticos”, en cómo lograr una ‘inteligencia artificial justa’, en los principios que deben guiar su desarrollo, en las responsabilidades que tienen quienes crean y usan estos sistemas. Y sin duda, estas aristas del tema dominan las discusiones sobre la ética aplicada, pero en mi caso hay un aspecto que me interesa muchísimo y he estudiado en particular: la inclusividad”. Así comienza la introducción del nuevo libro “Los sesgos del algoritmo”, escrito por Gabriela Arriagada, académica del Instituto de Ingeniería Matemática y Computacional (IMC) en vacante compartida con el Instituto de Éticas Aplicadas UC e investigadora del Centro Nacional de Inteligencia Artificial (CENIA).
Tal como dejan entrever esas palabras, la obra publicada por La Pollera Ediciones aborda varias aristas del desarrollo de los sistemas de inteligencia artificial (IA): ¿De qué manera funcionan?, ¿Por qué es importante fortalecer en ellos el nivel de transparencia, explicabilidad y privacidad?, ¿Es posible prevenir la discriminación en el diseño de los programas?, ¿Se pueden personalizar las tecnologías para reforzar la inclusión de minorías sexuales, raciales y personas neurodivergentes?
Precisamente, Gabriela Arriagada -filósofa y especialista en ética de inteligencia artificial y datos- comenta que en los últimos siete u ocho años, aproximadamente, los cuestionamientos éticos ligados a la IA han surgido como una línea de investigación central en el desarrollo de esta tecnología. Entre esos temas de debate, uno de los más discutidos ha sido el problema de los sesgos y discriminación: “Algunos libros y artículos académicos, por ejemplo, han resaltado debates sobre sesgos raciales a partir del caso COMPAS en Estados Unidos. COMPAS fue un algoritmo utilizado para evaluar el riesgo de reincidencia de los acusados, es decir, cuál era la probabilidad de que volvieran a cometer un crimen, e informar de ese riesgo a los jueces que decidirían si se asignaba una medida cautelar. Su uso fue criticado tras una investigación de ProPublica en 2016, que reveló una tendencia a predecir erróneamente un mayor riesgo de reincidencia entre los delincuentes negros en comparación con los blancos, aun cuando —en la práctica— se corroboró que quienes habían sido catalogados de alto riesgo no volvieron a reincidir y quienes fueron catalogados de bajo riesgo sí lo hicieron”.
Gabriela Arriagada.
Este hallazgo, agrega la investigadora, generó preocupaciones sobre cómo el uso de algoritmos podría perpetuar las desigualdades existentes en el sistema de justicia penal, destacando la necesidad de transparencia, auditorías independientes y regulaciones que aseguraran la implementación justa y sin prejuicios de la IA en contextos críticos. A la vez, señala, se inició un “debate académico sobre qué es lo que entendemos como justo, qué es lo que queremos lograr con implementar IA en contextos críticos, y cómo los sesgos sociales —en este caso proveniente de los datos de entrenamiento— reflejan la discriminación latente que sufren las personas de minorías raciales”. Dichas discusiones sobre la discriminación en IA fueron avanzando en distintas áreas a medida que los sistemas se implementaban en ámbitos como la educación, la minería, los diagnósticos de salud, las labores de servicio al cliente y el procesamiento de créditos bancarios, entre otras. “Y fueron surgiendo soluciones técnicas para abordar los sesgos y mitigarlos: nuevas métricas de justicia para asegurar paridad en el trato de diferentes poblaciones en un modelo, y criterios generales para asegurar que, ciertos sesgos o variables, no afectaran las representatividades en modelos de IA”, relata Arriagada.
La académica IMC añade que los avances han sido valiosos y empezaron a practicarse por parte de diversos desarrolladores de IA, además de integrarse en los currículos que educan a los futuros profesionales. Sin embargo, precisa que esto es solo una faceta del problema, ya que los sesgos reflejan una realidad sociotécnica mucho más profunda: “Los sesgos nos preocupan porque nos llevan a cometer discriminaciones o tratos injustos, pero, en el mismo punto, debemos entenderlos en sus múltiples facetas. Aun cuando tengamos una gobernanza de datos apropiada, protocolos de mitigación de sesgos robustos y evaluaciones constantes del impacto de los sistemas creados, esto no es suficiente. Podemos ver a los sesgos como instancias indeseadas, o podemos entenderlos dentro de una red de influencias que se manifiestan en instancias específicas, pero que —al entender su origen y contexto— podemos comprender qué está detrás de ese sesgo. Por esto, solo para comenzar, existe una discusión importantísima sobre cómo entendemos los problemas de discriminación, representatividad e inclusividad al adoptar esta tecnología”.
Es en este contexto que la filósofa apunta a compartir sus ideas e inquietudes sobre la importancia de adoptar una visión sociotécnica para avanzar en perspectivas de inclusividad en el desarrollo de la IA. “La idea es aplicar una ética contextualizada a las necesidades de aquellos grupos que han sido invisibilizados en la sociedad, particularmente, las minorías de género y las minorías neurodivergentes. Desde luego no vengo a ofrecerles soluciones incuestionables, pero sí compartirles una narrativa, una perspectiva, y una experiencia personal para enfocar ciertos problemas éticos y avanzar hacia estas soluciones, las cuales, por supuesto, requieren un trabajo íntimo desde la interdisciplina”, afirma.
Gabriela Arriagada aborda este tema no sólo desde su perspectiva académica, sino que también desde su propia experiencia de vida: “En específico, vengo a mostrarles cómo yo entiendo y vivo estos problemas, y de este modo, abrir el diálogo sobre lo que es pensar la ética de IA desde una mente ‘neuroqueer’. Porque, a propósito, recién de adulta supe de mi identidad de género no binaria y, a mis treinta años, fui diagnosticada —por fin— como parte del espectro autista”. La investigadora agrega que “estas experiencias importan, pues al descubrirme y encontrarme pude liberarme de las barreras que me habían impuesto. Nunca olvidaré las veces que negaron mis experiencias. Nunca olvidaré que debí enmascarar mi comportamiento y sufrir en silencio porque profesionales de la salud y gente a mi alrededor me negaban quién era. ‘Es que tú no puedes ser autista’, me decían. ‘Porque eres demasiado sociable’. ‘Porque te va bien en el colegio’. ‘Porque no te ves discapacitada’”.
“Me costó mirar atrás y comprender por qué tuve tantos problemas para encajar, por qué sufría tanto de ansiedad, por qué enfermaba tantas veces en el año a pesar de tener un cuerpo saludable, por qué nunca sentía que estaba incluida en ningún lugar, excepto en mi hogar y con amigos que, con el tiempo, descubrí que también eran neurodivergentes”, reflexiona la autora de “Los sesgos del algoritmo”. Cuando pudo comprender cuáles eran sus verdaderas necesidades, y comprobar que aunque fueran invisibles ante los demás sí eran reales, Gabriela Arriagada comenzó a entender la inclusión no como una aspiración, sino como una necesidad humana básica.
“Y así no dejé de pensar cómo traducir estas motivaciones a mi trabajo y desarrollar una ética aplicada a la IA que debe, desde su práctica integrada, desarrollar sistemas inclusivos más allá de lo técnico. Pero esto, desde luego, no es una tarea fácil. Por una parte, se requiere que el desarrollo de la IA integre objetivos de inclusividad en todo su ciclo de vida. Y esto, a su vez, demanda un compromiso del ecosistema completo, de quienes diseñan, desarrollan, implementan, usan y, también, evalúan y legislan, pues debe haber un alineamiento que reconozca y valore la diversidad de experiencias humanas: solo así podemos asegurarnos de que las nuevas tecnologías reflejen y respeten esa diversidad”, indica.
Ficha
Los sesgos del algoritmo
Autora: Gabriela Arriagada
Editorial: La Pollera Ediciones
Precio: $12.900