Suscríbete a nuestra revista y podrás leer el contenido exclusivo online
Regístrate y accede a la revistaPremiada a fines del año pasado entre los 100 Jóvenes Líderes 2024, Gabriela Arriagada, filósofa especializada en Éticas Aplicadas y experta en Ética de la IA, reflexiona sobre los desafíos éticos en un mundo cada vez más influido por la inteligencia artificial.
Gabriela Arriagada es licenciada en Filosofía de la Pontificia Universidad Católica de Chile, Master of Science en Filosofía y Ética de la Universidad de Edimburgo y PhD en Filosofía por la Universidad de Leeds, Inglaterra. Actualmente, es profesora asistente de Ética de IA y Datos en el Instituto de Éticas Aplicadas y el Instituto de Ingeniería Matemática y Computacional, además de investigadora del Centro Nacional de Inteligencia Artificial (CENIA). También lidera iniciativas desde la World Ethical Data Foundation y es autora del libro Los sesgos del algoritmo.
En colaboración con la Universidad de Tokio y la Universidad de Hanyang, Gabriela está llevando a cabo análisis comparativos sobre el uso de la IA en la inclusión de personas con discapacidades cognitivas y mentales, con el objetivo de implementar pruebas de estos estudios en Chile. “La ética ya no es solo una directriz abstracta, es parte inherente del ecosistema de la IA”, afirma.
-¿Cómo describirías la relación entre la ética y la inteligencia artificial en el contexto actual?
-Desde 2016, la discusión ética sobre la IA ha evolucionado, dejando atrás los principios abstractos para centrarse en un enfoque más contextual, que incluye a desarrolladores, legisladores, usuarios y todos los afectados. Hoy en día, la ética no es solo una guía teórica, sino que se ha convertido en una parte esencial del ecosistema de la IA.
-¿Cuáles consideras que son los principales desafíos éticos que plantea la implementación de IA en la educación?
-En la educación, la IA complica aún más un panorama ya marcado por sesgos, discriminaciones y desafíos en la justicia educativa. Destaco dos retos fundamentales: la alfabetización crítica (digital y ética) y la necesidad de que profesores, estudiantes y familias comprendan cómo usar la IA de manera responsable, alineando su uso con objetivos educativos claros y principios éticos.
-¿Cómo podemos asegurar que los sistemas de IA sean inclusivos y no perpetúen sesgos existentes?
-Este es un tema muy relevante y central en mi investigación. En los últimos cinco años me he dedicado a estudiar sesgos en procesos de diseño y desarrollo en IA y cómo asegurar su desarrollo inclusivo.
Los sesgos son parte inherente de nuestros procesos cognitivos, epistémicos y sociales. Lo que debemos hacer no es caer en la ilusión de tener procesos y decisiones perfectos y sin sesgos con IA, sino que aprender a entenderlos, identificarlos y manejarlos. Para generar sistemas inclusivos debemos primero entender cómo estos sesgos estructurales afectan los datos de entrenamiento, los modelos de IA y las decisiones humanas que los desarrollan e implementan. Solo desde ahí, y desde una contextualización sociotécnica (que significa entender que la tecnología no existe en un vacío, sino que está profundamente influenciada por factores culturales, económicos, políticos y sociales, al mismo tiempo que impacta en ellos), podremos comprender la IA como un sistema que es influido e influye a nuestra sociedad, y recién ahí podremos empezar a hablar de un desarrollo inclusivo.
Gabriela Arriagada.
“Una de las grandes ventajas que tiene el uso masivo de datos en educación se vincula con el desarrollo que han tenido las herramientas de analíticas de aprendizaje (LA o learning analytics en inglés), que ofrecen un nivel de personalización y de seguimiento muy exhaustivo y que, interpretadas y contextualizadas apropiadamente, pueden ser un gran aporte en el fomento de un aprendizaje activo y significativo”.
-¿Cómo se pueden equilibrar el uso de grandes volúmenes de datos con el derecho a la privacidad? ¿Qué medidas éticas recomendarías para proteger a los estudiantes en entornos educativos que integran IA?
-Una de las grandes ventajas que tiene el uso masivo de datos en educación se vincula con el desarrollo que han tenido las herramientas de analíticas de aprendizaje (LA o learning analytics en inglés), que ofrecen un nivel de personalización y de seguimiento muy exhaustivo y que, interpretadas y contextualizadas apropiadamente, pueden ser un gran aporte en el fomento de un aprendizaje activo y significativo. Ahora bien, esto conlleva sus riesgos en cuanto a la privacidad, por eso es crucial seguir protocolos de manejo de datos, incluyendo lo fundamental como la transparencia sobre el uso y manipulación de los datos, el consentimiento informado, y la minimización de datos, que implica recolectar solo los datos estrictamente necesarios para alcanzar los objetivos educativos, evitando datos personales innecesarios.
-¿Qué implicancias éticas tiene la automatización masiva en términos de empleabilidad y desigualdades sociales?
-Cuando se habla de integrar la IA en el futuro del trabajo tenemos dos grandes caminos a seguir, la automatización masiva y la asistencialización. Esta última nos lleva a convertir la IA en una herramienta de apoyo en el proceso de trabajo de los humanos, usándola como beneficio en optimizaciones y eficiencias con los intereses y valores humanos en el centro.
La primera, en cambio, es un riesgo muy alto porque pone en cuestión el valor mismo de lo que ofrece el desarrollo de una profesión y un trabajo. La automatización puede llevar a la pérdida de empleos, especialmente en sectores donde las tareas son repetitivas o pueden ser realizadas por máquinas. Pero esas pérdidas no contemplan una reinvención de esas labores humanas. Asimismo, muchos de los procesos de automatización actuales no tienen un objetivo de integración crítico, más bien parece ser que optimizamos lo que podemos y no lo que debemos o realmente queremos. No debemos olvidar el valor de lo humano en las profesiones, que la interacción social y experiencial son aportes únicos y especialmente valiosos, por lo que la automatización masiva puede atentar en contra de eso. Para esto, marcos regulatorios y marcos éticos que conversen con los beneficios de innovación y el respeto a estos valores serán cruciales en el futuro a mediano plazo.
“¿De qué manera funcionan los sistemas de inteligencia artificial?
¿Por qué es importante fortalecer el nivel de transparencia, explicabilidad y privacidad? ¿Es posible prevenir la discriminación en el diseño de los programas? ¿Podemos personalizar las tecnologías para reforzar la inclusión de minorías sexuales, raciales y personas neurodivergentes?”
A diferencia de otros ámbitos tratados por la ética —como el medioambiente o los animales—, la IA no está viva, aprende con datos y comportamientos humanos y, por ende, es un instrumento que refleja nuestras inclinaciones morales y culturales. En esta línea, Gabriela Arriagada Bruneau —filósofa y científica computacional— explica cómo los distintos tipos de sesgos y discriminación pueden prevenirse no solo perfeccionando la tecnología, sino atendiendo las diversas realidades e integrando múltiples enfoques y disciplinas.
Los sesgos del algoritmo es un ensayo destinado a todo público interesado en comprender los factores éticos y sociales implicados en la IA. La importancia de lograr un acceso más universal a la tecnología e integrar a personas con limitaciones sociales o cognitivas, implementar herramientas educativas, y precisar el diagnóstico y tratamiento de diversas enfermedades.
Revisa nuestro contenido en todas las plataformas desde un teléfono hasta nuestra revista en papel.
Mantengamos la conversación, búscanos en twitter como @grupoEducar
Tweets by grupoEducarIngresa a nuestra comunidad en Facebook y profundicemos el debate.