El sector sindical de América Latina debe comprometerse con la defensa de los derechos humanos en la era digital. El acceso gratuito a internet de calidad, la garantía de políticas públicas para la regulación de las tecnologías, el uso y disfrute de las tecnologías digitales en un marco de seguridad, y espacios digitales libres de violencia -especialmente violencia política, violencia basada en género, discursos de odio y otras- son algunos de estos derechos.
En los últimos meses, la Inteligencia Artificial (IA) se ha convertido en el centro de los debates sobre tecnología. La IA es la habilidad de una computadora o de un sistema digital para relacionar datos e información con el fin de desempeñar tareas y actividades hasta ahora consideradas exclusivas de la inteligencia humana, como son la resolución de problemas, la toma de decisiones o incluso la generación de nueva información, incluida el diseño de arte, música, textos coherentes, etc.
En el ámbito educativo específicamente se están generando productos para el uso en aula que acumulan datos sobre el comportamiento de las personas cuando usan una tecnología. Los comportamientos, las decisiones y elecciones que estudiantes y docentes tienen al usar una aplicación o una plataforma quedan registrados como datos. Posteriormente, una máquina o sistema digital puede procesar estos datos de comportamiento en el uso de los productos digitales para decidir si mostrar o no algún contenido, permitir o no el acceso a alguna interfase e incluso “tipificar” aulas, escuelas o comunidades educativas.
En el periodo de pandemia quedó clara la necesidad de que exista mayor transparencia sobre qué se hace con los datos se generan cuando docentes y estudiantes utilizan apps y plataformas “donadas” por Google, Microsoft, Telefónica- Movistar, etc. ¿Cómo se utilizan estos datos? ¿Se venden estos datos? ¿Se almacenan estos datos? ¿Quién los almacena, quién los compra? Con los datos ¿se crean perfiles de comportamiento? ¿Qué implicaciones tienen estos perfiles? ¿Se programan productos educativos a partir de estos datos de comportamiento? ¿Se va a avanzar en formatos de evaluación docente según el comportamiento digital de sus estudiantes? Son algunas preguntas que tenemos que hacer.
Está claro que desde el movimiento sindical de la región podemos jugar un rol en la demanda de políticas de autoría, regulación y transparencia del uso de la IA. Este artículo es el primero de una serie de aportes del Observatorio Latinoamericano de Política Educativa de la Internacional de la Educación para América Latina (OLPE-IEAL) para contribuir a pensar la propuesta del movimiento sindical del sector de la educación con respecto a cómo fortalecer la regularización y la auditoría de la Inteligencia Artificial, el uso de datos en miras a la protección de los derechos humanos en la era digital.
Algoritmos y máquinas que aprenden
Las computadoras y las máquinas desempeñan tareas de toma de decisión y de generación de información gracias al aprendizaje automatizado de uso y el procesamiento de datos (llamado machine learning en inglés).
Cuando se habla de aprendizaje automatizado se refiere al entrenamiento de una tecnología a partir de los algoritmos, que son rutas (proxies) predeterminadas para usar y relacionar datos entre sí. Los algoritmos y los sistemas de uso de datos permiten a un sistema de IA relacionar esta información para producir nueva y “tomar decisiones”. Los algoritmos pueden entenderse como “la toma de decisiones automatizada”.
Es justamente en el proceso de programar dichos algoritmos y dicha gestión de la información, en la que pueden generarse modelos de relacionamiento de datos que reproduzcan sesgos e instauren nuevas formas de discriminación.
Se ha acuñado el término “black boxing” o “caja negra” para referirse a la falta de claridad o de comprensión humana sobre cómo es que se generan ciertos resultados a partir de la programación de los algoritmos. Por ejemplo, por qué es que un algoritmo de un departamento de policía señala más alertas en una comunidad que en otra, por qué es que un algoritmo de selección de personas candidatas a un puesto de trabajo siempre descarta currículum con un tipo de apellidos o nombres, etc.
Por eso, una de las principales reivindicaciones de los derechos humanos en la era digital es la transparencia algorítmica. La transparencia algorítmica pone en evidencia cómo están operando los sistemas automatizados de procesamientos de datos para la toma de decisiones y la información predictiva.
En el caso de la IA, no existen políticas para definir qué es la “ciberprotección” en los objetos que se producen y por lo tanto están siendo comercializados sin procesos de regulación. Tampoco existen políticas globales de responsabilidad corporativa que oriente la tecnología desarrollada por las corporaciones privadas.
Uno de los desarrollos actualmente más populares de la IA es el procesamiento del lenguaje natural (NLP), presente en aplicaciones que fueron lanzadas en los últimos meses como Chat GPT, que facilita que las computadoras comprendan textos y palabras habladas, de la misma manera que las comprende una persona, y que adquieran las capacidades para razonar, aprender y autocorregirse a partir de este lenguaje que procesa. Este es un paso clave que permite a las máquinas imitar el lenguaje cotidiano de los humanos, desarrollar o generar nuevas “conversaciones” y/o textos sin necesidad de nuevos insumos humanos.
Este tipo de desarrollo genera cuestionamientos y pone el énfasis en cómo se va a planificar y regular la irrupción de estas tecnologías en el mercado de trabajo, manteniendo un marco de protección del trabajo como un derecho de las personas.
Los sesgos y la discriminación en la Inteligencia Artificial
Algunos problemas importantes con la forma en que se establece el aprendizaje automatizado es que los algoritmos como sistemas de organización de información, son programados por personas y equipos humanos. Es decir, los algoritmos reproducen “opiniones humanas incrustadas en el código” de desarrollo digital (web development), por lo que pueden reproducir sesgos y formas de discriminación en el ámbito digital (Hunt y McKelvey, 2019).
Muchos datos se captan a partir del uso que hacen las personas de las diferentes aplicaciones móviles y las distintas plataformas digitales: desde los sitios que se visitan, los artículos que se leen, los temas que se buscan, los “clicks” sobre unos u otros temas. Todos estos comportamientos se convierten en datos, ya sea con consentimiento o sin consentimiento de las personas.
Se sabe que el acceso a internet no es igual para todas las poblaciones en el mundo: hay regiones con internet de calidad gratuito y hay regiones del mundo sin acceso a internet o incluso, donde los gobiernos censuran el acceso a ciertos sitios o cancelan la conectividad del todo (conocido como shutdowns).
Las personas de América Latina, y en especial las mujeres y las personas adultas mayores, están menos representadas en las bases datos con que se entrenan a modelos de inteligencia artificial. En la región, solo un 60% de los hogares de la región tienen algún tipo de acceso a internet, principalmente a través de un teléfono móvil. En Guatemala, 75% de los hogares no tenían acceso a una computadora en el hogar, en Colombia solo el 43% de las personas tienen acceso a internet de forma regular y en Brasil, 47 millones de personas no tienen acceso a internet y 1879 distritos no tienen siquiera una red de comunicación móvil. Mientras tanto, en Argentina, Brasil, República Dominicana, Guatemala y México hay al menos 31 millones de mujeres sin acceso a internet (Fuentes INEC, 2020, A4AI, CETIC, 2020, FONDETEL, 2020).
La falta de igualdad en el acceso a internet genera una gran brecha de representación en las bases de datos. Al mismo tiempo, en las bases de datos que alimentan la inteligencia artificial hay una sobrerrepresentación de datos sobre hombres blancos occidentales, que son los principales usuarios de internet. Por eso, inclusive, se habla de descolonizar la ciencia de datos y descolonizar la red de internet.
Así, muchos sistemas digitales de inteligencia artificial se están entrenando a partir de datos sesgados, sin una representación real de otras poblaciones como mujeres, poblaciones indígenas, comunidades campesinas, etc. La normalización de estos sesgos se da principalmente porque se toma la figura del hombre blanco occidental como la fuente de datos o el parámetro por “default” y también porque la programación de los algoritmos no se rige expresamente por legislaciones ni protocolos orientados a corregir los sesgos, evitar la discriminación o priorizar la diversidad en las fuentes o parámetros de los datos.
El aprendizaje automático (machine learning) aprende rutas (proxies) o métodos para asociar datos y llegar a conclusiones que pueden ser desde poner a disposición una información y no otra, o priorizar la difusión de una información en lugar de otra, seleccionar opciones, asignar calificaciones, etc.
Muchos procesos que tienen gran impacto en la vida cotidiana ya se llevan adelante sin intervención de personas y requieren únicamente la activación de programas digitales; desde evaluaciones a docentes, asignación de seguros de vida y de automóviles, las admisiones en centros de estudio, las admisiones en procesos de entrevistas para puestos de trabajo, el acceso a edificios, etc.
Diseñar y programar para la inclusión
Ni los países de América Latina ni tampoco Estados Unidos, cuentan con políticas que establezcan los límites de lo que las compañías privadas pueden desarrollar o comercializar. En ese sentido, la IA se está desarrollando y posicionando en el mercado sin estar regulada por criterios de derechos humanos, derechos políticos, culturales ni económicos.
Al mismo tiempo, la tecnología IA requiere inversiones y expertise muy alta, que hasta la fecha, existe de forma casi exclusiva únicamente en entidades militares o en empresas privadas.
Inclusive, si se suma todo el presupuesto de desarrollo e investigación de IA de las 5 empresas de tecnología militar de Estados Unidos, el monto no supera el 50% del presupuesto de investigación y desarrollo de Microsoft, Google y Apple.
En ese sentido y ante la carencia de legislación pública, la IA se está desarrollando como un bien privado para el consumo público. El uso de la investigación y el desarrollo de tecnología está quedando en manos de las corporaciones privadas.
Hay personas tomando decisiones sobre la forma en que se programan los algoritmos sobre el uso de la información y de los datos detrás de la IA.Mientras no se programe a los sistemas de IA de forma integral para prevenir los sesgos de raza, género o edad, es muy posible que se esté corriendo el riesgo de programar tecnología plagada de sesgos y discriminación.
Además, hay personas tomando decisiones sobre cómo y cuándo aplicar la IA. Cuando estas decisiones no se guían por una política pública diseñada con perspectiva de inclusión y equidad, pueden generarse nuevas brechas sociales.
Por ejemplo, el diseño de las plataformas de interacción y de comunicación no cuenta con mecanismos para discriminar cuando la interacción y comentarios que se colocan en ciertos portales son parte de ataques programados y ejecutados por “bots” o sistemas automatizados de intervención en redes sociales.
Por otro lado, puede generarse inequidad entre sociedades en las que sí se están avanzando en legislaciones con perspectiva de derechos humanos para la gestión de la IA y sociedades en las que persisten vacíos en esta área. En ese sentido, las empresas pueden tener comportamientos éticos en algunos países y comportamientos no éticos en otros. Este ejemplo lo hemos visto ya en los casos de almacenamiento de información, donde en la Unión Europea está controlado y penando el uso y comercio de datos personales sin consentimiento de las personas y América Latina no.
Por ejemplo, en la Unión Europea, las empresas que acumulan y venden datos obtenidos a partir de las prácticas de uso del teléfono móvil, deben informar a las personas usuarias exactamente sobre la forma en que van a almacenar y usar esos datos, para dar la oportunidad a las personas de aceptar o rechazar dicha gestión de la empresa.
Falta de privacidad de datos
La IA registra y almacena información o fragmentos de información. Esta información puede incluir: prácticas de movilidad, patrones de comportamiento y consumo, patrones de acompañamiento y socialización, o incluso, información sobre las conversaciones privadas entre personas.
En la mayoría de los casos, se ignora la forma en que se almacena, gestiona o incluso comercializa esta información. Existen riesgos altos de mal manejo de la información (leaks). La exposición o venta de información puede generar prácticas no éticas de control, persecución o profiling (diseño de perfiles) con fines comerciales.
Un ejemplo sencillo es la integración de IA, datos y atención en salud. Es decir, la información sobre la salud de las personas ya no se rige por el criterio de confidencialidad entre profesionales de la salud y sus pacientes.
Por lo anterior es que el movimiento sindical debe estar informado sobre estos desarrollos para poder desarrollar su propia propuesta e incidir en los gobiernos respecto a la regularización de la Inteligencia Artificial con un enfoque de defensa de los derechos humanos en la era digital.
Fuentes:
Fox, Christie (2017), The ethical dilemma we face on AI and Autonomous tech. TED MID Atlantic https://www.youtube.com/watch?v=3oE88_6jAwc&t=553s
González, Luz Elena et al (2023) https://www.policylab.tech/_files/ugd/0e03be_ae485a754e814676ab4b4228ea4157b8.pdf
O´Neill, Cathy (2017) Weapons of Math Destruction. How big data increases inequality and threatens democracy.