International Journal of Human-Computer Interaction publica artículo escrito por investigadoras FAIR

International Journal of Human-Computer Interaction publica artículo escrito por investigadoras FAIR

Las investigadoras de la Línea 1 FAIR Claudia López (investigadora principal), Alexandra Davidoff (investigadora asistente 2023), Francisca Luco (investigadora asistente), Mónica Humeres (investigadora adjunta) y Teresa Correa (investigadora principal) publicaron recientemente un artículo en el International Journal of Human-Computer Interaction.

El paper se titula “Users’ Experiences of Algorithm-Mediated Public Services: Folk Theories, Trust, and Strategies in the Global South” (“Experiencias de usuarios de servicios públicos mediados por algoritmos: teorías folk, confianza y estrategias en el Sur Global”) y muestra algunos resultados de las investigaciones desarrolladas en la Línea 1 FAIR “IA, justicia social y ciudadanía”. 

El trabajo desarrollado por las investigadoras tiene que ver con los servicios públicos en Chile que utilizan algoritmos para su funcionamiento y la experiencia de los usuarios y usuarias de estos servicios. Para ello realizaron una investigación cualitativa a partir de 27 entrevistas individuales y la idea de que las folk theories guían el comportamiento de las personas (entendemos por folk theories o teorías folk, aquellas explicaciones que las personas elaboran sin evidencia científica sobre cómo funcionan las tecnologías).

Entre los resultados, las investigadoras identificaron que las personas tienden a asociar los algoritmos y la IA con la expansión del monitoreo, la organización y la capacidad de toma de decisiones del Estado. También, que las y los entrevistados expresaron en general confianza ante estos sistemas, pero con ciertos límites.

Francisca Luco, co-autora del artículo, comenta que:

“Esta investigación se enfocó principalmente en entender cómo los ciudadanos perciben y experimentan los servicios públicos que dependen de algoritmos. Al adoptar un enfoque teórico que analiza las dimensiones cognitivas, actitudinales y conductuales, se exploraron las creencias, la confianza o desconfianza, y las estrategias que las personas emplean para manejarse en este ambiente dominado por algoritmos. En este sentido, es fundamental subrayar que la responsabilidad de adaptarse a estas tecnologías no debe recaer totalmente en los usuarios. Esto es especialmente importante en servicios públicos esenciales como la educación, la salud y el transporte, donde los ciudadanos no siempre tienen la opción de evitar el uso de estos sistemas”. 

Además, Luco menciona que los diferentes retos que se presentan en contextos desaventajados suelen impactar a los usuarios en su interacción con estas tecnologías. A partir de ello, enfatiza en la necesidad de una IA que no sea “universal”, sino diseñada desde un enfoque interseccional y posicional, que considere las diversas realidades de las usuarias y usuarios.