Qué Pasa La Tercera | «Predecir conductas y tomar decisiones: El impacto sociocultural de la inteligencia artificial»

Nota sobre Núcleo Milenio FAIR

Qué Pasa La Tercera | «Predecir conductas y tomar decisiones: El impacto sociocultural de la inteligencia artificial»

15 de febrero de 2023

Imagen: La Tercera | Fuente: Revista Qué Pasa de La Tercera

Durante tres años, un equipo interdisciplinario hará un abordaje empírico y conceptual de los efectos de la inteligencia artificial, examinándola como “un hecho social total”. El proyecto buscará innovar en el análisis interdisciplinario sobre IA, aportar a las políticas públicas e indagar efectos desconocidos de las tecnologías en las personas, organizaciones y en el medioambiente.

Las tecnologías de inteligencia artificial (IA) ejercen una influencia permanente en la sociedad y en la vida cotidiana. Hace mucho tiempo que tienen un espacio ganado a través de sitios web, aplicaciones y redes sociales. Los usuarios, al aceptar condiciones del servicio, entregan datos como nombre, género, dirección IP, ubicación geográfica, entre otros. Abren así el acceso a lo que guardan en sus dispositivos y a sus interacciones, que son registradas con tecnologías de seguimiento que usan IA para ofrecer recomendaciones y publicidad.

Redes sociales, aplicaciones, plataformas y asistentes virtuales, suelen ser las experiencias más cercanas para la mayoría de las personas. No obstante, la IA también impacta en la automatización de numerosos procesos productivos, y en el manejo y procesamiento de grandes cantidades de datos (Big Data), donde los algoritmos pueden identificar patrones sociales, visuales o de lenguaje, entre otros, para guiar la toma de decisiones e incluso atreverse a predecir riesgos y conductas.

En este contexto, se inserta la mirada del proyecto Núcleo Milenio FAIR en Ciencias Sociales, “Futures of Artificial Intelligence y sus implicancias socioculturales en Chile y Latinoamérica”.

Durante tres años, un equipo científico se enfocará en “el esfuerzo por tratar de comprender la inteligencia artificial como un hecho social total, es decir, considerar la interrelación de sus dimensiones técnicas, éticas, sociales, culturales y medioambientales”, explica el director de la Escuela de Diseño de la Universidad Católica, Martín Tironi, quien junto al académico de la Facultad de Letras Wolfgang Bongers, lidera el grupo interdisciplinario.

La inteligencia artificial tiene distintos usos

Integran el equipo como investigadoras principales: Claudia López, profesora del departamento de Informática de la Universidad Técnica Federico Santa María, UTFSM y Teresa Correa, académica de la Escuela de Periodismo de la Universidad Diego Portales, UDP; y los investigadores seniors: Celia Lury, directora del Centre for Interdisciplinary Methodologies, University of Warwick, Reino Unido, y Ulises A. Mejías, profesor de Estudios de Comunicación en State University of New York at Oswego, Estados Unidos.

“Nuestra hipótesis es que el fenómeno de la inteligencia artificial no se puede reducir a una cuestión puramente tecnológica, ya que de forma creciente las aplicaciones de la IA están condicionando el funcionamiento de los sistemas democráticos y las políticas públicas, el mundo de la innovación y la producción cultural, la economía e incluso los espacios íntimos de las relaciones sentimentales”, señala Tironi.

El proyecto aspira a contribuir en tres ámbitos de acción y crear impacto a nivel científico. Un primer objetivo es generar marcos analíticos interdisciplinarios desde Latinoamérica para contribuir a un desarrollo ético, inclusivo y democrático de estas tecnologías y convertir al Núcleo FAIR en un referente para estudios sociales y culturales en la región.

Comprensión transmedial

Tironi y Bongers observan que es necesario levantar preguntas acordes a nuestra realidad, ya que hoy muchas de las reflexiones sobre la IA provienen de perspectivas europeas y estadounidenses.

En una segunda línea de trabajo, este Núcleo Milenio quiere aportar información sólida a la definición de políticas públicas, anticipándose a controversias que surgen con los usos de IA en distintos ámbitos gubernamentales, como medioambiente, educación y salud, entre otros.

Un tercer eje es avanzar en la comprensión transmedial de la IA a través de las distintas disciplinas y abordar los efectos aún desconocidos de estas tecnologías en las comunidades y el medioambiente. Indagar, por ejemplo, cómo el uso de la IA, sus significados y riesgos asociados a ésta, son inseparables de los imaginarios de las personas.

“En las últimas décadas, se están produciendo novelas, películas, videojuegos, obras de arte y de teatro, que imaginan y exploran escenarios posibles de convivencia entre seres humanos y máquinas inteligentes, poniendo en agenda nuevas configuraciones sociales y culturales”, comenta Wolfgang Bongers.

Al definir la inteligencia artificial, hay consenso de que se trata de “sistemas computacionales capacitados para ejecutar tareas que se considerarían inteligentes si fueran realizadas por humanos”, remarca Martín Tironi.

Según advierte Claudia López, quien se ha especializado en investigar la interacción personas-computador, esta relación “hoy está mediada o intervenida por algoritmos de inteligencia artificial”. Y si bien hay un sector de la población que tal vez no tenga acceso material a estos dispositivos, sí puede estar bajo el dominio de otras tecnologías que usan IA en la actualidad, o a las que incorporen instituciones públicas y privadas en el futuro.

Aún falta información sistematizada

En Chile no se dispone de mucha información sistematizada respecto de dónde el Estado está utilizando IA. Hay algunos datos en el Centro Nacional de Inteligencia Artificial, CENIA, el centro interuniversitario al alero de la UC, que está observando las compras públicas en los últimos 20 años.

Sí se sabe que varios municipios han adquirido tecnologías vinculadas a IA para hacer “reconocimiento facial” y que hay sistemas que buscan agilizar procesos. Por ejemplo, el Fondo Nacional de Salud, Fonasa, usa algoritmos para decidir “si una licencia va a ser aceptada de inmediato o debe ser revisada por un médico”, comenta la académica. También, el Ministerio de salud utiliza IA para priorizar la atención de pacientes en listas de espera que no son Garantías Explícitas en Salud (GES).

Entre los desafíos que se plantean en los usos de la IA, están los variados tipos de sesgos que se introducen en los datos y hacen que los algoritmos lleguen a conclusiones erróneas. De esto hay más estudios en Norteamérica que en Chile.

Con las cámaras de reconocimiento facial, por ejemplo, en EE.UU. hay estudios que revelan que “en algunos casos fallan sistemáticamente”, dice Claudia López. Menciona que se hizo un testeo de caras de hombres y mujeres, donde se demostró que los algoritmos se equivocan mucho más al reconocer caras de mujeres y de personas de piel más oscura.

Los expertos esperan que en 2050, ya haya sistemas de inteligencia artificial equiparables al hombre. Y eso se explica “porque los algoritmos son entrenados con conjuntos de data de caras de distinta gente y esos datos incluían más caras de hombres blancos, menos caras de mujeres y menos caras de piel oscura”. Se podría corregir, entrenando al algoritmo con una data más diversa.

Otro sesgo puede darse con las asignaciones bancarias de créditos que suelen considerar a los jóvenes como más riesgosos (estudio en Alemania) y se les niega o se les ofrecen tasas más altas. Algo que en Chile también ocurre con las mujeres.

Este tipo de aristas son las que investigará el Núcleo. “Sabemos que hay ciertos sesgos que suceden en nuestras prácticas sociales, que quedan codificados en los datos que almacenamos y, cuando pasamos estos datos del pasado a una máquina, de alguna forma damos la posibilidad de seguir perpetuando estos sesgos”, afirma la académica.

Un obstáculo a vencer es “el espejo de la automatización”, es decir, que se le asigne más confianza a lo que dice una máquina respecto de lo que plantea una persona, por muy experta que sea.

“¿Qué pasa si la máquina dice algo equivocado a un médico, por ejemplo? ¿Cuánta credibilidad darle al algoritmo? Se abren muchas preguntas de investigación para entender mejor cómo trabajar en esta interacción”, enfatiza Claudia López.

En ese sentido, Teresa Correa agrega: “Es importante indagar cómo las personas entienden e interactúan con estos sistemas. La única manera de avanzar a una alfabetización efectiva es cuando se comprende el contexto y el lenguaje de quienes lidian con ellos”.