El Mostrador | «La violencia de género facilitada por IA no es un caso aislado y requiere regulaciones»

Columna de opinión de Alexandra Davidoff, Dusan Cotoras y Claudia López

El Mostrador | «La violencia de género facilitada por IA no es un caso aislado y requiere regulaciones»

27 de mayo de 2024

Por: Alexandra Davidoff | Imagen: El Mostrador | Fuente: El Mostrador Braga

Casos similares a los del colegio Saint George, se reprodujeron en instituciones del mismo nombre en Perú y España. Debido a ello, en Reino Unido y EE.UU. están legislando para criminalizar la creación de imágenes pornográficas con IA o «deep fake».

No es la primera vez que ocurre una situación similar a la del colegio Saint George, donde seis alumnos crearon, con sistemas de inteligencia artificial (IA), fotos falsas de sus compañeras desnudas, las cuales luego se difundieron. Lo mismo ocurrió en un colegio del mismo nombre en Chorrillos, Perú, y en Almendralejo, España. La problemática es preocupantemente familiar. La generación de imágenes pornográficas por medio de IA, o «deepfake porn« (en inglés), es de tal magnitud que el Reino Unido y EE.UU. ya están legislando para criminalizar este tipo de actividades.

Y es que estas acciones no pueden reducirse, como parece haberse hecho en este caso, a una simple infracción escolar. Es, a todas luces, una forma de agresión sexual, que atenta contra los derechos fundamentales de las niñas y adolescentes involucradas y puede llegar a tener un impacto de por vida debido al daño provocado y, además, la dificultad de eliminar datos del mundo digital. En este sentido, la generación y difusión de una imagen pornográfica falsa y sin consentimiento, no puede, ni debe, equipararse a una simple conducta inapropiada.

Precisamente porque no es la primera vez, es importante que no se aborde como un caso aislado. Después de todo, los estudiantes que cometieron estos actos también son menores de edad que han aprendido estas conductas desde la sociedad en que han crecido. Si bien esto no los exculpa de responsabilidades, debería hacernos reflexionar acerca de nuestra cultura que, en la práctica, permite y reproduce la violencia de género.

Mucho se habla de cómo los niños internalizan la violencia desde su contexto, pero no de las distintas formas que esto puede tomar. En este caso, la existencia y fácil acceso a sistemas de IA específicamente diseñados para el acoso sexual, que solo sirven para desnudar falsamente cuerpos de personas que en las fotografías originales llevan vestuario. Que estos sistemas puedan existir es evidencia clara de un contexto que permite, reproduce y facilita las lógicas de la violencia de género, esta vez, en el mundo digital. Más aún: que esto no haya motivado inmediatamente su regulación por parte de las instituciones correspondientes evidencia que la permisividad a la agresión sexual hoy se extiende a la vida virtual.

Es preocupante que los establecimientos e instituciones ignoren la gravedad de la violencia de género que se da en lo virtual, restándole importancia a la victimización y revictimización real que causa en las estudiantes mujeres. Aunque la generación de imágenes falsas, pero creíbles, a través de IA sea nueva, es también parte de una larga serie de acoso y abuso hacia niñas y adolescentes por parte de sus pares. En cada ocasión, el foco de la discusión ha representado a los victimarios como excepciones a la regla o personas que cometen errores puntuales, en vez de como reproductores de un patrón cultural, que debe abordarse también más allá de los casos particulares.

Si la discusión se limita exclusivamente a este caso puntual, este, muy probablemente, no será el último. Estos sistemas son de fácil acceso para personas de todas las edades. Su uso puede convertir en victimarios y víctimas de actos de una gravedad previamente impensable incluso a niños y niñas mucho más jóvenes, quienes hoy nacen inmersos en un entorno digital donde se normaliza la agresión sexual y se les expone constantemente a contenidos adultos de forma automatizada. Tal vulneración puede comenzar desde las edades más tempranas e incluso en espacios considerados seguros, como lo han demostrado controversias como la del algoritmo de YouTube Kids, en el que se identificó la difusión de videos violentos, perturbadores e inapropiados generados por IA y protagonizados por personajes infantiles como Elsa y Peppa Pig. Si bien no hay estadísticas exhaustivas sobre el tema en Chile, investigaciones en el Reino Unido evidencian cómo, más tarde en su desarrollo, muchos preadolescentes se ven expuestos a contenido digital pornográfico por primera vez de forma accidental, lo que a su vez conduce fácilmente al consumo de representaciones sexualizadas de extrema agresión hacia la mujer.

Este contexto no solo facilita que se cometan actos de violencia, sino que resulta, por sí mismo, una forma de violencia y una vulneración de los derechos de niñas, niños y adolescentes. Hay que recordar, además, que estos no tienen total autonomía ante la ley, y hay adultos responsables, que dan acceso a las tecnologías para hacer uso de ellas. Si bien vigilar las conductas de los hijos en el medio digital resulta un desafío, tampoco puede eximirse de la responsabilidad a los adultos que rodean a estos menores de edad y forman parte del contexto que permite este tipo de acciones.

Sin duda, la generación de imágenes pornográficas debe tipificarse como un delito, siguiendo la tendencia internacional y los principios de la actualizada Política de IA de nuestro país. Es urgente priorizar y atender a todas las niñas y adolescentes que han sido víctimas, así como a sus familias. Sin embargo, es también necesario ampliar nuestra mirada. Ni la tecnología ni las conductas aprendidas de violencia de género existen fuera de nuestra sociedad. Quizás un aspecto más profundo de nuestra cultura se refleja en la reticencia a regular el medio digital y a prevenir proactivamente la violencia de género y hacia la niñez.

Si queremos que estas situaciones no se repitan, debemos responder a ellas. Pero debemos dejar de responder como si cada caso fuera la primera vez.