Sala de prensa

Estudiantes de Inteligencia Artificial reciben una formación sobre protección de los derechos de personas migradas

Imatge formació Intel·ligència Artificial i Fronteres

El pasado miércoles 9 de noviembre, a la Sala de Grados de la Escuela de Ingeniería, estudiantes de la UAB participaron en un seminario de trabajo sobre los riesgos y oportunidades de la Inteligencia Artificial para la protección de los derechos de las personas migradas y racializadas.

11/11/2022

El Programa de Acogida de la FAS organizó el seminario “IA y Fronteras” para estudiantes del Grado en Inteligencia Artificial de la UAB que les sirvió para analizar y reflexionar sobre los riesgos de la Inteligencia Artificial (IA) en la reproducción de discriminaciones, pero también, sobre sus potencialidades para proteger los derechos humanos y promover la justicia global.

En un mundo que se está automatizando, la IA puede ser una de las herramientas clave para dar respuesta a los retos sociales y esto implica un enorme poder de incidencia de esta tecnología sobre el conjunto de los derechos y las libertades de la ciudadanía. Sin duda, la IA tiene el potencial de mejorar el bienestar de las personas. A la vez, los resultados algorítmicos pueden perpetuar discriminaciones estructurales.

Durante el seminario, se llevaron a cabo tres mesas donde expertas en derechos humanos y tecnología hablaron sobre gobernanza algorítmica, tecnocolonialismo y antirracismo. Participaron Judith Membrives (LaFede.cat), Andreu Belsunces (UOC), Karlos Castilla (IDHC), Paula Guerra (AlgoRace) i Carlos Lancho (U. De Navarra).  El seminario concluyó con un debate abierto con el alumnado sobre las oportunidades y retos de diseñar una IA por la Justicia Global.

Informe Racismo digital

En este sentido, la Fundación Autónoma Solidaria, el Centro de Visión de la Computación de la UAB y Novact, elaboraron el informe: “Racismo Digital y COVID-19. Discursos antirracistas en Twitter durante la pandemia” que ha sido galardonado por la Asociación Catalana de IA, en la categoría Bien Social. La investigación dio a conocer en detalle como se configuraron los discursos racistas de odio en Twitter sobre la población migrada y racializada, con relación a la coyuntura de pandemia en España y Cataluña. El informe puso en evidencia la utilidad de la IA para la promoción de los derechos.