Secciones
Servicios
Destacamos
Se trataba de ofrecer una visión general acerca de los desafíos, oportunidades y debates que hay sobre la Inteligencia Artificial y en este tema Argelia Queralt (IA), doctora en Derecho, es un referente, sobre todo en lo relacionado con los algoritmos y redes sociales. La ... experta, que fue una de las ponentes del curso que dirigió en la UIMP la semana pasada el filosofo Daniel Innerarity en La Magdalena, aboga por un control que garantice los derechos sociales
-La Inteligencia Artificial está cada vez más implantada en nuestra sociedad y eso dibuja un nuevo panorama llenos de retos. ¿Podría citarnos alguno de ellos?
-Es cierto que la IA convive con nosotros y que eso provoca una serie de riesgos y miedos. El principal reto al que nos enfrentamos es alcanzar el control sin llegar a impedir su desarrollo. No hay que tenerla miedo porque puede aportar, está aportando ya, mucho en nuestras vidas.
-¿Que relación hay entre ese control y una posible censura?
-Ese es el tema porque la Inteligencia Artificial está en todas las partes y también en lo relacionado con nuestras actividades sociales y por eso no hay que confundir el control con la censura sobre todo a la hora de legislar.
-¿Hasta que punto se inmiscuye la IA en los sistemas democráticos?
-Pues hay muchos ejemplos y algunos los estamos viendo estos días. Otro, un poco más lejano, lo vimos en Cataluña con todo lo relacionado con el procés. Se ha demostrado que hubo campañas a través de Vox y de cuentas que no eran propiamente anónimas, porque tenían un nombre, pero que detrás de las cuales había máquinas que generaban contenidos apoyando una determinada posición o una determinada persona. Por eso, y volviendo a los retos que preguntabas antes, está el limitar, aquí sí, toda esta actividad perniciosa para el sistema sin que eso suponga que la ciudadanía o los agentes políticos no puedan utilizar las redes para desarrollar sus ideas.
-Usted es de las que hace hincapié en la desigualdad de géneros que abunda en las redes sociales. ¿La Inteligencia Artificial a qué tiende?
-No creo que la Inteligencia Artificial sea sesgada. El problema está en que las personas que construyen o elaboran toda la base computacional lo hacen conforme a determinado sesgo. En el ámbito de las mujeres cada vez hay más evidencia científica de que esa discriminación que se produce a nivel analógico se ha llevado exactamente igual, con mayor impacto y que se potencia en las redes sociales.
-¿Qué tipo de discriminaciones?
-Una de las cosas que vemos constantemente es que las mujeres con voz propia son objeto de un acoso programado a través de campañas, un acoso orquestado que no es casual, para limitar y restringir su voz en las redes que son la gran nueva vía de intercambio de ideas, buenas y malas. Y de esto hay evidencias científicas y números y muchos datos que lo corroboran.
-¿Qué consecuencias tiene?
-La principal que hay muchas mujeres que acaban dejando su trabajo, bien sea políticas o en el caso de las periodistas pidiendo un cambio a otras secciones con menos presencia pública, porque no se ven capaces de aguantar ese constante ataque a su persona. El problema de estos ataques no es recibir uno o dos tuit, WhatsApp o telegram llamándote gorda, puta, fea o espetándote que no tienes ni idea, si no que son conductas que se pueden identificar perfectamente con determinados grupos de personas o campañas perfectamente orquestadas contra una determinada mujer para que abandone aquello que esta haciendo. También pasa contra hombres, pero estadísticamente mucho contra las mujeres.
-Pues la IA será muy moderna pero eso es muy antiguo...
-Así es y los ataques además, y también hay evidencia científica, son los mismos de siempre y están mucho más relacionados con aspectos físicos o muy personales. Se parte de que la mujer no sabe, que no tiene capacidad suficiente, y se ataca a su físico o si va muy arreglada o poco. En fin una serie de cosas que a los hombres no se les echa en cara.
-Y todo este panorama, ¿cómo ha llegado a la Inteligencia Artificial?
-Todo este contenido está movido, dentro de las redes, por los algoritmos, que son parte de la Inteligencia Artificial y, aunque a veces se nos olvida, llevan detrás una plataforma que es una empresa privada con ánimo de lucro, que lo que quiere es ganar dinero, y que sabe que ese tipo de ataques mueve la red y por lo tanto monetizan esos discursos.
-¿Y quién debe de hacer ese control que regule todo esto?
-Esa es la gran pregunta, cuáles son los mecanismos que tenemos que utilizar para poder controlar toda esa actividad en las redes sin que se violenten otros derechos. De momento, en Europa parece que estamos optando por una colaboración entre los poderes públicos y las empresas. Es decir, se intenta implicar a las grandes plataformas para que controlen, a través de la moderación de contenidos, ese tipo de ataques y respeten los estándares que se fijan por los propios estados o en nuestro caso por la Unión Europea. De hecho hace unos meses se ha aprobado la Ley Europea de Servicios Digitales que va a regular cómo deben comportarse todo este tipo de plataformas y sus obligaciones.
-¿Cuáles son esas obligaciones?
-Lo primero que hay que determinar es que no se debe confundir la violación de derechos con llamésmolas críticas agrias. Lo que se intenta es establecer esos estándares internacionales como el principio de diligencia debida y aplicarlo especialmente a los riesgos sistemáticos que son, entre otros, la violencia contra las mujeres.
-La Inteligencia Artificial va muy rápida, ¿su control también?
-No, pero también porque es difícil. Es como poner puertas al campo. Lo que está claro es que el progreso no se puede parar y es mejor dejar que se desarrolle. Seguro que se cometen errores y por eso debemos ir acompañándola e intentar prever situaciones. Desde luego no negarla ni rechazarla y ser muy conscientes de que esta ahí. Debe de ser un trabajo interdisciplinar, es decir que tenemos que romper las barreras de lo que es ciencia, derecho o ética porque es una realidad que hay que abordar de manera de forma colectiva.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.