Secciones
Servicios
Destacamos
El pasado 8 de diciembre, después de intensas negociaciones y de un sprint final de varios días, las instituciones europeas llegaron a un acuerdo sobre ... el texto que habrá de regular el uso de instrumentos de inteligencia artificial. El acuerdo es todavía un acuerdo político y provisional. El texto definitivo de la denominada Ley de Inteligencia Artificial de la Unión Europea no es previsible que esté cerrado hasta principios de 2024, pero la música general es conocida y queda que se hagan públicos los detalles.
El origen de esta mal denominada 'Ley' –pues en sentido estricto es un reglamento de la Unión Europea – hay que encontrarlo en la iniciativa de la Comisión Europea presentada el 21 de abril de 2021. Desde el inicio del mandato de Ursula von der Leyen, esta institución se mostró decidida a situar la transición digital en el centro de sus políticas y dicha transición se concibe, junto a la ecológica, como el eje de la Unión ahora y en los años a venir. Nos encontramos, así, en un periodo de transición, como se subrayó en el II Congreso ICON· S España sobre las 'transiciones pendientes' celebrado hace unos días en la Universidad Complutense de Madrid. Este Congreso, organizado por la sección española de la Sociedad Internacional de Derecho Público, se centró en analizar este tiempo de transiciones, la ecológica y la digital, pero también la social. La aceleración de la vida, la inmediatez, el agotamiento de determinados recursos, los desplazamientos, los cambios colectivos son elementos de esta intensa etapa de mutación.
En este contexto, y de la mano de la digitalización, la inteligencia artificial ha ido cobrando protagonismo. En realidad, la inteligencia artificial es una vieja conocida, pues la expresión se acuñó en el año 1955 por un grupo de científicos en Estados Unidos que solicitaban financiación para un proyecto de investigación. Aglutinaron en su propuesta varias líneas de estudio en diversos ámbitos de la informática y la computación, con el fin de diseñar mecanismos que pudieran emular la inteligencia humana. Eran investigaciones ya en curso y hay quien considera que el término 'inteligencia artificial' no añadía nada distintivo, pero que fue un buen elemento de marketing.
Lo cierto es que hoy no hay día sin noticia de prensa o publicación académica sobre inteligencia artificial. A ello contribuye, en el ámbito de la investigación, que es más sencillo obtener financiación para estudiar esta materia que muchas otras. Entre los extremos –los discursos apocalípticos, por un lado, y la devoción tecnológica, por otro– existe un amplio espacio de mesura en el que cabe identificar los aspectos sin duda positivos de esta tecnología disruptiva, así como los riesgos que comporta. A ello se dedicó, por ejemplo, el curso que el pasado verano dirigió Daniel Innerarity en la Universidad Internacional Menéndez Pelayo, donde debatimos con personas expertas en ingeniería informática, economía, filosofía, pero también derecho, cuáles habrían de ser los perfiles del nuevo contrato social que se antoja necesario. La regulación de la inteligencia artificial, como la propuesta por la Unión Europea, no deja de ser un instrumento para plasmar la voluntad de la sociedad, a través de sus representantes. En concreto, significa tomar las riendas de estos procesos y decidir qué se permite y qué no; qué corresponde apoyar con fondos públicos y qué no. A la inteligencia natural le corresponde ahora decidir qué quiere hacer con la artificial.
Los ejemplos de uso de inteligencia artificial a nuestro alrededor son incontables: un asistente telefónico que informa de una cita médica, un sistema de detección de velocidad de los vehículos a través de imagen para eventualmente sancionar, un programa para realizar diagnósticos médicos, un procesador de voz para trasladar a texto escrito aquello que se expresa oralmente, el uso masivo de datos para identificar colectivos vulnerables y así adoptar políticas públicas adecuadas, además por supuesto de la manipulación de imágenes (como las de contenido sexual) o la manipulación de voz con finalidad de suplantar a una persona.
La inteligencia artificial es, en realidad, un conjunto de tecnologías que admiten muchos usos. La aproximación europea ha sido la de regular dichos usos, prohibiendo algunos y estableciendo condiciones para la utilización de todos los usos autorizados (algunos considerados de alto riesgo), tanto en el ámbito privado como en el público. Algunos de los debates más intensos en el proceso de elaboración de la Ley europea de Inteligencia Artificial han sido, por ejemplo, los concernientes a la identificación biométrica de individuos por autoridades públicas para perseguir determinadas conductas. Es decir, la identificación por características físicas inescindibles de una persona concreta, para prevenir la comisión de determinados delitos, como los relacionados con terrorismo. Algo así presenta evidentes utilidades, pero ha de ser compatible con la protección de los derechos y abre la puerta a riesgos evidentes de deslizamiento hacia una sociedad hipervigilada propia de distopías literarias y cinematográficas. Más recientemente, en la recta final de las negociaciones sobre la Ley europea, los debates han girado en torno a los denominados modelos fundacionales, es decir, sistemas de inteligencia artificial de propósito general que son la base de otros y que se han popularizado entre la población a través, por ejemplo, del famoso ChatGPT. Estos sistemas avanzados de inteligencia artificial relativamente recientes presentan un potencial que requiere ser regulado a efectos de controlar su desarrollo.
Hace unos meses tuve ocasión de participar en una mesa redonda de contenido jurídico sobre el metaverso. Una persona entre el público nos preguntó a quienes interveníamos cuál era nuestro máximo miedo en relación con el metaverso. En mi caso, respondí que mi mayor miedo en relación con el metaverso, la inteligencia artificial u otras tecnologías disruptivas es no saber a qué tener miedo. Como ciudadana con un escaso grado de conocimiento computacional, desconozco los riesgos reales de estas tecnologías. Por ello, creo que se han de regular estos procesos, pero sobre todo es imprescindible contar con un sistema adecuado de gobernanza, es decir, con organismos públicos competentes en la materia en los que presten servicio profesionales de varias disciplinas, supervisen la realidad y, en su caso, puedan corregir las disfunciones y sancionar.
Esta es también la apuesta de la Ley europea de Inteligencia Artificial, que parte de un enfoque basado en la centralidad del ser humano y de sus derechos. Se diseña, así, una estructura en red con autoridades nacionales y europeas, estructura a la que, una vez establecida, se adherirá en su momento la pionera Agencia Española de Supervisión de la Inteligencia Artificial, creada hace pocos meses. La gobernanza, al igual que la regulación, estará basada en derechos, como los reconocidos en la Carta Española de Derechos Digitales, aprobada en julio de 2021 y que, junto a otros instrumentos de otros países, ha servido de modelo para la Declaración europea sobre los Derechos y Principios Digitales. Esta es la apuesta europea, una apuesta que persigue proteger a la ciudadanía europea dentro de nuestras fronteras, pero que aspira a liderar una transformación digital humanista y posicionarse de este modo en el contexto geopolítico conforme a los derechos y valores de la Unión.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Marc Anthony actuará en Simancas el 18 de julio
El Norte de Castilla
Publicidad
Publicidad
Noticias seleccionadas
Ana del Castillo
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.