Secciones
Servicios
Destacamos
Los obispos de la Comisión Episcopal para las Comunicaciones Sociales han pedido que se proteja «el derecho constitucional a comunicar y recibir libremente información veraz por cualquier medio de difusión» frente a «los poderes económicos y políticos, que tantas veces desean limitarlo». Y añaden que ... es una «revolución más en un mundo en cambio permanente». Aunque «no es un medio cualquiera», pues «es capaz de crear contenido nuevo, de ordenar el contenido existente, de ofrecer mundos paralelos a las realidades que vivimos». «Es una revolución sustancial y, aunque está en sus inicios, ya se puede decir que supera lo que supuso internet a finales del siglo pasado, o las redes sociales al principio de este». Se trata de una revolución que afecta «a las relaciones humanas, a las relaciones entre estados y sus ciudadanos, al empleo y al futuro laboral de las personas, a la ciencia y a la medicina, a la cultura y a la creación artística».
La inteligencia artificial, añaden los obispos, tiene aspectos positivos: «Supone un apoyo notable para la comunicación, que mejora exponencialmente día a día. Es un buen apoyo que acabará siendo imprescindible si permite a los profesionales dedicar más tiempo a los aspectos centrales de su actividad: la profundización en las historias, en sus causas y sus consecuencias; el encuentro con las personas; la escucha de los testimonios; el desplazarse a los lugares de la noticia, etc.». Pero también entraña riesgos: «El peligro reside en que la inteligencia artificial deje de ser un medio y se convierta en un sujeto: con iniciativa propia, con capacidad de interpretar la realidad o la actualidad según sesgos desconocidos, con empuje para ofrecer soluciones o conclusiones ajenas al corazón del hombre. Por eso, es el momento de velar, entre los profesionales, las empresas de comunicación y las instituciones públicas, para que las herramientas vinculadas a la inteligencia artificial estén al servicio de los profesionales de la comunicación, pero que no les sustituya porque las tecnologías no tienen corazón, pero las personas sí».
En un evento celebrado en abril en Las Vegas, Thomas Kurian, consejero delegado de Google Cloud dijo: «Ahora puedes crear rápidamente una variedad de agentes de inteligencia artificial basados en la búsqueda de Google y los datos de tu organización». Se trata de los llamados 'agentes', sistemas transversales capaces de hacer al instante casi cualquier tarea que se les asigne. Del ChatGPT que nos asombraba hasta ahora dice Sam Altman, director ejecutivo de OpenAI, que es «increíblemente tonto» en comparación con lo que viene. Se advierte de la peligrosa pendiente resbaladiza ética por la que podrían deslizarse este tipo de sistemas.
Estos nuevos 'agentes' pueden alterar radicalmente la naturaleza del trabajo, la educación y las actividades creativas, así como la forma de comunicarnos, coordinarnos y negociar entre nosotros. Incluso podrían persuadir racionalmente, manipular, engañar y coercer. A mayor autonomía, añaden, mayor será la probabilidad de usos indebidos y accidentes derivados de instrucciones mal especificadas o interpretadas. La cada vez mayor 'humanización' puede crear falsas relaciones de confianza y vinculación emocional. Por otra parte, «se necesitan nuevas metodologías y conjuntos de evaluación centrados, en particular, en la interacción entre humanos e IA y sus efectos».
Dada la posibilidad de engaños, los mismos investigadores piden que se desarrollen regulaciones estrictas para abordar este problema lo antes posible. El ejemplo más sorprendente de engaño de IA fue CICERO de Meta, un sistema de IA diseñado para jugar al juego Diplomacy, un juego de conquista mundial que implica la construcción de alianzas. Aunque Meta afirma que entrenó a CICERO para que fuera «honesto y servicial» y que «nunca apuñalara intencionalmente por la espalda» a sus aliados humanos mientras jugaba, los datos que la compañía publicó revelaron que CICERO no jugó limpio. «Descubrimos que la IA de Meta había aprendido a ser un maestro del engaño». Algunos sistemas de inteligencia artificial incluso han aprendido a engañar las pruebas diseñadas para evaluar su seguridad. Con el tiempo, si estos sistemas pueden perfeccionar este inquietante conjunto de habilidades, los humanos podrían perder el control sobre ellos.
Es conveniente alertar sobre los riesgos de la IA generativa, pero sin alarmar. La tecnología no tiene ética, pero la humanidad depende de ella se ha dicho con razón. Hay que actualizar la legislación sobre la IA para que sea más eficaz, más justa y tenga en cuenta sus riesgos. Para ello deberían trabajar conjuntamente quienes desarrollan la Inteligencia Artificial, los juristas y los moralistas.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.