Secciones
Servicios
Destacamos
El británico Geoffrey Hinton ha renunciado a su trabajo en Google después de más de 10 años. Es uno de los padres de la Inteligencia Artificial –hoy en alza con el ChatGPT de Microsoft o el Sparrow de Google–. Se ha convencido de que, si ... no se frena estos sistemas, las consecuencias pueden ser devastadoras. ChatGPT4 es la forma más avanzada de Inteligencia Artificial, cuenta con más de 100 millones de usuarios únicos al mes: sus respuestas, aún sin razonamientos complejos, son cada vez más similares a las que podría ofrecer una persona.
Vaya por delante que Hinton no pretende ser catastrofista. Piensa que la Inteligencia Artificial puede resultar beneficiosa en lo que se refiere a la investigación científica y sanitaria y que a corto plazo se obtendrán más beneficios que riesgos. Sin embargo advierte de algunos peligros: producir automáticamente textos con información falsa, crear herramientas para manipular a los electores. Se pueden crear instrumentos más inteligentes que sus programadores, e incluso que la propia humanidad.
«Somos sistemas biológicos y estos son sistemas digitales, afirma. La gran diferencia es que, con los sistemas digitales, tienes muchas copias del mismo conjunto, del mismo modelo del mundo, y todas estas copias pueden aprender por separado pero comparten su conocimiento al instante. Es como si tuviéramos 10.000 personas y cada vez que una aprende algo, todas las demás lo aprenden automáticamente. Así es como estos sistemas logran saber mucho más que el resto». En este momento lo que estamos viendo es que Chat la última versión del GPT-4 supera a una persona en la cantidad de conocimiento general. En términos de razonamiento no es tan bueno, pero podría serlo dentro de poco. «Si usted o yo aprendemos algo –añade Hinton– y queremos transferir ese conocimiento a otra persona, no podemos enviarle una copia. Pero [con la IA] puedo tener 10.000 redes neuronales, cada una con sus propias experiencias y, al instante, cualquiera puede compartir lo que ha aprendido».
El peligro fundamental, no obstante, no sería tanto la Inteligencia Artificial en sí misma, sino carecer de limitaciones. Por ello Hinton se dedica a concienciar para que los humanos se aseguren que si desarrollan cosas más inteligentes (que las personas), perderán el control de la realidad.
Richard Benjamins, experto en inteligencia digital y responsable de la estrategia de datos de Telefónica señaló como primera tarea desmitificar: «Herramientas como ChatGPT no van a hacer que los alumnos se esfuercen o piensen menos; al revés, es una oportunidad para hacerles pensar más o de una forma distinta y que así sean capaces de distinguir los sesgos». También aseguró que «al igual que hoy tenemos sistemas antiplagio o antispam, pronto sucederá lo mismo con herramientas como ChatGPT». Pero no olvidemos que determinadas tecnologías han sido diseñadas para crear adicción.
«Hay mucha especulación y ruido alrededor de la IA, la inteligencia artificial. Yo creo que si es posible que llegue a tener conciencia, falta mucho tiempo. La razón principal es que la inteligencia no es lo mismo que la conciencia. La inteligencia es hacer lo correcto, y la conciencia es experiencia. Por tanto, hacer que la IA sea más inteligente no va a hacer de manera mágica que tenga conciencia. Además, creo que la conciencia está vinculada a nuestra naturaleza como especie humana. Es funcional y ayuda a que el cuerpo siga vivo. Pensar en el cerebro como una especie de ordenador es una simplificación muy pobre. Es mucho más complejo que eso» recuerda el filósofo Anil Seth, profesor de neurociencia en la Universidad de Sussex. La conciencia –afirma– aúna un montón de información sobre el mundo, de manera que nuestro comportamiento sea pertinente para nuestra superviviencia. No vemos las cosas como son, sino como somos. O mejor tal como es útil para nosotros
En una conversación mantenida con ChatGPT sobre aspectos relativos a la fe y la vivencia de la cultura cristiana la IA no anunció una amenaza que afectaría «necesariamente» a la fe, pero si plasmó que sus «parámetros morales», si es así se pudiesen denominar, son totalmente contrarios a ella: el aborto, la ideología de género, los «múltiples tipos de convivencia familiar», la eutanasia, lo contenido en la leyenda negra o sus principales «fake news» son aspectos que se dan por hecho en su algoritmo.
¿Ya eres suscriptor/a? Inicia sesión
Publicidad
Publicidad
Te puede interesar
Estos son los mejores colegios de Valladolid
El Norte de Castilla
Publicidad
Publicidad
Esta funcionalidad es exclusiva para suscriptores.
Reporta un error en esta noticia
Comentar es una ventaja exclusiva para suscriptores
¿Ya eres suscriptor?
Inicia sesiónNecesitas ser suscriptor para poder votar.