Expertos en IA reflexionan sobre los beneficios y peligros del siguiente fenómeno tras ChatGPT. Y debaten: ¿perderán los humanos su criterio? Leer Expertos en IA reflexionan sobre los beneficios y peligros del siguiente fenómeno tras ChatGPT. Y debaten: ¿perderán los humanos su criterio? Leer
Narrativamente aglutinados en torno a ChatGPT, los grandes modelos de lenguaje (LLM) han copado portadas, inversiones, ideas de negocio y la atención entusiasta de empresas, trabajadores y estudiantes. Lo más revolucionario desde la llegada de internet, se proclamó, y sin embargo la tecnología siempre depara una vuelta de tuerca adicional cuyo último hito son los agentes autónomos. A diferencia de un LLM, el agente no requiere de una intervención constante del humano despachando instrucciones, sino que actúa con una meta entre ceja y ceja, es capaz de tomar ciertas decisiones para avanzar en ese propósito, combina LLM con herramientas externas (API, navegadores, bases de datos y motores de ejecución) y exhibe memoria a largo plazo -recordando interacciones previas.
«El auge de los agentes autónomos puede transformar sectores enteros. En el plano económico, su potencial se alinea con lo que Erik Brynjolfsson denomina la segunda era de las máquinas: una automatización que no sólo reemplaza la fuerza física, sino también la capacidad cognitiva. Los estudios del MIT-IBM Watson AI Lab estiman que hasta un 30% de las tareas de oficina podrían automatizarse mediante agentes basados en LLM. Esto incluye desde redacción de informes hasta asistencia técnica o toma de decisiones operativas. En términos sociales, el riesgo es la acumulación de poder computacional en manos de unas pocas plataformas. La combinación entre LLM, capacidad de acción autónoma y escalabilidad casi infinita puede desembocar en lo que Shoshana Zuboff lama capitalismo de vigilancia 2.0, pero esta vez con agentes que actúan proactivamente, no sólo registran», reflexiona Enrique Dans, profesor de Innovación y Transformación Digital en IE Business School y cofundador de la startup edtech Turing Dream.
Dans se refiere precisamente a la esfera educativa en la que su compañía opera y donde los beneficios del agente superan con creces sus posibles sombras. «El uso de agentes autónomos para personalizar el aprendizaje conecta con una de las evidencias más sólidas en psicopedagogía: el efecto 2 sigma de Benjamin Bloom: en su famoso estudio de 1984 (The 2 Sigma Problem: The Search for Methods of Group Instruction as Effective as One-to-One Tutoring), Bloom demostró que los estudiantes que recibían instrucción personalizada uno-a-uno rendían dos desviaciones estándar por encima de aquellos inscritos en clases tradicionales. Es decir, el 98% de los alumnos tutorizados superaban al promedio del grupo instruido en formato uno-a-muchos. ¿El problema? Escalar esa personalización. Hoy, con los avances en agentes autónomos, esa barrera puede estar a punto de romperse. Turing Dream trabaja en soluciones que no reemplazan al docente ni a la escuela, sino que introducen un agente como tutor personalizado para cada alumno, capaz de adaptar en tiempo real su estilo pedagógico, su ritmo y sus herramientas a las características individuales del estudiante. No es el alumno quien debe adaptarse al sistema, sino el sistema y el agente quienes deben adaptarse al alumno. Ese es el verdadero cambio de paradigma que proponen proyectos como Turing Dream».
Álvaro Higes es el CEO de Luzia, uno de los chatbots más populares made in Spain con 65 millones de usuarios. Así es su visión de lo que aguarda a la vuelta de la esquina: «Mientras muchos usan la IA para pequeños ajustes, la verdadera revolución vendrá cuando empresas enteras se rediseñen alrededor de los agentes autónomos. ¿Cómo será un mundo donde el coste marginal del mejor médico o tutor sea igual a cero? Los agentes son inteligencias artificiales capaces de planificar y ejecutar tareas complejas por sí mismas, inicialmente en el ámbito digital y próximamente también en el mundo físico mediante robótica. Ya empezamos a ver ejemplos: empresas multiplicando sus equipos de ingeniería gracias a herramientas como Devin o Cursor; perfiles no técnicos automatizando flujos enteros con chatGPT o lanzando apps con Lovable; terapeutas virtuales que reducen drásticamente los síntomas de depresión en pocas semanas; tutores impulsados por IA que elevan significativamente el rendimiento académico; y avances científicos acelerados como AlphaFold -descubriendo nuevos antibióticos- o Waymo -permitiendo más desplazamientos que Uber en San Francisco-. Son indicios tempranos del enorme potencial que está por venir».
Cofundador y CEO de Maisa, David Villalón es una reputada voz en el ámbito de la IA. Su startup provee a otros negocios de trabajadores digitales «resistentes a las alucinaciones» que a veces depara el algoritmo. «La IA va todavía a cámara lenta y eso hace que tengamos cierta sensación de control sobre los agentes autónomos; el problema que habrá en los próximos años es que existirán modelos que irán a cientos de miles de tokens por segundo; entonces la gran cuestión será saber por qué la IA ha hecho lo que ha hecho y si está bien hecho. La IA, por ejemplo, podría decirte: aquí tienes la cura contra el cáncer. Pero esa innovación no vas a comprenderla como humano; vas a tener que creer lo que te dice la IA, que ya sabemos que no es fiable. Si seguimos este camino, nos hallaremos en un mundo donde el criterio se perderá. Cuando se jubilen las generaciones de profesionales más expertos y les releven esos jóvenes que carecen de conocimiento, acabaremos por perder el porqué de las cosas y eso desembocará en una sociedad altamente manipulable y en un mercado laboral donde no todo el mundo tendrá espacio. Hará falta sí o sí establecer herramientas de trazabilidad de la IA, imponiéndole líneas rojas, y habrá que redefinir los contratos sociales».
Miguel Juan Bello, socio director y cofundador de S2GRUPO, una de las firmas de ciberseguridad más relevantes del país, lanza la siguiente pregunta: «¿Estamos seguros de poder mantener nuestra relevancia en un mundo en el que los agentes autónomos realizarán una gran parte de las tareas hoy consideradas de gestión o toma de decisiones? El peligro de la IA no es el desarrollo o la aparición de una superinteligencia que nos perciba como una amenaza. Llegado el caso, sería mucho más realista que nos percibiera como entidades irrelevantes. Es mucho más probable que el riesgo provenga de nuestra tendencia a minimizar el esfuerzo. Se dice que la diferencia entre un humano y una IA es la autonomía y el juicio moral, pero ¿cuántas veces hacemos uso de esas habilidades en nuestro trabajo y en nuestra vida personal? Y lo que es más preocupante: ¿puede llegar el momento en el que perdamos parte de nuestras facultades mentales por el hecho de no utilizarlas? Es fácil prever un futuro en el que muchas de nuestras decisiones las tomen los agentes de IA, seguramente, a partir de una cantidad de información que nosotros mismos no somos capaces de manejar, con redes neuronales entrenadas con muchísimos más casos de los que nosotros hayamos podido considerar. En la mayoría de los casos, sus decisiones serán más acertadas que las nuestras».
Actualidad Económica // elmundo