inicia sesión o regístrate.
"The New York Times" reveló que Amazon planea reemplazar más de medio millón de empleos con robots, según documentos de estrategia internos a los que accedió. El lado oscuro de la automatización comienza a revelarse. En estos documentos se aconseja a los gerentes evitar términos como "automatización" o "Inteligencia Artificial (IA)" y usar, en cambio, expresiones más amables como "tecnología avanzada" o "cobot" (robot colaborativo).
Y, así como en los comienzos de internet se decía que "cuando algo era gratis, el producto eras vos"; ahora la expresión "colaboración con humanos" es un eufemismo que invierte la relación y esconde su transitoriedad. Mientras nosotros seguimos incorporando "plataformas colaborativas de agentes de IA" en los ámbitos laborales, educativos, empresariales, científicos y hasta gubernamentales -y pagamos por ellos-; la realidad es que "somos nosotros quienes colaboramos con la IA" al entrenarla; hasta que los agentes adquieran la destreza y madurez requerida para reemplazarnos.
La capacidad de aprendizaje -y de automejora- distingue a la IA de cualquier otra tecnología existente. CRISPR - la revolucionaria tecnología que permite editar cualquier genoma biológico -, no puede mejorar su propia técnica. Los reactores de fusión no pueden descubrir cómo aumentar su rendimiento o su eficiencia. Pero los modelos de lenguaje grande (LLM por sus siglas en inglés) sí pueden optimizar los chips informáticos en los que corren, pueden entrenar a otros LLM y, ahora, también pueden buscar y encontrar formas de mejorar su propio funcionamiento.
Así, mientras el mundo intenta comprender los límites de la inteligencia artificial, las máquinas comienzan a explorar sus límites. La ciencia asiste, en silencio, al nacimiento de una inteligencia que aprende, que se enseña a sí misma y que se transforma por cuenta propia.
La singularidad como horizonte
Hace poco, Mark Zuckerberg declaró que Meta busca una inteligencia artificial que supere a la humana en todos los campos del conocimiento: la ansiada Inteligencia Artificial General (IAG), el Santo Grial del sector.
Hoy, los modelos existentes ya pueden realizar tareas cognitivas más complejas que las de muchos expertos humanos, aunque siguen siendo inteligencias "estrechas": limitadas a dominios específicos. Es razonable asumir que los modelos actuales se volverán más poderosos, autónomos y difundidos en los próximos años a medida que sigan aumentando sus capacidades a velocidades exponenciales. Al final del camino, esperan arribar a una inteligencia no biológica -ergo, extraña-; capaz de comprender y resolver cualquier clase de problema; de cualquier campo. La IAG; la Singularidad; ese punto en el futuro donde los avances tecnológicos -especialmente en IA-, se acelerarán tan rápido que la tecnología superará la capacidad de comprensión -ergo, de control- de los humanos.
Zuckerberg parece tener un plan: como primer ingrediente, el talento humano. Meta atrajo a los principales investigadores al nuevo "Meta Superintelligence Labs" con salarios anuales de nueve cifras. El segundo ingrediente es, por supuesto, la propia IA. El objetivo del laboratorio es construir una IA auto-mejorable: un sistema que pueda impulsarse hacia niveles de rendimiento cada vez más altos. Este ciclo iterativo de retroalimentación positiva podría llevar a una "explosión de inteligencia"; hacia la Singularidad.
Asumamos que la IA termina mostrando ser una "tecnología normal" -una "plataforma" tal como lo es Internet o la electricidad- que transforma el mundo a un ritmo de adopción que los gobiernos y las sociedades pueden manejar; y que esta IAG -aunque incomprensible- es obediente y manejable. Bajo esta suposición, es correcto pensar que delegar la investigación y el desarrollo de la IA -en la propia IA- puede traer enormes beneficios. Y, aunque la inteligencia humana sigue siendo el motor principal (de otro modo Meta no hubiera pagado esas sumas tan exorbitantes), la realidad es que IA ya contribuye a su propio desarrollo en varias áreas críticas y cada vez con más preponderancia.
Automejorándose
Hoy, la mayor contribución de los Modelos de Lenguaje Grande (LLM) es ayudar a programar. En 2024, el CEO de Google, Sundar Pichai, afirmó que una cuarta parte del nuevo código de la empresa había sido generado por IA. Si los ingenieros son más productivos, diseñan y prueban modelos más rápido. Pero escribir mucho código no sirve si su ejecución demora horas. "Estos cuellos de botella limitan la innovación", dice Azalia Mirhoseini, profesora de Stanford y científica de Google DeepMind, la Inteligencia Artificial más avanzada del mundo. Desde 2021, ella usa IA para diseñar chips de IA: autoaprendizaje y recurrencia.
Otro equipo de Google creó un sistema que optimizó parte de la infraestructura de su propio LLM. El agente, AlphaEvolve, le pide al modelo Gemini que escriba algoritmos, los evalúa y le entrega versiones mejoradas para que los vuelva a optimizar. Así, AlphaEvolve descubrió nuevos métodos para operar centros de datos que
ahorran un 0,7 % de recursos computacionales; han mejorado el diseño de chips críticos; y han desarrollado un nuevo kernel (*) que aceleró el entrenamiento de Gemini en un 1%.
Estos porcentajes pueden parecer despreciables pero, en una empresa tan grande como Google, implica gigantescos ahorros de tiempo, de dinero y, sobre todo, de energía. Por otro lado, Matej Balog, científico en el equipo de Google DeepMind y líder del proyecto, aclaró que el sistema fue probado en una ínfima parte del flujo de entrenamiento de Gemini; con lo que esperan obtener mayores mejoras y avances cuando lo apliquen a mayores escalas.
La IA que aprende y enseña
Los LLM son sistemas hambrientos de datos. En dominios donde los datos reales son escasos, se los está usando para generar "datos sintéticos plausibles" que alimentan a otros modelos. "Ya no estás limitado por los datos —dice Mirhoseini—, el modelo puede generar más experiencias de forma arbitraria." También se está logrando que generen "tutoriales paso a paso" para problemas específicos y, otra IA -una "IA Juez"-, evalúa la validez de cada paso y de la estrategia general. Una vez aprobado, ese "tutorial" se usa para entrenar a otros agentes.
Otra línea de trabajo apunta a rediseñar los motores de funcionamiento. Los LLM actuales se basan en una estructura de red neuronal llamada "Transformer"; que fuera propuesta por investigadores humanos en 2017, y cuyas mejoras más notables también fueron realizadas por humanos. Para mejorar esta arquitectura, investigadores del startup Sakana AI creó un sistema llamado "Darwin Gödel": una IA que se mejora a sí misma rediseñando su propia arquitectura. Esta IA, no sólo impresiona por sus resultados, sino que, a medida que evoluciona, fue encontrando modificaciones que sus versiones previas no habían vislumbrado. "Darwin Gödel" es la primera IA que parece haber entrado en un bucle real de automejora y de retroalimentación positiva.
Mientras tanto, otro equipo de Sakana AI desarrolla el "Científico IA": un agente que explora la literatura científica, formula preguntas, realiza experimentos y redacta resultados. "Estamos viendo el momento GPT-1 del Científico IA", dice su líder, Jeff Clune. "En unos pocos años, nuevas versiones estarán escribiendo artículos científicos que serán aceptados en las principales conferencias y revistas científicas revisadas por pares del mundo. Y hará descubrimientos novedosos".
Hacia lo desconocido
Un estudio reciente del instituto METR -un instituto de investigación que evalúa la capacidad de los agentes de IA de vanguardia-, señala que la duración de las tareas que estos agentes pueden completar de forma independiente, se duplica cada siete meses desde GPT-2 (2019); mientras que su precisión promedio ronda, hoy, el 80%. La pregunta es: ¿con qué nivel de precisión estaremos dispuestos a dejarlos actuar sin supervisión humana en el mundo real? ¿99%; 99,99%; 99,999999%? Cada decimal agrega un universo de complejidad al modelo.
Así, es probable que, en los próximos años, las contribuciones que la IA haga a su propio desarrollo se multipliquen de maneras inverosímiles. Por ejemplo, si cada nueva versión de Gemini acelerara su propio entrenamiento en un 1% adicional, las aceleraciones se acumularían en el tiempo. Dado que cada generación siguiente será más veloz y capaz que la anterior, debería lograr aumentos aún mayores en esta velocidad; sin mencionar todas las otras formas en las que podría idear mejoras para sí misma. Bajo estas circunstancias, la "explosión de inteligencia" es un escenario plausible.
Otro escenario podría surgir si imperara la "Ley de los rendimientos marginales decrecientes". En los primeros días de cualquier campo científico los descubrimientos llegan con facilidad; hay muchas ideas por investigar y todo es nuevo. Pero, a medida que la ciencia madura, se requiere mucho más esfuerzo para lograr mejoras adicionales menores siempre decrecientes. Así, podría pasar que, cuando los sistemas de IA alcancen habilidades de automejora a nivel humano, no puedan seguir superándose a sí mismas. Sería muy irónico, pero podría pasar que el nivel humano fuera un límite.
En el primer caso, quizás no sobrevivamos para contarlo. En el segundo, la IA y sus agentes ubicuos y omnipresentes quizás sean, entonces, en verdad colaborativos. Supongo que pronto habremos de saberlo. O no.
(*) Lenguaje de bajo nivel que controla cómo se realizan diversas operaciones dentro de los chips como, por ejemplo, la multiplicación de matrices.