inicia sesión o regístrate.
En 2014, investigadores de DeepMind -hoy parte de Google- publicaron un ensayo en Nature en el que describían en detalle la experiencia de un programa que había aprendido a jugar 49 videojuegos de Atari desde cero. Como datos de entrada usaba los pixeles de la pantalla y el puntaje y, como salida, el algoritmo estaba conectado a un control de la consola. El sistema aprendió a jugar todos los videojuegos -desde cero; como un niño- alcanzando niveles humanos o superándolos en 29 de ellos en horas.
En 2017, DeepMind desarrolló AlphaGo Zero, una IA que aprendió a jugar sola al Go; sin "leer" bibliotecas de jugadas anteriores ni con "tutores" que la guiaran en el aprendizaje. En solo 40 días, y luego de jugar más de 29 millones de partidas contra ella misma; superó 100 a 0 a AlphaGo, la versión que había ganado al campeón mundial; superando en conocimiento en el juego a cualquier ser humano. En el proceso, dio con jugadas y estrategias que aún sorprenden a sus diseñadores y a jugadores de todo el mundo. Esta misma IA se está usando ahora en sistemas de doblado de proteínas (DeepFold); de diseño de drogas medicinales; de diseño de nuevas moléculas; y en todo un espectro cada vez más amplio de campos científicos, antes imaginados como impenetrables por la IA.
Tanto ha avanzado DeepMind que ahora posee un agente de "planificación creativa". La IA aprende diseñando, construyendo, evaluando y ejecutando un plan. Combina técnicas de prueba y error con técnicas de aprendizaje profundo vía simulación de escenarios posibles, encaminándose a través de las soluciones más promisorias y abandonando rápido los caminos que la conducen a calles sin salida. En las etapas iniciales, los investigadores habían puesto a prueba a este agente usando el conocido juego "Sokoban"; un rompecabezas donde un operario (la IA) debe mover cajas a través de un depósito de una disposición variable y ubicarlas en posiciones predeterminadas. El "operario" sólo puede "empujar" las cajas y no puede "tirar" de ellas. La IA dotadas de este "agente imaginativo o agente de planificación creativa" resolvió con éxito más del 98% de los niveles del juego a una velocidad sorprendente; contra el 60% de éxito que alcanzaba la IA sin la mejora.
La estructura del cerebro, hecha de neuronas, de sinapsis, de conductores eléctricos, de redes de transmisión, se ha convertido en el parangón a duplicar. Sobre esta "red neuronal tecnológica mimética" -cuantas más "neuronas" y más "capas", más potente será la IA-, se monta un sistema de aprendizaje profundo ("Deep Learning"). Voy a sobre simplificar la explicación pero, lo que el algoritmo hace es ir ajustando los pesos relativos -la fuerza de la sinapsis- entre "neuronas" y entre "capas" a medida que repite la experiencia una y otra vez, reforzando aquellas conexiones que lo llevan a un resultado exitoso y penalizando las que lo conducen a un fracaso. En el algoritmo no hay programación tal y cual la conocemos. No hay un programa estableciendo cómo reaccionar ante cada situación, ni previendo todas las posibles alternativas a resolver. Hay un mecanismo que, de manera interna, por sí solo, va cambiando sus conexiones internas, ergo, ajustando su "manera de pensar", mientras progresa hacia el resultado.
Una IA prometeica
En la fusión nuclear los núcleos de los átomos de hidrógeno se unen para formar helio y producir energía. La cantidad de energía generada en relación con la cantidad de combustible empleado hace que sea un método en extremo eficiente, limpio y seguro. Incluso más seguro que la energía nuclear convencional. Este es el proceso que sucede en el Sol. Replicarlo en la Tierra era un desafío sin precedente.
Juntar a los núcleos atómicos dentro de un reactor solo se logra a temperaturas que se ubican en el orden de los cientos de millones de grados; tanto calor como en el centro del Sol. A estas temperaturas, la materia no es ni sólida ni líquida ni gaseosa, sino que entra en un cuarto estado conocido como plasma, una sopa densa y sobrecalentada de partículas.
El desafío es mantener a este plasma dentro de un reactor el tiempo necesario para poder fusionar los núcleos y extraer la energía. Dentro de las estrellas esto lo logra la gravedad. En la Tierra, los científicos usan dispositivos láser e imanes superpotentes. En el reactor basado en imanes -bautizado Tokamak-, el plasma queda atrapado dentro de una jaula electromagnética que mantiene su forma y evita que toque las paredes del reactor, evitando su destrucción. El control del plasma requiere una supervisión constante y una manipulación exacta del campo electromagnético en tiempos infinitesimales.
Acá aparece, otra vez, DeepMind; hoy la inteligencia artificial (IA) más avanzada del mundo. El equipo de investigadores de DeepMind entrenó a su algoritmo primero, como es usual, dentro de una simulación. Cuando el algoritmo aprendió a controlar y cambiar la forma del plasma dentro del reactor virtual, los investigadores le dieron el control de los imanes del Tokamak de Configuración Variable; un reactor experimental en Lausana, Suiza. La primera sorpresa fue que la IA pudo controlar el reactor real sin necesidad de ningún ajuste adicional. Luego, la IA controló el plasma durante dos segundos, el tiempo máximo que pueden funcionar estos reactores sin sobrecalentarse.
La red neuronal aprendió -sola, por ensayo y error- a controlar 19 imanes, realizando 90 mediciones del estado del plasma en un momento dado, repitiéndolas 10.000 veces por segundo y ajustando los imanes en consecuencia. Es fácil prever que futuras IA manejarán muchos más imanes combinados con más equipos láser; y que podrán medir, controlar y adecuar el plasma mil millones de veces por segundo o, incluso, un billón de veces por segundo; haciendo que los escasos dos segundos de operación del reactor resulten una eternidad para ellas. Prometeo le roba el fuego a los Titanes y nos lo da a nosotros; los humanos.
Otros ejemplos
Gottfried Leibniz fue uno de los padres fundadores del álgebra de matrices; un campo vital de las matemáticas. Una IA entrenada para resolver operaciones algebraicas que involucran matrices, "descubrió" un método para multiplicar matrices que nos era por completo desconocido. La IA no solo "descubrió" esta nueva forma de multiplicar las matrices, sino que, el método, si bien es cien por ciento efectivo es, por ahora, incomprensible para los matemáticos. Un último ejemplo. Xanadu Quantum Technologies, una empresa canadiense de tecnología, dio a conocer el poder de la informática del futuro: la computación cuántica, basada en un nuevo un chip fotónico cuántico llamado Borealis. Este chip pudo solucionar en 36 milisegundos algo que, a los algoritmos actuales montados en los súper ordenadores disponibles a la fecha, les hubiera insumido 9.000 años. Ese es el salto en la escala de velocidades y de potencias que se están alcanzando. Apliquemos este tipo de chip a la resolución del reactor de plasma; al álgebra de matrices o a cualquier otro problema como, por ejemplo, el de la IA que fue capaz de formular, por sí sola, las leyes de la gravedad correlacionando datos. Solo le tomó unos pocos días; no veinte años como a Newton.
Distintas inteligencias artificiales van ocupando los lugares dejados vacíos por Isaac Newton, Gottfried Leibniz y muchos otros. Descubriendo el «cómo» de las cosas; y ocultándonos, al mismo tiempo, el «por qué» de todas ellas.
"La caja negra"
El mayor miedo sobre la inteligencia artificial reside en lo que se llama "la caja negra", algo intrínseco a su construcción. A diferencia de la programación de software tradicional, basada en la implementación de una lista secuencial de instrucciones que llevan a un resultado; en el desarrollo de IA los ingenieros trabajan con algoritmos que "aprenden solos"; no se los programa para obtener uno u otro resultado.
A los investigadores les gusta pensar que ellos están "cultivando" y "guiando" a esa inteligencia artificial pero, a decir verdad, nada más lejos. La verdad tras la "caja negra", es que el ser humano pierde el control de esa criatura que está creando y que se sorprende ante los alcances de su creación, o ante los resultados que produce, como hemos visto en varios de los ejemplos que he expuesto.
Hace muy poco, ingenieros de Google estaban trabajando en una IA que, de manera inesperada, adquirió la habilidad de entender bengalí. "No lo entiendes del todo. No puedes decir muy bien por qué [el robot] dijo esto, hizo aquello o por qué se equivocó en esto otro. Tenemos algunas ideas y nuestra capacidad para entenderlo mejora con el tiempo. Pero ahí es donde estamos ahora", dijo el director ejecutivo de Google, Sundar Pichai. Que la IA haya aprendido bengalí no implica riesgo alguno, pero ¿cómo nos protegemos de otros "resultados inexplicables" o "imprevistos" que sí puedan resultar peligrosos? Imaginemos una IA que esté elucubrando una nueva teoría física como lo hizo la IA que "descubrió" las leyes de la gravitación; vamos a encontrarnos en situaciones donde, simplemente, el ser humano va a ser incapaz tanto de confirmar como de refutar la teoría expuesta por la IA. ¿Cómo podríamos validar sus resultados si no somos capaces de comprenderlos?
Me extraña que tan pocos científicos e investigadores señalen como un peligro enorme el seguir desarrollando modelos de cajas negras cada vez más potentes; con capacidades emergentes mayores que pueden dar resultados impredecibles. ¿Cómo podríamos protegernos si el resultado implicara un peligro de extinción? Necesitamos seguir desentrañando los misterios de la naturaleza como lo hacían Newton y Leibniz; no por medio de algoritmos hiperveloces imposibles de comprender ni de controlar. No siento como un logro el matar a la Iluminación y al Entendimiento en pos de la velocidad y la precisión. No me parece algo prudente. Mucho menos algo sabio.