Su sesión ha expirado

Iniciar sesión
5 de Julio,  Salta, Centro, Argentina
PUBLICIDAD

¿"Algoritmos no conscientes" en control?

Carlos Alejandro Belloni, ingeniero y escritor.
Sabado, 21 de octubre de 2023 17:30
Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

En 2014, investigadores de DeepMind -hoy parte de Google-, publicaron un ensayo en la prestigiosa publicación Nature en el que describían en detalle la experiencia de un algoritmo que había aprendido a jugar 49 videojuegos de Atari desde cero.

Como datos de entrada usaba los pixeles de la pantalla y el puntaje y, como salida, el algoritmo estaba conectado a un control de la consola. Lo importante es comprender que el sistema aprendió a jugar todos los videojuegos por prueba y error, -desde cero; como un niño-, superando el nivel de juego humano en apenas horas.

En 2017, DeepMind desarrolló AlphaGo Zero, una inteligencia artificial (IA) que aprendió a jugar sola al Go; sin "leer" bibliotecas de jugadas anteriores ni con "tutores" que la guiaran en el aprendizaje.

En sólo 40 días, y luego de jugar más de 29 millones de partidas contra ella misma; superó 100 a 0 a AlphaGo, la versión anterior que había ganado al campeón mundial; superando en conocimiento del juego a cualquier ser humano. En el proceso, dio con jugadas y estrategias que aún sorprenden a sus diseñadores y a jugadores de todo el mundo.

Esta misma IA se está usando ahora en un espectro cada vez más amplio de campos científicos antes impensados como, por ejemplo, sistemas de doblado de proteínas (DeepFold); de diseño de drogas medicinales y de nuevas moléculas; o para controlar reactores experimentales de fisión nuclear.

Tanto ha avanzado DeepMind que ahora posee un agente de "planificación creativa". La IA aprende diseñando, construyendo, evaluando y ejecutando un plan.

Combina técnicas de prueba y error con técnicas de aprendizaje profundo vía simulación de escenarios posibles; encaminándose a través de las soluciones más promisorias y abandonando rápido los caminos que la conducen a calles sin salida.

En las etapas iniciales, los investigadores habían puesto a prueba a este agente usando el conocido juego "Sokoban"; un rompecabezas donde un operario (la IA) debe mover cajas a través de un depósito de una disposición variable y ubicarlas en posiciones predeterminadas. El "operario" sólo puede "empujar" las cajas y no puede "tirar" de ellas. La IA dotadas de este "agente imaginativo o agente de planificación creativa" resolvió con éxito más del 98% de los niveles del juego a una velocidad apabullante contra el 60% de éxito que alcanzaba la IA antes de la mejora.

Otra versión de este algoritmo descubrió formas de ordenar componentes de una lista de elementos alfanuméricos que resultó ser un 70% más rápido que el método humano existente y que llevaba 50 años sin haber podido ser mejorado. También ha encontrado una manera de acelerar un algoritmo clave utilizado en criptografía en más de un 30%.

Todas estas mejoras se encuentran hoy distribuidas de manera global en las bibliotecas públicas de código utilizadas todos los días para la construcción de millones de piezas de software; sin que lo sepamos.

La "caja negra"

La estructura del cerebro, hecha de neuronas que hacen sinapsis y que conforman una red de transmisión de señales eléctricas, se ha convertido en el modelo a copiar. Así, se están construyendo "redes neuronales artificiales", en las que cuantas más "neuronas" y más "capas" se conecten, más potente será la IA. Sobre esta red, se monta un sistema de aprendizaje profundo ("Deep Learning"). Sobre simplificando la explicación, lo que el algoritmo hace es ir ajustando los pesos relativos -la fuerza de la sinapsis- entre "neuronas" y entre "capas" a medida que repite la experiencia una y otra vez, reforzando aquellas conexiones que lo llevan a un resultado exitoso y penalizando las que lo conducen a un fracaso.

A diferencia de la programación de software tradicional, basada en una lista secuencial de instrucciones que llevan a un resultado; en el desarrollo de una IA los ingenieros trabajan con algoritmos que "aprenden solos"; no se los programa ni siguen un programa. Así, el mayor miedo sobre la inteligencia artificial reside en lo que se llama la "caja negra", algo intrínseco a la naturaleza de su diseño.

A los investigadores les gusta pensar que ellos están "cultivando" y "guiando" a esta inteligencia artificial pero no es así. La verdad tras la "caja negra" es que el ser humano pierde el control de la "criatura" que está creando y que se sorprende ante los alcances de esta creación, o ante los resultados que produce, como pasó en casi todos los ejemplos que he expuesto.

Hace muy poco, ingenieros de Google estaban trabajando en una IA que, de manera inesperada, adquirió la habilidad de entender bengalí. "No lo entiendes del todo. No puedes decir muy bien por qué [el robot] dijo esto, hizo aquello o por qué se equivocó en esto otro. Tenemos algunas ideas y nuestra capacidad para entenderlo mejora con el tiempo. Pero ahí es donde estamos ahora", dijo el director ejecutivo de Google, Sundar Pichai. Que la IA haya aprendido bengalí no implica riesgo alguno pero ¿cómo nos protegemos de otros "resultados inexplicables" o "imprevistos" que sí puedan resultar peligrosos?

¿O cómo poder confiar en los resultados producidos por una IA si no podemos ser capaces de replicarlos o de comprenderlos? Imaginemos, por ejemplo, una IA que elucubre una nueva teoría física como lo hizo la IA que "descubrió" las leyes de la gravedad en veinte minutos; no en las décadas que le tomó a Isaac Newton.

En algún punto, nos vamos a encontrar en situaciones donde, simplemente, vamos a ser incapaces de confirmar o de refutar una teoría elaborada por una IA. ¿Podemos confiar en los resultados que nos proporcione una IA cuando no somos capaces de comprender el razonamiento que la condujo hacia ellos?

Me extraña que tan pocos científicos e investigadores no señalen como un peligro enorme el seguir desarrollando modelos de cajas negras cada vez más potentes; con capacidades emergentes mayores y que pueden dar resultados impredecibles e inesperados.

Algoritmos no conscientes

Hasta ahora consciencia e inteligencia iban de la mano y su jerarquía relativa era una disquisición filosófica sin ninguna importancia cotidiana. La inteligencia artificial pone en jaque esta situación y produce una «gran desconexión» que no es gratis y que podría tener enormes consecuencias políticas, económicas, sociales y filosóficas. Ahora, los algoritmos son más rápidos y eficientes que los humanos. Un «algoritmo no consciente» es "más inteligente" y eficaz, en promedio, que un humano consciente, por muy inteligente que sea el humano.

Aumentar nuestra dependencia de algoritmos que no comprendemos y que no podemos replicar su razonamiento, podría llevarnos a perder la capacidad de tomar decisiones importantes por nosotros mismos. Ceder nuestro poder de decisión a estos algoritmos podría socavar más la libertad individual y nuestra autonomía de pensamiento y de acción.

Necesitamos seguir desentrañando los misterios de la naturaleza y las leyes de la vida tal y como lo hacían los grandes científicos de la historia; no por medio de algoritmos híper veloces que nos resultan imposibles de comprender o, quizás; de controlar. No siento como un logro el matar a la Iluminación y al Entendimiento en pos de la velocidad y la precisión. No me parece algo prudente. Mucho menos algo sa

Temas de la nota

PUBLICIDAD
PUBLICIDAD