PUBLICIDAD

¿Quieres recibir notificaciones de alertas?

Su sesión ha expirado

Iniciar sesión
11°
26 de Octubre,  Salta, Centro, Argentina
PUBLICIDAD

¿Cómo se prepara el mundo para una IA que se escape de control humano?

China y EEUU han embarcado al mundo en una guerra tecnológica. Hoy, la meta es una inteligencia autónoma, capaz de comprender cualquier clase de problema, tan incomprensible como una inteligencia alienígena. 
Domingo, 26 de octubre de 2025 02:05
Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

La pandemia fue identificada como un riesgo global por el World Economic Forum desde la primera edición del reporte "Global Risk Report"; en 2005. De allí en más, fue mostrado como riesgo global en cada una de sus ediciones. Personalidades como Bill Gates, Barack Obama, o George Bush hijo, advirtieron sobre el peligro al orden mundial que significaría una pandemia global para la cual -todos coincidieron-, el mundo no estaba preparado. Por supuesto no se hizo nada. Y, por supuesto, no llegamos preparados. Mientras tanto, hay gente que llena libros hablando de rinocerontes grises y de cisnes negros. Los eufemismos tras los que disfrazamos -como gansos- nuestra decisión de ignorar riesgos catastróficos y de procrastinar acciones decisivas, es impresionante.

La pandemia fue reveladora no sólo de los defectos de los que adolecen nuestros sistemas de gobernanza mundiales sino, además, de lo vulnerables que nos hemos vuelto. No estamos preparados para resolver crisis graves; simplemente ignoramos los riesgos por demasiado tiempo y cuando reaccionamos, lo hacemos mal.

Quizás haya que asumir que todo rinoceronte gris será, eventualmente, un cisne negro y que debemos comenzar a prevenir en lugar de sufrir. ¿O, acaso, los costos económicos de prepararnos para afrontar un potencial riesgo existencial global son razón suficiente para ignorarlos y jugar a la ruleta rusa con la población mundial; sólo confiando en que no irán a ocurrir?

"Hic sunt dracones"

China y Estados Unidos han hecho del liderazgo global por la inteligencia artificial (IA) una prioridad estratégica y, tras ello, han embarcado al mundo en una guerra tecnológica parecida a la carrera espacial entre Estados Unidos y la desaparecida URSS.

Así, hoy, las principales empresas estadounidenses y chinas compiten por alcanzar una inteligencia artificial general (IAG), el Santo Grial de toda compañía dedicada a este campo. Una inteligencia no biológica -ergo, extraña-; capaz de comprender y resolver cualquier clase de problema; en cualquier campo; pero que podría resultarnos tan incomprensible como una inteligencia alienígena.

Y, sin importar si se es optimista o pesimista respecto a las perspectivas de la Inteligencia Artificial General en particular o de la tecnología, en general; debemos saber que estamos adentrándonos en territorios tecnológicos desconocidos; en aguas donde, en los mapas antiguos medievales, se ponía la ominosa leyenda «Hic sunt dracones». (*)

Pensar fuera de la caja

Aún hoy, no existe una definición estándar ni compartida sobre qué es una IAG ni un consenso sobre cuándo -ni cómo- ésta podría emerger. Tampoco sobre los impactos que podría tener.

Mientras tanto, los modelos de IA existentes hoy en día son capaces de realizar tareas cognitivas más complejas que los humanos más capacitados. Por esto se llaman inteligencias artificiales estrechas; porque todavía no son capaces de resolver problemas de otro campo de conocimientos aplicando la experiencia o el conocimiento adquirido en su dominio específico. Pero es razonable asumir que los modelos actuales se volverán más poderosos, autónomos y difundidos en los próximos años a medida que sigan aumentando sus capacidades a velocidades exponenciales.

Y, sin bien puede ser que la IA termine demostrando ser una "tecnología normal" -una tecnología, como Internet o la electricidad, que transforma el mundo, pero a un ritmo de adopción que límites naturales que los gobiernos y las sociedades pueden controlar-; y que esta IAG -aunque incomprensible- sea fácil de dominar y de controlar; es bastante poco inteligente no prepararnos para una situación donde esto no sea así. Donde perdamos el control de los agentes de IA; o donde la "explosión de inteligencia" (**) que supone arribar a una IAG no se pueda controlar ni dominar.

El mejor escenario sería uno donde sólo un país acceda a esta IAG -y, obvio, que resulte benigna-; y que transcurra mucho tiempo hasta que otro país arribe a ella; tal y como sucedió durante la era nuclear donde el gobierno de Estados Unidos controló la tecnología y el mundo entero se benefició con dos décadas para poder desarrollar políticas y salvaguardas; antes de que surgiera otro rival nuclear.

Sólo que no parece ser el caso. China es casi un par tecnológico de Estados Unidos; un puñado de empresas privadas de ambos países dirigen el desarrollo de esta tecnología; y la IA es una plataforma tecnológica de propósito general que se extiende por toda la economía y la sociedad a toda velocidad.

En este contexto, una IAG podría ser el punto de partida de futuros alternativos. La única esperanza es que, en el momento que tengamos la competencia tecnológica requerida para desencadenar una "explosión de inteligencia"; tengamos también el nivel de maestría necesario para que esta detonación no sea terminal. Y, si no pensamos sobre esta posibilidad "fuera de la caja", podríamos quedar presos de las circunstancias y de las malas decisiones que tomemos hoy.

La IAG no solo está complicando la dinámica geopolítica actual, sino que también presentará desafíos impensados a la seguridad nacional de todos los países importantes del mundo.

Determinar quién es el responsable de un ciberataque es desafiante y, a veces, algo imposible. Imaginemos un ciberataque que cause estragos en instituciones financieras, corporaciones privadas y agencias gubernamentales; y que paralice sistemas físicos que van desde infraestructuras críticas como energía y comunicaciones; hasta robótica industrial. Ante esto, los líderes políticos van a tener que contemplar no sólo la posibilidad de que sea el preludio de una campaña militar por parte del país rival; sino que deberían también contemplar la posibilidad de que fuera obra de un agente de IA fuera de control. O de la IAG.

Dada la capacidad probada de los sistemas de IA para mentir y camuflarse, los sistemas actuales podrían no ser capaces de determinar si un agente de IA está operando por su cuenta o bajo las órdenes de un rival. El desafío es enorme y, sencillamente, podríamos encontrarnos en la situación de responder dando garrotazos a ciegas en la oscuridad.

Amenaza supranacional

Prepararse para lo peor implica diseñar un sistema de defensa apto para cualquier ataque, independientemente de su origen y naturaleza, un sistema que evalúe los protocolos militares actuales y de continuidad operativa; buscando asegurar que estos pueden manejar una amenaza que provenga de una IA adversaria o de una "Rogue AI", una IA que se ha vuelto "salvaje" y que se desvía de sus reglas y de su patrón de conducta esperado; siendo una amenaza para los seres humanos o la sociedad.

La respuesta a un ataque de estas características podría tener que tomar una decisión en tiempo real sobre cierres específicos de centros de datos y de sistemas de control de sistemas vulnerables -incluso no comprometidos- para prevenir una escalada mayor; inhibiendo el funcionamiento de casi toda la economía digital y de todos los sistemas de infraestructura críticos como, por ejemplo, aeropuertos, plantas de energía o instalaciones militares.

Dado que es poco probable que un agente autónomo de esta naturaleza respete fronteras nacionales, la respuesta debería ser coordinada con socios y adversarios; en ámbitos públicos y privados por igual. Un escenario de pérdida de control así muestra la importancia de establecer una forma de autoridad supranacional ante esta eventualidad y la necesidad de desarrollar planes de respuesta y contingencia globales.

Pensar de nuevo

La planificación debe comenzar ahora. En un mundo cada vez más competitivo y volátil; con entornos domésticos frágiles y políticamente polarizados; el mundo no puede darse el lujo de ser tomado por sorpresa.

Es equivocado creer que esta planificación generará instintos sociales adversos a la tecnología; que nos llevará por caminos que exacerben los riesgos que se buscan prevenir; o que demorarán el avance de la IA; como arguyen los dueños de las compañías que las desarrollan. Ante un precipicio tan profundo -con un puente tan angosto para cruzarlo-, lo prudente es frenar y encarar hacia el puente con mayor cautela en lugar de acelerar.

También es peligroso pensar en la aparición de una IA General como algo "normal". La experiencia y fluidez tecnológica de todos los países del mundo es limitada y desigual; y los actores institucionales involucrados en cualquier respuesta -y en cualquier escenario- se extienden mucho más allá de las agencias tradicionales de seguridad nacional.

Tampoco esta planificación puede ser delegada en futuristas y expertos técnicos enviados a un búnker debajo de una montaña pasando meses elaborando planes detallados en aislamiento y en el vacío. Prepararse para un futuro con IAG debe ser un ciclo permanente de retroalimentación que modifique -en tiempo real- los sistemas y los medios de defensa actuales. Para pensar lo nuevo; hay que pensar de nuevo. Y diseñar todo de nuevo.

Los líderes políticos del mundo no pueden elegir sus crisis. Pero sí pueden elegir para qué y cómo se preparan para ello. Planificar para el advenimiento de una IAG no es una indulgencia de ciencia ficción ni una distracción de los problemas actuales. Es una forma responsable de prepararse para la posibilidad bastante real de un nuevo conjunto de desafíos existenciales en un mundo radicalmente nuevo y transformado.

(*) "Aquí hay dragones"

(**) Escenario teórico en el que una inteligencia artificial se mejora a sí misma a velocidades exponenciales superando a la inteligencia humana tan rápido que se hace incontrolable.

 

PUBLICIDAD
PUBLICIDAD