¿Quieres recibir notificaciones de alertas?

Su sesión ha expirado

Iniciar sesión
11°
28 de Septiembre,  Salta, Centro, Argentina
PUBLICIDAD

¿La IA hace a los dictadores aún más peligrosos?

Domingo, 28 de septiembre de 2025 01:42
Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

En 1948, el matemático norteamericano Norbert Wiener -padre de la cibernética- afirmó que cualquier sistema, mecánico o animal, podía ser controlado usando los "estímulos adecuados". "Todo puede ser controlado (…) La cibernética es la ciencia de la información y el control, sin importar si lo que se controla es una máquina o un organismo viviente". En sus trabajos, Wiener también describió a la inteligencia artificial (IA) como un «sistema cibernético" capaz de responder y de adaptarse a la retroalimentación.

Lo que es más difícil de ver -y, quizás de aceptar-; es que los sistemas políticos -tanto las democracias, como los autoritarismos- son, asimismo, «sistemas cibernéticos" que requieren retroalimentación para sostenerse y prevalecer. Todo se reduce, para ambos tipos de gobierno, a una cuestión de "estímulos adecuados" (políticas) y de "respuestas" según las cuales los líderes intentan determinar si han tenido éxito o no.

El aprendizaje automático (el corazón del funcionamiento de las inteligencias artificiales) está alterando esta forma de retroalimentación de las democracias, al facilitar la polarización y al agravar los sesgos preexistentes; al reforzar prejuicios ocultos en los datos y transformarlos en afirmaciones erróneas.

Pero, mientras que el aprendizaje automático refleja y refuerza las divisiones dentro de una democracia, para los autócratas -que avanzan tanteando a ciegas en la oscuridad-, la IA podría ser un ruego a sus plegarias; permitiéndoles anticipar si sus súbditos aprobarán -o no- sus acciones, sin la molestia ni los riesgos políticos que implican las encuestas, los debates abiertos o las elecciones. Por esta razón, un temor latente -y real- es que los avances en IA fortalezcan a los dictadores; al permitirles un mejor manejo y control de sus sociedades. Los desafíos -en las autocracias- podrían ser sutiles, pero, en potencia, muy corrosivos.

Estímulo y respuesta

Los sistemas políticos son sistemas basados en la retroalimentación. En las democracias, el público evalúa y califica a los líderes a través de elecciones, en teoría, libres y justas. La oposición señala los errores del gobierno, mientras que la prensa informa sobre controversias y malas prácticas. Los gobernantes en funciones se enfrentan con regularidad a los votantes y aprenden si han ganado o perdido su confianza en un ciclo que se repite de manera sistemática y periódica.

Pero la retroalimentación en las sociedades democráticas no es perfecta. El público puede no tener un conocimiento profundo de la política y puede castigar a los gobiernos por circunstancias fuera de su control. Los políticos y sus asesores pueden malinterpretar lo que la gente quiere. La oposición tiene incentivos para mentir y exagerar. Las campañas electorales requieren dinero y, en ocasiones, las decisiones reales se toman a puertas cerradas. Los medios de comunicación pueden estar sesgados o preocuparse más por entretener que por informar.

A pesar de estas imperfecciones, la retroalimentación -en una democracia sana- permite el aprendizaje y la evolución del sistema. Los políticos conocen -o creen conocer- lo que espera la ciudadanía. El público aprende qué puede esperar y qué no. Las personas pueden criticar los errores del gobierno. Y, a medida que surgen nuevos problemas, aparecen nuevos grupos que se organizan para darlos a conocer y buscar cómo resolverlos.

Pero esta retroalimentación funciona de manera muy distinta en una autocracia. Los líderes no son elegidos a través de elecciones libres y justas sino mediante luchas despiadadas por la sucesión y sistemas opacos de promoción interna como, por ejemplo, en China. Incluso cuando la oposición es legal, en general se la desalienta y se la reprime con brutalidad. Las elecciones, cuando se llevan a cabo, están sistemáticamente inclinadas a favor de los gobernantes en el poder. Tenemos a la mano los ejemplos de Rusia, Turquía, Cuba o Venezuela.

Los ciudadanos que se oponen a sus líderes no solo enfrentan dificultades para organizarse, sino que también corren el riesgo de sufrir sanciones por expresarse, incluidas la prisión, tortura o muerte. Por todas estas razones, los gobiernos autoritarios a menudo no tienen una comprensión clara de lo que desean -ni necesitan- sus sociedades.

Estos sistemas enfrentan un dilema entre la estabilidad política a corto plazo y la formulación de políticas de mediano y largo plazo. La búsqueda de estabilidad inclina a los líderes autoritarios a bloquear la expresión de opiniones políticas externas, mientras que la necesidad de formular políticas efectivas exige que tengan al menos alguna idea de lo que sucede tanto en el seno de sus sociedades como en el mundo.

Incluso antes de la invención del aprendizaje automático, los líderes autoritarios utilizaban medidas cuantitativas como forma de retroalimentación. Por ejemplo, China, durante décadas intentó combinar una economía de mercado descentralizada con una supervisión centralizada basada en alguna estadística clave como, por ejemplo, el crecimiento del PBI. Los funcionarios locales podían ser promovidos si sus regiones experimentaban un crecimiento rápido de ese indicador. Habida cuenta de la máxima que reza "te comportarás según cómo te midan"; los líderes locales y regionales tenían escasos incentivos para abordar problemas persistentes como la corrupción, la deuda o la contaminación ambiental. Por el contrario, los incentivos los llevaban a alterar las estadísticas o a aplicar políticas que hicieran crecer el PBI a corto plazo; dejando los problemas coyunturales sin resolver.

Retroalimentación autoritaria

¿Cómo sería compartir el mundo con estados autoritarios como Rusia o China, si estos quedaran atrapados en bucles de retroalimentación defectuosos? ¿Qué ocurre cuando estos procesos dejan de proporcionar orientación real y, en su lugar, simplemente reflejan los miedos y creencias de sus gobernantes?

Una respuesta egoísta por parte de las democracias podría ser que los autócratas se enfrenten solos a las consecuencias de sus errores, viendo cualquier debilitamiento de los gobiernos autoritarios como una potencial ganancia. Pero incluso cínicos acérrimos deberían reconocer el peligro de catástrofes de política exterior inducidas por la IA en regímenes dictatoriales o autocráticos que, por ejemplo, amplificaran los sesgos nacionalistas que lleven, por ejemplo, a fortalecer a las facciones más belicistas que busquen expandir su territorio por la fuerza.

Además, un comportamiento de este tipo podría desembocar en una catástrofe humanitaria. Consecuencias previas de la ceguera de Pekín ante la realidad incluyen, por ejemplo, la Gran Hambruna; que mató a cerca de 30 millones de personas entre 1959 y 1961 y que fue provocada por políticas basadas en una ideología necia; agravada por la negativa de los funcionarios locales y provinciales a informar datos reales y precisos. Así, sesgos del Estado chino actual como, por ejemplo, sus políticas hacia los uigures podrían empeorar.

Hasta ahora, Estados Unidos se ha centrado en promover la libertad en Internet dentro de las sociedades autocráticas. Pero un líder imprevisible y autocrático como Trump, podría verse tentado a intentar empeorar el problema de información en los regímenes autoritarios, reforzando los riesgos e introduciendo nuevos desvíos a sistemas "per-se" propensos a estar sesgados. Esto podría lograrse corrompiendo los datos administrativos o sembrando desinformación en las redes sociales autoritarias. Quizás, de manera aún más peligrosa, algunas agencias de inteligencia de Occidente podrían verse tentadas a explotar las fallas en los bucles de retroalimentación de los sistemas de información de estos países autoritarios.

Pero, por desgracia, no existe un muro virtual que separe los sistemas democráticos de los autoritarios. No sólo los datos erróneos y las creencias delirantes pueden filtrarse desde las autocracias hacia las democracias; sino que también malas decisiones de los regímenes autoritarios podrían tener consecuencias impredecibles en países democráticos.

La jaula y el pájaro

A medida que los gobiernos avancen en el desarrollo de la IA, deben darse cuenta de que vivimos en un mundo hiperconectado e interdependiente; donde los problemas de los regímenes autoritarios tienen efectos sobre las democracias.

Si Estados Unidos quedara atrapado en la carrera lanzada por la «supremacía tecnológica»; sólo intensificará la competencia entre potencias. La otra opción -igual de riesgosa- es intentar empeorar los problemas de retroalimentación en los regímenes autoritarios. Ambos escenarios implican el riesgo de una posible guerra. La opción más segura para todos los gobiernos sería reconocer los riesgos compartidos de la inteligencia artificial y trabajar juntos para reducirlos.

Es hora de que los ciudadanos entendamos -con claridad- cómo la tecnología afecta nuestras vidas, y que comencemos a tener los debates serios necesarios sobre qué lugar debe ocupar la tecnología -y con qué alcance-, en nuestra sociedad; particular y global.

Franz Kafka dijo "una jaula salió en busca de un pájaro". Seguir por inercia -e inconscientes de los riesgos- por esta senda, es una invitación al desastre y a meternos en esa jaula sin temor. Ojalá reaccionemos a tiempo. Ojalá.

PUBLICIDAD
PUBLICIDAD