¿Quieres recibir notificaciones de alertas?

Su sesión ha expirado

Iniciar sesión
19°
21 de Septiembre,  Salta, Centro, Argentina
PUBLICIDAD

Los sistemas políticos como "sistemas cibernéticos"

La transformación meteórica que atraviesa la civilización a partir de la influencia de la Inteligencia Artificial y la nueva tecnología digital nos hace correr el riesgo de descuidar otro riesgo contemporáneo, y mortífero, como el avance de una nueva cultura autoritaria.
Domingo, 21 de septiembre de 2025 01:45
Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

La frase "quien domine la inteligencia artificial dominará al mundo" es una expresión atribuida a Vladimir Putin. Cierta su autoría o no, no se puede obviar su verdad. La IA se ha convertido en el "Santo Grial" del planeta y Estados, universidades y empresas hacen de la "Supremacía en la Inteligencia Artificial" una causa nacional. Las "ciencias cognitivas" acaparan casi toda la atención. La carrera se encuentra lanzada y con final abierto y hay muchas naciones que, de manera explícita, han manifestado su voluntad de comprometerse en cuerpo y alma en esta feroz competencia planetaria. Todos suponen, de manera tácita, que, quien logre la «supremacía tecnológica" - en particular en el área de la IA-, lo conducirá a una superioridad económica y militar amplia, decisoria y definitiva.

En esta nueva forma de guerra, el recurso clave son los datos. Kai-Fu Lee, reconocido científico informático y autor de "Superpotencias de la Inteligencia Artificial. China, Silicon Valley y el nuevo orden mundial"; afirma que los datos son el nuevo petróleo y que China es la nueva OPEP. China, con sus más de mil millones de ciudadanos y sus tan elusivas y laxas protecciones en contra de la vigilancia estatal; podría parecer destinada a ganar. Sin embargo, si la ventaja proviniera de tecnología superior; entonces Estados Unidos con su sistema universitario (aún) superior y el talento de su mano de obra tecnológica, tendría posibilidades de imponerse.

Pero, pensar en la IA en términos de una carrera por la dominación global ignora de manera fundamental la forma en la que la IA está transformando la política local, regional y global; la forma de hacer política y la política toda. Sin importar de qué sistema de gobierno se trate, la IA desafiará a cada sistema político de maneras distintas; trastocando no sólo la rivalidad entre potencias como transformando a los propios rivales en la contienda.

Retroalimentación Defectuosa

La mayoría de las discusiones sobre inteligencia artificial se centran en el aprendizaje automático: algoritmos estadísticos que extraen relaciones entre datos; el corazón mismo de la IA. Estos algoritmos hacen suposiciones: ¿Hay un perro en esta foto? ¿Servirá este movimiento para ganar la partida de ajedrez en menos de diez jugadas? ¿Cuál debería ser la siguiente palabra en esta frase inacabada? La llamada función objetiva -un método matemático para evaluar resultados-, "recompensa" al algoritmo si acierta y lo "castiga" en caso contrario. Así es como funciona -de manera muy simplificada- la inteligencia artificial básica.

YouTube, por ejemplo, intenta presentar contenido que mantenga al usuario pegado a su pantalla. Así, la función objetivo está diseñada para maximizar el tiempo de pantalla de los usuarios. Dependiendo de si su predicción fue correcta o incorrecta, el algoritmo actualiza su modelo de manera recurrente.

Sumergirse en las complejidades del aprendizaje automático ayuda a entender los debates sobre la dominación tecnológica. Eso implica bucear en los datos que alimentan a estos sistemas y explica por qué, los expertos como Kai-Fu Lee creen que los datos son el nuevo petróleo. Cuantos más datos -de calidad- se tengan, más rápido se puede mejorar el rendimiento de los algoritmos obteniendo, en pequeños cambios incrementales, ventajas decisivas.

Pero el aprendizaje automático tiene sus límites. Manipular preferencias superficiales de compra o de visualización no es difícil; pero es bastante más complicado cambiar las creencias y opiniones profundas arraigadas en las personas. Por supuesto, no es imposible.

La inteligencia artificial general -un sistema que pueda extraer lecciones de un contexto y aplicarlas en otro bien distinto, tal y como lo hacen los humanos-; enfrenta limitaciones similares. Por ejemplo, los modelos estadísticos de Netflix sobre las inclinaciones y preferencias de sus usuarios casi con certeza son distintos de los de Amazon (cuentan con patentes distintas), incluso cuando ambas plataformas intentan predecir las decisiones de las mismas personas en contextos similares. Pero, este dominio en este sector particular de la IA como proveer videos cortos que mantengan a los adolescentes enganchados (un éxito de la aplicación TikTok), no se traduce en el dominio de otro sector como, por ejemplo, el manejo de sistemas de armas autónomas en el campo de batalla.

Todavía, el éxito de un algoritmo depende más de los ingenieros humanos que sean capaces de trasladar lecciones entre distintas aplicaciones, que de la propia tecnología. Por ahora estos problemas siguen sin poder ser resueltos. De nuevo; por ahora.

Sistemas cibernéticos

Los pioneros de la inteligencia artificial, incluido el científico político Herbert Simon, comprendieron -desde muy temprano- que esta tecnología tiene mucho más en común con las instituciones políticas y con la política que con aplicaciones de ingeniería. Su tesis es simple pero contundente: "Lo que constituye la preocupación central de la teoría de las organizaciones es el límite entre los aspectos racionales y no racionales del comportamiento social humano".

En 1948, el matemático norteamericano Norbert Wiener -padre de la cibernética- afirmó: "Todo puede ser controlado (…) La cibernética es la ciencia de la información y el control, sin importar si lo que se controla es una máquina o un organismo viviente". Con esto, se instaló la idea de que la conducta humana es "programable"; ergo, que puede ser pensada como un ordenador. En sus trabajos, Wiener describió a la IA como un «sistema cibernético» capaz de responder y de adaptarse a la retroalimentación.

Lo que es más difícil de ver -y, quizás de aceptar-; es que los sistemas políticos -tanto las democracias, como los autoritarismos-, también son «sistemas cibernéticos» que requieren de la retroalimentación para sostenerse y prevalecer. Todo se reduce, para ambos tipos de gobierno, a una cuestión de "estímulos adecuados" (políticas) y de "respuestas" según las cuales los líderes intentan determinar si han tenido éxito o no.

Ruido en la línea

El sesgo también puede infiltrarse en el código. Cuando Amazon intentó aplicar el aprendizaje automático a la contratación de personal, entrenó el algoritmo con datos de currículums evaluados por reclutadores humanos. Como resultado, el sistema replicó los prejuicios implícitos en las decisiones humanas, discriminando contra los currículums de mujeres.

Estos problemas pueden reforzarse a sí mismos. Como ha señalado la socióloga Ruha Benjamin si, por ejemplo, los encargados de formular políticas utilizaran el aprendizaje automático para decidir dónde enviar fuerzas policiales, la tecnología podría guiarlos a asignar más policías a vecindarios con tasas altas de arrestos. Esto enviaría más agentes a áreas con grupos raciales que ya han sido objeto con anterioridad de prejuicios por parte de la policía, lo que conduciría a más arrestos; reforzando el algoritmo en un círculo vicioso. El viejo dicho en programación "basura entra, basura sale" adquiere un nuevo significado en un mundo donde las entradas influyen las salidas y viceversa. Sin una corrección externa adecuada, los algoritmos de aprendizaje automático pueden desarrollar una inclinación por el sesgo que ellos mismos generan, creando un ciclo de malas decisiones.

Hoy, los encargados de formular políticas tratan a estas herramientas casi como oráculos sabios e imparciales; en lugar de verlas como instrumentos falibles que pueden intensificar y potenciar los problemas que se intenta resolver. Pero el problema es complejo ya que el sesgo es un ruido inherente a cualquier sistema de retroalimentación.

En una democracia esto es visible y, como es visible, es posible mitigarlo mediante correcciones en la retroalimentación. Cuando, por ejemplo, un grupo racial detecta que los algoritmos de contratación son discriminatorios, pueden protestar y buscar compensaciones con cierta posibilidad de éxito.

Asumiendo que los países autoritarios sean al menos tan propensos al sesgo como las democracias; este sesgo será invisible o pasará como naturalizado. Esto hace que sea más difícil de corregir, aún si los líderes autoritarios fueran capaces de reconocer que algo necesita ser corregido.

Asi, la inteligencia artificial podría socavar a los regímenes democráticos con la tendencia al exceso de polarización que favorecen y la proliferación de "fake news"; pero también podría socavar a los regímenes autocráticos al reforzar la creencia del líder sobre el éxito (irreal) que tiene en la implementación de su ideología; reforzando una fantasía que no es tal. La desastrosa decisión del presidente ruso, Vladímir Putin, de invadir Ucrania, por ejemplo, parece haber estado basada en una evaluación inexacta sobre la moral de los ucranianos y de la fortaleza de su propio ejército. Basura entra, basura sale.

Quizás el desafío clave del siglo XXI no sea ganar la batalla por la «supremacía tecnológica», sino lidiar con países autoritarios atrapados en una espiral de ilusión alimentada por la inteligencia artificial. Franz Kafka dijo: "generalmente suelo resolver los problemas dejándolos que me devoren". Seguir por esta senda sin pensar en todas sus consecuencias puede ser una invitación al desastre. Ojalá reaccionemos a tiempo. Ojalá.

 

 

PUBLICIDAD
PUBLICIDAD