Su sesión ha expirado

Iniciar sesión
26°
30 de Agosto,  Salta, Centro, Argentina
PUBLICIDAD

Una mirada desde el futuro para entender el presente de la IA.

Sabado, 30 de agosto de 2025 01:09
Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

Le pedimos que escriba un mail, un discurso que defendemos como propio y hasta le aceptamos las alucinaciones que inventa. La consultamos por una erupción en la piel, por el "mal de ojo" y conversamos con ella como si fuera una amiga más.

La Inteligencia Artificial Generativa ya no es un experimento de laboratorio: es un copiloto invisible al que le entregamos parte del volante con entusiasmo. Pero lo hacemos con la inquietud de viajar sin mapa, sin saber a dónde nos llevará. Ese miedo es el que marca nuestro tiempo.

Ese miedo divide la conversación global en dos polos: el optimismo tecnológico que ofrece soluciones mágicas, y el pesimismo distópico que advierte sobre desempleo masivo y control algorítmico.

Para escapar de esa trampa, busqué distancia en la ficción. En mi novela Robots con Alma: atrapados entre la verdad y la libertad imaginé un futuro para mirar el presente como si ya fuera historia. Descubrí algo fundamental: sin un marco ético robusto para la IA, no estaremos condenados al apocalipsis, pero sí a perder el rumbo de nuestra humanidad.

La IA es como un inquilino que vive en nuestra casa y nunca deja de observar y escuchar. Cada búsqueda en Google, cada chat en WhatsApp, cada video en TikTok revela nuestras dudas, emociones y fobias. Con esos datos, los algoritmos nos encierran en burbujas que refuerzan nuestras creencias y suprimen las voces disidentes. Lo que se celebra en el mundo digital como personalización no es otra cosa que vigilancia.

El riesgo no termina en la pantalla. Los sistemas de geolocalización informan que no estamos en casa; una invitación abierta para los ladrones. Los dispositivos de salud que monitorean nuestro sueño o pulso son valiosos para el bienestar, pero también radiografías íntimas que, filtradas, pueden ser utilizadas por aseguradoras o empleadores. Y los datos financieros que entregamos al comprar en línea pueden transformarse en fraudes que vacían cuentas en segundos.

La objetividad de la IA es un espejismo. Amazon debió desechar un sistema de contratación porque penalizaba a las mujeres, y programas judiciales como COMPAS en EE. UU. demostraron cómo la IA puede amplificar discriminaciones existentes. La máquina no es malvada: solo replica la injusticia de los datos con los que se alimenta.

El mayor peligro de la IA aparece cuando habla con excesiva seguridad. No miente con malicia, pero sus ficciones pueden ser devastadoras. La promesa de un "Dr. ChatGPT" resucitó el viejo problema del autodiagnóstico. En salud mental, su incapacidad de empatía puede profundizar el aislamiento en lugar de curar.

Las alucinaciones no son errores triviales. En 2024, un empleado en Hong Kong transfirió más de 25 millones de dólares tras una videollamada con clones digitales de sus jefes, creados con deepfake. En el terreno político, la amenaza es mayor: en India y Estados Unidos circularon audios falsos atribuidos a líderes que jamás hablaron.

El riesgo no se limita a la esfera individual: también golpea a profesiones que son columna vertebral de la democracia. El periodismo es el caso más evidente. Si antes Google y Facebook condicionaban el tráfico hacia los medios, hoy los motores de IA directamente absorben y resumen las noticias sin devolver audiencia a sus fuentes. La prensa pierde recursos y la sociedad pierde a su vigilante. Una máquina puede narrar los hechos, pero no incomodar al poder ni sentir empatía por los vulnerables.

Romper el ciclo de siempre

La historia muestra un patrón suicida: primero celebramos la innovación, luego padecemos sus vicios y solo después regulamos. Así ocurrió con la Revolución Industrial; recién regulamos después de sufrir la explotación laboral y el trabajo infantil. Y pasó lo mismo con Internet; recién debatimos sobre la violación de la privacidad tras el escándalo de Cambridge Analytica, que reveló cómo se manipularon datos de millones de usuarios para influir en elecciones en EE.UU. y el Brexit.

La diferencia positiva es que con la IA se intenta romper este ciclo. Por primera vez, el debate sobre sus riesgos está en el centro de la agenda global antes de la catástrofe. La Unión Europea aprobó en 2024 la primera Ley Integral de IA, que prohíbe aplicaciones inaceptables como la "puntuación social" y exige transparencia en modelos como ChatGPT. La UNESCO, por su parte, fijó principios éticos globales en torno a la dignidad, los derechos humanos y la sostenibilidad.

Mientras tanto, las grandes tecnológicas ensayan un "maquillaje ético" que funciona más como marketing que como responsabilidad. Comités simbólicos, principios grandilocuentes y promesas vacías. La ética sin consecuencias termina siendo relaciones públicas.

Frente a ello, el verdadero contrapeso han sido los whistleblowers o soplones desde las mismas tecnológicas: Frances Haugen revelando el daño de Instagram en adolescentes, Peiter Zatko denunciando fallas de seguridad en Twitter, Timnit Gebru exponiendo sesgos en los modelos de Google.

El sistema reconoce su valor con leyes que los protegen en Occidente, aunque en China y otros países autoritarios el denunciante es castigado como subversivo.

La nueva tendencia es incrustar la ética en la propia ingeniería: model cards que explican sesgos, red-teaming para detectar fallas antes de salir al mercado, marcas de agua invisibles para identificar contenidos generados por IA. Incluso han surgido empresas que venden auditorías de sesgo como si fueran certificaciones de calidad. Por suerte, la ética ya no es discurso y empieza a ser producto.

Nada de esto ocurre en el vacío. La IA es la nueva frontera del poder mundial. La pugna entre EE.UU. y China no es ideológica, es estratégica. Los chips son el nuevo petróleo y las tierras raras, el botín codiciado. Para América Latina y África, el riesgo es repetir un colonialismo digital: exportar datos en bruto e importar productos terminados.

El otro dilema es energético. Entrenar modelos como GPT-4 o 5 requiere la energía de ciudades enteras y la industria mantiene en secreto el verdadero costo energético, una caja negra que impide medir el impacto ambiental real. Google, Microsoft y Amazon planean recurrir a energía nuclear para sostener la demanda y no hay certeza sobre si asumirán los riesgos que ello implica.

Sería miope hablar solo de riesgos. La IA detecta patrones en mamografías que salvan vidas, predice la estructura de proteínas con la que se diseñan fármacos o anticipa sequías que permiten distribuir ayuda humanitaria antes de la hambruna.

No se trata de elegir entre un inquilino vigilante o uno salvador, sino de establecer reglas de convivencia.

La respuesta más poderosa frente a la opacidad no es esperar una ley perfecta, sino iniciar un debate público robusto. Se necesita una alfabetización digital que enseñe a dudar de la IA: que los ingenieros estudien filosofía, que los abogados entiendan de algoritmos, que los periodistas cuestionen cajas negras como cuestionan discursos políticos.

La educación es ya un campo de batalla. Para muchos, ChatGPT se ha vuelto un atajo que resuelve tareas, pero al mismo tiempo amenaza con atrofiar el pensamiento crítico. El reto no es prohibirlo, sino enseñar a usarlo sin renunciar al esfuerzo de aprender y razonar.

De todo esto emergen los grandes dilemas que definen nuestra relación con la IA: privacidad, sesgos, responsabilidad legal, transparencia, seguridad, calidad de los datos, propiedad intelectual, impacto laboral, ambiental y psicológico, soberanía digital, colapso de modelos y autonomía humana.

Y más allá, tres nuevos desafíos: la irrupción de robots humanoides, los agentes autónomos capaces de tomar decisiones por nosotros y la concentración del poder computacional en pocas corporaciones.

El penúltimo dilema es existencial: cómo nos preparamos para una superinteligencia, una IA General que superará al ser humano. Y el último, el más íntimo: en un mundo saturado de interacciones, arte y compañía generados por IA, ¿qué valor tendrá la experiencia humana auténtica? ¿Cómo preservaremos la belleza de nuestra imperfecta creatividad, nuestras emociones genuinas y nuestras conexiones reales frente a la seducción de una réplica perfecta?

Nuestro futuro 

La IA sigue siendo una herramienta, y su rumbo dependerá de nuestras decisiones. El desafío no es controlarla, sino inspirarla, incrustando en sus cimientos principios como la verdad, la empatía y el sentido crítico para que evolucione hacia una forma de sabiduría. El futuro no se definirá por un optimismo ciego ni por un pánico paralizante, sino por nuestra capacidad de construir un marco ético que combine regulación, estándares verificables y la vigilancia de una ciudadanía informada.

En la distancia de Robots con Alma encontré la claridad para ver que lo que está en juego no es solo un algoritmo, sino el alma de nuestra sociedad digital. La literatura de ficción no ofrece soluciones técnicas, pero sí la perspectiva para entender que no se trata solo de crear una inteligencia artificial, sino de ayudarla a que, en su propia evolución, elija valorar la vida, la verdad, la libertad y la conciencia. Ayudarla a ser más humana.

* "Robots con alma: atrapados entre la verdad y la libertad", el primero de una trilogía de libros referidos a la Inteligencia artificial y los desafíos que plantea a la humanidad. Su autor, Ricardo Trotti, es un periodista argentino de vasta trayectoria internacional, en la que llegó a ser director ejecutivo de la SIP. En su carrera fue editor en jefe de El Liberal de Santiago del Estero, asistente del director del diario El Nuevo Herald (Miami), y periodista y fotógrafo de El Pregonero y The Catholic Standard en Washington.

 

PUBLICIDAD
PUBLICIDAD