PUBLICIDAD

¿Quieres recibir notificaciones de alertas?

Su sesión ha expirado

Iniciar sesión
18°
2 de Diciembre,  Salta, Centro, Argentina
PUBLICIDAD

"La Inteligencia Artificial está siendo víctima de su propio éxito y hay falta de pensamiento crítico"

Martes, 02 de diciembre de 2025 02:01
Julio Cella, especialista en Data & IA de IBM y Embajador IBM Quantum.
Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

La Inteligencia Artificial y la analítica avanzada, ayudan a las empresas a implementar herramientas que mejoran su eficiencia, reducen costos y generan ventajas comparativas. En el marco de una jornada organizada por Itiers Data Sense, junto a Minería Positiva, el asesor tecnológico de IBM, Julio Cella, expuso en Salta sobre los riesgos y oportunidades de la Inteligencia Artificial aplicada a procesos empresariales. Tras su disertación, dialogó con El Tribuno acerca del momento crítico que atraviesan las compañías frente a estas tecnologías y la necesidad de adoptar soluciones seguras y estructuradas para obtner los mejores resultados empresariales.

En tu exposición marcaste con mucha claridad no solo lo que la IA es, sino lo que "no es". ¿En qué punto están las empresas respecto a los riesgos de usar IA abierta con información crítica?

La mayoría todavía no dimensiona los riesgos reales. Recién hoy algunas empresas empiezan a decir: "Nosotros tenemos bloqueado ChatGPT", pero después me preguntan si conozco DeepSeek y creen que es solo "la IA china". Pero no saben que toda esa información va fuera de su control.

Muchas organizaciones usan estas herramientas de manera trivial, pero no entienden el alcance cuando un empleado con acceso a datos sensibles sube esa información a una inteligencia artificial pública. Ese es el problema: no está controlado.

¿Y qué se puede hacer frente a ese desconocimiento? ¿Las compañías están tomando conciencia?

Algunas sí, pero la mayoría todavía no. Las empresas no comprenden que estas IA generativas pueden alucinar: te dan respuestas no validadas y no tenés forma de saber si son correctas. Mi esposa estudia enfermería y toma la primera respuesta que le da Google. Y yo le digo: "No lo hagas, ¿de dónde viene esa información?". Si la fuente no es confiable, podés creer cualquier cosa. Ese es el peligro: perder pensamiento crítico.

Planteaste un punto fuerte: que esta pérdida de pensamiento crítico nos pone en un escenario complejo. ¿Por qué llegamos a este nivel de dependencia?

Porque la Inteligencia Artificial es víctima de su propio éxito. Eso es lo que realmente está pasando. Hace algunos años la IA era mala: traducía mal, escribía mal, hacía todo mal. Pero con el avance del modelo Transformer y el salto que logró OpenAI hace dos años, todo cambió. Ahora funciona tan bien que muchos descansan todo su poder cognitivo en la IA. Y ahí se pierde algo clave: la duda, la capacidad de cuestionar. Si la IA me dice "esto es así", ¿cómo sé que es cierto? Estamos perdiendo pensamiento crítico y eso nos está llevando a un cerco de información.

"Muchos descansan todo su poder cognitivo en la IA. Y ahí se pierde algo clave: la duda, la capacidad de cuestionar".

Hablaste del ejemplo de la SegundaGuerra Mundial para explicar ese fenómeno. ¿Podés desarrollarlo?

Cuando analizaban los aviones que regresaban con impactos, parecía lógico reforzar las zonas perforadas. Pero el pensamiento crítico llevó a otra conclusión: los aviones que no volvían habían sido derribados por impactos en motores o cabina. Ese razonamiento no surge si uno no duda de la primera evidencia. Con la IA pasa lo mismo: si dejamos de cuestionar, empezamos a tomar como verdad lo que no lo es.

También marcaste la diferencia entre asistentes y agentes de IA. ¿En qué punto estamos hoy?

Hoy lo que usamos son asistentes. El salto hacia los agentes aparece cuando la IA puede ser proactiva, cuando entiende lo que está pasando y actúa antes de que se lo pidas. Pero para eso necesitás muchos sistemas interconectados y bien ordenados. Sin orden, la proactividad carece de sentido; se pierde.

En este contexto, ¿qué recomendación das a las empresas que manejan información crítica y que hoy usan IA abiertas como ChatGPT o Gemini?

Primero, controlar. Si tus empleados tienen acceso a información sensible, no pueden subirla a una IA abierta. Podés bloquear esos accesos, pero debés compensarlo con una solución segura, cerrada y corporativa. Las versiones pagas no resuelven todo: resolvés propiedad intelectual, pero no el riesgo interno. Lo importante es que exista una política clara.

Ahí aparece IBM con soluciones propias. ¿Qué están ofreciendo hoy?

Ofrecemos todo lo que ofrecen los demás, pero también todo lo anterior, que es lo que realmente importa. Antes de hablar de un agente de IA, una empresa debe tener ordenados sus datos: higiene de datos, normalización de bases, trazabilidad, integridad.

La IA no te da trazabilidad. Si un dato está mal cargado, la IA va a funcionar mal. Por eso trabajamos en data governance, en descubrir y controlar el Shadow IT -ese 30 por ciento de tecnología que las empresas usan sin saber que existe- y en ordenar lo que ya tienen.

O sea que la IA no se compra como un producto, sino que se implementa como un proyecto...

Exacto. Por eso lo primero que pregunto a las empresas que nos buscan es: ¿qué indicador querés mejorar? Muchas empresas dicen "queremos IA", pero no saben para qué. Entonces hay que empezar por el principio: ordenar datos, definir procesos, establecer quién accede a qué.

Cuando todo eso está en orden, recién ahí la IA funciona bien. Y si querés, te vendemos todo. Pero antes hay que tener la casa ordenada.

PUBLICIDAD
PUBLICIDAD