¿Quieres recibir notificaciones de alertas?

23°
27 de Abril,  Salta, Centro, Argentina
PUBLICIDAD

Idoia Salazar: "La IA va a seguir evolucionando y va a cambiar el futuro de la humanidad"

Entrevista a la periodista, presidenta y cofundadora de Odiseia.
Viernes, 17 de noviembre de 2023 01:58

La periodista española y profesora en la Universidad CEU San Pablo de Madrid Idoia Salazar, es presidenta y fundadora de OdiseIA, un observatorio que mide el impacto social y ético de la inteligencia artificial (IA). Desde esa organización trabaja a nivel internacional para conseguir su impulso pero de una manera responsable. El miércoles llegó a Salta para brindar una conferencia en la Universidad Católica de Salta (UCASAL) sobre los retos de la inteligencia artificial en el mundo de la educación y a nivel general, en el marco de la XX Asamblea General Intermedia de ODUCAL. En una entrevista con El Tribuno, habló de los desafíos que presenta este invento revolucionario que llegó para cambiar la vida de la humanidad.

Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

La periodista española y profesora en la Universidad CEU San Pablo de Madrid Idoia Salazar, es presidenta y fundadora de OdiseIA, un observatorio que mide el impacto social y ético de la inteligencia artificial (IA). Desde esa organización trabaja a nivel internacional para conseguir su impulso pero de una manera responsable. El miércoles llegó a Salta para brindar una conferencia en la Universidad Católica de Salta (UCASAL) sobre los retos de la inteligencia artificial en el mundo de la educación y a nivel general, en el marco de la XX Asamblea General Intermedia de ODUCAL. En una entrevista con El Tribuno, habló de los desafíos que presenta este invento revolucionario que llegó para cambiar la vida de la humanidad.

¿Ve algún tipo de peligro o algo que no pueda ser ético dentro de la inteligencia artificial?

Obviamente la IA es una tecnología muy potente para el bien y para el mal. Entonces sí que es posible, muy posible, que esa tecnología pueda usarse para cuestiones que no son positivas y hay muchos dilemas éticos desde el punto de vista del propio significado de lo que es un sistema de inteligencia artificial, teniendo en cuenta que es un software capaz de tomar decisiones de una manera parecida a lo que haríamos los seres humanos. Un sistema de inteligencia artificial es alimentado con datos y realiza un proceso y extrae una conclusión sobre ese proceso, algo parecido a lo que hacemos los humanos. Pero hay una cuestión básica que es que los sistemas de IA no tienen la capacidad contextual que tenemos nosotros ni la ética también, es decir la capacidad humana para discernir el bien y el mal. Si nosotros dejamos un sistema de inteligencia artificial que actúe de manera autónoma, lo que puede ocurrir, teniendo en cuenta que no tiene una ética intrínseca como los seres humanos, lo que puede ocurrir es que tomen malas decisiones o decisiones poco éticas. Y esto pues lleve a procesos de discriminación o, por ejemplo, que un sistema de inteligencia artificial se equivoque en un diagnóstico médico y acabe causando un problema.

En Europa o en España, ¿en qué se está utilizando la inteligencia artificial en la parte educativa?.

Hoy en día, gracias a ChatGPT se están empezando a usar bastantes sistemas de IA en la interrelación con los estudiantes y también a través de chatbots. También se está empezando a usar en el aula, pero principalmente a raíz de la IA generativa de ChatGPT, DALL-E y otro tipo de herramientas de IA generativa, que lo que provocan es que sea muy sencillo su uso, y profesores y alumnos sí que están empezando.

¿Cómo hace la comunidad educativa para que la inteligencia artificial no le quite a ese alumno la capacidad de análisis, de interpretar o de tratar de indagar otros temas?

Estamos en proceso, ha pasado poco tiempo y lo que estamos viendo desde España es un proceso de adaptación, tanto del profesorado como del alumnado. Lo que vemos es que hay alumnos que son reacios a usar ChatGPT porque les supone quizá un dilema moral, hay profesores que también sienten intrusión en su método de enseñanza tradicional que llevan haciendo mucho tiempo, y este tipo de herramientas les supone salir de su área de confort y tener que investigar nuevos proyectos que mandar a los alumnos, porque el subsistema tradicional de mandar resúmenes, de mandar cuestiones teóricas, ya no es válido. Es un proceso de adaptación que se está consiguiendo en algunas áreas a través de estas herramientas, mandarle trabajos más de crítica, no de teoría. No se trata simplemente de hacer resúmenes, sino poner un aspecto crítico y decirte qué manera has usado ChatGPT para que te ayude a hacer trabajos mucho más desarrollados, mucho más evolucionados, poniendo las fuentes qué han usado.

¿En Europa existe algún tipo de regulación para el uso de este tipo de herramientas?

En Europa lo que se está haciendo ahora mismo es una propuesta de regulación en inteligencia artificial que se llama IA-ACT, y lo que ellos tratan de regular son los casos de usos concretos. Se regula en base al riesgo. Por ejemplo, si hay una herramienta de IA generativa que puede provocar un daño en los derechos de la persona o en la privacidad o en otros derechos fundamentales de la persona, eso va a requerir un mayor cuidado con los datos de esa IA y un mayor cuidado a la hora de decidir cuándo se va a implementar, o sea que sea el ser humano quien finalmente tome la decisión de este tipo de cuestiones. Entonces se regularán casos de riesgo muy claros, pero no se regulará, por ejemplo, el uso de IA en el aula. Eso yo creo que es más una labor de los docentes y alumnos, un trabajo principalmente ahora de docentes que tienen que salir de la área de confort en la que llevan trabajando años y desarrollar nuevas formas junto con estas herramientas, poder hacer actividades que motiven al alumno a desarrollar una mayor capacidad crítica, de desarrollos pocos teóricos y más prácticos, donde se vea más la originalidad del alumno y la teoría ya te la va a dar la IA.

¿Qué balance puede hacer de la utilización de la IA en la educación?

Yo creo que el balance se puede hacer desde el punto de vista de que, al menos en lo que hemos visto por ahora, sí se puede usar en tareas concretas. La IA no es para todo. Ni para el campo de la educación ni para el área de la medicina ni en el área de la jurisprudencia. Hay que identificar las tareas concretas dentro de las clases en las que la IA generativa sí me puede servir para este desarrollo concreto, pero en otro tipo de formación quizá tenga que seguir de una manera más tradicional porque para el mundo es más eficiente. Es decir, lo primero que hay que hacer aquí es ver estratégicamente como profesor, como rector, como persona dentro de una universidad, ver en qué materias específicas y qué actividades dentro de las materias puede ser útil el uso de la IA generativa.

La IA es una herramienta disruptiva, debe ser una de las invenciones más importantes de las últimas décadas, ¿qué futuro le ve?

Yo creo que no es una moda específicamente, esto va a seguir evolucionando de una manera exponencial y va a cambiar el futuro de la humanidad. Realmente va a cambiar nuestras rutinas, va a cambiar la forma de tener interrelaciones. En un futuro sí que prevé una relación más normalizada con los sistemas de IA a través de la voz, principalmente de una manera más natural y nos acostumbraremos a tener asistentes virtuales. Ahora el mundo avanza a mucha velocidad y es cierto que avanzará mucho más rápido. Hay mucho riesgo entre medio. Sí que veo muchas oportunidades muy buenas. Por ejemplo, nos ayudará a prever posibles terremotos, a prever consecuencias del cambio climático. Nos ayudará a plantear soluciones para estos riesgos que tenemos por delante, porque es capaz de análisis de datos masivos que se traducen en creación de patrones y en posibles predicciones y de elaboración de estrategias elaboradas de manera conjunta entre la mente humana y la máquina. Yo comento siempre que no sería ético no usar ahora mismo la IA para poder seguir adelante como humanidad. Todo esto es el lado positivo. Sí hay un lado negativo porque esta tecnología es tan buena para el bien como mala para el mal. Y se puede, si cae en malas manos o se usa para el mal, podemos tender a una sociedad muy fácilmente manipulable. A estas herramientas de gestión de datos que son sistemas de IA habrá muchas empresas y gobiernos que sean capaces de conocer nuestros intereses, gustos y debilidades, mucho mejor que nosotros mismos, lo cual supone una incidencia definitiva sobre nuestra capacidad de decisión de manera inconsciente, esto puede llevar a una sociedad muy fácilmente manipulable, y eso es un riesgo tremendo. Tenemos que conseguir poner medidas para evitar que pueda ocurrir. Existen muchos riesgos, también se está trabajando mucho para evitarlos, pero yo creo que el momento es ahora, ese momento de transición a ese cambio que vamos a tener es cuando más tenemos que trabajar para conseguir que al final el impacto de la IA en la sociedad sea positivo.

x

PUBLICIDAD