¿Quieres recibir notificaciones de alertas?

17°
20 de Abril,  Jujuy, Argentina
PUBLICIDAD

¿Se puede regular la inteligencia artificial?

La rápida evolución de la tecnología desafía a los Estados nacionales a la hora de implementar una regulación. 

Domingo, 04 de junio de 2023 13:40

Distintos gobiernos avanzaron esta semana con la idea de regular la Inteligencia Artificial (IA) ante sus efectos en temas como seguridad, democracia, desinformación y el mercado laboral, pero la propia creación de un marco jurídico supone un desafío por la rápida evolución de esta tecnología, sus alcances y los desacuerdos entre países para alcanzar una convención común.

Alcanzaste el límite de notas gratuitas
inicia sesión o regístrate.
Alcanzaste el límite de notas gratuitas
Nota exclusiva debe suscribirse para poder verla

Distintos gobiernos avanzaron esta semana con la idea de regular la Inteligencia Artificial (IA) ante sus efectos en temas como seguridad, democracia, desinformación y el mercado laboral, pero la propia creación de un marco jurídico supone un desafío por la rápida evolución de esta tecnología, sus alcances y los desacuerdos entre países para alcanzar una convención común.

Un intento de lograr una forma de regulación intercontinental fue anunciado el miércoles pasado por la Unión Europea (UE) y Estados Unidos que "muy pronto" presentarán el borrador de un "código de conducta" para que las empresas del sector suscriban de forma voluntaria, con la idea que "todos los países de ideas afines" también lo adopten.

Esta falta de obligatoriedad podría restarle peso, aunque existe un antecedente de la voluntad de los propios actores del sector sobre algún tipo de intervención: a fines de marzo, un conjunto de académicos, expertos y empresarios, entre ellos Elon Musk (CEO de SpaceX, Tesla y Twitter) y Steve Wozniak (cofundador de Apple), pidieron una moratoria de seis meses en la investigación sobre IA al advertir "grandes riesgos para la humanidad".

"Lo interesante del discurso actual en torno a la regulación es que, normalmente, los gobiernos y las grandes empresas tecnológicas adoptaron puntos de vista opuestos. Lo que es único en el caso de la IA (en particular ChatGPT) es que expertos de muchas organizaciones están liderando el llamamiento a poner una pausa", explicó a Télam Stan Karanasios, profesor de Sistemas de Información en la Universidad de Queensland (Australia).

"Los gobiernos deberían aprovechar esta oportunidad para desarrollar una regulación", apuntó el académico, que se dedica a estudiar cómo la tecnología afecta las organizaciones y la sociedad.

En ese marco, la UE prepara una serie de reglas de cumplimiento obligatorio que como muy pronto comenzarían a regir a finales de 2025, una fecha lejana para un sector en constante evolución que, si bien está dominado por gigantes como Microsoft (principal accionista de OpenAI, la firma que opera ChatGPT), Meta o Google, está poblado por nuevas plataformas que aparecen cada día gracias al código abierto.

China también tiene proyectos de regulación, en especial una "inspección de seguridad" de las herramientas de la IA.

El tema está en la agenda política del gigante asiático: el presidente Xi Jinping encabezó esta semana un encuentro del Partido Comunista en el que se debatió la necesidad de "dedicar esfuerzos para salvaguardar la seguridad política y mejorar la gobernanza de la seguridad de los datos de Internet y la IA", consignó la agencia de noticias local Xinhua.

En Costa Rica, en tanto, diputados de diferentes partidos presentaron el jueves pasado un proyecto de ley para regular la IA, con la curiosidad que fue redactado a través de ChatGPT. "La tecnología es un instrumento al servicio del ser humano y como tal debemos controlarlo", indicó la legisladora Vanessa Castro, una de las impulsoras del proyecto.

En Brasil también se presentó una iniciativa en el mismo sentido, Canadá fue pionera en buscar avanzar en una normativa, que también está en debate en Reino Unido, Australia o Japón, mientras que los líderes del G7 reunidos hace dos semanas en Hiroshima pidieron "avanzar con los debates para lograr una IA digna de confianza, en consonancia con los valores democráticos compartidos".

De fondo, está el primer marco ético sobre inteligencia artificial aprobado en la Unesco en noviembre de 2021, con una serie de recomendaciones a sus 193 Estados miembros para aprovechar las ventajas de la tecnología y reducir los riesgos que conlleva.

Pero más allá de este acuerdo común, la aparición de distintas propuestas en varias latitudes ya forman de por sí una barrera para imponer normas efectivas ante una tecnología de alcance planetario.

"Es necesario un enfoque más armonizado a escala mundial, pero está claro que llegar a un consenso global será difícil", apuntó Karanasios.

Otro obstáculo son los puntos a regular, ya que "los expertos no se ponen de acuerdo sobre los peligros" de la IA, aunque el académico enumeró algunas cuestiones que deberían incluirse como seguridad, privacidad, desinformación, robo de conocimientos y perturbaciones del mercado laboral.

En ese sentido, Michèle Finck, profesora en la cátedra de Derecho e Inteligencia Artificial en la Universidad de Tubinga (Alemania), afirmó a esta agencia que es "difícil responder en abstracto" cuáles son las cuestiones de la IA que deberían regularse.

"Es una tecnología de uso general que puede adoptar la forma de un software o integrarse en otros productos. Como tal, puede aplicarse de muchas maneras diferentes: puede ser un robot quirúrgico, un software que generar deepfakes (archivos de video, imagen o voz que fueron manipulados para parecer hiperrealistas, pero son falsos) o una herramienta que ofrezca canciones basadas en preferencias musicales personales", apuntó.

Y contrapuso: "Mientras un deepfake que se difunde a gran escala a través de las redes sociales puede provocar disturbios políticos y alterar los procesos democráticos (por ejemplo, imágenes comprometedoras de políticos antes de unas elecciones), en el caso de los robots quirúrgicos es algo que deberían fomentarse si permiten llevar a cabo procedimientos que actualmente no pueden realizarse".

Por otro lado, relativizó la situación actual al afirmar que la IA "no opera en un vacío legal", ya que deben regirse por normativas existentes, como las leyes de protección de datos personales (utilizadas por Italia para prohibir temporalmente ChatGPT), de responsabilidad por productos defectuosos (en el caso de los dispositivos médicos) o normas de difamación (para los perjuicios que puede generar un deepfake).

Más allá de esto, existe otro desafío para toda regulación que es el de no quedar obsoleta ante el constante cambio tecnológico.

"El tiempo es sin duda un problema, ya que la IA sigue evolucionando a gran velocidad. Aunque esto es un reto, no significa que la regulación sea imposible. El proyecto de ley de la UE, por ejemplo, es un intento de una definición general de la IA, que remite a una lista de tecnologías específicas que pueden actualizarse con el tiempo", afirmó Finck.

Karanasios no comparte esa mirada: "El lapso de tiempo entre la acción gubernamental y el rápido ritmo de los cambios convierten la regulación post-hoc (posterior a los hechos) en un tigre sin dientes. Para entonces, la IA y las empresas que la desarrollan son demasiado poderosas y están demasiado integradas en la sociedad".

"La creación de regulación una vez que estos sistemas de IA estén plenamente integrados en la sociedad, no será eficaz. Lo hemos aprendido con el caso de plataformas digitales como Facebook, etc. Es una conversación que tenemos que tener ahora como sociedad", concluyó.

Temas de la nota