Inteligencia artificial: ¿cómo regularla?

En el último tiempo, la proliferación de novedosas nociones como la de "big data" (grandes volúmenes de datos o datos a gran escala), "smart cities" (ciudades inteligentes), redes móviles "5G" (de quinta generación), IPV6 (Protocolo de Internet Versión 6), "IoT" (Internet de las cosas), criptomonedas, "blockchain" (o cadena de bloques), "cloud computing" (computación en la nube), todas ellas relativas a avances técnicos o de la Industria de las TICs, e íntimamente vinculadas con la necesidad y compatibilidad de la conexión de nuestros dispositivos, o bien vinculadas al tratamiento de datos personales, nos obligan a repensar la regulación jurídica de internet.

Ahora bien, un novel concepto que trasciende estos campos, y que se erige como un nuevo paradigma en la forma de concebir nuestra relación con las máquinas -e inmediatamente con otras personas-, es el de la inteligencia artificial.

¿Qué es la inteligencia artificial?

La inteligencia artificial (IA) puede definirse como el método para hacer que los dispositivos se comporten de manera inteligente, emulando la inteligencia humana y sus tareas más destacadas, a saber: aprendizaje, razonamiento, planeamiento, percepción y comprensión del lenguaje natural (Russell, 2016).

Cabe destacar que, un concepto íntimamente vinculado a la IA, que ha permitido su amplio desarrollo es el de machine learning, el cual puede definirse como la capacidad de los dispositivos de aprender inclusive sin la supervisión de un programador humano y mejorar su performance en base a la experiencia.

Cabe destacar que esa "experiencia" se determina por los errores y aciertos que pueden cometer las máquinas en el procesamiento de grandes volúmenes de datos, y es ella la que les permite "aprender", para luego tomar decisiones de manera autónoma, normalmente a partir de un procesamiento profundo basado en un modelo computacional que emula el funcionamiento de nuestras neuronas (deep learning).

En otras palabras, y para graficar los conceptos expuestos, tomemos un ejemplo cotidiano de inteligencia artificial aplicada a los algoritmos utilizados por plataformas como Youtube, Netflix o Spotify para determinar nuestros gustos audiovisuales.

Esos algoritmos realizan un procesamiento profundo de una gran cantidad de datos, de las obras más reproducidas, reaccionadas o comentadas en general y de cada usuario en particular, para luego determinar cuáles pueden ser aquellas del gusto del usuario.

Por ejemplo, si comienzo reproduciendo varias canciones del Chaqueño Palavecino, el algoritmo luego me sugerirá obras de Los Chalchaleros, porque entenderá que son artistas normalmente relacionados por los usuarios, por ser del mismo género musical, pero si luego, del análisis de mis reproducciones posteriores, resulta que sólo ese día tenía ganas de escuchar al Chaqueño y en realidad me inclino más por obras de Calamaro o Spinetta, luego, el algoritmo dejará de sugerirme folklore y pasará a sugerirme a Charly García o Fito Páez, aprendiendo así de sus errores.

Otros campos de aplicación más estratégicos que el meramente comercial en los cuales puede desempeñarse la inteligencia artificial, independientemente que se traten de emprendimientos públicos o privados, incluyen los siguientes: salud, educación, transporte, energía, industria, finanzas, medioambiente y seguridad.

Riesgos y regulación

Como toda tecnología en pleno desarrollo, estudio y aún en fase experimental a base de prueba y error, pero con una potencialidad enorme que hace que su aplicación sea inmediata por los mandatos del mercado, los peligros y la conveniencia de regulación de la inteligencia artificial abren debates que parecieran de ciencia ficción, pero que están ocurriendo en los países más avanzados tecnológicamente.

Así, por ejemplo, Elon Musk (creador de PayPal) y Mark Zuckerberg (creador y CEO de Facebook), dos de los máximos referentes del mundo de las TICs, han planteado posiciones antagónicas en relación a si la inteligencia artificial plantea serios riesgos y si debe regularse.

Elon Musk, hoy conocido como "el hombre que planea colonizar Marte" (su empresa Space X se dedica a realizar viajes aeroespaciales pero con conceptos modernos, como la reutilización de cohetes), plantea un escenario apocalíptico basado en la posibilidad de creación de una "superinteligencia divina digital" capaz de superar ampliamente a la inteligencia humana, siempre que se continúe sin una regulación centrada en la humanidad y basada en principios éticos para su investigación y desarrollo. Advierte el empresario que se trata de "uno de los mayores peligros a los que nos enfrentaremos como civilización".

Por su parte, Zuckerberg relativiza los peligros de la inteligencia artificial e incluso acusa a Musk de "irresponsable" por plantear tal escenario, destacando las grandes transformaciones que podrá producir en campos como la salud (vgr. para mejorar el diagnóstico y el tratamiento del cáncer) y el transporte (vgr. para mejorar la seguridad del tráfico a partir de vehículos autónomos).

Si bien no se pronuncia en relación a la necesidad de una regulación, implícitamente, podríamos entender que está en favor de una desregulación.

Por último, cabe destacar que otros riesgos vinculados a la IA incluyen: la utilización de datos con fines discriminatorios (fue harto comentado el caso de un algoritmo de Google que confundía a personas negras con gorilas) o fraudulentos, la deshumanización fruto de la interacción con IAs, la manipulación masiva de información con fines electorales (fake news), y, claro está, la invasión a la privacidad.

La normativa en Europa

La Unión Europea, fiel a su estilo de regular preventivamente los efectos de las nuevas tecnologías, a diferencia de los EEUU, más bien reacio a una regulación de tipo jurídica, se ha pronunciado en relación a la IA en sendos documentos oficiales, a saber: Comunicación N°237 (2018), “Inteligencia artificial para Europa”; Comunicación N°795 (2018), “Plan coordinado sobre la inteligencia artificial”; y Comunicación N°168 (2019), “Generar confianza en la inteligencia artificial centrada en el ser humano”. Con gran pragmatismo, se establecen en dichos instrumentos pautas a seguir “para poner al servicio del progreso humano el potencial de la IA”, o “directrices éticas para el desarrollo y la utilización de la IA”, además de estipularse acciones concretas para garantizar su desarrollo, y que incluyen la creación de centros de investigación en IA, de polos de innovación digital, la redacción de informes para actualizar las directivas sobre responsabilidad civil, la financiación de pymes innovadoras, la adaptación de programas de aprendizaje para preparar a los ciudadanos para la IA, entre otras.
En relación a los principios jurídicos a tenerse en cuenta para la IA, los documentos destacan en general la necesidad del “respeto de la dignidad humana, la libertad, la democracia, la igualdad, el Estado de Derecho y el respeto de los derechos humanos”, ya sea en la basta legislación existente, como en normas futuras. La IA está transformando nuestra realidad a pasos agigantados, y, al igual que ocurre con cualquier otra tecnología, neutral por naturaleza, la IA puede utilizarse para fines positivos o negativos. Si bien la IA propicia nuevas oportunidades, también plantea desafíos y riesgos, por ejemplo, los relativos a la seguridad, responsabilidad, protección frente a usos delictivos, y la discriminación.
Cualquier tipo de regulación legal a dictarse en el futuro, sobre todo en nuestro país o inclusive en nuestra Provincia, en nuestra opinión, debe siempre propender a tomar en cuenta tres pilares: las legislaciones más avanzadas, siendo los principios antes mencionados de las normas Europeas un ejemplo de ello; que la ley no debe obstaculizar la innovación tecnológica; y, por último, un principio universalizable a cualquier nueva tecnología que se infiere del Derecho de Protección de Datos Personales: que las leyes no pueden someter a las personas a decisiones basadas únicamente en el tratamiento automatizado de datos procesados por sistemas o algoritmos     de inteligencia artificial.

.

.

 

Últimas Noticias

Últimas Noticias de opiniones

Sección Editorial

Comentá esta noticia

Importante ahora

cargando...