viernes, 20 de septiembre de 2024

La Unión Europea pacta la ley de inteligencia artificial

Los negociadores de la Unión Europea (Ue) alcanzaron este viernes un acuerdo sobre una legislación inédita a nivel mundial para regular el uso de la inteligencia artificial (IA)...

Cubahora en Exclusivo 10/12/2023
0 comentarios
Inteligencia artificial 2
La Ue pacta la ley de inteligencia artificial que permite o prohíbe el uso de la tecnología en función del riesgo que suponga para las personas

Los negociadores de la Unión Europea (Ue) alcanzaron este viernes un acuerdo sobre una legislación inédita a nivel mundial para regular el uso de la inteligencia artificial (IA), anunció el comisario europeo de Mercado Interno, Thierry Breton, responsable por temas digitales. Este acuerdo permite o prohíbe el uso de la tecnología en función del riesgo que suponga para las personas y busca darle un impulso a la industria europea frente a los gigantes como China y Estados Unidos.

«¡Histórico!», expresó Breton en la red X (antes Twitter), después de tres días de negociaciones entre los Estados miembros y el Parlamento Europeo. «Con el acuerdo político la Ue se torna en el primer continente en determinar reglas claras para el uso de la inteligencia artificial», añadió. El acuerdo llegó tras 36 horas de negociaciones y aún lo tendrán que ratificar el Parlamento Europeo y el Consejo de la Ue, la institución que representa a los Gobiernos europeos.

La legislación sobre inteligencia artificial «es mucho más que apenas un conjunto de reglas: es una plataforma para que las empresas y los investigadores de la Ue se pongan al frente de la carrera por una IA que sea confiable», acotó.

Representantes de los países del bloque y del Parlamento Europeo mantuvieron agotadoras jornadas de negociaciones para definir el ambicioso proyecto de legislación.

La iniciativa había sido lanzada en 2021 por la Comisión Europea, con el objetivo de bloquear el uso indebido de la inteligencia artificial y al mismo tiempo impulsar la innovación en el sector. Sin embargo, las discusiones fueron sorprendidas por la explosiva aparición en escena del programa ChatGPT, a fines de 2022.

Este proyecto de legislación aún deberá ser aprobado en el Parlamento Europeo y en los países del bloque, aunque el acuerdo sellado el viernes representa un importante paso adelante para la Ue.

El corazón del proyecto es un conjunto de reglas a imponer a sistemas considerados de alto riesgo, como aquellos utilizados en infraestructura esencial o educación.

Estos sistemas estarían sujetos a una serie de obligaciones fundamentales, como garantizar el control humano sobre los procesos, el establecimiento de documentación técnica o hasta la implementación de un sistema de gestión de riesgos.

La legislación también prevé una supervisión específica de los sistemas de IA que interactúan con los humanos, a los que se le obligará informar a cada usuario cuando esté en contacto con una máquina.

Cuanod no creíamos que diera la luz a regulaciones de este tipo aún, en Cubahora conversamos con el profesor de derecho en el Politécnico de Beja, en Portugal, Manuel David Masseno, también miembro de la Red de Expertos en Protección de Datos de la Agencia de la Unión Europea para la Cooperación Policial (Europol) sobre las regulaciones de la inteligencia artificial

¿CUÁLES SERÍAN A MANERA GENERAL LOS RIESGOS QUE TRAERÍA LA INTELIGENCIA ARTIFICIAL DE NO REGULARSE ADECUADAMENTE Y A TIEMPO?

Las regulaciones tienen que pensarse en cada contexto nacional o regional, porque hay sectores donde la inteligencia artificial al menos de una manera parcial ya está regulada. Por ejemplo, en cuanto a protección de datos, desde la perspectiva de la Unión Europea, se regula desde la directiva de 1995, reforzada por el reglamento de 2016.

En Europa tenemos un empleo reciente de esas leyes para la inteligencia artificial, la autoridad italiana de protección de datos llegó a suspender a ChatGPT por una semana por no ser claros con su uso de los datos.

Entre los riesgos, están los asociados a los consumidores y en específico a las personas vulnerables. En el mercado de comercio electrónico la gente tiene que enterarse de que está chateando con una máquina que es por definición amoral, porque las máquinas no son morales ni inmorales, son amorales. Hay que observar con personas vulnerables por sus derechos; mujeres, niños, ancianos, personas en situación de discapacidad, y garantizar que respetemos criterios mínimos de buena fe. No pueden dejar de aplicarse reglas de contratación, de protección de consumidores en el mercado.

Los modelos de inteligencia artificial, los chatbots, están hechos con tecnologías de aprendizaje automático (machine learning). El sistema aprende desde los datos que tiene, por lo tanto, hay que tener en cuenta para qué utiliza los datos, quién lo permite, a qué datos un sistema tiene acceso. Las máquinas no discriminan por sí solas, o alguien las programa para hacerlo o lo infieren a partir de los datos que se les da, en ese caso se daría una deformación.

Por ejemplo, hace unos años, en Amazon introdujeron un sistema automatizado de selección de trabajadores. Como en las empresas de informática hay pocas mujeres, y si no le enseñan a un sistema que hace falta mujeres, el sistema aprende por sí mismo, este hizo una inferencia de que ser mujer es una desventaja, y no seleccionó mujeres. De ahí la importancia de la supervisión humana.

También está lo que se conoce como ultrafalso, o deep fake en inglés, que puede traer problemas para la imagen de las personas en dependencia de su uso. Por ejemplo, la máquina me oye unos minutos, consigue identificar mi entonación, incluso mi nivel de español, y me pone hasta cantar flamenco o una rumba.

Como toda tecnología, la inteligencia artificial (IA) puede usarse con buenos fines, pero también con otros peligrosos. Es por ello que surge el interés global de regularla, controlar la creación de nuevos modelos de IA de gran alcance, garantizar transparencia por parte de las grandes empresas desarrolladoras y proteger los derechos humanos de sus usuarios.

 


Compartir


Deja tu comentario

Condición de protección de datos