Análisis: los reguladores desempolvan los libros de reglas para abordar la IA generativa como ChatGPT

Los reguladores desempolvan los libros de reglas para abordar la IA generativa como ChatGPT© Reuters. FOTO DE ARCHIVO: El logotipo de ChatGPT y las palabras AI Artificial Intelligence se ven en esta ilustración tomada el 4 de mayo de 2023. REUTERS/Dado Ruvic/Illustration

Por Martin Coulter y Supantha Mukherjee

LONDRES/ESTOCOLMO (Reuters) – A medida que se acelera la carrera por desarrollar servicios de inteligencia artificial más potentes como ChatGPT, algunos reguladores confían en leyes antiguas para controlar una tecnología que podría alterar la forma en que operan las sociedades y las empresas.

La Unión Europea está a la vanguardia de la redacción de nuevas reglas de IA que podrían establecer el punto de referencia mundial para abordar las preocupaciones de privacidad y seguridad que han surgido con los rápidos avances en la tecnología de IA generativa detrás de ChatGPT de OpenAI.

Pero pasarán varios años antes de que se haga cumplir la legislación.

“En ausencia de regulaciones, lo único que pueden hacer los gobiernos es aplicar las reglas existentes”, dijo Massimiliano Cimnaghi, experto en gobernanza de datos europeos de la consultora BIP.

“Si se trata de proteger datos personales, aplican leyes de protección de datos, si es una amenaza para la seguridad de las personas, hay regulaciones que no se han definido específicamente para la IA, pero aún son aplicables”.

En abril, los organismos nacionales de control de la privacidad de Europa establecieron un grupo de trabajo para abordar los problemas con ChatGPT después de que el regulador italiano Garante desconectara el servicio, acusando a OpenAI de violar el RGPD de la UE, un amplio régimen de privacidad promulgado en 2018.

ChatGPT se restableció después de que la compañía estadounidense acordó instalar funciones de verificación de edad y permitir que los usuarios europeos bloqueen su información para que no se use para entrenar el modelo de IA.

La agencia comenzará a examinar otras herramientas generativas de inteligencia artificial de manera más amplia, dijo a Reuters una fuente cercana a Garante. Las autoridades de protección de datos de Francia y España también iniciaron en abril investigaciones sobre el cumplimiento de OpenAI con las leyes de privacidad.

TRAE A LOS EXPERTOS

Los modelos de IA generativa se han vuelto bien conocidos por cometer errores o “alucinaciones”, arrojando información errónea con una certeza asombrosa.

Dichos errores podrían tener graves consecuencias. Si un banco o departamento gubernamental utilizara IA para acelerar la toma de decisiones, las personas podrían ser rechazadas injustamente para préstamos o pagos de beneficios. Las grandes empresas tecnológicas, incluidas Google de Alphabet (NASDAQ:) y Corporación de Microsoft (NASDAQ:) había dejado de usar productos de inteligencia artificial considerados éticamente arriesgados, como los productos financieros.

Los reguladores tienen como objetivo aplicar las reglas existentes que cubren todo, desde los derechos de autor y la privacidad de los datos hasta dos cuestiones clave: los datos que se introducen en los modelos y el contenido que producen, según seis reguladores y expertos en los Estados Unidos y Europa.

Se alienta a las agencias en las dos regiones a “interpretar y reinterpretar sus mandatos”, dijo Suresh Venkatasubramanian, exasesor de tecnología de la Casa Blanca. Citó la investigación de la Comisión Federal de Comercio de EE. UU. (FTC) de algoritmos para prácticas discriminatorias bajo los poderes regulatorios existentes.

En la UE, las propuestas para la Ley de IA del bloque obligarán a empresas como OpenAI a divulgar cualquier material protegido por derechos de autor, como libros o fotografías, utilizado para entrenar a sus modelos, dejándolos vulnerables a desafíos legales.

Sin embargo, probar la infracción de los derechos de autor no será sencillo, según Sergey Lagodinsky, uno de los varios políticos involucrados en la redacción de las propuestas de la UE.

“Es como leer cientos de novelas antes de escribir la tuya”, dijo. “Si realmente copias algo y lo publicas, eso es una cosa. Pero si no estás plagiando directamente el material de otra persona, no importa en qué te hayas entrenado.

‘PENSAR CREATIVAMENTE’

El regulador de datos francés CNIL ha comenzado a “pensar creativamente” sobre cómo las leyes existentes podrían aplicarse a la IA, según Bertrand Pailhes, su líder tecnológico.

Por ejemplo, en Francia, las denuncias de discriminación suelen ser tramitadas por el Defenseur des Droits (Defensor de los derechos). Sin embargo, su falta de experiencia en el sesgo de la IA ha llevado a la CNIL a tomar la iniciativa en el tema, dijo.

“Estamos analizando la gama completa de efectos, aunque nuestro enfoque sigue siendo la protección de datos y la privacidad”, dijo a Reuters.

La organización está considerando utilizar una disposición de GDPR que protege a las personas de la toma de decisiones automatizada.

“En esta etapa, no puedo decir si es suficiente, legalmente”, dijo Pailhes. “Tomará algún tiempo construir una opinión, y existe el riesgo de que diferentes reguladores adopten puntos de vista diferentes”.

En Gran Bretaña, la Autoridad de Conducta Financiera es uno de varios reguladores estatales a los que se les ha encomendado la elaboración de nuevas pautas que cubran la IA. Está consultando con el Instituto Alan Turing en Londres, junto con otras instituciones legales y académicas, para mejorar su comprensión de la tecnología, dijo un portavoz a Reuters.

Si bien los reguladores se adaptan al ritmo de los avances tecnológicos, algunos expertos de la industria han pedido un mayor compromiso con los líderes corporativos.

Harry Borovick, asesor general de Luminance, una startup que utiliza inteligencia artificial para procesar documentos legales, dijo a Reuters que el diálogo entre los reguladores y las empresas había sido “limitado” hasta el momento.

“Esto no es un buen augurio en términos de futuro”, dijo. “Los reguladores parecen lentos o no están dispuestos a implementar los enfoques que permitirían el equilibrio adecuado entre la protección del consumidor y el crecimiento empresarial”.

(Esta historia ha sido rearchivada para corregir una ortografía a Massimiliano, no Massimilano, en el párrafo 4)

Leer Más