El Parlamento Europeo apela a un diálogo internacional para regular la inteligencia artificial

En materia de regulación de la Inteligencia Artificial (IA) generativa “es fundamental un diálogo internacional, comenzando por un diálogo transatlántico entre Estados Unidos y la Unión Europea por los estándares que compartimos”. Así lo ha asegurado Pilar del Castillo …

La entrada El Parlamento Europeo apela a un diálogo internacional para regular la inteligencia artificial se publicó primero en Legal Today.

En materia de regulación de la Inteligencia Artificial (IA) generativa “es fundamental un diálogo internacional, comenzando por un diálogo transatlántico entre Estados Unidos y la Unión Europea por los estándares que compartimos”.
Así lo ha asegurado Pilar del Castillo Vera, copresidenta del Intergrupo sobre Inteligencia Artificial del Parlamento Europeo y exministra de Educación, durante el foro «Inteligencia artificial creativa.
Uso empresarial: oportunidades y riesgos”, organizado en Madrid por el despacho Herbert Smith Freehills, que ha reunido a varios expertos para abordar los principales retos de las herramientas de IA, que, desde hace pocos meses, se han convertido en un artículo de consumo accesible y que empresas en todo el mundo ya emplean en su actividad cotidiana.
 

Precisamente, Del Castillo se refirió al actual debate que tiene lugar en el seno de la UE de la que puede terminar siendo la primera regulación del mundo en esta materia.
Aseguró que “el desarrollo tecnológico de la IA afecta profundamente a la sociedad y a todos los sectores económicos”, por lo que, “el debate de cómo regularla está teniendo lugar en diferentes países e instituciones internacionales, no sólo en Europa”.
  En este sentido, explicó que el Reglamento europeo en el que se trabaja actualmente “persigue un objetivo muy específico: proteger la salud, la seguridad y los derechos fundamentales de las personas, generando una mayor confianza en la Inteligencia Artificial, lo que a su vez potenciaría su desarrollo e implementación”.
Y concluyó que “ser los primeros en regular esta materia puede posicionar y ayudar a las empresas que operan en la UE a que tengan más instrumentos para desarrollarse”.
 

Por su parte, Eduardo Soler Tappa, socio director de Herbert Smith Freehills, aseguró que “la IA está teniendo un crecimiento exponencial y recuerda en sus orígenes a lo que pudo ser el nacimiento del propio internet, logrando en poco tiempo una gran implantación doméstica”, lo que explica “los grandes retos y desafíos a los que nos enfrentamos”.
 Y es que, los expertos coincidieron en que, si bien se trata de herramientas de enorme utilidad en la realización de tareas sencillas, repetitivas y «mecanizables», debido a la gran voracidad en datos que el aprendizaje de estos modelos requiere, son varios los riesgos de esta tecnología, que se extienden a cuestiones laborales y contractuales, de privacidad e identidad, derechos de autor o marcas, entre otros.
De este modo, las empresas que los utilicen deberán protegerse frente a tales riesgos mediante pautas de gobernanza completas y claras.
 

En este sentido, Iria Calviño, socia, y Miguel Ángel Barroso, asociado sénior del despacho, analizaron las bases éticas y regulatorias de la IA creativa.
Explicaron que “estamos ante un desafío y una oportunidad, y lo determinante es utilizarla teniendo en cuenta los límites legales y éticos de nuestra sociedad”.
Y recordaron que “el ordenamiento jurídico de la UE ya recoge los principios éticos que nos regulan y vinculan – Carta de Derechos Fundamentales- y que también deben regir el marco ético de la IA».
De ahí que, en su opinión, “muchos de los debates que parecen que plantean estas nuevas herramientas ya están aterrizados en el mundo jurídico”.
Y añadieron que los principios éticos aplicables pueden concentrarse en cuatro grandes bloques relacionados con los derechos fundamentales: el respeto a la autonomía humana, la equidad e igualdad, la predicción del daño, y, finalmente, la transparencia.
 

Políticas corporativas 

En la misma línea, Pablo García Mexía, director de Derecho Digital de Herbert Smith Freehills, sostuvo que, a través de la IA generativa, “vamos a crear herramientas tremendamente útiles, pero que también generan muchos riesgos que debemos planificar y regular, sin esperar a que su impacto en nuestras organizaciones sea tan grande que nos arrolle”.
Por ello, dijo, “es fundamental contar con una política interna en las empresas que desarrolle el modo en el que se usen estas herramientas”.
Y planteó una serie de principios que se deben respetar como que se construyan pautas de uso y formación de las personas; que se trate una política concreta y adaptada a las necesidades de la empresa; que cuente una estructura sencilla y clara; o que sea una política orientada a la seguridad, basada en la transparencia y en las normas globales éticas internacionales.
También recomendó a las empresas que se plantee como una política propia, separada de las demás políticas que existan en el seno de la organización, dada su importancia y riesgos.
El objetivo, apostilló, es “que las compañías puedan usar la IA de un modo eficaz, seguro y eficiente”.
Y apeló a la generación de herramientas de IA propias dentro de las compañías “porque hará más fácil el control de riesgos al permitir encastrar los principios deseados desde el inicio de su uso”.
Ahondando en este asunto, Ana Garmendia, asociada de la firma, aludió a los contenidos que debe fijar y desarrollar esta política corporativa, como a quién va dirigida, qué riesgos existen en el uso de la IA, qué conducta se espera de quienes la utilizan, cuándo hay incumplimientos y, en estos casos, cuáles son las consecuencias o a quién se deben reportar.
 

Finalmente, intervino Oriol Pujol, Catedrático de Ciencias de la Computación e Inteligencia Artificial y decano de la Facultad de Matemáticas e Informática de la Universidad de Barcelona, que reparó en la importancia de que el aprendizaje automático de estas herramientas (que mejoran su rendimiento a partir de la experiencia) sea un “aprendizaje supervisado”.
A este respecto, señaló que la IA aprende de humanos, con competencias inferenciales pero, además, con competencias referenciales, es decir, que conectan lo que la herramienta arroja con el mundo real.
Y apuntó al riesgo de que “si se genera demasiado contenido con estas herramientas de manera no regulada puede que esas últimas competencias se pierdan en el tiempo”.
Asimismo, añadió otros riesgos existentes, a su juicio, de la IA generativa, como el desconocimiento del propósito implícito de los modelos del lenguaje, que puede dar lugar a estereotipos o sesgos sociales; el uso incorrecto de la herramienta suponiendo posibles problemas de seguridad y privacidad o de Propiedad Intelectual; el impacto medioambiental; o la centralización del poder porque, concluyó, “sólo unas pocas empresas tienen el control sobre estas herramientas de IA”.
 

Valora este contenido.

Sé el primero en puntuar este contenido.

No hay entradas relacionadas

Este sitio web utiliza cookies para mejorar tu experiencia mientras navegas por el sitio web.
De estas, las cookies que se clasifican como necesarias se almacenan en tu navegador, ya que son esenciales para el funcionamiento de las funcionalidades básicas del sitio web.
Estas cookies no requieren el consentimiento del usuario.
También utilizamos cookies de terceros: analíticas, que nos ayudan a analizar y comprender cómo utilizas este sitio web, y publicitarias, para generar audiencias y ofrecer publicidad personalizada a través de los hábitos de navegación de los usuarios.
Estas cookies se almacenarán en tu navegador solo con tu consentimiento.
También tienes la opción de optar por no recibir estas cookies.
La exclusión voluntaria de algunas de estas cookies puede afectar a tu experiencia de navegación.

Las cookies estrictamente necesarias tiene que estar siempre activadas para el correcto funcionamiento de la web.
No recogen ningún tipo de información personal.

Si desactivas esta cookie no podremos guardar tus preferencias.
Esto significa que cada vez que visites esta web tendrás que activar o desactivar las cookies de nuevo.

Utilizamos cookies de análisis o medición que son aquellas que, tratadas por nosotros, nos permiten el seguimiento y análisis del comportamiento de los usuarios de los sitios web a los que están vinculadas, incluida la cuantificación de los impactos de los anuncios.

La información recogida mediante este tipo de cookies se utiliza en la medición de la actividad de los sitios web, aplicación o plataforma, con el fin de introducir mejoras en los productos o servicios ofertados en función del análisis de los datos de uso que hacen los usuarios del servicio.

¡Por favor, activa primero las cookies estrictamente necesarias para que podamos guardar tus preferencias!

Utilizamos cookies publicitarias que son aquellas que, tratadas por nosotros o por terceros, almacenan información del comportamiento de los usuarios obtenida a través de la observación continuada de sus hábitos de navegación, lo que permite desarrollar un perfil específico de navegación de los usuarios para mostrarles publicidad en función del mismo.

¡Por favor, activa primero las cookies estrictamente necesarias para que podamos guardar tus preferencias!

Entrada siguiente

Desfile de Catrinas en Chihuahua: Por dónde pasará y a qué hora podrás verlo

mar Oct 31 , 2023
¿Listo para vivir las tradiciones en el centro histórico de Chihuahua capital?

Puede que te guste

Generated by Feedzy