Análisis de la primera ley integral sobre inteligencia artificial en el mundo

La inteligencia artificial (en adelante IA), tiene un papel central en la transformación digital de la sociedad. Aunque se espera que sus aplicaciones futuras impliquen grandes cambios, la IA ya está muy presente en nuestras vidas. Desde nuestro Smartphone

La entrada Análisis de la primera ley integral sobre inteligencia artificial en el mundo se publicó primero en Legal Today.

BLOG PRODAT

Consultora especializada en protección de datos y nuevas tecnologías

La inteligencia artificial (en adelante IA), tiene un papel central en la transformación digital de la sociedad.
Aunque se espera que sus aplicaciones futuras impliquen grandes cambios, la IA ya está muy presente en nuestras vidas.
Desde nuestro Smartphone con asistentes de voz  y herramientas de navegación hasta el monitoreo en Redes Sociales en base a tu experiencia como usuario hacen uso de la IA.

La inteligencia artificial es un conjunto de tecnologías disruptivas de rápida evolución que puede generar un amplio abanico de beneficios económicos y sociales en todos los sectores y actividades de la sociedad.
El uso de la inteligencia artificial puede proporcionar ventajas competitivas esenciales a las empresas y facilitar la obtención de resultados positivos en sectores de alto impacto como el cambio climático, la salud, la agricultura, la educación y el transporte.
Pero al mismo tiempo, debido a su reciente y rápida evolución y dependiendo de las circunstancias de su aplicación y utilización concretas, la inteligencia artificial tiene su cara B, pudiendo generar riesgos sobre los derechos fundamentales de la ciudadanía como los relativos a discriminación y protección de datos personales.

La UE consciente de rápido avance de la IA ha querido establecer un marco jurídico de la Unión que defina unas normas armonizadas en materia de IA orientadas a asegurar el respeto a los derechos fundamentales y genera confianza en el desarrollo y utilización de la IA.
Estamos ante la primera ley integral de IA del mundo.
Su objetivo es garantizar que los sistemas IA comercializados en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales.

Dicho Reglamento pretender conseguir entre otros los siguientes objetivos específicos:

Por tanto es fundamental conocer las claves que se asienta el futuro nuevo Reglamento de IA y que a modo de resumen exponemos a continuación:

1.
- DEFINICIÓN DE SISTEMA DE IA: El Reglamento nos da una definición única de la IA que pueda resistir el paso del tiempo y ser lo más tecnológicamente neutra posible, con criterios claros para distinguir la IA de otros sistemas de software más simples, entiendo por Sistema de IA: el software que se desarrolla empleando una o varias de las técnicas y estrategias (estrategias de aprendizaje automática, programación inductiva, estadísticas…) que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa.

2- ÁMBITO DE APLICACIÓN: Con el objetivo de garantizar la igualdad de condiciones y la protección efectiva de los derechos y libertades de las personas en toda la Unión, las normas establecidas en el presente Reglamento deben aplicarse a los proveedores de sistemas de IA sin discriminación, con independencia de si están establecidos en la Unión o en un tercer país, siempre que el sistema de IA se introduzca en el mercado de la Unión o su uso afecte a personas ubicadas en la UE, así como a los usuarios de sistemas de IA establecidos en la Unión o en un tercer país, cuando la información de salida generada por el sistema se utilice en la Unión.

3.
-CLASIFICACIÓN DEL RIESGO: El Reglamento se base en un enfoque basado en el riesgo, con cuatro niveles de riesgo para los sistemas de IA con normas en función del nivel:

Riesgo mínimo: La gran mayoría de los sistemas de IA que se utilizan actualmente o que es probable que se utilicen en la UE entran en esta categoría.
Aquí podríamos incluir a los asistentes virtuales o Chatbots que interactúan con las personas, y que deberán cumplir unos requisitos mínimos de transparencia para con los usuarios.

Alto riesgo: Se considera de alto riesgo un número limitado de sistemas de IA, que pueden tener un impacto adverso en la seguridad de las personas o en sus derechos fundamentales (protegidos por la Carta de los Derechos Fundamentales de la UE).
Estos sistemas deberán cumplir con una serie de obligaciones y ser evaluados antes de su comercialización.
Dichos sistemas de alto riesgo están permitidos en el mercado europeo siempre que cumplan determinados requisitos obligatorios y sean sometidos a una evaluación de la conformidad ex ante.
Un sistema de IA se considera de alto riesgo en función de su finalidad prevista, conforme a la legislación vigente relativa a la seguridad de los productos.

Estos son algunos ejemplos de casos de uso de alto riesgo tal como se definen en el anexo III del Reglamento:

1.
Identificación biométrica y categorización de personas físicas sistemas de IA destinados a utilizarse en la identificación biométrica remota «en tiempo real» o «en diferido» de personas físicas.

2.
Gestión y funcionamiento de infraestructuras esenciales: sistemas de IA destinados a utilizarse como componentes de seguridad en la gestión y funcionamiento del tráfico rodado y el suministro de agua, gas, calefacción y electricidad.

3.
Educación y formación profesional: sistemas de IA destinados a utilizarse para evaluar a los estudiantes de centros de educación y formación profesional y para evaluar a los participantes en pruebas generalmente necesarias para acceder a centros de educación.

4.
Empleo, gestión de los trabajadores y acceso al autoempleo: sistemas de IA destinados a utilizarse para la contratación o selección de personas físicas, especialmente para anunciar puestos vacantes, clasificar y filtrar solicitudes o evaluar a candidatos en el transcurso de entrevistas o pruebas.

5.
Acceso y disfrute de servicios públicos y privados esenciales y sus beneficios: sistemas de IA destinados a ser utilizados por las autoridades o en su nombre para evaluar la admisibilidad de las personas físicas para acceder a prestaciones y servicios de asistencia pública, así como para conceder, reducir, retirar o recuperar dichas prestaciones y servicios.

6.
Asuntos relacionados con la aplicación de la ley: sistemas de IA destinados a utilizarse por parte de las autoridades encargadas de la aplicación de la ley para llevar a cabo evaluaciones de riesgos individuales de personas físicas con el objetivo de determinar el riesgo de que cometan infracciones penales o reincidan en su comisión.

7.
Gestión de la migración, el asilo y el control fronterizo:  sistemas de IA destinados a utilizarse por parte de las autoridades competentes para la verificación de la autenticidad de los documentos de viaje y la detección de documentos falsos mediante la comprobación de sus elementos de seguridad.

8.
Administración de justicia y procesos democráticos: sistemas de IA destinados a ayudar a una autoridad judicial en la investigación e interpretación de hechos y de la ley, así como en la aplicación de la ley a un conjunto concreto de hechos.

Para algunos usos de la IA , el riesgo es inaceptable, y por lo tanto prohibidos en la UE.
Se describe así un conjunto muy limitado de usos especialmente nocivos de la IA que contravienen los valores de la UE porque violan los derechos fundamentales y, por lo tanto, serán prohibidos:

Si bien con carácter general se prohíbe el uso de la identificación biométrica remota en tiempo real  en espacios de acceso público con fines policiales, se permitirá de forma excepcional bajo ciertas garantías en los siguientes casos:

Estos sistemas de identificación biométrica a distancia estarán supeditados a la concesión de una autorización previa por parte de una autoridad judicial o una autoridad administrativa independiente del Estado miembro donde vaya a utilizarse dicho sistema, que la otorgarán previa solicitud motivada y de conformidad con las normas detalladas del Derecho interno.

Dicha autorización tendrá que ir precedida de una evaluación de impacto previa sobre los derechos fundamentales  y notificarse a la autoridad de vigilancia del mercado pertinente y a la autoridad de protección de datos.

4.
-OBLIGACIONES DE TRANSPARENCIA PARA DETERMINADOS SISTEMAS DE IA: El título IV del Reglamento se centra en determinados sistemas de IA para tener en cuenta los riesgos específicos de manipulación que conllevan.
Se aplicarán obligaciones de transparencia a los sistemas que interactúen con seres humanos, se utilicen para detectar emociones o determinar la asociación a categorías (sociales) concretas a partir de datos biométricos, o generen o manipulen contenido .
Cuando una persona interactúe con un sistema de IA o sus emociones o características sean reconocidas por medios automatizados, es preciso informarla de tal circunstancia.
De este modo, las personas pueden adoptar decisiones fundamentadas o evitar una situación determinada.

5.
-OBLIGACIONES DE LOS PROVEEDORES: Antes de introducir un sistema de IA de alto riesgo en el mercado de la UE, los proveedores deberán someterlo a una evaluación de la conformidad.
Esto les permitirá demostrar que su sistema cumple los requisitos obligatorios para una IA fiable (por ejemplo, calidad de los datos, documentación y trazabilidad, transparencia, supervisión humana, precisión, ciberseguridad y solidez).
Esta evaluación debe repetirse si el sistema o su finalidad se modifican sustancialmente.
Los proveedores de sistemas de IA de alto riesgo también tendrán que aplicar sistemas de gestión de la calidad y los riesgos para garantizar el cumplimiento de los nuevos requisitos y minimizar los riesgos para los usuarios y las personas afectadas, incluso después de la introducción de un producto en el mercado.

6.
-CUMPLIMIENTO Y SUPERVISION DEL REGLAMENTO IA: Los Estados miembros desempeñan un papel clave en la aplicación y el cumplimiento del presente Reglamento.
A este respecto, cada Estado miembro debe designar una o varias autoridades nacionales competentes para supervisar la aplicación y ejecución, así como para llevar a cabo actividades de vigilancia del mercado.
Para aumentar la eficiencia y establecer un punto de contacto oficial con el público y otras contrapartes, cada Estado miembro debe designar una autoridad nacional de supervisión, que también representará al país en el Comité Europeo de Inteligencia Artificial.

Además, la Comisión creará una nueva Oficina Europea de IA, dentro de la Comisión, que supervisará los modelos de IA de uso general, cooperará con el Comité Europeo de Inteligencia Artificial y contará con el apoyo de un panel científico de expertos independientes.

Por su parte, España anticipándose a la entrada en vigor del Reglamento europeo de IA ha creado la AESIA (Agencia española de supervisión de inteligencia artificial con sede en la Coruña), convirtiéndose así en el primer país europeo en tener un órgano de estas características, que representará a España ante el Comité Europeo de IA.

El Comité Europeo de Inteligencia Artificial está compuesto por representantes de alto nivel de las autoridades nacionales de supervisión competentes, el Supervisor Europeo de Protección de Datos y la Comisión.
Su función es facilitar una aplicación fluida, eficaz y armonizada del nuevo Reglamento sobre IA.
El Comité emitirá recomendaciones y dictámenes a la Comisión en relación con los sistemas de IA de alto riesgo  y sobre otros aspectos pertinentes para la aplicación efectiva y uniforme de las nuevas normas.

7.
-SANCIONES: Cuando se introduzcan en el mercado o se utilicen sistemas de IA que no cumplan los requisitos del Reglamento, los Estados miembros tendrán que establecer sanciones efectivas, proporcionadas y disuasorias, incluidas multas administrativas, en relación con las infracciones y comunicarlas a la Comisión.
El Reglamento establece umbrales que deberán tenerse en cuenta pudiendo alcanzar Hasta 35 millones de euros o el 7 % del volumen de negocios anual total a nivel mundial del ejercicio financiero anterior (el que sea mayor).

9.
-APLICABILIDAD Y ENTRADA EN VIGOR: Tendremos que esperar unas semanas más para su aprobación definitiva por el Parlamento Europeo y el Consejo, estando prevista su entrada en vigor el vigésimo día siguiente al de su publicación en el Diario Oficial.
Si bien será plenamente aplicable 24 meses después de su entrada en vigor.

Al igual que ocurrió en su día con la entrada en vigor del Reglamento General de Protección de Datos, la Ley de IA se compromete a desarrollar un marco global y tecnológicamente adaptado que complementará el RGPD, con pautas específicas para la protección de datos personales y los derechos fundamentales de las personas.
De tal forma, que aquellas empresas que vayan a desarrollar e implementar sus propios sistema de IA estarán reguladas no solo por el RGPD sino también por la Ley de IA y deberán contar con políticas internas de uso de IA, evaluaciones de riegos y de impacto de derechos fundamentales antes de su puesta en marcha.

Valora este contenido.

Sé el primero en puntuar este contenido.

No hay entradas relacionadas

PRODAT es una organización especializada en servicios de Consultoría, Auditoría y Outsourcing en el ámbito de la Ley Orgánica de protección de datos de carácter personal (LOPD), Reglamento 2016/679 general de protección de datos de la Unión Europea, ISO 27001, Ley de servicios de la sociedad de la información y del comercio electrónico y Compliance.

PRODAT opera en todo el territorio nacional a través de una red de 20 oficinas y en la actualidad cuenta con más de 40 consultores que utilizan las mismas metodologías y herramientas informáticas.

Fundada en 1997, en la actualidad es una organización firmemente asentada en el mercado.

Este sitio web utiliza cookies para mejorar tu experiencia mientras navegas por el sitio web.
De estas, las cookies que se clasifican como necesarias se almacenan en tu navegador, ya que son esenciales para el funcionamiento de las funcionalidades básicas del sitio web.
Estas cookies no requieren el consentimiento del usuario.
También utilizamos cookies de terceros: analíticas, que nos ayudan a analizar y comprender cómo utilizas este sitio web, y publicitarias, para generar audiencias y ofrecer publicidad personalizada a través de los hábitos de navegación de los usuarios.
Estas cookies se almacenarán en tu navegador solo con tu consentimiento.
También tienes la opción de optar por no recibir estas cookies.
La exclusión voluntaria de algunas de estas cookies puede afectar a tu experiencia de navegación.

Las cookies estrictamente necesarias tiene que estar siempre activadas para el correcto funcionamiento de la web.
No recogen ningún tipo de información personal.

Si desactivas esta cookie no podremos guardar tus preferencias.
Esto significa que cada vez que visites esta web tendrás que activar o desactivar las cookies de nuevo.

Utilizamos cookies de análisis o medición que son aquellas que, tratadas por nosotros, nos permiten el seguimiento y análisis del comportamiento de los usuarios de los sitios web a los que están vinculadas, incluida la cuantificación de los impactos de los anuncios.

La información recogida mediante este tipo de cookies se utiliza en la medición de la actividad de los sitios web, aplicación o plataforma, con el fin de introducir mejoras en los productos o servicios ofertados en función del análisis de los datos de uso que hacen los usuarios del servicio.

¡Por favor, activa primero las cookies estrictamente necesarias para que podamos guardar tus preferencias!

Utilizamos cookies publicitarias que son aquellas que, tratadas por nosotros o por terceros, almacenan información del comportamiento de los usuarios obtenida a través de la observación continuada de sus hábitos de navegación, lo que permite desarrollar un perfil específico de navegación de los usuarios para mostrarles publicidad en función del mismo.

¡Por favor, activa primero las cookies estrictamente necesarias para que podamos guardar tus preferencias!

Entrada siguiente

Consecuencias legales para las denuncias mendaces de mobbing

dom Feb 4 , 2024
En los últimos meses hemos sido testigos de varios casos en los Juzgados de lo Social sobre denuncias por mobbing o acoso laboral que se han determinado como infundadas. Casos en los que desestiman así denuncias de trabajadores y que … La entrada Consecuencias legales para las denuncias mendaces de […]

Puede que te guste

Generated by Feedzy