Cuenta atrás para cumplir con la AI Act

La ley europea de inteligencia artificial, conocida como AI Act, entró en vigor el 1 de agosto de 2024 y sus obligaciones más relevantes serán plenamente efectivas el 2 de agosto de 2026, cumplidos dos años desde su aprobación.

Impulsada por la Comisión Europea, su principal reto es conseguir que la ciudadanía europea confíe en lo que la IA puede ofrecerle. Si bien la mayoría no genera impactos negativos y existe consenso en que pueden contribuir a resolver desafíos sociales, «ciertos sistemas crean riesgos que debemos abordar para evitar resultados indeseables», señala el órgano ejecutivo de la UE en su exposición de motivos.

Por ejemplo, cuando no es posible averiguar por qué un sistema de inteligencia artificial ha tomado una decisión en particular y resulta difícil evaluar si alguien ha sido injustamente desfavorecido en un proceso de contratación o en una solicitud de ayudas públicas.

En el plazo previsto y de forma paulatina, se irán aplicando las disposiciones articuladas por los legisladores para garantizar que los sistemas de IA utilizados en la Unión Europea sean transparentes y responsables, un propósito que busca el desarrollo ético de la inteligencia artificial sin menoscabo de la competitividad de las organizaciones.

El pasado mes de febrero entraban en vigor las obligaciones relativas a las prácticas prohibidas, es decir, aquellas que representan un riesgo inaceptable desde el punto de vista de los derechos humanos –por ejemplo, sistemas de puntuación social–. Para cumplirlas, las empresas y organismos públicos han de elaborar un inventario completo de sus sistemas de IA para asegurar que no incurren en usos restringidos.

En poco más de un mes –a partir del 2 de agosto–, los requisitos de la AI Act se extenderán a los sistemas de IA de propósito general, como los modelos extensos de lenguaje (LLM) que simulan las interacciones humanas mediante el procesamiento de grandes cantidades de datos. En este caso, la legislación enumera supuestos que implican riesgos para la seguridad o incurren en la difusión de contenidos falsos.

«Las obligaciones ya están aquí y 2025 es el año para dar los primeros pasos», advierte Leticia Gómez Rivero, responsable de IA Confiable en Minsait (Grupo Indra).

La compañía ha articulado una propuesta integral para que las empresas y entidades públicas hagan un uso de la inteligencia artificial responsable de acuerdo a los principios europeos, cuyas infracciones llevan aparejadas multas de hasta el 7% de los ingresos globales. «Se trata de guiar a las organizaciones para entender el nivel de vulnerabilidad ética de sus sistemas de IA, conocer las obligaciones legales que les corresponden y especialmente y muy importante, entender cómo trasladarlas a prácticas concretas dentro de la organización», explica la experta.

La iniciativa, denominada AI ACTion y presentada esta semana por Minsait, está diseñada para que las organizaciones sepan llevar a la práctica el nuevo reglamento europeo y hacer un uso eficiente y también responsable de la inteligencia artificial, cada vez más presente en todos los sectores y áreas de actividad, con el fin de avanzar en términos de innovación y competitividad.

A lo largo de distintas fases de aplicación de AI ACTion en cada empresa u organismo público que accede al servicio, Minsait despliega un proyecto integral para ayudarle a agilizar la categorización de su nivel de riesgo, identificar el itinerario de acciones de cumplimiento que aplican en cada caso y soportarlo en las herramientas adecuadas.

«Nutriendo un inventario de sistemas de IA y asignando justificadamente un nivel de riesgo a cada uno, evidenciamos el cumplimiento de las primeras obligaciones aplicables», explica Gómez Rivero, «demostrando que la organización no emplea sistemas de inteligencia artificial prohibidos y evidenciando las exigencias pertinentes para los sistemas que sí utiliza».

Además, señala la experta, «identificamos las herramientas que más convengan a cada organización para mayor trazabilidad y seguridad».

Algoritmos transparentes

La presentación de AI ACTion contó con representantes del despacho de abogados Pérez-Lorca, de la empresa de tecnología sanitaria Tucuvi y de Adigital, la Asociación Española de Economía Digital.

Adigital ha desarrollado el primer Certificado de Transparencia Algorítmica para sistemas IA en España, reconocido por la OCDE en su catálogo de herramientas confiables de inteligencia artificial. En alianza con Minsait, el certificado se pondrá a disposición de las organizaciones que participen en AI ACTion.

El director de IA en Adigital, Justo Hidalgo, explica que «este certificado permite a las entidades de diversos sectores tener un sistema de demostración de su cumplimiento en IA basado en evidencias, inspirando credibilidad y confianza en el mercado y reconocido por un experto independiente».

Para ello, las organizaciones han de seguir una serie de pasos explicando cuáles son sus fuentes de datos, cómo se procesan para el entrenamiento y creación del sistema de inteligencia artificial y cómo se monitoriza el modelo de IA.

Asimismo, han de detallar cómo analizan dicho modelo desde el punto de vista de la transparencia y la explicabilidad –es decir, la capacidad de hacer inteligibles los resultados de los sistemas de inteligencia artificial–, cómo se comparte la información dentro y fuera de la organización y cómo se reacciona ante posibles desafíos.

«De esa manera», explica Hidalgo, “esos sistemas tienen en cuenta todos los aspectos que nos pide la regulación y la ética en general”. «En definitiva», añade Leticia Gómez Rivero, «AI ACTion sienta unas bases adecuadas para que las organizaciones tengan la capacidad de cumplir con todos los hitos de la normativa europea de buen uso y ética en inteligencia artificial».

 Minsait presenta su propuesta para que las organizaciones conozcan la ley europea e incorporen prácticas responsables sin perder competitividad  

La ley europea de inteligencia artificial, conocida como AI Act, entró en vigor el 1 de agosto de 2024 y sus obligaciones más relevantes serán plenamente efectivas el 2 de agosto de 2026, cumplidos dos años desde su aprobación.

Impulsada por la Comisión Europea, su principal reto es conseguir que la ciudadanía europea confíe en lo que la IA puede ofrecerle. Si bien la mayoría no genera impactos negativos y existe consenso en que pueden contribuir a resolver desafíos sociales, «ciertos sistemas crean riesgos que debemos abordar para evitar resultados indeseables», señala el órgano ejecutivo de la UE en su exposición de motivos.

Por ejemplo, cuando no es posible averiguar por qué un sistema de inteligencia artificial ha tomado una decisión en particular y resulta difícil evaluar si alguien ha sido injustamente desfavorecido en un proceso de contratación o en una solicitud de ayudas públicas.

En el plazo previsto y de forma paulatina, se irán aplicando las disposiciones articuladas por los legisladores para garantizar que los sistemas de IA utilizados en la Unión Europea sean transparentes y responsables, un propósito que busca el desarrollo ético de la inteligencia artificial sin menoscabo de la competitividad de las organizaciones.

El pasado mes de febrero entraban en vigor las obligaciones relativas a las prácticas prohibidas, es decir, aquellas que representan un riesgo inaceptable desde el punto de vista de los derechos humanos –por ejemplo, sistemas de puntuación social–. Para cumplirlas, las empresas y organismos públicos han de elaborar un inventario completo de sus sistemas de IA para asegurar que no incurren en usos restringidos.

En poco más de un mes –a partir del 2 de agosto–, los requisitos de la AI Act se extenderán a los sistemas de IA de propósito general, como los modelos extensos de lenguaje (LLM) que simulan las interacciones humanas mediante el procesamiento de grandes cantidades de datos. En este caso, la legislación enumera supuestos que implican riesgos para la seguridad o incurren en la difusión de contenidos falsos.

«Las obligaciones ya están aquí y 2025 es el año para dar los primeros pasos», advierte Leticia Gómez Rivero, responsable de IA Confiable en Minsait (Grupo Indra).

La compañía ha articulado una propuesta integral para que las empresas y entidades públicas hagan un uso de la inteligencia artificial responsable de acuerdo a los principios europeos, cuyas infracciones llevan aparejadas multas de hasta el 7% de los ingresos globales. «Se trata de guiar a las organizaciones para entender el nivel de vulnerabilidad ética de sus sistemas de IA, conocer las obligaciones legales que les corresponden y especialmente y muy importante, entender cómo trasladarlas a prácticas concretas dentro de la organización», explica la experta.

La iniciativa, denominada AI ACTion y presentada esta semana por Minsait, está diseñada para que las organizaciones sepan llevar a la práctica el nuevo reglamento europeo y hacer un uso eficiente y también responsable de la inteligencia artificial, cada vez más presente en todos los sectores y áreas de actividad, con el fin de avanzar en términos de innovación y competitividad.

A lo largo de distintas fases de aplicación de AI ACTion en cada empresa u organismo público que accede al servicio, Minsait despliega un proyecto integral para ayudarle a agilizar la categorización de su nivel de riesgo, identificar el itinerario de acciones de cumplimiento que aplican en cada caso y soportarlo en las herramientas adecuadas.

«Nutriendo un inventario de sistemas de IA y asignando justificadamente un nivel de riesgo a cada uno, evidenciamos el cumplimiento de las primeras obligaciones aplicables», explica Gómez Rivero, «demostrando que la organización no emplea sistemas de inteligencia artificial prohibidos y evidenciando las exigencias pertinentes para los sistemas que sí utiliza».

Además, señala la experta, «identificamos las herramientas que más convengan a cada organización para mayor trazabilidad y seguridad».

Algoritmos transparentes

La presentación de AI ACTion contó con representantes del despacho de abogados Pérez-Lorca, de la empresa de tecnología sanitaria Tucuvi y de Adigital, la Asociación Española de Economía Digital.

Adigital ha desarrollado el primer Certificado de Transparencia Algorítmica para sistemas IA en España, reconocido por la OCDE en su catálogo de herramientas confiables de inteligencia artificial. En alianza con Minsait, el certificado se pondrá a disposición de las organizaciones que participen en AI ACTion.

El director de IA en Adigital, Justo Hidalgo, explica que «este certificado permite a las entidades de diversos sectores tener un sistema de demostración de su cumplimiento en IA basado en evidencias, inspirando credibilidad y confianza en el mercado y reconocido por un experto independiente».

Para ello, las organizaciones han de seguir una serie de pasos explicando cuáles son sus fuentes de datos, cómo se procesan para el entrenamiento y creación del sistema de inteligencia artificial y cómo se monitoriza el modelo de IA.

Asimismo, han de detallar cómo analizan dicho modelo desde el punto de vista de la transparencia y la explicabilidad –es decir, la capacidad de hacer inteligibles los resultados de los sistemas de inteligencia artificial–, cómo se comparte la información dentro y fuera de la organización y cómo se reacciona ante posibles desafíos.

«De esa manera», explica Hidalgo, “esos sistemas tienen en cuenta todos los aspectos que nos pide la regulación y la ética en general”. «En definitiva», añade Leticia Gómez Rivero, «AI ACTion sienta unas bases adecuadas para que las organizaciones tengan la capacidad de cumplir con todos los hitos de la normativa europea de buen uso y ética en inteligencia artificial».

 Noticias de Economía Nacional e Internacional en La Razón

Más Noticias