La primera Ley de Inteligencia Artificial de la Unión Europea conocida como AI Act se ha hecho esperar, pero ya es una realidad y, a pesar de sus defectos, podemos decir de forma categórica que es mejor tenerla que no continuar sin (casi) regulación alguna en materia de inteligencia artificial. Desde su propuesta legislativa en abril de 2021 a cargo de la Comisión Europea, hasta la adopción por el Parlamento en marzo de 2024, y la aprobación vía Consejo en mayo de 2024, han pasado muchas cosas no sólo en términos de negociación del contenido, sino también a nivel tecnológico y, más aún, en términos de concienciación pública sobre el impacto social y ambiental de la IA .
De hecho, nos hemos dado cuenta de forma individual y colectiva que mucho más allá de plantear preocupaciones apocalípticas futuras improbables, ponen de manifiesto que una aceleración de la IA sin una implementación de la nueva regulación de IA y otras normativas sobre derechos ponen en juego temas tan primordiales del contrato social como la sustitución del trabajo, el uso indiscriminado de la información sin compensación o la revisión de la Agenda 2030 sobre desarrollo sostenible por la gran cantidad de recursos que utiliza la IA (especialmente generativa) a través de una supercomputación y centros de datos que implican un alto consumo de energía, emisiones de gases de efecto invernadero, consumo de agua y un uso desmedido de materiales escasos asociados con la producción, uso y vida útil de los dispositivos y infraestructura informática.
Al margen de estos elementos de contexto, puede decirse que la AI Act es principalmente una regulación de acceso al mercado y de productos, especialmente para tecnologías de IA consideradas con un mayor riesgo (por ejemplo, tecnología de IA utilizada en el ámbito de la salud). Sin embargo, también definen varios principios generales de conducta o comportamiento para utilizar la IA y, en concreto, a las personas afectadas se les concede un «derecho» particular a la información. Esto contrasta con el GDPR, que regula principalmente el comportamiento (tratamiento de datos personales) y los derechos de los sujetos de datos y no la tecnología que utiliza los datos. En cambio, la AI Act regula las medidas de acompañamiento que deben implementarse en caso de que las tecnologías de IA se consideren de riesgo. De ahí que la AI Act se conozca como una legislación basada en riesgos , entendiendo el riesgo como la combinación de la probabilidad de que ocurra un daño y la gravedad de ese daño. A partir de ahí establece cuatro categorías. Primero, aquellos que son considerados inaceptables y que hacen referencia a un conjunto limitado de usos de la IA que acaban siendo prohibidos a causa de su nocivo impacto. Segundo, existe un número limitado de casos de uso en los que los sistemas de IA deben considerarse de alto riesgo porque pueden tener un impacto adverso en la salud, la seguridad o sus derechos fundamentales de las personas y, por este motivo, se clasifican como de alto riesgo. Tercero, existen una serie de sistemas de IA que presentan riesgos limitados debido a su falta de transparencia (es decir, falsificaciones profundas, contenido sintético) y que estarán sujetos a requisitos de información y transparencia, especialmente para fomentar la confianza. Por último, se permite el uso de sistemas que presentan un riesgo mínimo para las personas (por ejemplo, filtros de spam asistidos por una IA) y que cumplan con la legislación aplicable (por ejemplo, GDPR) sin obligaciones legales adicionales. Eso sí, voluntariamente, se pide que se opte por aplicar principios éticos . Al margen de estas categorías de riesgo, la AI Act ofrece normas específicas para los modelos de IA de propósito general (GPAI) y para los modelos GPAI con «capacidades de alto impacto» que podrían suponer un riesgo sistémico y tener un impacto significativo en el mercado interior. Sin embargo, se aplican excepciones a los modelos GPAI gratuitos y de código abierto.
Ante la complejidad de aplicación de la nueva Ley de IA de la Unión Europea o AI Act , el Observatorio de Ética en Inteligencia Artificial de Cataluña (OEIAC), instrumento fundamental de la estrategia de IA de Cataluña (Catalonia.AI), impulsada por el Gobierno de la Generalidad de Cataluña a través de la Secretaría de Políticas Digitales , ha desarrollado el nuevo Modelo PIO (Principios, Indicadores y Observables) que sustituye a una versión anterior de tipo beta que proporcionaba recomendaciones en base a 7 principios éticos fundamentales (transparencia, justicia, responsabilidad, seguridad, privacidad, autonomía y sostenibilidad) . La nueva herramienta de evaluación, un recurso en abierto ya disposición de todos, se fundamenta en el anterior modelo pero tiene la ventaja de que está armonizada con los requisitos legislativos de la AI Act y de otras legislaciones sobre datos y derechos, así como con los estándares y recomendaciones éticas actuales. En este sentido, el nuevo Modelo PIO es una herramienta que favorece el cumplimiento de la actual normativa y regulación sobre riesgos asociados a la IA a través de un proceso de verificación exhaustivo; permite identificar acciones adecuadas o inadecuadas y sensibilizar a la cuádruple hélice a través de los usos éticos y responsables de los datos y sistemas de IA; y se alinea con la creciente adopción internacional de principios éticos y de estándares de alto nivel en el diseño, implementación y uso de datos y sistemas de inteligencia artificial. Pero el nuevo Modelo PIO va mucho más allá en la aplicación de listas de verificación o checklist sobre usos éticos.
Junto con la verificación, el nuevo Modelo PIO incorpora varios recursos como los catálogos y recomendaciones. Los catálogos sirven como herramienta para localizar y conocer contenido específico que incluye el Modelo PIO. Hemos desarrollado dos catálogos: el primero relativo a la normativa legal y las recomendaciones éticas existentes que han configurado las cuestiones planteadas en el modelo. El segundo catálogo recoge ejemplos relacionados con las más de ciento treinta preguntas del modelo, que permiten filtrar las búsquedas a través de ejemplos reales o supuestos concretos. Este enfoque estructurado garantiza que las consideraciones éticas, similares a las destacadas por marcos como la Ley de IA de la UE y las directrices académicas sobre la ética de la IA, se integren en la comprensión y aplicación del contenido, reforzando la importancia del cumplimiento legal y la innovación ética en el desarrollo e implantación de sistemas de IA . Pero, además, también se incorporan varias piezas legislativas que están relacionadas con la AI Act ya que ésta afirma repetidamente que se aplica además de las leyes y regulaciones existentes, es decir, no las limita en modo alguno. Pero cabe decir que además de los catálogos, proporcionamos cláusulas de recomendación ética para la compra y adquisición de sistemas de IA. Estas cláusulas, que incorporan los requisitos legales y estándares y recomendaciones éticas, sirven como pautas para que las organizaciones públicas y privadas las incorporen en sus procesos de contratación. Estas cláusulas de recomendación giran en torno a los siete principios básicos del Modelo PIO.
Por último, también ofrecemos información sobre las características principales que debe tener una evaluación de conformidad, que está relacionada con los sistemas de IA de alto riesgo para demostrar que un sistema cumple los requisitos obligatorios para una IA fiable (por ejemplo, calidad de los datos, documentación y trazabilidad, transparencia, supervisión humana, precisión, ciberseguridad y robustez) ; sobre las características principales que debe tener una evaluación de impacto en los derechos fundamentales, que está relacionada con los sistemas de IA de alto riesgo para demostrar si existe o no un impacto en los derechos fundamentales y notificar los resultados al autoridad nacional; y sobre las características principales que deben tener las obligaciones de transparencia, teniendo en cuenta que éstas están relacionadas con todos los sistemas de IA.
Si desea más información sobre la AI Act y su aplicación así como sobre el nuevo Modelo PIO que hemos diseñado y desarrollado desde el Observatorio de Ética en Inteligencia Artificial de Cataluña, puede dirigirse a nuestra web [https ://oeiac.cat]. Promover el desarrollo de una inteligencia artificial ética, que respete la legalidad vigente, sea compatible con nuestras normas sociales y culturales, y se centre en las personas, es una prioridad del Gobierno de la Generalidad de Cataluña que, estrategia Catalonia.AI, impulsa la consolidación de Cataluña como polo de referencia internacional en investigación, innovación, generación y atracción de talento, empresas e inversores relacionados con IA.
