{"id":18780,"date":"2024-01-11T13:19:30","date_gmt":"2024-01-11T12:19:30","guid":{"rendered":"https:\/\/www.rosello-mallol.com\/?p=18780"},"modified":"2024-01-17T14:03:06","modified_gmt":"2024-01-17T13:03:06","slug":"reglamento-europeo-inteligencia-artificial","status":"publish","type":"post","link":"https:\/\/www.rosello-mallol.com\/es\/reglamento-europeo-inteligencia-artificial\/","title":{"rendered":"El Reglamento Europeo de Inteligencia Artificial. Impacto en la UE y en Andorra."},"content":{"rendered":"\n

Acuerdo Consejo y Parlamento Europeo<\/h2>\n\n\n\n

El pasado 9 de diciembre de 2023 se vivi\u00f3<\/a><\/strong> un momento importante en el mundo de la Inteligencia Artificial (IA o AI) con el anuncio de un acuerdo hist\u00f3rico entre el Consejo Europeo y el Parlamento, sobre la Propuesta de Reglamento Europeo de Inteligencia Artificial<\/a><\/strong>. Este acuerdo es fruto de un proceso legislativo iniciado a principios de 2020 con la consulta p\u00fablica del White Paper sobre IA que inici\u00f3 un camino que todav\u00eda tardaremos en ver finalizado con normas vigentes y aplicables.<\/p>\n\n\n\n

\u00bfA qui\u00e9n afecta a la Uni\u00f3n Europea? \u00bfC\u00f3mo afecta a Andorra?<\/h2>\n\n\n\n

La norma afectar\u00e1 al sector p\u00fablico y al privado y tanto a los proveedores y desarrolladores de tecnolog\u00edas de IA establecidos en la Uni\u00f3n Europea como a aquellos que a pesar de no tener un establecimiento permanente, presten servicios a ciudadanos de la UE. Con este modelo, pues, empresas ubicadas en Andorra que ofrezcan servicios basados \u200b\u200ben la AI a ciudadanos de la UE con un modelo similar al de la normativa de protecci\u00f3n de datos, como ya coment\u00e1bamos en este post<\/a><\/strong>.<\/p>\n\n\n\n

\u00bfC\u00f3mo se clasifican las aplicaciones de AI a nivel legal?<\/h2>\n\n\n\n

El Reglamento de AI prev\u00e9 una clasificaci\u00f3n de las aplicaciones de la AI basadas en el riesgo, previendo obligaciones diversas de los desarrolladores y distribuidores, en funci\u00f3n de qu\u00e9 tipo de aplicaciones comercialicen o usen.<\/p>\n\n\n\n

    \n
  • Pr\u00e1cticas prohibidas<\/strong>: quedan incluidas en esta categor\u00eda entre otras, pr\u00e1cticas de AI como perfilado social, t\u00e9cnicas de identificaci\u00f3n biom\u00e9trica en espacios p\u00fablicos o de reconocimiento de las emociones en espacios de trabajo o instituciones educativas.<\/li>\n\n\n\n
  • Aplicaciones de alto riesgo<\/strong>: que incluye: el control de infraestructuras cr\u00edticas (por ejemplo, transporte), que pueden poner en riesgo la vida y salud de los ciudadanos; la formaci\u00f3n educativa o profesional, que puede determinar el acceso a la educaci\u00f3n y al curso profesional de la vida de alguien (por ejemplo, la puntuaci\u00f3n de los ex\u00e1menes); componentes de seguridad de los productos (por ejemplo, aplicaci\u00f3n de IA en cirug\u00eda asistida por robot); empleo, gesti\u00f3n de trabajadores y acceso al autoempleo (por ejemplo, software de clasificaci\u00f3n de curr\u00edculos para los procedimientos de contrataci\u00f3n); servicios p\u00fablicos y privados esenciales (por ejemplo, la puntuaci\u00f3n de cr\u00e9dito que deniega a los ciudadanos la oportunidad de obtener un pr\u00e9stamo); aplicaci\u00f3n de la ley que pueda interferir con los derechos fundamentales de las personas (por ejemplo, evaluaci\u00f3n de la fiabilidad de las pruebas); gesti\u00f3n de la migraci\u00f3n, el asilo y el control de fronteras (por ejemplo, verificaci\u00f3n de la autenticidad de los documentos de viaje); administraci\u00f3n de justicia y procesos democr\u00e1ticos (por ejemplo, aplicaci\u00f3n de la ley a un conjunto concreto de hechos).<\/li>\n<\/ul>\n\n\n\n

    Las aplicaciones de alto riesgo tendr\u00e1n que llevar a cabo una evaluaci\u00f3n de conformidad<\/strong> con el reglamento y ser notificadas a las autoridades competentes.<\/p>\n\n\n\n

      \n
    • Aplicaciones de AI para prop\u00f3sitos generales (como el ChatGPT<\/strong> y otros de uso masivo), en las que una de las obligaciones principales es la de la transparencia del sistema de forma que el usuario sepa que est\u00e1 interactuando con una m\u00e1quina.<\/li>\n<\/ul>\n\n\n\n

      La AI y la privacidad<\/h2>\n\n\n\n

      Sin lugar a dudas la AI puede suponer un riesgo en la protecci\u00f3n de la privacidad y la intimidad de los usuarios o afectados por los sistemas que se vayan implementando en el futuro. A efectos de mitigar estos riesgos, se incluye por ejemplo la obligaci\u00f3n de que las entidades p\u00fablicas que usen sistemas definitivos como de alto riesgo, lleven a cabo una evaluaci\u00f3n de impacto en los derechos fundamentales, donde se contemplar\u00eda el impacto en el derecho a la protecci\u00f3n de datos.<\/p>\n\n\n\n

      \u00bfCu\u00e1ndo se espere que entre en vigor?<\/h2>\n\n\n\n

      El acuerdo alcanzado a finales de 2023 marca el inicio de un largo camino que todav\u00eda puede durar a\u00f1os<\/strong> hasta que el reglamento sea plenamente aplicable. Ahora comienzan las conversaciones t\u00e9cnicas a todos los niveles para cerrar la versi\u00f3n final del Reglamento, esto junto con las elecciones al Parlamento europeo previstas en junio de 2024, puede hacer que su publicaci\u00f3n en el Diario oficial todav\u00eda pueda demorarse a finales de 2024<\/strong>. Uno una vez publicado, ser\u00e1 exigible al cabo de 24 meses ya partir de ah\u00ed:<\/p>\n\n\n\n

        \n
      • 6 meses por la finalizaci\u00f3n de las pr\u00e1cticas prohibidas en materia de AI.<\/li>\n\n\n\n
      • 12 meses: aplicaci\u00f3n de las obligaciones previstas por los usos generales de AI.<\/li>\n\n\n\n
      • 24 meses: plena aplicaci\u00f3n del Reglamento.<\/li>\n\n\n\n
      • 36 meses: aplicaci\u00f3n de las medidas previstas por las aplicaciones de alto riesgo.<\/li>\n<\/ul>\n\n\n\n

        Si necesita m\u00e1s informaci\u00f3n sobre alg\u00fan aspecto en la normativa de AI, \u00a1contacta con nosotros!:<\/p>\n\n\n\n

        \n
        \n

        <\/p>

          <\/ul><\/div>\n
          \n
          \n\n\n\n\n\n\n\n<\/div>\n