top of page
  • Foto del escritorHigor Barbosa

EU AI ACT: Una mirada escéptica sobre la regulación de la Inteligencia Artificial (IA)



La inteligencia artificial (IA) es una tecnología con el potencial de transformar diversos aspectos de la vida humana, desde la salud y la educación hasta la economía y la seguridad. Sin embargo, junto con estas oportunidades, la IA también presenta riesgos y desafíos, incluyendo la violación de derechos fundamentales, la posibilidad de generar discriminación, la manipulación de comportamientos y el impacto en la autonomía de las personas.


Ante esto, es crucial establecer un marco jurídico-regulatorio que asegure el desarrollo y la utilización ética, segura y responsable de la IA, respetando los valores y los principios de la sociedad. En este sentido, la Unión Europea (UE) se ha destacado como una de las líderes globales en la regulación de la IA, habiendo presentado en abril de 2021 una propuesta legislativa llamada EU AI Act, que busca crear un conjunto de reglas armonizadas para la IA en el bloque económico.


Tras un amplio proceso de consulta pública y negociación entre las instituciones europeas, este conjunto de normas reguladoras alcanzó un acuerdo político el 8 de diciembre de 2023. Aunque aún debe ser aprobado por el Parlamento Europeo y el Consejo de la UE antes de convertirse en ley vigente, el EU AI Act ya representa un hito histórico en la gobernanza de la IA en Europa y en el mundo.


Principales objetivos e impactos del EU AI Act

El EU AI Act tiene como objetivo primordial garantizar que la IA sea desarrollada y utilizada de acuerdo con los valores y los derechos fundamentales de la UE, como la dignidad humana, la democracia, la igualdad, el estado de derecho y el respeto por la diversidad. Para ello, establece un enfoque asimétrico basado en una matriz de evaluación de riesgos, clasificando las aplicaciones de IA en cuatro categorías: prohibidas, de alto riesgo, de riesgo limitado y de riesgo mínimo.


- Aplicaciones prohibidas: son aquellas incompatibles con los valores y los principios de la UE, como el uso de IA en técnicas manipulativas o en sistemas de puntuación social. Estas aplicaciones están prohibidas en la UE, sujetas a penalidades severas en caso de violación.


- Aplicaciones de alto riesgo: cuando la IA puede causar daños significativos a los derechos y las libertades de las personas o a la seguridad pública, abarcando sectores como la infraestructura, el transporte, la salud y la educación. Están sujetas a obligaciones específicas, incluyendo evaluación previa de riesgos, garantía de calidad y seguridad de datos, transparencia, supervisión humana e intervención, además de monitoreo, auditoría y registro en una base de datos europea de IA de alto riesgo.


- Aplicaciones de riesgo limitado: ocasiones en las que la IA puede generar impacto moderado en los derechos y libertades de las personas, como el uso de IA en sistemas de identificación biométrica. Estas aplicaciones están sujetas a la obligación de transparencia, informando a los usuarios sobre la naturaleza y los objetivos de la IA.


- Aplicaciones de riesgo mínimo: como juegos o asistentes virtuales, están exentas de obligaciones específicas, pero deben respetar las reglas generales de protección de datos, defensa del consumidor y competencia.


En general, el EU AI Act busca promover un ecosistema de confianza en la IA en Europa, fomentando el desarrollo y el uso de aplicaciones de IA éticas, seguras y responsables, que contribuyan al bienestar social, al crecimiento económico y a la competitividad de la UE. En otras palabras, el EU AI Act busca garantizar la protección de los derechos y las libertades de las personas afectadas por la IA, asegurando que tengan acceso a información, explicaciones, mecanismos de control y vías de recurso.


Además, es importante destacar que este conjunto de normas regulatorias busca establecer un estándar global de regulación de la IA, que pueda servir de referencia e inspiración para otros países y regiones que deseen adoptar medidas similares.


Desafíos e implicaciones éticas del EU AI Act

Aunque representa un avance, el EU AI Act enfrenta desafíos e implicaciones éticas que requieren atención. Uno de estos desafíos es la necesidad de mantener la regulación pertinente y adaptable en un escenario de innovación acelerada en IA, es decir, debe actualizarse y revisarse periódicamente en función de evidencias y consultas públicas, ya que los cambios tecnológicos son constantes y dinámicos.


Otro desafío es garantizar la implementación efectiva y la fiscalización rigurosa del EU AI Act, dependiendo de la cooperación y coordinación entre diversos actores y niveles de gobernanza. Para ello, el EU AI Act propone la creación de un organismo europeo de IA para supervisar, orientar y apoyar la aplicación de las reglas en toda la UE, en colaboración con autoridades nacionales de supervisión.


En cuanto a las implicaciones éticas, una de las preocupaciones es abordar el sesgo algorítmico, ya que un sistema de IA tiene el poder de reproducir o amplificar prejuicios, estereotipos o discriminaciones. De esta manera, el EU AI Act busca mitigar este sesgo exigiendo el uso de datos de alta calidad y diversidad en aplicaciones de IA de alto riesgo, transparencia, supervisión y monitoreo periódico.


Además, otra implicación ética es garantizar transparencia y responsabilidad en los sistemas de IA, esenciales para la confianza, comprensión y participación de los usuarios y partes interesadas. Por lo tanto, el EU AI Act busca fortalecer la responsabilidad de las instituciones, exigiendo que las aplicaciones de IA de alto riesgo y riesgo limitado vengan acompañadas de etiquetas, manuales y documentación que informen a los usuarios sobre características y riesgos.


Implicaciones del EU AI Act para Brasil

Brasil, al igual que la UE, ha mostrado esfuerzos significativos en la regulación de la IA, evidenciado por el proyecto de ley en discusión en el Congreso (PL 2338/2023), que comparte similitudes con el EU AI Act. Ambos adoptan un enfoque basado en riesgos, prohibiendo el uso de IA en situaciones de riesgo excesivamente alto e identificando sectores críticos.


Por otro lado, el proyecto de ley brasileño presenta diferencias y lagunas con respecto al EU AI Act. Por ejemplo, no hay ningún dispositivo que aborde explícitamente el uso de IA en sistemas automatizados de recomendación de contenido, una aplicación de riesgo limitado especificada en el EU AI Act. Otra laguna es la falta de definición clara sobre la implementación y fiscalización de las reglas en el proyecto de ley brasileño, así como la coordinación entre actores y niveles de gobernanza. Estos aspectos son fundamentales para la efectividad y consistencia de la regulación.


No obstante, es importante señalar que, aunque existan características y particularidades distintas, el EU AI Act puede servir de inspiración y referencia para Brasil, facilitando el diálogo y la cooperación en el ámbito de la innovación y tecnología. Esta colaboración puede promover el intercambio de conocimientos, fortaleciendo la convergencia y armonización de las reglas y estándares. De esta manera, una cooperación estratégica puede beneficiar a ambos países en la gobernanza global de la IA, defendiendo valores comunes e influyendo en otros países y regiones para adoptar buenas prácticas.

3 visualizaciones0 comentarios

コメント


bottom of page