Zooqle

Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy, and the Rule of Law

3 de junio de 2024

Haga clic para ver el PDF

El Consejo de Europa ha adoptado el primer tratado internacional sobre inteligencia artificial.

  1. Resumen ejecutivo

El 17 de mayo de 2024, el Consejo de Europa adoptó el primer tratado internacional jurídicamente vinculante sobre inteligencia artificial, derechos humanos, democracia y estado de derecho (Convención)[1]. A diferencia de la próxima Ley de IA de la UE[2], que se aplicará sólo en los estados miembros de la UE, la Convención es un tratado internacional, potencialmente global, con contribuciones de varias partes interesadas, incluido Estados Unidos. El objetivo final de la Convención es establecer un estándar mínimo global para proteger los derechos humanos de los riesgos que plantea la inteligencia artificial (IA). Los principios básicos subyacentes y las obligaciones clave son muy similares a los de la Ley de IA de la UE, incluido un enfoque basado en el riesgo y obligaciones que consideran todo el ciclo de vida de un sistema de IA. Sin embargo, si bien la Ley de IA de la UE abarca regulaciones integrales sobre el desarrollo, implementación y uso de sistemas de IA dentro del mercado interno de la UE, la Convención sobre IA se centra principalmente en la protección de los derechos humanos universales de las personas afectadas por los sistemas de IA. Es importante señalar que la Convención, como tratado internacional, no impone requisitos de cumplimiento inmediato; más bien, sirve como un marco de políticas que señala la dirección de futuras regulaciones y apunta a alinear los procedimientos a nivel internacional.

  1. Antecedentes y principios básicos

La Convención fue redactada por el Comité de Inteligencia Artificial (CAI), un organismo intergubernamental que reúne a los 46 estados miembros del Consejo de Europa, la Unión Europea y 11 estados no miembros (a saber, Argentina, Australia, Canadá, Costa Rica , la Santa Sede, Israel, Japón, México, Perú, Estados Unidos de América y Uruguay), así como representantes del sector privado, la sociedad civil y el mundo académico. Se ha demostrado que esta participación de múltiples partes interesadas promueve la aceptación de esfuerzos regulatorios similares. El foco principal está en la protección de los derechos humanos, la democracia y el estado de derecho, los principios rectores básicos del Consejo de Europa, mediante el establecimiento de estándares mínimos comunes para los sistemas de IA a nivel global.

  1. Ámbito de aplicación

La Convención está en consonancia con la definición actualizada de IA de la OCDE, que prevé una definición amplia de “sistema de inteligencia artificial” como “un sistema basado en máquinas que, para objetivos explícitos o implícitos, infiere de los insumos que recibe cómo generar resultados tales”. como predicciones, contenidos, recomendaciones o decisiones que puedan influir en entornos físicos o virtuales”. Las definiciones de sistemas de IA de la Ley de IA de la UE, la definición actualizada de la OCDE y la Orden Ejecutiva de EE. UU. (EO de EE. UU.) 14110 generalmente están alineadas, ya que todas enfatizan los sistemas basados ​​en máquinas capaces de hacer predicciones, recomendaciones o decisiones que impactan los entornos físicos o virtuales, con distintos niveles de autonomía y adaptabilidad. Sin embargo, las definiciones de la UE y la OCDE destacan la adaptabilidad posterior al despliegue, mientras que la EO de EE. UU. se centra más en el proceso de percibir entornos, abstraer percepciones en modelos y utilizar la inferencia para la toma de decisiones.

Cabe destacar el énfasis en todo el ciclo de vida de los sistemas de IA (similar a la Ley de IA de la UE). El objetivo principal del Convenio es regular las actividades de las autoridades públicas, incluidas las empresas que actúan en su nombre. Sin embargo, las partes de la Convención también deben abordar los riesgos que surgen del uso de sistemas de IA por parte de empresas privadas, ya sea aplicando los mismos principios o mediante “otras medidas apropiadas”, que no se especifican. El Convenio también contiene excepciones, similares a las establecidas por la Ley de IA de la UE. Su alcance excluye:

  • actividades dentro del ciclo de vida de los sistemas de IA relacionadas con la protección de los intereses de seguridad nacional, independientemente del tipo de entidades que lleven a cabo las actividades correspondientes;
  • todas las actividades de investigación y desarrollo relacionadas con sistemas de IA que aún no están disponibles para su uso; y
  • asuntos relacionados con la defensa nacional.
  1. Obligaciones y principios

La Convención se basa en principios y, por lo tanto, por su naturaleza, está formulada en compromisos de alto nivel y términos abiertos. Contiene varios principios y obligaciones para que las partes tomen medidas para garantizar la protección de los derechos humanos, la integridad de los procesos democráticos y el respeto del estado de derecho. Estas obligaciones fundamentales son familiares, ya que también forman la base de la Ley de IA de la UE. Las obligaciones principales incluyen:

  • medidas para proteger la capacidad del individuo para formar opiniones libremente;
  • medidas que garanticen requisitos adecuados de transparencia y supervisión, en particular en lo que respecta a la identificación de contenidos generados por sistemas de inteligencia artificial;
  • medidas que garanticen la rendición de cuentas y la responsabilidad por los impactos adversos;
  • medidas para fomentar la igualdad y la no discriminación en el uso de sistemas de IA, incluida la igualdad de género;
  • la protección de los derechos de privacidad de las personas y sus datos personales;
  • Para fomentar la innovación, las partes también están obligadas a permitir el establecimiento de entornos controlados para el desarrollo y prueba de sistemas de IA.

Otros dos elementos clave de la Convención son que cada parte debe tener la capacidad de prohibir ciertos sistemas de inteligencia artificial que sean incompatibles con los principios básicos de la Convención y proporcionar recursos accesibles y efectivos para las violaciones de derechos humanos. Los ejemplos dados en la Convención subrayan que se han incluido cuestiones actuales, p.ej., La interferencia electoral parece ser uno de los riesgos discutidos.

  1. Críticas y reacciones

La Convención ha sido criticada por organizaciones de la sociedad civil[3] y el Supervisor Europeo de Protección de Datos[4]. Los principales puntos de crítica incluyen:

  • Amplias excepciones: La Convención incluye excepciones para la seguridad nacional, la investigación y el desarrollo y la defensa nacional. Los críticos argumentan que estas lagunas podrían socavar salvaguardias esenciales y conducir a la experimentación y el uso de IA en aplicaciones militares sin control y sin supervisión. Se han dirigido críticas similares a la Ley de IA de la UE.
  • Disposiciones vagas y regulación del sector privado: Los principios y obligaciones de la Convención se consideran demasiado generales y carecen de criterios específicos para su aplicación. Los críticos destacan la ausencia de prohibiciones explícitas sobre aplicaciones de IA de alto riesgo, como armas autónomas y vigilancia masiva. Además, el Convenio exige abordar los riesgos de las empresas privadas, pero no especifica las medidas, lo que genera preocupaciones sobre una regulación inconsistente.
  • Aplicación y rendición de cuentas: La Convención exige la presentación de informes sobre el cumplimiento, pero carece de un mecanismo de aplicación sólido. Los críticos argumentan que sin una aplicación estricta y una rendición de cuentas, el impacto de la Convención será limitado. También existen preocupaciones sobre la idoneidad de las reparaciones por violaciones de derechos humanos cometidas por sistemas de inteligencia artificial, debido a directrices de implementación vagas.
  1. Implementación y entrada en vigor

Las partes de la Convención deben tomar medidas para una implementación suficiente. Para tener en cuenta los diferentes sistemas jurídicos, cada parte puede optar por estar directamente vinculada por la disposición pertinente del Convenio o tomar medidas para cumplir con las disposiciones del Convenio. En general, el Convenio sólo prevé un nivel mínimo común de protección; los partidos son libres de adoptar regulaciones más amplias. Para garantizar el cumplimiento del Convenio, cada parte debe informar a la Conferencia de las Partes dentro de los dos años siguientes a su adhesión y, posteriormente, periódicamente, sobre las actividades que ha emprendido.

  1. Próximos pasos y conclusiones

El siguiente paso es que los Estados firmen la declaración de adhesión. La Convención se abrirá a la firma el 5 de septiembre de 2024. Se espera, aunque no es seguro, que los Estados miembros del CoE y los otros 11 Estados (incluido Estados Unidos) que contribuyeron al proyecto de convención se conviertan en partes.

En la UE, la Convención complementará la Ley de IA de la UE compartiendo el enfoque basado en el riesgo y principios básicos similares. Dada la redacción muy general de las disposiciones de la Convención y las amplias excepciones a su alcance, parece que la Ley de IA de la UE, adoptada el 21 de mayo, sigue siendo el conjunto de normas más completo y prescriptivo en el campo de la IA, al menos en la UE. Sin embargo, como el Convenio constituirá la base de la regulación de la IA en el Consejo de Europa, es de esperar que el Tribunal Europeo de Derechos Humanos (TEDH) se inspirará en el futuro en el Convenio a la hora de interpretar el Convenio Europeo de Derechos Humanos (CEDH).Esto puede tener importantes efectos de fertilización cruzada para la legislación de derechos fundamentales de la UE, incluida la implementación de la Ley de IA de la UE, ya que el CEDH constituye el estándar mínimo de protección en virtud del artículo 52, apartado 3, de la Carta de los Derechos Fundamentales de la Unión Europea. Unión (Carta). Por lo tanto, tanto los Estados como las empresas privadas tendrán que ser conscientes de los posibles efectos superpuestos de la Convención y la Ley de IA de la UE.

__________

[1] Ver nota de prensa aquí. Ver el texto completo del Convenio aquí.

[2] El 21 de mayo de 2024, el Consejo de la Unión Europea finalmente adoptó el Reglamento sobre IA (Ley sobre IA). Para obtener más información sobre la Ley de IA de la UE, consulte también: https://www.gibsondunn.com/artificial-intelligence-review-and-outlook-2024/.

[3] Ver https://ecnl.org/sites/default/files/2024-03/CSOs_CoE_Calls_2501.docx.pdf.

[4] Ver https://www.edps.europa.eu/press-publications/press-news/press-releases/2024/edps-statement-view-10th-and-last-plenary-meeting-committee-artificial-intelligence-cai- consejo-europeo-redacción-marco-de-convención-artificial_en#_ftnref2.


Los siguientes abogados de Gibson Dunn ayudaron en la preparación de esta actualización: Robert Spano, Joel Harrison, Christoph Jacob y Yannick Oberacker.

Los abogados de Gibson Dunn están disponibles para ayudarlo a abordar cualquier pregunta que pueda tener sobre estos temas. Comuníquese con el abogado de Gibson Dunn con quien trabaja habitualmente, los autores o cualquier líder o miembro del equipo de la firma. Inteligencia artificial, Privacidad, ciberseguridad e innovación de datos o Ambiental, Social y de Gobernanza (ESG) grupos de práctica:

Inteligencia artificial:
Cassandra L. Gaedt-Sheckter – Palo Alto (+1 650.849.5203, [email protected])
Vivek Mohan – Palo Alto (+1 650.849.5345, [email protected])
Roberto Spano – Londres/París (+44 20 7071 4902, [email protected])
Eric D. Vandevelde – Los Angeles (+1 213.229.7186, [email protected])

Privacidad, ciberseguridad e innovación de datos:
Ahmed Baladí – París (+33 (0) 1 56 43 13 00, [email protected])
Ashlie Beringer – Palo Alto (+1 650.849.5327, [email protected])
Kai Gesing – Múnich (+49 89 189 33 180, [email protected])
joel harrison – Londres (+44 20 7071 4289, [email protected])
Jane C. Horvath – Washington, DC (+1 202.955.8505, [email protected])
Anillo Rosemarie T. – San Francisco (+1 415.393.8247, [email protected])

Ambiental, Social y de Gobernanza (ESG):
Susy Bullock – Londres (+44 20 7071 4283, [email protected])
Isabel Ising – Washington, DC (+1 202.955.8287, [email protected])
Perlette M. Jura – Los Angeles (+1 213.229.7121, [email protected])
Ronald Kirk – Dallas (+1 214.698.3295, [email protected])
Michael K. Murphy – Washington, DC (+1 202.955.8238, [email protected])
Selina S. Sagayam – Londres (+44 20 7071 4263, [email protected])

© 2024 Gibson, Dunn & Crutcher LLP. Reservados todos los derechos. Para contacto y otra información, visítenos en www.gibsondunn.com.

Publicidad de abogados: estos materiales se prepararon con fines informativos generales únicamente en función de la información disponible en el momento de la publicación y no pretenden ser, ni constituyen, ni deben considerarse como, asesoramiento legal u opinión legal sobre ningún hecho o circunstancias. Gibson Dunn (y sus afiliados, abogados y empleados) no tendrán ninguna responsabilidad en relación con el uso de estos materiales. El intercambio de estos materiales no establece una relación abogado-cliente con el destinatario y no debe considerarse como una alternativa para obtener asesoramiento de un abogado calificado. Tenga en cuenta que los hechos y las circunstancias pueden variar y los resultados anteriores no garantizan un resultado similar.

Exit mobile version