Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy, and the Rule of Law

3 de junio de 2024

Haga clic para ver el PDF

El Consejo de Europa ha adoptado el primer tratado internacional sobre inteligencia artificial.

  1. Resumen ejecutivo

El 17 de mayo de 2024, el Consejo de Europa adoptรณ el primer tratado internacional jurรญdicamente vinculante sobre inteligencia artificial, derechos humanos, democracia y estado de derecho (Convenciรณn)[1]. A diferencia de la prรณxima Ley de IA de la UE[2], que se aplicarรก sรณlo en los estados miembros de la UE, la Convenciรณn es un tratado internacional, potencialmente global, con contribuciones de varias partes interesadas, incluido Estados Unidos. El objetivo final de la Convenciรณn es establecer un estรกndar mรญnimo global para proteger los derechos humanos de los riesgos que plantea la inteligencia artificial (IA). Los principios bรกsicos subyacentes y las obligaciones clave son muy similares a los de la Ley de IA de la UE, incluido un enfoque basado en el riesgo y obligaciones que consideran todo el ciclo de vida de un sistema de IA. Sin embargo, si bien la Ley de IA de la UE abarca regulaciones integrales sobre el desarrollo, implementaciรณn y uso de sistemas de IA dentro del mercado interno de la UE, la Convenciรณn sobre IA se centra principalmente en la protecciรณn de los derechos humanos universales de las personas afectadas por los sistemas de IA. Es importante seรฑalar que la Convenciรณn, como tratado internacional, no impone requisitos de cumplimiento inmediato; mรกs bien, sirve como un marco de polรญticas que seรฑala la direcciรณn de futuras regulaciones y apunta a alinear los procedimientos a nivel internacional.

  1. Antecedentes y principios bรกsicos

La Convenciรณn fue redactada por el Comitรฉ de Inteligencia Artificial (CAI), un organismo intergubernamental que reรบne a los 46 estados miembros del Consejo de Europa, la Uniรณn Europea y 11 estados no miembros (a saber, Argentina, Australia, Canadรก, Costa Rica , la Santa Sede, Israel, Japรณn, Mรฉxico, Perรบ, Estados Unidos de Amรฉrica y Uruguay), asรญ como representantes del sector privado, la sociedad civil y el mundo acadรฉmico. Se ha demostrado que esta participaciรณn de mรบltiples partes interesadas promueve la aceptaciรณn de esfuerzos regulatorios similares. El foco principal estรก en la protecciรณn de los derechos humanos, la democracia y el estado de derecho, los principios rectores bรกsicos del Consejo de Europa, mediante el establecimiento de estรกndares mรญnimos comunes para los sistemas de IA a nivel global.

  1. รmbito de aplicaciรณn

La Convenciรณn estรก en consonancia con la definiciรณn actualizada de IA de la OCDE, que prevรฉ una definiciรณn amplia de โ€œsistema de inteligencia artificialโ€ como โ€œun sistema basado en mรกquinas que, para objetivos explรญcitos o implรญcitos, infiere de los insumos que recibe cรณmo generar resultados talesโ€. como predicciones, contenidos, recomendaciones o decisiones que puedan influir en entornos fรญsicos o virtualesโ€. Las definiciones de sistemas de IA de la Ley de IA de la UE, la definiciรณn actualizada de la OCDE y la Orden Ejecutiva de EE. UU. (EO de EE. UU.) 14110 generalmente estรกn alineadas, ya que todas enfatizan los sistemas basados โ€‹โ€‹en mรกquinas capaces de hacer predicciones, recomendaciones o decisiones que impactan los entornos fรญsicos o virtuales, con distintos niveles de autonomรญa y adaptabilidad. Sin embargo, las definiciones de la UE y la OCDE destacan la adaptabilidad posterior al despliegue, mientras que la EO de EE. UU. se centra mรกs en el proceso de percibir entornos, abstraer percepciones en modelos y utilizar la inferencia para la toma de decisiones.

Cabe destacar el รฉnfasis en todo el ciclo de vida de los sistemas de IA (similar a la Ley de IA de la UE). El objetivo principal del Convenio es regular las actividades de las autoridades pรบblicas, incluidas las empresas que actรบan en su nombre. Sin embargo, las partes de la Convenciรณn tambiรฉn deben abordar los riesgos que surgen del uso de sistemas de IA por parte de empresas privadas, ya sea aplicando los mismos principios o mediante โ€œotras medidas apropiadasโ€, que no se especifican. El Convenio tambiรฉn contiene excepciones, similares a las establecidas por la Ley de IA de la UE. Su alcance excluye:

  • actividades dentro del ciclo de vida de los sistemas de IA relacionadas con la protecciรณn de los intereses de seguridad nacional, independientemente del tipo de entidades que lleven a cabo las actividades correspondientes;
  • todas las actividades de investigaciรณn y desarrollo relacionadas con sistemas de IA que aรบn no estรกn disponibles para su uso; y
  • asuntos relacionados con la defensa nacional.
  1. Obligaciones y principios

La Convenciรณn se basa en principios y, por lo tanto, por su naturaleza, estรก formulada en compromisos de alto nivel y tรฉrminos abiertos. Contiene varios principios y obligaciones para que las partes tomen medidas para garantizar la protecciรณn de los derechos humanos, la integridad de los procesos democrรกticos y el respeto del estado de derecho. Estas obligaciones fundamentales son familiares, ya que tambiรฉn forman la base de la Ley de IA de la UE. Las obligaciones principales incluyen:

  • medidas para proteger la capacidad del individuo para formar opiniones libremente;
  • medidas que garanticen requisitos adecuados de transparencia y supervisiรณn, en particular en lo que respecta a la identificaciรณn de contenidos generados por sistemas de inteligencia artificial;
  • medidas que garanticen la rendiciรณn de cuentas y la responsabilidad por los impactos adversos;
  • medidas para fomentar la igualdad y la no discriminaciรณn en el uso de sistemas de IA, incluida la igualdad de gรฉnero;
  • la protecciรณn de los derechos de privacidad de las personas y sus datos personales;
  • Para fomentar la innovaciรณn, las partes tambiรฉn estรกn obligadas a permitir el establecimiento de entornos controlados para el desarrollo y prueba de sistemas de IA.

Otros dos elementos clave de la Convenciรณn son que cada parte debe tener la capacidad de prohibir ciertos sistemas de inteligencia artificial que sean incompatibles con los principios bรกsicos de la Convenciรณn y proporcionar recursos accesibles y efectivos para las violaciones de derechos humanos. Los ejemplos dados en la Convenciรณn subrayan que se han incluido cuestiones actuales, p.ej., La interferencia electoral parece ser uno de los riesgos discutidos.

  1. Crรญticas y reacciones

La Convenciรณn ha sido criticada por organizaciones de la sociedad civil[3] y el Supervisor Europeo de Protecciรณn de Datos[4]. Los principales puntos de crรญtica incluyen:

  • Amplias excepciones: La Convenciรณn incluye excepciones para la seguridad nacional, la investigaciรณn y el desarrollo y la defensa nacional. Los crรญticos argumentan que estas lagunas podrรญan socavar salvaguardias esenciales y conducir a la experimentaciรณn y el uso de IA en aplicaciones militares sin control y sin supervisiรณn. Se han dirigido crรญticas similares a la Ley de IA de la UE.
  • Disposiciones vagas y regulaciรณn del sector privado: Los principios y obligaciones de la Convenciรณn se consideran demasiado generales y carecen de criterios especรญficos para su aplicaciรณn. Los crรญticos destacan la ausencia de prohibiciones explรญcitas sobre aplicaciones de IA de alto riesgo, como armas autรณnomas y vigilancia masiva. Ademรกs, el Convenio exige abordar los riesgos de las empresas privadas, pero no especifica las medidas, lo que genera preocupaciones sobre una regulaciรณn inconsistente.
  • Aplicaciรณn y rendiciรณn de cuentas: La Convenciรณn exige la presentaciรณn de informes sobre el cumplimiento, pero carece de un mecanismo de aplicaciรณn sรณlido. Los crรญticos argumentan que sin una aplicaciรณn estricta y una rendiciรณn de cuentas, el impacto de la Convenciรณn serรก limitado. Tambiรฉn existen preocupaciones sobre la idoneidad de las reparaciones por violaciones de derechos humanos cometidas por sistemas de inteligencia artificial, debido a directrices de implementaciรณn vagas.
  1. Implementaciรณn y entrada en vigor

Las partes de la Convenciรณn deben tomar medidas para una implementaciรณn suficiente. Para tener en cuenta los diferentes sistemas jurรญdicos, cada parte puede optar por estar directamente vinculada por la disposiciรณn pertinente del Convenio o tomar medidas para cumplir con las disposiciones del Convenio. En general, el Convenio sรณlo prevรฉ un nivel mรญnimo comรบn de protecciรณn; los partidos son libres de adoptar regulaciones mรกs amplias. Para garantizar el cumplimiento del Convenio, cada parte debe informar a la Conferencia de las Partes dentro de los dos aรฑos siguientes a su adhesiรณn y, posteriormente, periรณdicamente, sobre las actividades que ha emprendido.

  1. Prรณximos pasos y conclusiones

El siguiente paso es que los Estados firmen la declaraciรณn de adhesiรณn. La Convenciรณn se abrirรก a la firma el 5 de septiembre de 2024. Se espera, aunque no es seguro, que los Estados miembros del CoE y los otros 11 Estados (incluido Estados Unidos) que contribuyeron al proyecto de convenciรณn se conviertan en partes.

En la UE, la Convenciรณn complementarรก la Ley de IA de la UE compartiendo el enfoque basado en el riesgo y principios bรกsicos similares. Dada la redacciรณn muy general de las disposiciones de la Convenciรณn y las amplias excepciones a su alcance, parece que la Ley de IA de la UE, adoptada el 21 de mayo, sigue siendo el conjunto de normas mรกs completo y prescriptivo en el campo de la IA, al menos en la UE. Sin embargo, como el Convenio constituirรก la base de la regulaciรณn de la IA en el Consejo de Europa, es de esperar que el Tribunal Europeo de Derechos Humanos (TEDH) se inspirarรก en el futuro en el Convenio a la hora de interpretar el Convenio Europeo de Derechos Humanos (CEDH).Esto puede tener importantes efectos de fertilizaciรณn cruzada para la legislaciรณn de derechos fundamentales de la UE, incluida la implementaciรณn de la Ley de IA de la UE, ya que el CEDH constituye el estรกndar mรญnimo de protecciรณn en virtud del artรญculo 52, apartado 3, de la Carta de los Derechos Fundamentales de la Uniรณn Europea. Uniรณn (Carta). Por lo tanto, tanto los Estados como las empresas privadas tendrรกn que ser conscientes de los posibles efectos superpuestos de la Convenciรณn y la Ley de IA de la UE.

__________

[1] Ver nota de prensa aquรญ. Ver el texto completo del Convenio aquรญ.

[2] El 21 de mayo de 2024, el Consejo de la Uniรณn Europea finalmente adoptรณ el Reglamento sobre IA (Ley sobre IA). Para obtener mรกs informaciรณn sobre la Ley de IA de la UE, consulte tambiรฉn: https://www.gibsondunn.com/artificial-intelligence-review-and-outlook-2024/.

[3] Ver https://ecnl.org/sites/default/files/2024-03/CSOs_CoE_Calls_2501.docx.pdf.

[4] Ver https://www.edps.europa.eu/press-publications/press-news/press-releases/2024/edps-statement-view-10th-and-last-plenary-meeting-committee-artificial-intelligence-cai- consejo-europeo-redacciรณn-marco-de-convenciรณn-artificial_en#_ftnref2.


Los siguientes abogados de Gibson Dunn ayudaron en la preparaciรณn de esta actualizaciรณn: Robert Spano, Joel Harrison, Christoph Jacob y Yannick Oberacker.

Los abogados de Gibson Dunn estรกn disponibles para ayudarlo a abordar cualquier pregunta que pueda tener sobre estos temas. Comunรญquese con el abogado de Gibson Dunn con quien trabaja habitualmente, los autores o cualquier lรญder o miembro del equipo de la firma. Inteligencia artificial, Privacidad, ciberseguridad e innovaciรณn de datos o Ambiental, Social y de Gobernanza (ESG) grupos de prรกctica:

Inteligencia artificial:
Cassandra L. Gaedt-Sheckter โ€“ Palo Alto (+1 650.849.5203, [emailย protected])
Vivek Mohan โ€“ Palo Alto (+1 650.849.5345, [emailย protected])
Roberto Spano โ€“ Londres/Parรญs (+44 20 7071 4902, [emailย protected])
Eric D. Vandevelde โ€“ Los Angeles (+1 213.229.7186, [emailย protected])

Privacidad, ciberseguridad e innovaciรณn de datos:
Ahmed Baladรญ โ€“ Parรญs (+33 (0) 1 56 43 13 00, [emailย protected])
Ashlie Beringer โ€“ Palo Alto (+1 650.849.5327, [emailย protected])
Kai Gesing โ€“ Mรบnich (+49 89 189 33 180, [emailย protected])
joel harrison โ€“ Londres (+44 20 7071 4289, [emailย protected])
Jane C. Horvath โ€“ Washington, DC (+1 202.955.8505, [emailย protected])
Anillo Rosemarie T. โ€“ San Francisco (+1 415.393.8247, [emailย protected])

Ambiental, Social y de Gobernanza (ESG):
Susy Bullock โ€“ Londres (+44 20 7071 4283, [emailย protected])
Isabel Ising โ€“ Washington, DC (+1 202.955.8287, [emailย protected])
Perlette M. Jura โ€“ Los Angeles (+1 213.229.7121, [emailย protected])
Ronald Kirk โ€“ Dallas (+1 214.698.3295, [emailย protected])
Michael K. Murphy โ€“ Washington, DC (+1 202.955.8238, [emailย protected])
Selina S. Sagayam โ€“ Londres (+44 20 7071 4263, [emailย protected])

ยฉ 2024 Gibson, Dunn & Crutcher LLP. Reservados todos los derechos. Para contacto y otra informaciรณn, visรญtenos en www.gibsondunn.com.

Publicidad de abogados: estos materiales se prepararon con fines informativos generales รบnicamente en funciรณn de la informaciรณn disponible en el momento de la publicaciรณn y no pretenden ser, ni constituyen, ni deben considerarse como, asesoramiento legal u opiniรณn legal sobre ningรบn hecho o circunstancias. Gibson Dunn (y sus afiliados, abogados y empleados) no tendrรกn ninguna responsabilidad en relaciรณn con el uso de estos materiales. El intercambio de estos materiales no establece una relaciรณn abogado-cliente con el destinatario y no debe considerarse como una alternativa para obtener asesoramiento de un abogado calificado. Tenga en cuenta que los hechos y las circunstancias pueden variar y los resultados anteriores no garantizan un resultado similar.

Leave a Comment

Comments

No comments yet. Why donโ€™t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *