La necesidad, para muchos ya imperiosa, de dotar de un marco legal sólido al uso de la inteligencia artificial (IA) ha calado en los reguladores y el año 2021 empieza con propuestas serias en este ámbito. Acabamos de conocer que la UE ha presentado su propuesta de Reglamento para el uso de la IA, pero no es la única iniciativa normativa (y política) en esta materia a nivel global.
Lo cierto, sin embargo, es que la propuesta que emerge desde la Comisión Europea se presenta como un robusto, sistemático y completo cuerpo normativo, siguiendo el modelo del ya emblemático Reglamento General de Protección de Datos (RGPD).
Pero la IA y su buen uso, es hoy en día una de las prioridades de los reguladores alrededor del mundo.
Haciendo un repaso por estas iniciativas se pueden destacar las siguientes:
Iniciativas regulatorias de Inteligencia Artificial en Estados Unidos
La National Defense Authorization Act of 2021 (NDAA), de la que deriva la White House Office of Science and Technology Policy (OSTP), determinó el 1 de enero el establecimiento de la National AI Initiative Office ( “Office”) que está encargada de supervisar e implementar la estrategia nacional de IA de los Estados Unidos y servirá como el eje central para la coordinación y colaboración federal en la investigación y formulación de políticas de IA en todo el gobierno, así como con el sector privado, el mundo académico y otros ámbitos interesados.
El 27 de enero, el presidente Biden firmó un memorando denominado, Restoring trust in government through science and integrity and evidence-based policy making, que tiene por finalidad reforzar el compromiso de su gobierno en la protección “de nuestros científicos de nivel mundial de la interferencia política y garantizar su libre investigación” y la Executive Order on the President’s Council of Advisors on Science and Technology, para reconstituir formalmente el Consejo de Asesores de Ciencia y Tecnología del Presidente. El consejo tendrá hasta 26 miembros y estará dirigido por la geóloga planetaria del MIT Maria Zuber, la bioquímica de Caltech Frances Arnold y el asesor científico de Biden, el genetista Eric Lander.
La Federal Reserve Board y el Consumer Financial Protection Bureau, han abierto un periodo de audiencia pública sobre el uso de la IA por parte de las instituciones financieras. El aviso, Request for Information and Comment on Financial Institutions’ Use of Artificial Intelligence, including Machine Learning (RFI), se publicó en el Registro Federal el 31 de marzo. Las agencias federales tienen como objetivo comprender mejor el uso de la IA y su gobernanza, gestión de riesgos y controles, así como los desafíos en el desarrollo, implementación y gestión de la tecnología.
Iniciativas y propuestas regulatorias en UK
Informe Artificial Intelligence and Public Standards de febrero de 2020, en el que el Committee on Standard in Public Life aborda el despliegue de la IA en el sector público y presenta al nuevo Centre for Data Ethics and Innovation (CDEI), como un organismo de garantía regulatoria con una función transversal, y encaminada a identificar situaciones de urgente necesidad de orientación y regulación sobre transparencia y sesgo de datos.
En junio de 2020, el CDEI publicó su AI Barometer, análisis basado en riesgos que revisa cinco sectores clave (justicia penal, salud y atención social, servicios financieros, energía y servicios públicos y medios digitales y sociales) e identifica oportunidades, riesgos y barreras, así como posibles lagunas regulatorias
AI in the UK: No Room for Complacency, el informe se señala que el marco normativo y de gobernanza del Reino Unido para la IA en el sector público, sigue siendo un trabajo en curso y las deficiencias son notables. El trabajo de la Office for AI, el Alan Turing Institute, el Centre for Data Ethics and Innovation (CDEI), y de la Information Commissioner’s Office (ICO), es encomiable por parte de todos. Ahora bien, en cuestiones relativas a la transparencia y la parcialidad de los datos, en particular, hay una necesidad urgente de orientación y regulación.
En febrero 2021, el gobierno del Reino Unido en respuesta al anterior informe (Government response to the House of Lords Select Committee on Artificial Intelligence) reconoció que el enfoque del gobierno debe centrarse en establecer los arreglos necesarios y precisos entre las instituciones: entre el gobierno y el sector público, entre los reguladores, así como con la academia y la industria. Este enfoque garantizará que el impulso ganado en los últimos años no se pierda, permitirá utilizar el liderazgo de UK en IA para resolver desafíos globales y entiende que es crucial desarrollar la comprensión y la confianza del público en la IA.
Propuesta Reglamento sobre Inteligencia Artificial en Estados Unidos
El 21 de abril de 2021, la Comisión Europea acaba de presentar su Propuesta de Reglamento sobre un enfoque europeo de la IA (Artificial Intelligence Act). La propuesta está directamente relacionada con la Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas.
Esta propuesta responde al compromiso político de la presidenta Von der Leyen, que anunció en sus directrices políticas para la Comisión 2019-2024 (A Union that strives for more) que la Comisión presentaría legislación para un enfoque europeo coordinado sobre las implicaciones humanas y éticas de la IA. Tras ese anuncio, el 19 de febrero de 2020, la Comisión publicó su White Paper on AI – A European approach to excellence and trust.
El Libro Blanco establece opciones políticas sobre cómo lograr el doble objetivo de promover la adopción de la IA y de abordar los riesgos asociados a determinados de ciertos usos de esta tecnología.
De acuerdo con este planteamiento, la propuesta incorpora un enfoque basado en el riesgo, declarando la necesidad de que el marco regulador de estas tecnologías fuese proporcional, en el sentido de que el nivel de intervención regulatoria debe ajustarse al nivel de riesgo que representan las distintas aplicaciones y usos de IA.
Este enfoque normativo basado en el riesgo está ya presente en otras regulaciones europeas; entre otros, en el Reglamento General de Protección de Datos (RGPD), siendo un ejemplo claro la obligatoriedad contenida en su artículo 35 de llevar a cabo una evaluación de impacto de protección de datos en función del riesgo del tratamiento, o en el Reglamento de Productos Sanitarios (MDR), sobre los productos sanitarios, por el que se modifican la Directiva 2001/83/CE.
La actual propuesta se compone de 12 Títulos:
El Título I define el objeto del reglamento y el ámbito de aplicación de las nuevas normas que cubren la comercialización, la puesta en servicio y el uso de los sistemas de IA.
El Título II establece una lista de IA prohibida. Como se destacó, el reglamento sigue un enfoque basado en el riesgo diferenciando entre los usos de la IA que crean (i) un riesgo inaceptable, (ii) un riesgo alto, y (iii) riesgo bajo o mínimo.
El Título III contiene normas específicas para los sistemas de IA que crean un alto riesgo para la salud y la seguridad o los derechos fundamentales de las personas físicas. De acuerdo con un enfoque basado en el riesgo, son sistemas de alto riesgo.
El Título IV se refiere a determinados sistemas de IA para tener en cuenta los riesgos específicos de manipulación que plantean. Las obligaciones de transparencia se aplicarán a los sistemas que (i) interactúan con los seres humanos, (ii) se utilicen para detectar emociones o determinar la asociación con categorías (sociales) a partir de datos biométricos, o biométricos, o (iii) generen o manipulen contenidos («deep fakes»).
El Título V contribuye al objetivo de crear un marco jurídico favorable a la innovación que esté preparado para el futuro y sea resistente a las perturbaciones.
El Título VI establece los sistemas de gobernanza a nivel de la UE y nacionales. A nivel de la UE, la propuesta establece una European Artificial Intelligence Board, compuesta por representantes de los Estados miembros y de la Comisión.
El título VII tiene por objeto facilitar la labor de seguimiento de la Comisión y de las autoridades nacionales mediante la creación de una base de datos a escala de la UE para los sistemas autónomos de IA de alto riesgo con implicaciones principalmente para los derechos fundamentales.
El título VIII establece las obligaciones de supervisión y notificación para los proveedores de sistemas de IA en lo que respecta a los proveedores de sistemas de IA, a la supervisión y notificación posteriores a la comercialización y a la investigación de los incidentes relacionados con la IA y su mal funcionamiento.
El título IX diseña un marco para la creación de códigos de conducta, cuyo objetivo es fomentar que los proveedores de sistemas de IA que no sean de alto riesgo, apliquen voluntariamente los requisitos obligatorios para sistemas de IA de alto riesgo (según lo establecido en el Título III)
El Título X hace hincapié en la obligación de todas las partes de respetar la confidencialidad de la información y datos y establece normas para el intercambio de la información obtenida durante la aplicación del reglamento.
El Título XI establece normas para el ejercicio de las competencias de delegación y ejecución.
El título XII contiene la obligación de que la Comisión evalúe periódicamente la necesidad de actualizar del Anexo III y elaborar informes periódicos sobre la evaluación y revisión del reglamento
Con esta propuesta, la Comisión Europea apuesta por aportar el primer marco legal completo y sistemático sobre el uso de la IA, desde la perspectiva de los riesgos y posiciona a Europa para desempeñar un papel de liderazgo a nivel mundial en este ámbito.
Suscríbete a nuestro newsletter aquí.