eu-ai-alliance-3_0.png

|Autor: Juan Antonio Lloret Egea | Miembro de la Alianza Europea para la IA |https://orcid.org/0000-0002-6634-3351|© 2019. Licencia de uso y distribución: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] Creative Commons CC BY 4.0 | Escrito: 25/10/2019. Actualizado: 25/10/2019 | | Preprint DOI 10.13140/RG.2.2.14464.38402 |


9.3-1.- Introducción


Una encuesta de organizaciones internacionales describe el enfoque que los organismos de las Naciones Unidas y las organizaciones regionales han adoptado hacia la IA


Para describir cómo está de desarrollada la normativa y la regulación con respecto a la inteligencia artificial a nivel mundial, vamos a analizar puntos singulares específicos que consideramos representativos o de interés. Para esto hemos utilizado una publicación de referencia de La Biblioteca del Congreso, que es el principal brazo de investigación del Congreso de los Estados Unidos, denominada Regulation of Artificial Intelligence in Selected Jurisdictions (enero de 2019). La credibilidad de la fuente entendemos que es un asunto mayor en este tipo de informaciones tan sensibles.

Los puntos son:

  1. La Unión Europea.
  2. Estados Unidos.
  3. China.
  4. Alemania.
  5. Rusia.
  6. España.
  7. UK.

El informe de la biblioteca estadounidense mencionado examina el emergente panorama normativo y de políticas que rodea a la inteligencia artificial (IA) en jurisdicciones del mundo. Recogeremos un extracto y embeberemos el documento original en PDF, al que la biblioteca permite libre descarga en Full Report.

Además resulta de interés en las conclusiones finales citar (como hipótesis o postulados para la regulación futura) a EAD del IEEE que incluye comentarios sobre cómo la ley debe responder a una serie de desafíos éticos y legales específicos que plantea el desarrollo y despliegue de A/IS (Autonomous and Intelligent Systems) en la vida contemporánea. También se centra en el impacto de A/IS en la práctica del derecho mismo. Más específicamente, se estudia tanto los beneficios potenciales como los riesgos potenciales resultantes de la incorporación de A/IS en el sistema legal de una sociedad, específicamente en la elaboración de leyes, justicia civil, justicia penal y aplicación de la ley. [C9.3.-1]

Asimismo este texto resulta complementario al trabajo denominado ‘Guía y herramientas para el diseño responsable y la implementación de sistemas de IA | Guide and tools for responsible design and implementation of AI systems


Si bien las encuestas de países analizan varios problemas legales, incluida la protección de datos y la privacidad, la transparencia, la supervisión humana, la vigilancia, la administración pública y los servicios, los vehículos autónomos y los sistemas letales de armas autónomas, las regulaciones más avanzadas se encontraron en el área de vehículos autónomos, en particular para la prueba de dichos vehículos.

Fuente: [C9.3.-2]

Como la regulación de la IA todavía está en su infancia, también se abordan las directrices, los códigos de ética y las acciones y las declaraciones de los gobiernos y sus agencias sobre IA. Si bien las encuestas de países analizan varios problemas legales, incluida la protección de datos y la privacidad, la transparencia, la supervisión humana, la vigilancia, la administración pública y los servicios, los vehículos autónomos y los sistemas letales de armas autónomas, las regulaciones más avanzadas se encontraron en el área de vehículos autónomos, en particular para la prueba de dichos vehículos [C9.3.-2].


9.3-2.- Unión Europea


I. Reglamento general de protección de datos

El 25 de mayo de 2018, entró en vigencia el Reglamento General de Protección de Datos (GDPR) de la UE. Se aplica directamente en todos los Estados miembros de la UE sin necesidad de legislación de aplicación. Entre otros derechos, el GDPR garantiza a las personas el derecho a que una persona física tome o revise una decisión basada únicamente en el procesamiento automatizado (un algoritmo) en lugar de una computadora.

II Resolución del Parlamento Europeo sobre normas de derecho civil sobre robótica

El 16 de febrero de 2017, el Parlamento Europeo adoptó una resolución de iniciativa legislativa en la que recomendaba una serie de iniciativas legislativas y no legislativas en el campo de la robótica y la IA a la Comisión Europea. Entre otras cosas, pidió a la Comisión Europea que adopte una propuesta de instrumento legislativo que establezca normas de derecho civil sobre la responsabilidad de los robots y la IA, “para proponer definiciones comunes de la unión de sistemas físicos cibernéticos, sistemas autónomos, robots autónomos inteligentes y sus subcategorías “, y establecen criterios para la clasificación de los robots que deberían registrarse, establecen una Agencia de la UE designada para Robótica e Inteligencia Artificial y proponen una carta que consiste en un código de conducta para ingenieros de robótica, un código para comités de ética de investigación al revisar protocolos de robótica y modelos de licencias para diseñadores. También solicitó a la Comisión que considerara “crear un estado legal específico para los robots a largo plazo, de modo que al menos los robots autónomos más sofisticados pudieran establecerse como personas electrónicas responsables de reparar cualquier daño que pudieran causa, y posiblemente aplicando personalidad electrónica a casos en los que los robots toman decisiones autónomas o interactúan con terceros de forma independiente “.

La Comisión Europea en su seguimiento de la resolución acordó que era necesario “examinar cómo adaptar las normas de responsabilidad civil a las necesidades de la economía digital” y declaró que tenía la intención de trabajar con el Parlamento Europeo y la estados miembros de la UE sobre una respuesta de la UE conjunta. Entre otras cosas, planea evaluar la Directiva de Responsabilidad del Producto y explorar regímenes de responsabilidad basados ​​en el riesgo. Declaró que es necesario un mayor examen para decidir qué tipo de definiciones son necesarias para fines regulatorios. Rechazó la recomendación del Parlamento Europeo de establecer una nueva Agencia Europea para Robótica e IA y propuso en intercambio de discusiones de grupos de expertos con los Estados miembros de la UE, la industria y los estandarizadores.

III. Acciones de la Comisión Europea

En abril de 2018, la Comisión Europea publicó su comunicación “Inteligencia artificial para Europa” (Comunicación) en la que describía el enfoque de la UE para aprovechar las oportunidades que ofrece la IA y abordar los desafíos que plantea. Desde 2014 hasta 2017, la UE invirtió 1.100 millones de € en investigación e innovación relacionadas con la IA en el marco del programa de investigación e innovación Horizonte 2020. Entre otras cosas, la comunicación hace hincapié en que la UE debe garantizar que nadie se quede atrás en la transformación digital y que la IA se desarrolle y aplique en función de los valores y derechos fundamentales de la UE. También está revisando las normas existentes sobre seguridad y responsabilidad civil. La Comisión publicó una comunicación de seguimiento y un plan coordinado que se basó en la Comunicación original en diciembre de 2018.

El 18 de diciembre de 2018, el Grupo de Expertos de Alto Nivel en Inteligencia Artificial (AI HLEG) – cincuenta y dos expertos de la academia, la sociedad civil y la industria nombrados por la Comisión- publicaron un borrador de directrices de ética de AI, que establecieron un marco para diseñar IA confiable. De acuerdo con las directrices, la IA confiable debe “respetar los derechos fundamentales, la regulación aplicable y los principios y valores fundamentales, asegurando un” propósito ético “y” ser técnicamente robustos y confiables ya que, incluso con buenas intenciones, la falta de dominio tecnológico puede causar daños involuntarios ”. Se permitió a las partes interesadas enviar comentarios hasta el 18 de enero de 2019. (Disponible en varios idiomas en: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai )

AI HLEG también propuso una definición actualizada de AI, definiéndola de la siguiente manera:

La inteligencia artificial (IA) se refiere a sistemas diseñados por humanos que, con un objetivo complejo, actúan en el mundo físico o digital al percibir su entorno, interpretar los datos estructurados o no estructurados recopilados, razonar sobre el conocimiento derivado de estos datos y decidir el mejor acción (es) a tomar (de acuerdo con parámetros predefinidos) para lograr el objetivo dado. Los sistemas de IA también pueden diseñarse para aprender a adaptar su comportamiento al analizar cómo el medio ambiente se ve afectado por sus acciones anteriores.

Como disciplina científica, la IA incluye varios enfoques y técnicas, como el aprendizaje automático (de los cuales el aprendizaje profundo y el aprendizaje de refuerzo son ejemplos específicos), el razonamiento automático (que incluye planificación, programación, representación y razonamiento, búsqueda y optimización del conocimiento), y robótica (que incluye control, percepción, sensores y actuadores, así como la integración de todas las demás técnicas en sistemas ciberfísicos).

Además, la Comisión Europea estableció una Unidad de Robótica e Inteligencia Artificial cuya misión es la del

desarrollo de una industria competitiva en robótica e Inteligencia Artificial en Europa que incluye robots industriales y de servicio, así como el creciente campo de sistemas autónomos que abarcan desde drones y vehículos sin conductor hasta visión cognitiva y computación. La Unidad también admite la amplia aceptación y el mejor uso de la robótica y la Inteligencia Artificial en todos los campos industriales y sociales.

Además, esto “sigue las cuestiones éticas y legales relacionadas con los robots y los sistemas autónomos, como la responsabilidad y… los aspectos relacionados con el impacto de la automatización y la robótica en los trabajos y el entorno laboral “.

IV. Declaración de Cooperación sobre Inteligencia Artificial

El 10 de abril de 2018, veinticuatro estados miembros de la UE y Noruega firmaron la Declaración de Cooperación sobre Inteligencia Artificial para desarrollar un enfoque europeo de la IA. Rumania, Grecia y Chipre se unieron a la iniciativa en mayo de 2018, y Croacia en julio de 2018. En la Declaración, los signatarios acordaron cooperar en:

  • Aprovechar la tecnología y la capacidad industrial de Europa en IA y su incorporación, incluido un mejor acceso a los datos del sector público; éstas son condiciones esenciales para influir en el desarrollo de la inteligencia artificial, impulsar modelos comerciales innovadores y crear crecimiento económico y nuevos empleos calificados.
  • Abordar los desafíos socioeconómicos, como la transformación de los mercados laborales y la modernización de los sistemas de educación y formación de Europa, que incluyen la mejora y actualización de los ciudadanos de la UE.
  • garantizar un marco legal y ético adecuado, basado en los derechos y valores fundamentales de la UE, incluida la privacidad y protección de datos personales, así como en principios como la transparencia y la rendición de cuentas.

V. Informe de las autoridades europeas de supervisión

El 5 de septiembre de 2018, las Autoridades Europeas de Supervisión (ESA) publicaron un informe conjunto sobre los resultados del ejercicio de monitoreo sobre “automatización en el asesoramiento financiero”. El informe concluyó que no es necesaria una acción inmediata, porque actualmente sólo hay un número limitado de empresas involucradas en la automatización del asesoramiento financiero y los riesgos identificados no se han materializado. Los miembros de ESA planean llevar a cabo un nuevo ejercicio de monitoreo si el desarrollo del mercado y los riesgos del mercado lo justifican.

VI. Vehículos conectados y automatizados

En 2016, la Comisión Europea publicó una comunicación sobre sistemas inteligentes de transporte. Propuso, entre otras cosas, la adopción de un marco legal a nivel de la UE para 2018 desarrollado a través del aprendizaje por experiencia. En 2018, la Comisión publicó otra comunicación que describía la estrategia de la UE para permitir que la UE y sus Estados miembros “sean líderes en ofrecer movilidad sin conductor segura, eficiente, socialmente responsable y respetuosa con el medio ambiente para los ciudadanos de la UE”. La Comunicación de 2018 va acompañada de dos propuestas legislativas para implementar ese objetivo, una para una revisión del Reglamento General de Seguridad, y otra para una propuesta de enmiendas a la directiva sobre seguridad de la infraestructura vial. Con respecto a los sistemas inteligentes de transporte, la Comisión publicó una decisión en diciembre de 2018 que establece un programa de trabajo actualizado para alcanzar los objetivos de la Directiva 2010 sobre sistemas inteligentes de transporte. (Ver vehículo autónomo también).

VII. Sistemas letales de armas autónomas (UE)

En la reunión de agosto de 2018 de GGE LAWS, la UE declaró que “considera que vale la pena revisar de manera más regular y sistemática los desarrollos acelerados en el área de las tecnologías emergentes, incluida la inteligencia artificial (IA), brindando una oportunidad a los expertos técnicos para compartir información sobre tecnologías autónomas relevantes para nuestro trabajo “. La UE enfatizó que es necesario que “los humanos mantengan el control del desarrollo, despliegue y uso con respecto a posibles aplicaciones militares de tecnologías emergentes, incluida la IA, y eviten la creación y el uso de aplicaciones dañinas“. [C9.3.-2]


9.3-3.- Estados Unidos


Los legisladores y reguladores de los Estados Unidos han perseguido principalmente la IA en el área de vehículos autónomos. El Departamento de Transporte está investigando qué elementos deben considerarse en la redacción de reglamentos para el uso de dichos vehículos, incluidos los convoyes de múltiples vehículos, y varios estados han adoptado leyes y reglamentos que permiten la prueba de vehículos autónomos. Además, la legislación federal reciente ha encomendado a parte del Departamento de Defensa la responsabilidad de elaborar políticas para el desarrollo y despliegue de sistemas de IA en lo que respecta a la defensa nacional.

I. Legislación federal y acción reguladora

En el 115 ° Congreso, se presentaron treinta y nueve proyectos de ley que tienen la frase “inteligencia artificial” en el texto del proyecto de ley. Cuatro de estos proyectos de ley se han promulgado. La Sección 238 de la Ley de Autorización de Defensa Nacional John S. McCain para el año fiscal 2019 ordena al Departamento de Defensa que emprenda varias actividades relacionadas con la IA. La subsección (b) requiere que el Secretario de Defensa designe un coordinador que supervisará y dirigirá las actividades del Departamento “relacionadas con el desarrollo y la demostración de la inteligencia artificial y el aprendizaje automático”. La subsección (g) proporciona la siguiente definición de AI:

(1) Cualquier sistema artificial que realiza tareas en circunstancias variables e impredecibles sin supervisión humana significativa, o que puede aprender de la experiencia y mejorar el rendimiento cuando se expone a conjuntos de datos.

(2) Un sistema artificial desarrollado en software de computadora, hardware físico u otro contexto que resuelve tareas que requieren percepción, cognición, planificación, aprendizaje, comunicación o acción física similar a la humana.

(3) Un sistema artificial diseñado para pensar o actuar como un humano, incluyendo arquitecturas cognitivas y redes neuronales.

(4) Un conjunto de técnicas, incluido el aprendizaje automático, diseñado para aproximar una tarea cognitiva.

(5) Un sistema artificial diseñado para actuar racionalmente, que incluye un agente de software inteligente o un robot incorporado que logra objetivos utilizando la percepción, la planificación, el razonamiento, el aprendizaje, la comunicación, la toma de decisiones y la actuación.

La subsección (f) instruye al Secretario de Defensa a “delinear una definición del término ‘inteligencia artificial’ para uso dentro del Departamento” a más tardar un año después de la promulgación de la ley.

En 2018, el Congreso también aconsejó a la Administración Federal de Aviación, en un lenguaje insertado en la Ley de Reautorización de la FAA de 2018, que revise periódicamente, con expertos de la industria y académicos, el estado de la IA en la aviación y tome medidas, según sea necesario, para abordar los nuevos desarrollos.

En 2015, el Congreso incluyó lenguaje en la Ley de Transporte de Superficie de Fixing America (FAST ACT) que ordenaba al Departamento de Transporte financiar la investigación sobre la aplicación de vehículos autónomos en el desarrollo y la mejora de los patrones de tráfico en las carreteras.

El Departamento de Transporte de los Estados Unidos ha solicitado solicitudes de comentarios para estudios propuestos de sistemas automáticos de manejo. Una de esas solicitudes, emitida por la Administración Federal de Carreteras, solicitó comentarios sobre “una serie de cuestiones relacionadas con la evaluación de los requisitos y estándares de infraestructura que pueden ser necesarios para permitir operaciones seguras y eficientes de ADS [Sistemas de conducción automatizada]”.

Otra solicitud de comentarios, emitida por la Administración Nacional de Seguridad del Tráfico en Carreteras, se refería a posibles barreras creadas por las Normas Federales de Seguridad de Vehículos Motorizados existentes para la prueba de vehículos autónomos, especialmente aquellos con elementos de diseño interior no tradicionales, como vehículos que no tienen volantes.

II Legislación estatal y acción reguladora

En 2011, Nevada adoptó la primera legislación sobre la prueba de vehículos autónomos. La ley específica define vehículo autónomo como restringido a la operación de “el vehículo de motor sin control activo o monitoreo de un operador humano”. La ley también establece requisitos para la prueba de dichos vehículos, y ordena que se emitan reglamentos que rijan su funcionamiento.

En 2012, Florida adoptó una legislación similar que prevé la prueba y operación de vehículos autónomos. California también adoptó legislación sobre el tema en 2012.

Según la Conferencia Nacional de Legislaturas Estatales, aproximadamente el 60% de los estados han adoptado alguna forma de legislación sobre vehículos autónomos.

En algunos estados, se han adoptado disposiciones para probar vehículos autónomos mediante orden ejecutiva o regulación administrativa. En Arizona, el gobernador emitió órdenes ejecutivas que ordenaban a las agencias estatales que elaboraran regulaciones para la prueba de vehículos autónomos. Esta orden se modificó en 2018 después de que un peatón resultó fatalmente herido por un vehículo autónomo. En este incidente, la Junta Nacional de Seguridad del Transporte descubrió que una combinación de la desactivación del sistema de frenado automático del vehículo y una falla en advertir al operador humano a bordo de la presencia de un objeto desconocido condujo al accidente.

Nevada comenzó a emitir regulaciones para la operación de vehículos autónomos en 2012. California adoptó regulaciones para la prueba de vehículos autónomos en 2014. La División de Vehículos Motorizados adoptó regulaciones para el despliegue de vehículos autónomos en 2018.

Según la Conferencia Nacional de Legislaturas Estatales, hasta abril de 2017, veintiocho estados habían introducido alguna forma de regulación para vehículos autónomos.

III. Otras acciones gubernamentales relacionadas con la IA

A. Informes del gobierno

Los siguientes son informes de alto nivel del gobierno federal relacionados con la IA preparados por las administraciones actuales y anteriores:

  • OFICINA EJECUTIVA DEL PRESIDENTE, CONSEJO NACIONAL DE CIENCIA Y TECNOLOGÍA, COMITÉ DE INTELIGENCIA ARTIFICIAL, PREPARÁNDOSE PARA EL FUTURO DE LA INTELIGENCIA ARTIFICIAL (2016). Este informe resume el estado de la IA en la sociedad, la economía y el gobierno estadounidenses. Examina aplicaciones específicas, como el transporte y la lucha de guerra, y hace recomendaciones no vinculantes.
  • POLÍTICA DE LA OFICINA DE CIENCIA Y TECNOLOGÍA DE LA CASA BLANCA, RESUMEN DE LA CUMBRE DE LA CASA BLANCA SOBRE INTELIGENCIA ARTIFICIAL PARA LA INDUSTRIA AMERICANA (2018) . Este informe revisa el enfoque normativo y normativo de la administración Trump para la IA.

B. Posición sobre los sistemas letales de armas autónomas

En la reunión de 2018 del GGE sobre leyes, establecida bajo la Convención sobre Ciertas Armas Convencionales, la delegación presentó su posición de que en este momento no es necesario crear una definición de leyes, y que tales sistemas no deben ser estigmatizados, sino que su uso debe considerarse dentro del marco de las leyes de guerra actuales [C9.3.-2] .


9.3-4.- China


I. Estrategias nacionales de IA

A. Plan de desarrollo de IA a largo plazo

El 20 de julio de 2017, el Consejo de Estado de China lanzó el Plan de desarrollo de inteligencia artificial de próxima generación (Plan de desarrollo). El Plan de Desarrollo establece objetivos estratégicos a largo plazo para el desarrollo de la IA en China, que concluye en 2030. Contiene “medidas de garantía”, como el desarrollo de un sistema regulador y el fortalecimiento de la protección de la propiedad intelectual, para promover el desarrollo de la IA.

El Plan de Desarrollo consta de tres etapas, que concluyen en 2020, 2025 y 2030, respectivamente, y establece objetivos relacionados con la construcción de un marco regulatorio y un marco ético para cada etapa, de la siguiente manera:

  • Para 2020, la tecnología y la aplicación general de IA de China se pondrían al día con los niveles avanzados a nivel mundial. Las normas, políticas y leyes y regulaciones éticas de AI se establecerían inicialmente en algunas áreas.
  • Para 2025, China lograría grandes avances en las teorías básicas de IA y se convertiría en líder mundial en algunas tecnologías y aplicaciones. Los sistemas legales, éticos y de políticas de AI se establecerían inicialmente, y se lograrían las capacidades de evaluación y control de seguridad de AI.
  • Para 2030, las teorías, tecnologías y aplicaciones de IA de China alcanzarían niveles líderes en el mundo, convirtiendo a China en el principal centro de innovación de IA del mundo. Los sistemas legales, éticos y de políticas de AI se mejorarían aún más.

El Plan de Desarrollo propone “formar un acuerdo institucional para adaptarse al desarrollo de la IA, construir un entorno internacional abierto e inclusivo y reforzar la base social del desarrollo de la IA”. Las medidas de garantía específicas a este respecto incluyen lo siguiente:

  • Desarrollo de marcos regulatorios y éticos: esta medida tiene como objetivo fortalecer la investigación sobre temas legales, éticos y sociales relacionados con la IA, y establecer marcos regulatorios y éticos para garantizar el desarrollo saludable de la IA. Específicamente, China realizará investigaciones sobre cuestiones legales relacionadas con las aplicaciones de IA, incluida la confirmación de la responsabilidad civil y penal, la protección de la privacidad y la propiedad, y la utilización de la seguridad de la información.
  • Proporcionar incentivos fiscales para las empresas de inteligencia artificial: el objetivo de esta política clave es apoyar el desarrollo de las empresas de inteligencia artificial proporcionando incentivos fiscales y deducciones de investigación y desarrollo a las empresas de alta tecnología.
  • Formulación de estándares técnicos: Esto vería la formulación de estándares técnicos relacionados, por ejemplo, con la seguridad de la red y la protección de la privacidad. Se alentaría a las empresas chinas de IA a participar o liderar el desarrollo de estándares internacionales de IA.
  • Fortalecimiento de la protección de la propiedad intelectual (PI): Esto promovería la protección de la PI de las innovaciones de IA y promovería el uso de la nueva tecnología de IA mediante el establecimiento de grupos de patentes públicas de AI.
  • Establecimiento del sistema de supervisión y evaluación de seguridad de AI: la intención es construir un mecanismo de alerta temprana de monitoreo de seguridad de AI y un sistema de supervisión de IA abierto y transparente. China promovería la autodisciplina de la industria y las empresas de inteligencia artificial y aumentaría los castigos por abuso de datos, violaciones de la privacidad personal y actividades poco éticas a este respecto.

B. Plan de acción trienal (2018-2020)

Para implementar la primera etapa del Plan de Desarrollo, en diciembre de 2017, el Ministerio de Industria y Tecnología de la Información de China (MIIT) emitió el Plan de acción trienal para promover el desarrollo de una industria de inteligencia artificial de nueva generación (Plan de acción).

Según el Plan de Acción, China se centraría en los siguientes siete campos en los tres años a partir de 2018-2020:

  • Vehículos de red inteligentes .
  • Robots inteligentes de servicio.
  • Vehículos aéreos no tripulados inteligentes .
  • Sistemas de diagnóstico por imagen médica.
  • Sistemas de identificación de imagen de video.
  • Sistemas interactivos de voz inteligentes.
  • Sistemas inteligentes de traducción.

El Plan de Acción también propone llevar a cabo investigaciones sobre políticas, leyes y regulaciones relevantes para la IA como método para crear un buen ambiente para el desarrollo saludable de la industria de la IA, aunque no elabora ninguna medida específica.

II Vehículos autónomos

El 11 de abril de 2018, el MIIT, el Ministerio de Seguridad Pública (MPS) y el Ministerio de Transporte (MOT) emitieron conjuntamente un conjunto de reglas de prueba que allanan el camino para las pruebas en carretera de vehículos autónomos en China (Reglas Nacionales). Las Reglas Nacionales, que entraron en vigencia el 1 de mayo de 2018, contienen requisitos para vehículos de prueba y conductores de prueba. Las Reglas también especifican los procedimientos de prueba. Por ejemplo, un conductor de prueba siempre debe sentarse en el asiento del conductor del vehículo de prueba durante la prueba, controlar el estado del vehículo de prueba y el entorno de conducción, y prepararse para hacerse cargo del vehículo en cualquier momento. Las autoridades locales a nivel provincial formularán reglas de implementación aplicables en sus propias áreas.

De acuerdo con las Reglas Nacionales, se requiere una placa temporal para la prueba en carretera de vehículos autónomos. A partir de octubre de 2018, al menos ocho ciudades, incluidas Beijing, Shanghai, Shenzhen y Chongqing, habían publicado sus normas locales y comenzaron a emitir placas de matrícula temporales para la prueba en carretera de vehículos autónomos en sus áreas.

III. Sistemas letales de armas autónomas (LEYES)

Según los informes, el 13 de abril de 2018, la delegación de China ante las Naciones Unidas GGE on LAWS anunció el deseo de China de negociar y concluir un nuevo protocolo para la Convención sobre ciertas armas convencionales para prohibir el uso de sistemas de armas letales totalmente autónomos.

El último documento de posición de China para el GGE, fechado el 11 de abril de 2018, indica que China cree que, en la actualidad, LAWS aún carece de una definición clara y acordada y muchos países creen que tales sistemas de armas no existen. Por lo tanto, China apoya alcanzar un acuerdo sobre la definición específica de leyes. Exhortó a “todos los países a tomar precauciones y abstenerse, en particular, de cualquier uso indiscriminado contra civiles”. El documento de posición también establece que es necesario, “al explorar cuestiones legales relacionadas con leyes, tener plena consideración de la aplicabilidad de las normas legales generales a las leyes”. Con respecto a las tecnologías emergentes como la IA, China” cree que el impacto de las tecnologías emergentes merece una discusión objetiva, imparcial y completa “. Establece que” Hasta que se hayan llevado a cabo tales discusiones, no debe haber premisas preestablecidas o resultados prejuzgados que puedan impedir el desarrollo de la tecnología de IA “.

IV. Reconocimiento facial

Según los informes, China está construyendo un sistema de videovigilancia con tecnologías de vanguardia como el reconocimiento facial. Según el informe anual de 2018 de la Comisión Ejecutiva del Congreso de los Estados Unidos sobre China, a partir de 2017, el sistema constaba de veinte millones de cámaras, muchas de ellas con capacidad de reconocimiento facial. Además de combatir el crimen, una función principal del sistema es mantener la estabilidad social, como evitar protestas y manifestaciones. El país tiene como objetivo completar una red nacional de reconocimiento y vigilancia facial para 2020 con “100 por ciento de cobertura de vigilancia y reconocimiento facial y unificación total de sus bases de datos existentes en todo el país”.

Durante 2018, se informó que el MPS estaba desarrollando una base de datos de reconocimiento facial “con el poder de identificar a cualquiera de sus 1.300 millones de ciudadanos en tres segundos”, junto con una compañía de seguridad con sede en Shanghai. Según el informe de noticias, la base de datos puede conectarse a redes de cámaras de vigilancia y utilizará instalaciones en la nube para conectarse con centros de almacenamiento y procesamiento de datos distribuidos en todo el país [C9.3.-2] .

En ciudades como Shenzhen, en la provincia de Guangdong, la policía de tránsito ha introducido tecnología de reconocimiento facial y pantallas LED para avergonzar y disuadir a los transeúntes. Las cámaras en las calles capturan imágenes de personas que cruzan ilegalmente la calle y el software de reconocimiento facial identifica a los ciudadanos comparando sus imágenes con una base de datos. Las fotos de esas personas junto con sus apellidos y parte de sus números de identificación se muestran en las pantallas. Además, a principios de 2018 se informó que los agentes de policía en Zhengzhou, provincia de Henan, estaban usando anteojos con software de reconocimiento facial para ayudar a buscar criminales buscados.


9.3-5.- Alemania


El gobierno federal alemán tiene como objetivo hacer de Alemania “un centro líder para la IA… a través de la búsqueda de una transferencia rápida y completa de los resultados de la investigación a las aplicaciones y la modernización de la administración”, y aspira a hacer de la “AI made in Germany ” una marca de calidad reconocida a nivel mundial. Sus prioridades son expandir la investigación de IA, transferir los resultados de la investigación y los métodos de IA a las empresas, apoyar las competencias de innovación, crear incentivos para nuevas empresas, desarrollar marcos internacionales y europeos para la IA en el mercado laboral, financiar y atraer científicos y talentos internacionales, que se use la IA en la administración pública, se ponga a disposición y utilizable los datos, revise el marco regulatorio para garantizar la seguridad jurídica si es necesario, establezca estándares, establezca redes a nivel nacional e internacional y entable un diálogo con diferentes partes interesadas.

I. Agendas y estrategias nacionales

En agosto de 2014 y 2016, respectivamente, el gobierno alemán publicó su Agenda Digital 2014-2017, que establece los principios rectores de su política digital y destaca una serie de campos de acción clave, y la Estrategia Digital 2025. Entre otras cosas, se establecieron dos centros de competencia de BigData. En el informe de implementación, el Gobierno señala que la inteligencia artificial (IA) y el aprendizaje automático proporcionan las herramientas esenciales para lidiar con los grandes datos.

Desde 2016, Alemania ha organizado una cumbre digital anual que reúne a representantes de las empresas, el mundo académico y la sociedad, y sirve como una “plataforma central para la cooperación en la configuración de un marco político orientado hacia el futuro para la transformación digital”.

En julio de 2018, el gobierno alemán publicó puntos clave para una Estrategia de Inteligencia Artificial (Estrategia AI) (Strategie Künstliche Intelligenz). La estrategia de IA completa se publicó a fines de noviembre de 2018 y se presentó públicamente en la Cumbre Digital 2018 en diciembre. Forma parte de la estrategia digital general y la agenda digital. La estrategia de IA establece que la tecnología de IA debe construirse “sobre la base de valores europeos, como la inviolabilidad de la dignidad humana, el respeto a la privacidad y el principio de igualdad”. Entre otras cosas, el Gobierno se esfuerza por “crear conciencia entre los desarrolladores y usuarios de la tecnología de inteligencia artificial sobre los límites éticos y legales del uso de la inteligencia artificial y para examinar si el marco regulatorio debe desarrollarse más a fin de garantizar un alto nivel de seguridad jurídica “.

II Comisión de ética de datos

El 5 de septiembre de 2018, la recién creada Comisión Alemana de Ética de Datos celebró su reunión inaugural. La Comisión de Ética de Datos está compuesta por dieciséis expertos de los campos de la medicina, derecho, informática, estadística, economía, teología, ética y periodismo. Es independiente, pero recibe apoyo organizativo del Ministerio Federal del Interior, Construcción y Comunidad (IMC) y del Ministerio Federal de Justicia y Protección del Consumidor (BMJV). La Comisión tiene la tarea de proponer pautas éticas para la política de datos, algoritmos, inteligencia artificial e innovación digital, y proporcionar recomendaciones y propuestas regulatorias al gobierno alemán.

Con respecto a la Estrategia de IA del gobierno alemán, la Comisión de Ética de Datos recomendó agregar un objetivo adicional y un área de acción adicional. Sugirió incluir “defender los principios éticos y legales basados ​​en nuestra democracia liberal a lo largo de todo el proceso de desarrollo y aplicación de inteligencia artificial” y “promover la capacidad de los individuos y la sociedad en su conjunto para comprender y reflexionar críticamente en la sociedad de la información . ”

III. Vehículos autónomos

El 13 de diciembre de 2016, entró en vigencia en Alemania una ley que implementa una enmienda a la Convención de Viena sobre Tráfico Vial, un tratado internacional, que permitió la transferencia de tareas de conducción a los propios vehículos. Esta enmienda a la Convención de Viena se refiere a los requisitos técnicos para los sistemas de conducción automatizados. Además, en junio de 2017, Alemania modificó su Ley de Tráfico de Carreteras para permitir que los conductores transfieran el control del vehículo a sistemas de conducción altamente o totalmente automatizados y para que esos vehículos se utilicen en vías públicas. El conductor sigue obligado a asumir las funciones de manejo del sistema de manejo automatizado sin demora indebida si el sistema de manejo le dice que lo haga o si el conductor se da cuenta o debería haberse dado cuenta de que las condiciones para usar un sistema de manejo automatizado ya no se cumplen. Además, una “caja negra” en el automóvil debe registrar si el vehículo está controlado por el conductor o por el sistema de conducción. La enmienda también elevó la cantidad máxima que una víctima puede recuperar por accidentes de manejo que involucren tales sistemas automáticos de manejo a 10 millones de € (alrededor de US $ 11.3 millones) por lesiones personales o muerte y a 2 millones de € (alrededor de US $ 2.3 millones ) por daños a la propiedad.

Además, el Ministro Federal de Transporte e Infraestructura Digital de Alemania creó una Comisión de Ética sobre Conducción Automatizada y Conectada. La Comisión de Ética está compuesta por catorce académicos y expertos de ética, derecho y tecnología. En agosto de 2017, publicó su informe, que establece veinte pautas éticas para la programación de sistemas de conducción automatizados con un enfoque en seguridad, dignidad humana, libertad personal de elección y autonomía de datos. La directriz número 4, por ejemplo, establece que

[l] el propósito de todas las decisiones regulatorias gubernamentales y políticas es promover el libre desarrollo y la protección de los individuos. En una sociedad libre, la forma en que la tecnología se desarrolla legalmente es tal que se logra un equilibrio entre la máxima libertad personal de elección en un régimen general de desarrollo y la libertad de los demás y su seguridad.

IV. Sistemas letales de armas autónomas

El gobierno alemán en su acuerdo de coalición declaró que “rechaza los sistemas de armas autónomas sin control humano” y pidió una prohibición global. En la reunión del GGE sobre LEYES, propuso, junto con Francia, adoptar una declaración política para “afirmar que los estados miembros comparten la convicción de que los humanos deberían poder tomar decisiones finales con respecto al uso de letal fuerza y ​​deberían seguir ejerciendo un control suficiente sobre los sistemas de armas letales que utilizan “. [C9.3.-2]


9.3-6.- Rusia


En 2017, el presidente Putin expresó su opinión de que el país que domina la IA primero se convertirá en el “gobernante del mundo”. Los esfuerzos de Rusia en el desarrollo de la infraestructura de la IA se centran en mejorar las capacidades del país en el área de defensa.

I. Plan de acción

En marzo de 2018, el Ministerio de Defensa de Rusia, el Ministerio de Educación y Ciencia y la Academia de Ciencias de Rusia organizaron una conferencia titulada Inteligencia artificial: problemas y sus soluciones. El resultado de la conferencia fue un plan de acción de diez puntos para el desarrollo de tecnologías de IA en Rusia que incluyó lo siguiente:

1. Establecer un Consorcio de BigData con el objetivo de unificar los esfuerzos de las principales organizaciones científicas, educativas e industriales en la creación e implementación de tecnologías de IA.

2. Adquisición de experiencia en automatización: la Academia de Ciencias, junto con el Ministerio de Defensa, el Ministerio de Educación y Ciencia y el Ministerio de Industria y Comercio, “deben intensificar los esfuerzos para establecer un Fondo para Algoritmos y Programas Analíticos para proporcionar experiencia en sistemas automatizados” para diferentes propósitos.

3. Crear un sistema estatal para la capacitación y educación en IA: el Ministerio de Educación y Ciencia, junto con la Academia de Ciencias y el Ministerio de Defensa, deben preparar propuestas para la creación de un sistema estatal de educación y reeducación de especialistas en área de IA.

4. Construir un laboratorio de IA en el campus de ciencia, tecnología e investigación de la Era: el Ministerio de Defensa, junto con la Agencia Federal para Organizaciones Científicas, la Universidad Estatal de Moscú y el centro de investigación de Informática y Desarrollo deberían crear un laboratorio para IA avanzada de software y soluciones técnicas en el campus de Era en la ciudad de Anapa, donde “el sector militar y el privado pueden trabajar juntos en tecnologías innovadoras como IA, robótica, automatización y otros campos”. El campus está programado para completarse en 2020. El ejército ruso ya está enviando personal de sus destacamentos de ciencia y tecnología para comenzar a trabajar allí.

5. Establecimiento de un Centro Nacional de Inteligencia Artificial: La Academia de Ciencias, junto con la Fundación para la Investigación Avanzada, debe preparar una propuesta para la creación del Centro Nacional de Inteligencia Artificial. El Centro ayudaría en el desarrollo del potencial científico, el desarrollo de infraestructura innovadora en el área de las tecnologías de IA y la realización de los resultados de la investigación teórica y los proyectos factibles en el área de la IA.

6. Monitoreo del desarrollo global de IA: el Ministerio de Defensa, junto con el Ministerio de Educación y Ciencia, debe monitorear y evaluar los desarrollos recientes y participar en estudios integrales en el área de IA.

7. Celebración de juegos de guerra de IA: el Ministerio de Defensa debe organizar y llevar a cabo una serie de juegos de guerra con un amplio espectro de escenarios, definiendo la influencia de los modelos de IA en el carácter cambiante de las operaciones militares a diferentes niveles: táctico, operativo y estratégico.

8. Verificación del cumplimiento de la IA: la Fundación para la Investigación Avanzada, junto con la Academia de Ciencias, el Ministerio de Defensa y la Agencia Federal de Organizaciones Científicas, debe preparar una propuesta para crear en el territorio de la Federación de Rusia un sistema para evaluar el cumplimiento de tecnologías de IA con estándares.

9. Discutir las propuestas de IA en foros militares nacionales: las propuestas mencionadas anteriormente deben ser consideradas por los “organismos ejecutivos federales interesados” durante el foro militar-técnico internacional “Ejército-2018” y la Semana de la Seguridad Nacional, celebrada en agosto de 2018.

10. Celebración de una conferencia anual de IA: La Academia de Ciencias, el Ministerio de Defensa y el Ministerio de Educación y Ciencia deberían celebrar una conferencia anual de IA.

II Arreglos institucionales

La Federación Rusa aún no ha promulgado leyes o regulaciones que rijan la IA. En la actualidad, el Ministerio de Defensa es la principal agencia gubernamental que coordina o establece prioridades de política para cuestiones relacionadas con la IA. Otras agencias gubernamentales relevantes son el Ministerio de Educación y Ciencia y el Ministerio de Industria y Comercio. La Academia de Ciencias y la Universidad Estatal de Moscú son los socios institucionales del gobierno en el desarrollo de tecnologías de IA.

En 2012, el gobierno promulgó una ley que creó la Fundación para la Investigación Avanzada, con el objetivo de promover el desarrollo y la creación de tecnologías innovadoras y producir productos militares de alta tecnología para uso especial y doble. La Fundación opera bajo los auspicios de la Comisión Militar-Industrial de Rusia, supervisada por el Presidente de la Federación de Rusia. Según el Plan de Acción, la Fundación actúa como un centro de limpieza e incubación de tecnologías innovadoras, incluidas las relacionadas con la IA.

III. Sistemas letales de armas autónomas

En línea con el enfoque del gobierno de fortalecer a los militares a través del desarrollo de tecnologías de inteligencia artificial, Rusia expresó la ambición de desarrollar armas letales autónomas. El Jefe del Estado Mayor General del Ejército ruso ha declarado, “ciertamente, cada conflicto militar tiene sus propias características distintivas. Las características principales de los conflictos futuros serán el uso generalizado de armas de alta precisión y de otro tipo, incluidas las robóticas. Los objetos de la economía y el sistema de gobierno del enemigo serán destruidos primero. ” Además, Rusia, conjuntamente con los Estados Unidos, bloquearon un tratado propuesto que prohíbe las leyes en una reunión de las partes de la Convención sobre Ciertas Armas Convencionales. Rusia ha expresado previamente en una declaración escrita su opinión de que los siguientes motivos respaldan la no prohibición:

  • Actualmente no existe una definición clara de leyes, y “la falta de muestras de trabajo de tales sistemas de armas sigue siendo el principal problema en la discusión sobre leyes”.
  • La dificultad de hacer una distinción clara entre desarrollos civiles y militares de sistemas autónomos basados ​​en las mismas tecnologías.

En consecuencia, Rusia considera que las futuras discusiones se centrarán en la armonización de los principios básicos de las leyes junto con la definición de ciertos conceptos con respecto a las leyes: “Trabajo adicional sobre aspectos clave de tales armas que se relacionan con las nociones de” autonomía “, funciones críticas ” control humano significativo, ” previsibilidad ‘, etc., dependerá de la definición de leyes ”.

IV. Vehículos autónomos

Los automóviles sin conductor han sido producidos en Rusia desde 2016 por la mayor empresa nacional de internet Yandex y varias nuevas empresas. Los fabricantes de automóviles de propiedad estatal, conocidos por la mala calidad de sus automóviles, están prácticamente ausentes del mercado de vehículos autónomos. Los principales fabricantes extranjeros de automóviles, como Scania, Volvo, Toyota y Audi, han expresado su interés en probar sus vehículos autónomos en condiciones de conducción rusas tradicionalmente difíciles.

Los expertos de la industria predicen que para el año 2025 habrá alrededor de 20,000 autos sin conductor en las carreteras rusas. Sin embargo, la producción y el uso de vehículos autónomos no están regulados. La Duma estatal (legislatura rusa) no incluyó leyes que regulan los automóviles sin conductor en su agenda legislativa, y en septiembre de 2018 uno de los líderes de la Duma declaró que los parlamentarios van a legislar sobre “otros problemas de la infraestructura de transporte y la construcción de carreteras, que son más importante”.

La primera regulación nacional en este campo fue emitida por el Gabinete de Ministros de la Federación de Rusia en noviembre de 2018 y sólo aborda las pruebas. Específicamente, la regulación requiere experimentos en el uso de prueba de vehículos altamente automatizados en vías públicas en dos regiones rusas entre el 1 de diciembre de 2018 y el 1 de marzo de 2022. El Gobierno ha designado un laboratorio de investigación nacional para revisar las aplicaciones de prueba del propietarios de automóviles sin conductor y pruebas de coordinación. Los informes para el gobierno que resumen los resultados de las pruebas y proponen desarrollos adicionales, incluidas las recomendaciones para los requisitos técnicos y las normas para el uso práctico de vehículos autónomos, deben presentarse antes de marzo de 2020 y nuevamente en 2022. [C9.3.-2]


9.3-7.- España


I. Actividades de inteligencia artificial

España tiene una serie de organizaciones de investigación de IA, alojadas en programas informáticos dirigidos por universidades y otras instituciones académicas. Las principales entidades de investigación de IA incluyen la Asociación Española de Inteligencia Artificial (AEPIA) y el Instituto de Investigación en Inteligencia Artificial (IIIA), alojado en la Universidad Autónoma de Barcelona (Universitat Autònoma de Barcelona). Estas entidades son participantes activos en los esfuerzos nacionales e internacionales para apoyar y promover la investigación y el desarrollo en IA.

II Iniciativas gubernamentales

Como parte de la Estrategia digital para una España inteligente 2025, en noviembre de 2017, el Secretario de Estado de la Sociedad de Tecnología de la Información y la Agenda Digital creó un grupo de trabajo de expertos para desarrollar directrices oficiales sobre IA. El grupo incluye empresarios, profesores y funcionarios gubernamentales que son expertos de renombre y bien conocidos en sus respectivas áreas de conocimiento.

Los hallazgos del grupo de trabajo se publicarán en el Libro Blanco de Inteligencia Artificial (Libro Blanco sobre Inteligencia Artificial, WBAI), cuyo objetivo es abordar las implicaciones sociales, legales y éticas del uso de IA y big data en el ámbito privado. y sectores públicos, así como la sociedad española en general.

Se esperaba que el grupo de trabajo WBAI tuviera un borrador completado para mayo de 2018. Las recomendaciones de WBAI serán la base para un código de ética y un marco legal sobre el uso de datos de IA en la administración pública, así como un código relacionado de buenas prácticas para empresas, a ser preparadas por el gobierno.

En agosto de 2018, el grupo de trabajo presentó un borrador de la WBAI al nuevo gobierno español encabezado por Pedro Sánchez. Aunque el grupo de trabajo, creado por el gobierno español anterior, no se ha disuelto, el plazo para la publicación de WBAI no está claro, ya que no ha habido ningún anuncio oficial al respecto.

Nota: a fecha octubre de 2019 este libro no está aún publicado.

Además, España firmó el Acuerdo de Cooperación de la UE sobre Inteligencia Artificial el 10 de abril de 2018. El acuerdo tiene como objetivo promover la tecnología y la capacidad industrial de Europa en IA, abordar el desafío que la IA plantea al mercado laboral y a los sistemas de educación y formación en la UE, e idear el marco legal y ético de IA adecuado, teniendo en cuenta los derechos fundamentales de privacidad y protección de datos personales de la UE.

III. Vehículos autónomos

Aunque España no ha promulgado ninguna legislación o regulación sobre vehículos autónomos, la Dirección General de Tráfico ha autorizado la prueba de vehículos autónomos desde 2015.

IV. Sistemas letales de armas autónomas

El gobierno de España ha declarado que sus fuerzas armadas no tienen ni planean desarrollar leyes o armas basadas en IA. El gobierno español no está financiando ningún proyecto de investigación sobre leyes. Comparte las preocupaciones de otros países sobre el desarrollo de armas robóticas que operarían sin intervención humana. Esta preocupación se basa principalmente en las consecuencias para los derechos humanos y el derecho internacional humanitario. El gobierno además apoya la adopción de un marco legal internacional general destinado a prevenir una carrera armamentista con respecto a las LEYES. El gobierno español apoya la emisión de la Declaración Política y el Código de Conducta políticamente vinculante que incluiría medidas de transparencia para monitorear este proceso, así como el establecimiento de un Comité de Expertos que será responsable de la evaluación de los nuevos desarrollos en la tecnología que involucra estos armas. [C9.3.-2]


9.3-8.- Reino Unido


I. Introducción

El gobierno del Reino Unido ha declarado que el país está “actualmente en las estribaciones de una nueva revolución tecnológica”. La inteligencia artificial tiene el potencial de ser tan transformadora en nuestras vidas como la economía de vapor del siglo XIX “. El gobierno ha descrito la IA como”un conjunto de tecnologías digitales avanzadas de propósito general que permiten a las máquinas realizar tareas altamente complejas efectivamente”. El Gobierno ha estado alentando y financiando activamente el desarrollo de la industria de IA, y ha producido una serie de informes que consideran la aplicación y el desarrollo de esta tecnología. La discusión que sigue proporciona una visión general de alto nivel de algunos de los desarrollos sobre los que el Reino Unido está consultando y brindando financiamiento para la participación de la IA.

A principios de 2017, la Primera Ministra Theresa May lanzó una consulta para la “Estrategia Industrial Moderna” que condujo a la publicación de un Libro Blanco que detalla la política del gobierno sobre el desarrollo de IA, incluidas las inversiones en ciencia, investigación e innovación en IA y la robótica como uno de sus cuatro grandes desafíos. El Libro Blanco también anunció un “Acuerdo del Sector de Inteligencia Artificial para impulsar la posición global del Reino Unido como líder en el desarrollo de tecnologías de IA”. El Gobierno espera poder capitalizar las predicciones de que el PIB del Reino Unido aumentará en un 10,3%, el equivalente a £ 232 mil millones (aproximadamente US $ 300 mil millones), como resultado del desarrollo de la IA. El presupuesto de 2017 proporcionó fondos para “industrias del futuro” e incluyó £ 75 millones (aproximadamente US $ 96 millones) para IA.

El Departamento de Digital, Cultura, Medios y Deportes es el departamento gubernamental principal para el desarrollo de la política de IA, y el Departamento de Estrategia Comercial, Empresarial e Industrial también desempeña un papel importante. En junio de 2017, la Cámara de los Lores estableció un comité selecto “para considerar las implicaciones económicas, éticas y sociales de los avances en inteligencia artificial”, y poco después, en noviembre de 2017, la Cámara de los Comunes realizó una investigación para considerar uso de algoritmos en negocios públicos y toma de decisiones. El informe concluyó, y el gobierno acordó que el uso de algoritmos en la toma de decisiones es una oportunidad significativa, pero que el impacto de dicha tecnología debe ser monitoreado cuidadosamente.

II Aplicación actual de la inteligencia artificial

Actualmente, el Reino Unido está adoptando el uso de la IA en los servicios públicos de varias maneras. Recientemente promulgó leyes para extender el seguro obligatorio del vehículo para cubrir los vehículos operados en modo automático, haciendo que la aseguradora sea responsable de cualquier accidente causado por el vehículo cuando se opera en este modo. También permite al Secretario de Estado establecer reglamentos para proporcionar un método uniforme para acceder a los puntos de carga de vehículos eléctricos. Se promulgó la ley pero aún no se ha puesto en vigor.

La siguiente lista es un punto culminante de ciertas áreas donde la IA se está utilizando actualmente o donde se está desarrollando:

  • Google DeepMind está colaborando actualmente con el Servicio Nacional de Salud (NHS), el proveedor de servicios de salud universal en el Reino Unido, en el desarrollo de herramientas para analizar escáneres oculares.
  • Desarrollo de equipo militar que usa IA para escanear el campo de batalla en busca de movimientos enemigos y peligros de bandera para los soldados.
  • Se utilizan semáforos inteligentes en algunas ciudades para ayudar en la gestión del tráfico.
  • Se han asignado £ 30 millones (aproximadamente US $ 38 millones) de fondos para probar el uso de IA en cursos de habilidades digitales en línea.
  • Se han otorgado subvenciones monetarias para continuar la educación en el área de IA.
  • Se invertirán £ 84 millones (aproximadamente US $ 108 millones) durante los próximos cuatro años en desarrollos para hacer que la industria y los servicios públicos sean más seguros y productivos.

El Gobierno ha creado y financiado el Centro de Ética e Innovación de Datos como un cuerpo asesor para trabajar con el Gobierno, los reguladores y la industria para sentar las bases éticas para la adopción de IA en todo el Reino Unido y “asegurar un marco que facilita y fomenta la innovación, pero también mantiene la confianza pública vital ”. El Gobierno también está revisando específicamente la estructura reguladora para permitir que vehículos sin conductor en la carretera para 2021.

III. Sistemas letales de armas autónomas

El Ministerio de Defensa ha declarado que

El Reino Unido no posee sistemas de aviones autónomos armados y no tiene intención de desarrollarlos. La política del gobierno del Reino Unido es clara en que la operación de armas del Reino Unido siempre estará bajo control humano como una garantía absoluta de supervisión, autoridad y responsabilidad humanas. Si bien los sistemas de armas pueden funcionar en modos automáticos, siempre hay una persona involucrada en el establecimiento de parámetros apropiados.

Si bien la declaración de política deja en claro que el Reino Unido no posee tales sistemas, ni tiene la intención de desarrollar estos sistemas, se han planteado preocupaciones sobre la definición del Reino Unido de “armas automáticas letales”. Un informe de la Cámara de los Lores sobre IA señaló que ,

sin definiciones acordadas, podríamos encontrarnos fácilmente tropezando con una bruma semántica en territorio peligroso. La definición del Gobierno de un sistema autónomo utilizado por los militares como uno en el que “es capaz de comprender la intención y la dirección de nivel superior” está claramente fuera de sintonía con las definiciones utilizadas por la mayoría de los otros gobiernos. Esta posición limita tanto el grado en que el Reino Unido puede participar de manera significativa en los debates internacionales sobre armas autónomas y su capacidad para desempeñar un papel activo como líder moral y ético en el escenario global en esta área.

El comité recomendó que el Gobierno realinee la definición de armas autónomas a una forma similar a la utilizada por el resto del mundo. El Gobierno consideró la recomendación, pero declaró que el Ministerio de Defensa no tiene planes de cambiar la definición.

Un periódico del Reino Unido informó recientemente que “el Ministerio de Defensa y los contratistas de defensa están financiando docenas de programas de inteligencia artificial para su uso en conflictos”. El Ministerio de Defensa respondió al informe con una negación de las acusaciones: “No hay intención dentro El MOD para desarrollar sistemas de armas que operan completamente sin intervención humana. Nuestras armas siempre estarán bajo control humano como una garantía absoluta de supervisión, autoridad y responsabilidad “.

A nivel internacional, la interpretación del Reino Unido de lo que constituye armas automáticas letales no se alinea con la definición de muchas otras naciones occidentales y no apoya una prohibición preventiva de tales sistemas de armas. En cambio, el Reino Unido desea más discusiones sobre el desarrollo de estos sistemas, y enfatiza que cualquier desarrollo requiere la necesidad de un elemento humano para estar presente en su operación. [C9.3.-2]


9.3-9.- Conclusiones


  1. La UE muestra estar muy predispuesta a encontrar las vías oportunas para establecer un adecuado marco regulatorio de la inteligencia artificial. La actividad relacionada con este campo en sus instituciones relacionadas es significativa.
  2. Estados Unidos, hasta el momento, no ha regulado de forma evidente más allá de los vehículos autónomos.
  3. China parece caminar al unísono con la UE en general y en sintonía de pretensión de liderazgo declarado con Alemania. Sin embargo, respecto al control de la ciudadanía y la monitorizarión de ésta, el país tiene como objetivo completar una red nacional de reconocimiento y vigilancia facial para 2020 con “100 por ciento de cobertura de vigilancia y reconocimiento facial y unificación total de sus bases de datos existentes en todo el país”. Respecto a los derechos y libertades de los ciudadanos la aplicación de la vigilancia y el reconocimiento facial nos produce preocupación la actuación de este país.
  4. Alemania en el campo de la IA apunta a liderar de forma contundente el entorno europeo. El gobierno federal alemán tiene como objetivo hacer de Alemania “un centro líder para la IA… a través de la búsqueda de una transferencia rápida y completa de los resultados de la investigación a las aplicaciones y la modernización de la administración”, y aspira a hacer de la “AI made in Germany ” una marca de calidad reconocida a nivel mundial.
  5. Rusia manifiesta una preocupación muy importante en el terreno militar, sobre todo. Y no tanto por la regulación. En 2017 el presidente Putin expresó su opinión de que el país que domine la IA primero se convertirá en el “gobernante del mundo”. La Federación Rusa aún no ha promulgado leyes o regulaciones que rijan la IA.
  6. España parece conformarse con la simple observación de los acontecimientos y mirar lo que está sucedendiendo en el resto del mundo. (No parece una buena tutela de nuestro Estado para un campo tan sensible, futuro y delicado con éste). El gobierno español no está financiando ningún proyecto de investigación sobre leyes.
  7. El Reino Unido sigue una estrategia que en nuestra opinión resulta aún ser algo ofuscada. Por un lado indica que no está a favor del desarrollo de armas basadas en IA sin control humano, pero apoya el desarrollo de equipo militar que usa IA para escanear el campo de batalla en busca de movimientos enemigos y peligros de bandera para los soldados.
  8. Ante la ausencia de directrices sólidas con carácter mundial, y el dilema aún de si es conveniente regular el campo de la IA actualmente, el IEEE (en un apartado específico de su EAD) nos adentra en las siguientes secciones que consideramos de interés general [C9.3.-1] :

Sección 1: Normas para la adopción confiable de A/IS en sistemas legales

Esta sección aborda los problemas planteados por la posible adopción de A/IS en los sistemas legales con el fin de realizar o ayudar a realizar tareas tradicionalmente realizadas por humanos con capacitación o experiencia legal especializada. La sección comienza con la pregunta de cómo A/IS, si se incorpora adecuadamente a un sistema legal, puede mejorar las funciones de ese sistema legal y así mejorar su capacidad para contribuir al bienestar humano. La sección luego analiza los desafíos para la incorporación segura y efectiva de A/IS en un sistema legal e identifica el desafío principal como una ausencia de confianza informada. El resto de la sección examina cómo las sociedades pueden llenar el vacío de confianza mediante la promulgación de políticas y la promoción de prácticas que promueven estándares de efectividad, competencia accesibles al público, responsabilidad y transparencia.

Sección 2: Estado legal de A/IS

En esta sección se abordan cuestiones planteadas por el estado legal de A/IS, incluido el potencial asignación de ciertos derechos y obligaciones legales a dichos sistemas. La sección proporciona antecedentes sobre el tema y describe algunas de las posibles ventajas y desventajas de asignar alguna forma de personalidad jurídica a A/IS. En base a estas consideraciones, la sección concluye que extender la personalidad jurídica a A/IS no es apropiado en este momento. Luego considera alternativas y describe ciertas condiciones futuras que podrían justificar la reconsideración de la recomendación central de la sección.



Fig. I A. C9.3-4- Regulation of Artificial Intelligence in Selected Jurisdictions . Crédito imág (LAW Library of Congress). URL: https://www.loc.gov/law/help/artificial-intelligence/regulation-artificial-intelligence.pdf



Fig. I A. C9.3-5- LAW (EDA). Crédito Imág (IEEE). URL: https://drive.google.com/file/d/14JtgMtlu2hdwT17y1Y8-zphtRAdxoJbO/view?usp=sharing


Bibliografía


[C9.3.-1]. The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems. Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems, First Edition. IEEE, 2019. https://standards.ieee.org/content/ieee-standards/en/industry-connections/ec/ autonomous-systems.html

[C9.3.-2]. Gesley, J.; Girgoryan, A, et al. (Enero, 2019). Regulation of Artificial Intelligence in Selected Jurisdictions. The Law Library of Congress, Global Legal Research Directorate [Recuperado (25/10/2019) de: https://www.loc.gov/law/help/artificial-intelligence/regulation-artificial-intelligence.pdf]


© 2019. Licencia de uso y distribución: [ Los estados de la inteligencia artificial (IA) | The states of artificial intelligence (AI) ] Creative Commons CC BY 4.0