Estándares y seguridad en el uso humano de la IA

Fig. I A. 9.1.1- Atrévete a soñar en GRANDE: los estándares empoderan a los innovadores. Crédito imag. (ISO). URL: https://youtu.be/N6ZLzzAZ_nQ

Autor: Juan Antonio Lloret Egea | https://orcid.org/0000-0002-6634-3351|© 2019. Licencia de uso y distribución: Creative Commons CC BY 4.0.|Escrito: 20/10/2019. Actualizado:20/10/2019. DOI 10.13140/RG.2.2.26418.15045 |


9.1-1.- Introducción


El campo de la ética y la legalidad en la inteligencia artificial ha surgido en gran medida como una respuesta a la gama de daños individuales y sociales que el mal uso, el abuso, el mal diseño o las consecuencias negativas no intencionadas de los sistemas de IA pueden causar, entre ellos:

Daños potenciales causados ​​por sistemas de IA, denegación de autonomía, recurso y derechos individuales, resultados no transparentes, inexplicables o injustificables, invasiones de la privacidad, aislamiento y desintegración de la conexión social y en resultados poco confiables, inseguros o de baja calidad. Estos resultados pueden dañar directamente el bienestar de las personas y el bienestar público. También pueden socavar la confianza en el uso responsable de las tecnologías de IA beneficiosas para la sociedad. Asimismo hemos de tener en consideración aspectos como el conjunto de regulaciones y leyes que sean de aplicación de acuerdo al ordenamiento jurídico y a las normas técnicas para el diseño y construcción y uso de los servicios y procesos resultantes. C9.1-1


En la actualidad casi todo lo relacionado con la Inteligencia Artificial o está en vías de desarrollo o en proyectos que tratan de buscar las soluciones más adecuadas canalizando y focalizando distintos ángulos y puntos de vista que son aportados por diferentes estamentos de la política, la empresa y la sociedad. Algunos de los argumentos más consolidados son las directrices marcadas por la UE; o por empresas más notables relacionadas con este campo, como IBM, Google o Microsoft.

  1. La ética de la inteligencia artificial.
  2. La ética de la IA en Europa.
  3. Economía y antirreglas de la ética.
  4. Sesgo racial en el procesamiento del lenguaje natural.
  5. Confianza en la IA empresarial.

A lo que se añaden estándares técnicos para que el arco de posibilidades que propone la IA tenga un adecuado sustrato futuro de desarrollo. Algunos de ellos, los más notables, son:


Los creados o en desarrollo por el IEEE: de la familia de estándares P7000, grupo de trabajo de metodologías de ingeniería para asuntos éticos del ciclo de vida.


Alcance: el estándar establece un modelo de proceso mediante el cual los ingenieros y tecnólogos pueden abordar la consideración ética a lo largo de las diversas etapas de iniciación, análisis y diseño del sistema. Los requisitos esperados del proceso incluyen la visión de gestión e ingeniería del desarrollo de nuevos productos de TI, la ética informática y el diseño del sistema de TI, el diseño sensible al valor y la participación de los interesados en el diseño ético del sistema de TI.


Estandares-P7000.png

Fig. I A. 9.1.2- Familia de estándares P7000. Crédito imag. (Propia). URL de origen: https://ethicsinaction.ieee.org/


P70XX: (01,02… 14)


  1. Transparencia de sistemas autónomos
  2. Proceso de privacidad de datos
  3. Consideraciones de sesgo algorítmico
  4. Norma sobre gobierno de gatos de niños y estudiantes
  5. Norma sobre gobierno de datos del empleador
  6. Grupo de trabajo sobre el agente de AI de datos personales (estándar)
  7. Norma ontológica para sistemas de automatización y robótica con ética
  8. Estándar para empujar éticamente sistemas robóticos, inteligentes y autónomos
  9. Norma para el diseño a prueba de fallos de sistemas autónomos y semiautónomos
  10. Estándar de métricas de bienestar para inteligencia artificial ética y sistemas autónomos
  11. Proceso de identificación y calificación de la confiabilidad de las fuentes de noticias
  12. Términos de privacidad personal legibles por máquina
  13. Estándares para la tecnología de análisis facial automatizado
  14. Norma para consideraciones éticas en la empatía emulada en sistemas autónomos e inteligentes

Los creados o en desarrollo por el subcomité ISO/IEC JTC1/SC42 (sin incluir aquí los relacionados con el Bigdata).


Este subcomité se estableció en noviembre de 2017 para abordar los requisitos específicos de estandarización de AI. El alcance de JTC1 / SC42 es servir como entidad de enfoque y proponente del programa de estandarización de JTC1 sobre IA, y proporcionar orientación a los comités JTC1, IEC e ISO que desarrollan aplicaciones relacionadas con AI. Los temas que forman parte del trabajo de este subcomité son: Estándares fundamentales, enfoques computacionales y características de IA, confiabilidad, casos de uso y aplicaciones, Big data y Preocupaciones sociales C9.1-2.


Inteligencia artificial — conceptos y terminologíaISO/IEC WD 22989
Marco para sistemas de inteligencia artificial (IA) que utilizan el aprendizaje automático (ML)ISO/IEC WD 23053
Tecnología de la información — Inteligencia artificial — Gestión de riesgosISO/IEC AWI 23894
Tecnología de la información — Inteligencia artificial (IA) — Sesgo en los sistemas de IA y la toma de decisiones asistida por AIISO/IEC NP TR 24027
Tecnología de la información — Inteligencia artificial (IA — Descripción general de la confiabilidad en inteligencia artificialISO/IEC PDTR 24028
Inteligencia artificial (IA) — Evaluación de la robustez de las redes neuronales — Parte 1: Descripción generalISO/IEC NP TR 24029-1
Tecnología de la información— Inteligencia artificial (IA) — Casos de usoISO/IEC NP TR 24030
Tecnología de la información — Inteligencia artificial — Visión general de las preocupaciones éticas y socialesISO/IEC AWI TR 24368
Tecnología de la información — Inteligencia artificial (IA) — Descripción general de los enfoques computacionales para sistemas de IAISO/IEC AWI TR 24372
Tecnología de la información — Inteligencia artificial — Marco de gestión de procesos para análisis de Big DataISO/IEC AWI 24668
Tecnología de la información — Gobernanza de TI – Implicaciones de gobernanza del uso de inteligencia artificial por parte de las organizacionesISO/IEC AWI 38507

9.1-2.- La estandarización como beneficio de la IA en las industrias


Cómo la estandarización europea beneficia el despliegue de IA

La estandarización europea es un elemento esencial para evitar la fragmentación en el Mercado Único Digital y garantizar un enfoque centrado en las personas para la IA al garantizar que beneficie a la sociedad. Los estándares CEN y CENELEC crean un entorno de confianza y responsabilidad en torno al desarrollo y uso de la tecnología de inteligencia artificial, abordando problemas como la fiabilidad, la seguridad, la privacidad y la seguridad. Además, CEN y CENELEC tienen fuertes lazos con sus organismos internacionales de estandarización, la Organización Internacional de Normalización (ISO) y la Normalización Electrotécnica Internacional (IEC), donde el trabajo ya comenzó en IA en ISO / IEC JTC 1 SC 42 C9.1-3.



Fig. I A. 9.1.3- Ficha informativa sobre inteligencia artificial. Crédito imag. (Digital Single Market). URL: https://ec.europa.eu/digital-single-market/news-redirect/624272


A continuación extractamos y recogemos el whitepaper, Artificial intelligence across industries del IEC (International Electrotechnical Commission), en el que es notable su estudio sobre estándares en la sección 7, y sus conclusiones, sección 8.


El documento técnico fue desarrollado por la Junta de Estrategia de Mercado de IEC (MSB) con importantes contribuciones del Grupo Haier y el socio del proyecto del Centro de Investigación Alemán para la Inteligencia Artificial (DFKI). Los miembros del equipo de apoyo del proyecto incluyeron SAP, Huawei, NSW Data Analytics Center (DAC), China Electronic Standardization Institute (CESI), LG Electronics y Korea Electric Power Corporation (KEPCO)C9.1-2.


Estandares-IEC.png

Fig. I A. 9.1.4- Paisaje de estandarización en IA. Crédito imag. (IEC). URL: https://basecamp.iec.ch/download/iec-white-paper-artificial-intelligence-across-industries-en/


La IA está generando serios desafíos en los campos sociales, económicos y regulatorios. Ya sea que esté relacionado con la confiabilidad, la privacidad, la seguridad de las interacciones hombre / máquina, o el impacto en la fuerza laboral, una amplia base de interesados ​​deberá abordar estos problemas con urgencia y de manera coordinada. Como estos desafíos serán comunes a todas las naciones del mundo, el Libro Blanco también ha insistido en la necesidad de un enfoque internacional para abordarlos. En particular, los gobiernos, los reguladores y los encargados de formular políticas deberán comprender y abordar cuidadosamente los principales problemas éticos que están surgiendo con el rápido despliegue de la IA.  La industria y la comunidad de investigación también tendrán que abordar una serie de desafíos técnicos que pueden impedir el despliegue de IA en algunos dominios de aplicación.

Los problemas relacionados con los datos, los algoritmos, el hardware y las informáticas de infraestructuras se encuentran entre las limitaciones más difíciles de la actualidad para explotar todo el potencial y lograr las promesas más emocionantes de la IA. Desde esa perspectiva, se espera que la estandarización y la evaluación de la conformidad jueguen un papel instrumental para facilitar la adopción del mercado y la aceptación social de las tecnologías emergentes de IA C9.1-2.


Recomendaciones:

  • Desarrollar pautas para la seguridad dentro de los sistemas de la  IA

La IA tiene un profundo impacto en la seguridad de los sistemas de información. Por un lado, estos se pueden usar para crear nuevos tipos de hack bots o virus que se adaptan constantemente a las nuevas contramedidas. Por otro lado, también pueden crear agujeros de seguridad adicionales para las empresas al proporcionar nuevos puntos de acceso para ataques. Los datos de capacitación podrían usarse para tratar de influir en el sistema controlando específicamente un sesgo en los conjuntos de datos. Por lo tanto, es necesario que las empresas identifiquen los efectos de seguridad que tendrá el uso de IA antes de aplicarlos, a fin de tomar las medidas de seguridad apropiadas.

  • Regulatorias

Los despliegues de IA van acompañados de una incertidumbre regulatoria sustancial, que será vista por la industria y la comunidad de investigación como un obstáculo para invertir en IA. Además, es obvio que la IA contribuye a proyectos gubernamentales específicos, como el Mercado Único Digital en Europa. Por lo tanto, el despliegue exitoso de AI en el mercado requerirá una actividad reguladora coordinada entre múltiples partes interesadas (industria, gobiernos, comunidad de investigación, pymes, organizaciones de consumidores y otros). Se recomiendan las actividades reguladoras que se describen a continuación.

  • Abordar la IA dentro de las políticas de privacidad

El GDPR europeo está abordando algunos aspectos del abuso de los derechos de privacidad individuales, como la toma de decisiones automatizada y la elaboración de perfiles sin el consentimiento del usuario. Sin embargo, sigue habiendo una serie de problemas de privacidad que deben abordarse.

Existe evidencia de que algunos piratas informáticos están realizando ingeniería inversa de los datos de capacitación para recuperar datos de privacidad de individuos y haciendo un mal uso de estos datos confidenciales. Además, los procesos de diseño y capacitación de algoritmos deben ser inclusivos y deben considerar plenamente los intereses de los grupos desfavorecidos. Deben establecer reglas especiales para situaciones éticas extremas. A ese respecto, las normas, leyes y políticas pertinentes sobre seguridad, ética y privacidad deberían mejorarse urgentemente. Cuando la IA se distribuye dentro de la nube, será fundamental que las personas tengan suficiente confianza en el proceso para enviar sus datos privados a la nube sin preocuparse por la violación de su privacidad. Además, los desarrolladores de IA deben adoptar los medios técnicos adecuados para proteger a las personas en el proceso de recopilación y uso de datos y para evitar que la información personal esté sujeta a fugas, falsificación y daños.

  • Incluir la IA en la seguridad, la ética y otras políticas

Si bien la industria actual de IA se encuentra en un período de desarrollo vigoroso, debe considerar seriamente la formulación e implementación de futuras medidas de supervisión de la industria y debe considerar plenamente las responsabilidades y fallas en el proceso de desarrollo de IA y despliegue.

La cuestión de la supervisión de la industria de IA no es un problema que enfrenta un solo grupo. Involucra una amplia gama de problemas sociales, sistémicos y complejos que requieren que empresas, gobiernos, usuarios, organizaciones tecnológicas y otros terceros participen y trabajen juntos para construir un ecosistema de IA sostenible.

Las normas de seguridad relevantes deben formularse y mejorarse. Los requisitos éticos de la tecnología de IA deben establecerse de acuerdo con un amplio consenso formado entre la sociedad en su conjunto C9.1-2.


El whitepaper también se ha embebido para un mejor conocimiento del trabajo del IEC en el campo de la IA (a menudo conjunto y compartido con ISO) y por su naturaleza ejemplificante y educativa. (Este whitepaper está protegido por copyright y está alojado en su web de origen para su descarga libre y no está afectado por la licencia Creative Commnons de este libro. Consulte Notas legales, por favor).



Fig. I A. 9.1.5- Libro blanco inteligencia artificial en todas las industrias. Crédito imag. (IEC). URL: https://basecamp.iec.ch/download/iec-white-paper-artificial-intelligence-across-industries-en/


9.1-3.- La certificación de la inteligencia artificial


Es de importante interés a juicio nuestro traer aquí la norma sobre la Evaluación de la conformidad. Requisitos para organismos que certifican productos, procesos y servicios. ISO/IEC 17065:2012 (que citamos aquí mediante UNE).

Esta norma internacional contiene requisitos para la competencia, la consistencia de las actividades y la imparcialidad de los organismos de certificación de productos, procesos y servicios. No es necesario que los organismos de certificación que operan bajo esta norma internacional ofrezcan todos los tipos de certificación de productos, procesos y servicios. La certificación de productos, procesos y servicios es una actividad de evaluación de la conformidad de tercera parte. En esta norma el término ‘producto’ se puede entender como ‘proceso’ o ‘servicio’, excepto en aquellos casos en que se establecen disposiciones independientes para ‘procesos’ o ‘servicios’ C9.1-4.


Asimismo por la ortodoxia, su carácter ilustrativo y educativo, y el análisis que propone, extractamos y embebemos el trabajo denominado La certificación como mecanismo de control de la inteligencia artificial en Europa, del doctor en informática Carlos Galán.

Sobre las conclusiones que efectúa el PhD. Carlos Galán entiendemos de vital importancia que en España se incluya la certificación como parte de la Estrategia Española de I+D+i en Inteligencia Artificial, y que nosotros hemos recogido en el capítulo 3 en los apartados:


Resumen:

«La utilización de la inteligencia artificial (IA) constituye una de las más significativas aportaciones tecnológicas que impregnará la vida de las sociedades occidentales de los próximos años, en muchas de sus actividades cotidianas y en sus sectores más representativos, desde la industria al sistema financiero, pasando por la educación, la salud, el transporte y, desde luego, la defensa y la seguridad, aportando significativos beneficios, pero evidenciando también riesgos que es necesario valorar y minimizar. Una realidad tan disruptiva como la IA exige que su tecnología y la de los productos y servicios sustentados en ella ofrezcan suficientes garantías de su adecuado funcionamiento. El presente trabajo analiza y hace una propuesta para la aplicación de los mecanismos de Certificación de la Conformidad al mantenimiento de las antedichas garantías»C9.1-5.


Conclusiones y acciones subsiguientes

  • Siendo la IA un elemento indispensable para el desarrollo de la sociedad, es necesario garantizar, hasta donde sea posible, que la tecnología IA, los productos IA y los servicios IA se ajustan a lo dispuesto en la regulación legal que resulte de aplicación, manteniendo un escrupuloso respeto a los principios éticos universalmente aceptados.
  • La garantía anterior sólo puede alcanzarse con una adecuada combinación de dos tipos de controles: ex-ante y ex-post, antes y después, respectivamente, del diseño, desarrollo, implementación o despliegue de la tecnología, productos o servicios implicados.
  • El control ex-ante, aunque presenta indudables y lógicas ventajas, es complejo y está sometido, en cualquier caso, a la buena voluntad de los diseñadores, desarrolladores o implementadores.
  • El control ex-post, materializado en forma de Auditorías independientes y Certificaciones de Conformidad, se configura como un mecanismo práctico y eficaz para alcanzar los objetivos.
  • La implantación de las Auditorías de Conformidad IA exige disponer de un Esquema Europeo de Certificación de Tecnologías, Productos y Servicios IA; así como un elenco de Entidades de Evaluación de la Conformidad que dispongan de las capacidades técnicas requeridas, la independencia y la Imparcialidad debidas, y hayan sido debidamente habilitadas por una Entidad de Acreditación.
  • Todo ello deberá estar perfectamente regulado a través de la normativa europea correspondiente.
  • Las tecnologías, productos o servicios IA pueden construirse dentro de la UE o provenir de terceros países. La regulación anterior debe aplicarse a cualquier tecnología, producto o servicio de este tipo que pretenda desplegarse o comercializarse en Europa. Solo la tecnología, los productos o los servicios IA certificados deberían beneficiarse de ayudas públicas.
  • Los esquemas de certificación de tecnologías, productos y servicios IA deben incorporarse a los planes derivados de la Estrategia Española de I+D+i en Inteligencia C9.1-5.

Modelo-Certificacion_ES.png

Fig. I A. 9.1.4-A [ES]- Modelo de certificación propuesto en el documento La certificación como mecanismo de control de la inteligencia artificial en EuropaC9.1-5. URL: http://www.ieee.es/Galerias/fichero/docs_opinion/2019/DIEEEO46_2019CARGAL-InteligenciaArtificial.pdf


Modelo-Certificacion_EN.png

Fig. I A. 9.1.4-B [EN]- Certification model proposed in the document Certification as a mechanism for controlling artificial intelligence in Europe C9.1-5.


Fig. I A. 9.1.5- La certificación como mecanismo de control de la inteligencia artificial en Europa. URL: http://www.ieee.es/Galerias/fichero/docs_opinion/2019/DIEEEO46_2019CARGAL-InteligenciaArtificial.pdf


Bibliografía


[C9.1-1]. Leslie, D. (2019). Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector. The Alan Turing Institute. https://doi.org/10.5281/zenodo.3240529

[C9.1-2]. IEC. Artificial intelligence across industries. Whitepaper. [Recuperado (20/10/2019) de https://basecamp.iec.ch/download/iec-white-paper-artificial-intelligence-across-industries-en/ ]

[C9.1-3]. CEN / CENELEC. New initiative on Artificial Intelligence of the European Commission recognizes Standards as a competitive advantage for European industries. Brief News. [Recuperado (20/10/2019) de https://www.cencenelec.eu/news/brief_news/Pages/TN-2018-016.aspx ]

[C9.1-4]. UNE. UNE-EN ISO/IEC 17065:2012. [Recuperado (20/10/2019) de https://www.une.org/encuentra-tu-norma/busca-tu-norma/norma/?c=N0050466 ]

[C9.1-5]. GALÁN, Carlos. La certificación como mecanismo de control de la inteligencia artificial en Europa. Documento de Opinión IEEE 46/2019. http://www.ieee.es/Galerias/fichero/docs_opinion/2019/DIEEEO46_2019CARGAL-InteligenciaArtificial.pdf . [Consultado 18/10/2019].


Click to rate this post
[Total: 0 Average: 0]

Liked this post? Follow this blog to get more.