Los 7 mandamientos de la Inteligencia Artificial


IBM-Research-AI-Fairness-360-768x291.png

Fig. I A. 9.2.1- Plataforma ética para la entrega responsable de un proyecto de IA & Mitigando el sesgo a lo largo del ciclo de vida de la IA. Crédito imag. (C9.1-1, C9.1-2 ). URL: https://doi.org/10.5281/zenodo.3240529 & https://www.ibm.com/blogs/research/wp-content/uploads/2018/09/IBM-Research-AI-Fairness-360-768×291.png


eu-ai-alliance-3_0.png

Autor: Juan Antonio Lloret Egea | Miembro de la Alianza Europea para la IA | https://orcid.org/0000-0002-6634-3351|© 2019. Licencia de uso y distribución: Creative Commons CC BY 4.0 . | Escrito: 23/10/2019. Actualizado: 23/10/2019| Preprint DOI 10.13140/RG.2.2.15303.24486 |


9.2-1.- Introducción


Habitualmente encontramos abundante material teórico sobre la descripción, modelación, desarrollo e implementación de determinados modelos u objetivos. Menos frecuente es, sin embargo, encontrar a su vez los modelos prácticos sobre cómo llevar a cabo estos modelos teóricos. Por lo que, a juicio nuestro, este capítulo quizá sea uno de los más determinantes operacionalmente y documentalmente en el campo de la inteligencia artificial a la hora de su implementación teorico-práctica.

Entre sus contenidos se encuentra un extracto con carácter educativo e ilustrativo del estudio: Comprender la ética y la seguridad de la inteligencia artificial: una guía para el diseño responsable y la implementación de sistemas de inteligencia artificial en el sector público. Su utilidad en nuestra opinión resulta incuestionable como eje directriz (1ª sección). También se incluyen herramientas para la explicabilidad, equidad y trazabilidad de los sistemas IA para hacer más asequible su desarrollo real (2ª sección). Y por último las conclusiones y recomendaciones o pautas guiadas para obtener prototipos iniciales sujetos a prescripciones suficientemente garantes como para pensar que los nuevos desarrollos futuros de IA son fiables para el uso y bienestar del ser humano (3ª sección).

Por lo expuesto anteriormente, este capítulo se divide en tres secciones:


PRIMERA SECCIÓN

Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector


Ésta es la guía más completa sobre el tema de la ética y la seguridad de la IA en el sector público hasta la fecha, (Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector), en palabras de sus autores. El documento proporciona elementos integrales sobre cómo aplicar los principios de ética y seguridad de la IA al diseño e implementación de sistemas algorítmicos en el sector público. Los autores también enuncian que en breve publicarán un libro de trabajo para dar vida a las recomendaciones hechas.

La convergencia de la disponibilidad cada vez mayor de Bigdata, la velocidad vertiginosa y la expansión de las plataformas de computación en la nube, y el avance de algoritmos de aprendizaje automático cada vez más sofisticados, han dado paso a un momento notable de promesa humana. Las innovaciones en IA ya están dejando una huella en el gobierno, al mejorar la provisión de bienes y servicios sociales esenciales, desde la atención médica, la educación y el transporte hasta el suministro de alimentos, la energía y la gestión ambiental. Es probable que estas recompensas sean solo el comienzo. La posibilidad de que el progreso en IA ayude al gobierno a enfrentar algunos de sus desafíos más urgentes es emocionante, pero abundan las preocupaciones legítimas. Al igual que con cualquier tecnología nueva y en rápida evolución, una curva de aprendizaje abrupta significa que se cometerán errores y errores de cálculo y que se producirán impactos imprevistos y nocivos.

Identifica los daños potenciales causados ​​por los sistemas de IA y propone medidas concretas y operables para contrarrestarlos. Se enfatiza que las organizaciones del sector público pueden anticipar y prevenir estos daños potenciales al administrar una cultura de innovación responsable y al establecer procesos de gobierno que respalden el diseño e implementación de sistemas de IA éticos, justos y seguros. Es relevante para todos los involucrados en el diseño, producción y despliegue de un proyecto de IA del sector público: desde científicos de datos e ingenieros de datos hasta expertos en dominios, gerentes de entrega y líderes departamentales.C9.1-1.


9.2-2.- Tres bloques de construcción de un ecosistema responsable de entrega de proyectos de IA


Establecer una plataforma ética para la entrega responsable de proyectos de IA implica no solo construir desde la base cultural; implica proporcionar a su equipo los medios para lograr los objetivos de establecer la permisividad ética, la equidad, la confiabilidad y la justificación de su proyecto. Se necesitarán tres bloques de construcción para hacer posible una plataforma tan ética:

  1. En el nivel más básico, es necesario que obtenga un conocimiento práctico de un marco de valores éticos que respalde, suscriba y motive un ecosistema de diseño y uso de datos responsable. Estos se denominarán valores ‘SUM’, y estarán compuestos por cuatro nociones clave: Respetar, Conectar, Cuidar y Proteger. Los objetivos de estos Valores SUM son (1) proporcionarle un marco accesible para comenzar a pensar sobre el alcance moral de los impactos sociales y éticos de su proyecto y (2) establecer criterios bien definidos para evaluar su permisividad ética.
  2. En un segundo nivel más concreto, una plataforma ética para la entrega responsable de proyectos de IA requiere un conjunto de principios accionables que faciliten una orientación hacia el diseño y uso responsable de los sistemas de IA. Estos se llamarán Principios de Rastreo RÁPIDO, y estarán compuestos por cuatro nociones clave: Justicia, Responsabilidad, Sostenibilidad y Transparencia. Los objetivos de estos Principios de FAST Track son proporcionarle las herramientas morales y prácticas (1) para asegurarse de que su proyecto mitigue los prejuicios, no sea discriminatorio y justo, y (2) para salvaguardar la confianza pública en la capacidad de su proyecto para ofrecer innovación de IA segura y confiable.
  3. En un tercer y más concreto nivel, una plataforma ética para la entrega responsable de proyectos de IA requiere un marco de gobernanza basado en procesos (PBG Framework) que operacionaliza los Valores SUM y los Principios de Rastreo RÁPIDO en todo el flujo de trabajo de entrega de proyectos de IA. El objetivo de este Marco PBG es establecer procesos transparentes de diseño e implementación que salvaguarden y permitan la justificación tanto de su proyecto de IA como de su productoC9.1-1.


Fig. I A. 9.2.2- Poner en práctica la plataforma ética. Crédito imag. (C9.1-1). URL: https://doi.org/10.5281/zenodo.3240529


9.2-3.- Algunos de los principios de seguimiento FAST


  • Justicia: poner el principio de no-discriminación daños en acción

Cuando esté considerando cómo poner en práctica el principio de no daño discriminatorio, debe reunirse con todos los gerentes del equipo del proyecto para mapear la participación de los miembros del equipo en cada etapa de la tubería del proyecto de IA desde alfa hasta beta. Tener en cuenta un diseño y una implementación que sean justos desde una perspectiva de flujo de trabajo le permitirá, como equipo, concretar y hacer caminos explícitos de responsabilidad de principio a fin de una manera clara y revisable por pares. Esto es esencial para establecer un marco de responsabilidad sólido. Aquí hay una representación esquemática del flujo de trabajo consciente de la equidad. Tendrá que completar la fila finalC9.1-1.



Fig. I A. 9.2.3- Flujo de trabajo de diseño e implementación justo para proyectos de IA. Crédito imag. (C9.1-1). URL: https://doi.org/10.5281/zenodo.3240529


  • Responsabilidad: la responsabilidad merece consideración en todo el flujo de trabajo de diseño e implementación

Como práctica recomendada, debe considerar activamente las diferentes demandas que la responsabilidad del diseño le impone antes y después del lanzamiento de su proyecto de IA. Nos referiremos al proceso de garantizar la responsabilidad durante las etapas de diseño y desarrollo de su proyecto de IA como ‘responsabilidad anticipada’. Esto se debe a que está anticipando las necesidades de responsabilidad de su proyecto de IA antes de que se complete. Siguiendo una lógica similar, nos referiremos al proceso de abordar la responsabilidad después del inicio del despliegue de su proyecto de IA como ‘responsabilidad correctiva’. Esto se debe a que después de la implementación inicial de su sistema, está solucionando cualquiera de los problemas que pueden ser elevado por sus efectos y potenciales externalidades. Estos dos subtipos de responsabilidad a veces se denominan responsabilidad ex ante (o antes del evento) y responsabilidad ex post (después del evento) respectivamente.

Responsabilidad anticipatoria: el tratamiento de la responsabilidad como un principio anticipatorio implica que tome como importancia primordial las decisiones tomadas y las acciones tomadas por su equipo de entrega del proyecto antes del resultado de un proceso de decisión respaldado algorítmicamente.

Este tipo de rendición de cuentas ex ante debe priorizarse sobre la rendición de cuentas correctiva, que se centra en cambio en las medidas correctivas o justificativas que se pueden tomar después de que se haya completado ese proceso de automatización.

Al garantizar que los procesos de entrega de proyectos de IA sean responsables antes de la aplicación real del sistema en el mundo, reforzará la solidez de los procesos de diseño e implementación y, por lo tanto, evitará de manera más efectiva posibles daños al bienestar individual y al bienestar público.

Del mismo modo, al establecer fuertes regímenes de responsabilidad anticipatoria y al hacer que el proceso de diseño y entrega sea lo más abierto y accesible al público posible, colocará a las partes interesadas afectadas en una posición para tomar decisiones mejor informadas y más informadas sobre su participación en estos sistemas antes de impactos potencialmente dañinos. Al hacerlo, también fortalecerá la narrativa pública y ayudará a proteger el proyecto del daño a la reputaciónC9.1-1.


  • Sustentabilidad: evaluación de impacto de las partes interesadas

Usted y su equipo de proyecto deben unirse para evaluar el impacto social y la sostenibilidad de su proyecto de IA a través de una Evaluación de Impacto de las Partes Interesadas (SIA), ya sea que el proyecto de IA se esté utilizando para prestar un servicio público o en una capacidad administrativa de back-office. Cuando nos referimos a ‘partes interesadas’, nos referimos principalmente a personas individuales afectadas, pero el término también puede extenderse a grupos y organizaciones en el sentido de que los miembros individuales de estos colectivos también pueden verse afectados como tales por el diseño y la implementación de sistemas de IA. Debe prestarse la debida consideración a las partes interesadas en ambos niveles.

El propósito de llevar a cabo un SIA es multidimensional. Las SIA pueden servir para varios propósitos, algunos de los cuales incluyen:

  1. Ayuda a generar confianza pública en que el diseño y la implementación del sistema de IA por parte de la agencia del sector público se ha realizado de manera responsable.
  2. Facilitar y fortalecer su marco de responsabilidad.
  3. Sacar a la luz riesgos invisibles que amenazan con afectar a las personas y al bien público.
  4. Asegurar una toma de decisiones bien informada y prácticas de innovación transparentes.
  5. Demostrar previsión y debida diligencia no sólo dentro de su organización sino también al público en general.

Su equipo debe reunirse para evaluar el impacto social y la sostenibilidad de su proyecto de IA a través del SIA en tres puntos críticos en el ciclo de vida de entrega del proyecto:

  1. Fase alfa (Formulación del problema): lleve a cabo una evaluación de impacto de las partes interesadas (SIA) inicial para determinar la admisibilidad ética del proyecto. Consulte los valores SUM como punto de partida para conocer las posibles consecuencias de su proyecto en el bienestar individual y el bienestar público. En los casos en que concluya que su proyecto de IA tendrá impactos éticos y sociales significativos, debe abrir su SIA inicial al público para que sus puntos de vista puedan considerarse adecuadamente. Esto reforzará la inclusión de una diversidad de voces y opiniones en el proceso de diseño y desarrollo a través de la participación de una gama más representativa de partes interesadas. También debe considerar consultar con las partes interesadas internas de la organización, cuyo aporte también fortalecerá la apertura, la inclusión y la diversidad de su proyecto.
  2. De alfa a beta (pre-implementación): una vez que su modelo ha sido entrenado, probado y validado, usted y su equipo deben revisar su SIA inicial para confirmar que el sistema de IA que se implementará aún está en línea con las evaluaciones y conclusiones de su evaluación original. Este check-in debe registrarse en la sección de preimplementación del SIA con cualquier cambio aplicable agregado y discutido. Antes del lanzamiento del sistema, este SIA debe hacerse público. En este punto, también debe establecer un marco de tiempo para la reevaluación una vez que el sistema está en funcionamiento, así como una consulta pública que antecede y proporciona información para esa reevaluación. Los plazos para estas reevaluaciones deben ser decididos por su equipo caso por caso, pero deben ser proporcionales a la escala del impacto potencial del sistema en las personas y comunidades que afectará.
  3. Fase beta (reevaluación): después de que su sistema de IA se haya activado, su equipo debe revisar y reevaluar su SIA de manera intermitente. Estos registros deben registrarse en la sección de reevaluación del SIA con cualquier cambio aplicable agregado y discutido. La reevaluación debe centrarse tanto en evaluar el SIA existente contra los impactos del mundo real como en considerar cómo mitigar las consecuencias no intencionadas que pueden haber surgido a raíz del despliegue del sistema. Se debe realizar una consulta pública adicional para obtener información en la etapa beta antes de la reevaluación, de modo que la contribución de los interesados ​​se pueda incluir en las deliberaciones de reevaluación.

Debe tener en cuenta que, en su enfoque específico en la sostenibilidad social y ética, su evaluación de impacto de las partes interesadas constituye sólo una parte de la plataforma de gobernanza para su proyecto de IA y debe ser un complemento de su marco de responsabilidad y otra documentación de auditoría y monitoreo de actividades.

Su SIA debe dividirse en cuatro secciones de preguntas y respuestas. En la primera sección debería haber preguntas generales sobre los posibles impactos sociales y éticos generales del uso del sistema de IA que planea construir. En la segunda sección su equipo debe formular en colaboración preguntas relevantes específicas del sector y utilizar casos específicos sobre el impacto del sistema de IA en las partes interesadas afectadas. La tercera sección debe proporcionar respuestas a las preguntas adicionales relevantes para la evaluación previa a la implementación. La cuarta sección debe brindar la oportunidad a los miembros de su equipo de reevaluar el sistema a la luz de sus impactos en el mundo real, la opinión pública y las posibles consecuencias no deseadasC9.1-1.


  • Transparencia: definición de IA transparente

Es importante recordar que la transparencia como principio de la ética de la IA difiere un poco del significado del uso diario del término. La comprensión común del diccionario de la transparencia lo define como (1) la calidad que tiene un objeto cuando uno puede ver claramente a través de él o (2) la calidad de una situación o proceso que puede justificarse y explicarse claramente porque está abierto a inspección y libre de secretos.

La transparencia como principio de la ética de la IA abarca ambos significados:

Por un lado, la IA transparente implica la interpretabilidad de un sistema de IA dado, es decir, la capacidad de saber cómo y por qué un modelo se desempeñó y cómo lo hizo en un contexto específico y, por lo tanto, de comprender la razón detrás de su decisión o comportamiento. Con frecuencia se hace referencia a este tipo de transparencia mediante la metáfora de ‘abrir la caja negra’ de la IA. Implica clarificación de contenido e inteligibilidad o explicabilidad.

Por otro lado, la IA transparente implica la justificación tanto de los procesos que intervienen en su diseño e implementación como de su resultado. Por lo tanto, implica la solidez de la justificación de su uso. En este sentido más normativo, la IA transparente es prácticamente justificable de manera irrestricta si se puede demostrar que tanto los procesos de diseño e implementación que han entrado en la decisión o comportamiento particular de un sistema como la decisión o comportamiento en sí son éticamente permisibles, no discriminatorio / justo y digno de confianza pública / seguridadC9.1-1.


  • Transparencia: tres tareas críticas para diseñar e implementar IA transparente

Esta definición de transparencia en dos frentes como principio de la ética de la IA le pide que piense en la IA transparente tanto en términos del proceso que está detrás (las prácticas de diseño e implementación que conducen a un resultado respaldado algorítmicamente) como en términos de su producto (el contenido y la justificación de ese resultado). Tal distinción de proceso/producto es crucial, porque aclara las tres tareas de las que su equipo será responsable de salvaguardar la transparencia de su proyecto de IA:

  • Proceso de Transparencia, Tarea 1: justificar proceso. Al ofrecer una explicación a las partes interesadas afectadas, debe poder demostrar que las consideraciones de permisibilidad ética, no discriminación / equidad y seguridad / confiabilidad pública fueron operativas de extremo a extremo en los procesos de diseño e implementación que conducen a una decisión automatizada o comportamiento. Esta tarea se respaldará siguiendo las mejores prácticas descritas en este documento a lo largo del ciclo de vida del proyecto de IA y poniendo en práctica medidas de auditabilidad sólidas a través de un marco de responsabilidad por diseño.
  • Transparencia de resultados, tarea 2: aclarar el contenido y explicar los resultados. Al ofrecer una explicación a las partes interesadas afectadas, debe ser capaz de mostrar en un lenguaje claro que sea comprensible para los no especialistas cómo y por qué un modelo se desempeñó de la misma manera en un contexto específico de toma de decisiones o de comportamiento. Por lo tanto, debe poder aclarar y comunicar la justificación de su decisión o comportamiento. Esta explicación debería ser socialmente significativa en el sentido de que los términos y la lógica de la explicación no deberían simplemente reproducir las características formales o los significados técnicos y la lógica del modelo matemático, sino que deberían traducirse al lenguaje cotidiano de las prácticas humanas y, por lo tanto, ser comprensibles en términos de los factores sociales y las relaciones que implica la decisión o el comportamiento.
  • Transparencia del resultado, Tarea 3: justificar el resultado. Al ofrecer una explicación a las partes interesadas afectadas, debe poder demostrar que una decisión o comportamiento específico de su sistema es éticamente permisible, no discriminatorio / justo y digno de confianza pública / seguridad. Esta justificación del resultado debe tomar la aclaración del contenido / el resultado explicado de la tarea 2 como su punto de partida y comparar esa explicación con los criterios de justificación a los que se ha adherido a lo largo del diseño y el uso: permisibilidad ética, no discriminación / equidad y seguridad / confiabilidad pública. Adoptar un enfoque óptimo para procesar la transparencia desde el principio debe apoyar y salvaguardar esta demanda de explicación normativa y justificación de resultadosC9.1-1.

  • Transparencia: mapeo de transparencia AI


Fig. I A. 9.2.4- Mapa de transparencia AI. Crédito imag. (C9.1-1). URL: https://doi.org/10.5281/zenodo.3240529


9.2-4.-Transparencia de resultados: explicando los resultados, aclarando el contenido, implementando responsablemente


  • Aspectos técnicos de elegir, diseñar y usar un sistema de inteligencia artificial interpretable

Tenga en cuenta que, si bien, a primera vista, la tarea de elegir entre los numerosos algoritmos de inteligencia artificial y aprendizaje automático puede parecer desalentador, no tiene por qué ser así. Al apegarse a la prioridad de la transparencia de resultados, usted y su equipo podrán seguir algunas pautas sencillas y directas para seleccionar técnicas algorítmicas suficientemente interpretables pero de rendimiento óptimo. Antes de explorar estas pautas, es necesario proporcionarle información básica para ayudarlo a comprender mejor qué facetas de explicación están realmente involucradas en la IA técnicamente interpretable. Una buena comprensión de lo que realmente se necesita de tal explicación le permitirá enfocarse efectivamente en las necesidades de interpretación de su proyecto de IA.

Facetas de explicación en IA técnicamente interpretable: un buen punto de partida para comprender cómo funciona la dimensión técnica de la explicación en sistemas de IA interpretables es recordar que estos sistemas son en gran medida modelos matemáticos que realizan cálculos paso a paso en conjuntos transformadores de interacción estadística o entradas independientes en conjuntos de salidas objetivo. El aprendizaje automático es, en el fondo, solo estadística aplicada y teoría de la probabilidad fortificada con varias otras técnicas matemáticas. Como tal, está sujeto a los mismos requisitos metodológicamente rigurosos de validación lógica que otras ciencias matemáticas.

Tal demanda de rigor informa la faceta de la explicación formal y lógica de los sistemas de IA que a veces se llama la ‘caja de cristal matemática’. Esta caracterización se refiere a la transparencia de la explicación estrictamente formal: no importa cuan complicado sea (incluso en el caso de una red neuronal profunda con cien millones de parámetros), un modelo algorítmico es un sistema cerrado de operaciones efectivamente computables donde las reglas y las transformaciones son aplicados mecánicamente a las entradas para determinar las salidas. En este sentido restringido, todos los modelos de inteligencia artificial y aprendizaje automático son totalmente inteligibles y matemáticamente transparentes, aunque sólo sea formal y lógicamente.

Ésta es una característica importante de los sistemas de IA, ya que hace posible que los enfoques computacionales suplementarios y eminentemente interpretables modelen, aproximen y simplifiquen incluso los más complejos y de alta dimensión entre ellos. De hecho, tal posibilidad alimenta algunos de los enfoques técnicos para la IA interpretable que pronto serán explorados.

Sin embargo, esta forma formal de comprender la explicación técnica de la IA y los sistemas de aprendizaje automático tiene limitaciones inmediatas. Puede decirnos que un modelo es matemáticamente inteligible porque funciona de acuerdo con una colección de operaciones y parámetros fijos, pero no puede decirnos mucho acerca de cómo o por qué los componentes del modelo transformaron un grupo específico de entradas en sus salidas correspondientes. No puede decirnos nada sobre la lógica detrás de la generación algorítmica de un resultado dado.

Esta segunda dimensión de la explicación técnica tiene que ver con la faceta semántica de la IA interpretable. Una explicación semántica ofrece una interpretación de las funciones de las partes individuales del sistema algorítmico en la generación de su salida. Mientras que la explicación formal y lógica presenta una explicación de la aplicación gradual de los procedimientos y reglas que comprenden el marco formal del sistema algorítmico, la explicación semántica nos ayuda a comprender el significado de esos procedimientos y reglas en términos de su propósito en la entrada-salida operación de mapeo del sistema, es decir, qué papel juegan en la determinación del resultado del cálculo del modelo.

Las dificultades que rodean la interpretabilidad de las decisiones y los comportamientos algorítmicos surgen en esta dimensión semántica de la explicación técnicaC9.1-1.


  • Pautas para diseñar y entregar un sistema de IA suficientemente interpretable

Directriz 2: recurrir a técnicas estándar interpretables cuando sea posible

Para integrar activamente el objetivo de la suficiente capacidad de interpretación en su proyecto de IA, su equipo debe abordar el proceso de selección y desarrollo de modelos con el objetivo de encontrar el ajuste adecuado entre (1) riesgos y necesidades específicos del dominio, (2) recursos de datos disponibles y conocimiento del dominio, y (3) técnicas de aprendizaje automático apropiadas para la tarea. La asimilación efectiva de estos tres aspectos de su caso de uso requiere una actitud abierta y práctica.

A menudo, puede darse el caso de que entornos de alto impacto, críticos para la seguridad u otros entornos potencialmente sensibles aumenten las demandas de una responsabilidad y transparencia exhaustivas de los proyectos de IA. En algunos de estos casos, tales demandas pueden hacer que la elección de técnicas estándar pero sofisticadas no opacas sea una prioridad primordial. Estas técnicas pueden incluir árboles de decisiones, regresión lineal y sus extensiones como modelos aditivos generalizados, listas de decisiones / reglas, razonamiento basado en casos o regresión logística. En muchos casos, alcanzar el modelo de ‘caja negra’ primero puede no ser apropiado e incluso puede conducir a ineficiencias en el desarrollo del proyecto, porque los modelos más interpretables, que funcionan muy bien pero no requieren herramientas y técnicas complementarias para facilitar resultados interpretables, son también disponibles.

Nuevamente, el conocimiento de dominio sólido y la conciencia del contexto son componentes clave aquí. En los casos de uso en los que los recursos de datos se prestan a representaciones significativas bien estructuradas y la experiencia en el dominio se pueden incorporar a las arquitecturas modelo, las técnicas interpretables a menudo pueden ser más deseables que las opacas. El cuidadoso procesamiento previo de datos y el desarrollo iterativo de modelos pueden, en estos casos, perfeccionar la precisión de dichos sistemas interpretables de manera que las ventajas obtenidas por la combinación de su rendimiento y transparencia superen los beneficios de los enfoques semánticamente más transparentes.

Sin embargo, en otros casos de uso, las necesidades de procesamiento de datos pueden descalificar el despliegue de este tipo de sistemas interpretables sencillos. Por ejemplo, cuando se buscan aplicaciones de inteligencia artificial para clasificar imágenes, reconocer el habla o detectar anomalías en las imágenes de video, los enfoques de aprendizaje automático más efectivos probablemente serán opacos. Los espacios de características de este tipo de sistemas de IA crecen exponencialmente a cientos de miles o incluso millones de dimensiones. A esta escala de complejidad, los métodos convencionales de interpretación ya no se aplican. De hecho, es la inevitabilidad de golpear ese muro de interpretabilidad para ciertas aplicaciones importantes de aprendizaje supervisado, no supervisado y de refuerzo lo que ha dado lugar a un subcampo completo de investigación de aprendizaje automático que se centra en proporcionar herramientas técnicas para facilitar una IA interpretable y explicableC9.1-1.


9.2-5.-Pasos para garantizar procesos de implementación centrados en el ser humano


Paso 1: considere los aspectos del tipo de aplicación y el contexto del dominio para definir roles.

 Paso 2: definir las relaciones de entrega y los procesos de entrega de mapas.

 Paso 3: construir una plataforma de implementación ética.



Fig. I A. 9.2.5- Pasos para garantizar procesos de implementación centrados en el ser humano. Crédito imag. (C9.1-1). URL: https://doi.org/10.5281/zenodo.3240529



Fig. I A. 9.2.6- Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector. The Alan Turing Institute. https://doi.org/10.5281/zenodo.3240529


9.2-6.- Herramientas para el diseño responsable y la implementación de sistemas de IA


SEGUNDA SECCIÓN:

 Herramientas


9.2-6.- Herramientas para el diseño responsable y la implementación de sistemas de IA


IBM entendemos que se sitúa como la pionera en la creación de herramientas de código abierto para hacer viable el diseño y la implementación de sistemas IA. Exponemos ahora una sección ya descrita en este libro en 4.5.4º.- IA confiable de IBM.


Air-Farirness-360.png

Fig. I A. 9.2.7-Experiencia interactiva AI Fairness 360. Crédito imag. (IBM Research Blog). URL: https://www.ibm.com/blogs/research/wp-content/uploads/2018/09/PosterPage-768×792.png


AI Fairness 360


RESUMEN. La equidad es una preocupación cada vez más importante, ya que los modelos de aprendizaje automático se utilizan para apoyar la toma de decisiones en aplicaciones de alto riesgo, como préstamos hipotecarios, contratación y sentencias de prisión. Este documento presenta un nuevo kit de herramientas Python de código abierto para la equidad algorítmica, AI Fairness 360 (AIF360), publicado bajo una licencia Apache v2.0 (https://github.com/ibm/aif360). Los objetivos principales de este conjunto de herramientas son ayudar a facilitar la transición de los algoritmos de investigación de equidad para usar en un entorno industrial y proporcionar un marco común para que los investigadores de equidad compartan y evalúen algoritmos. El paquete incluye un conjunto integral de métricas de equidad para conjuntos de datos y modelos, explicaciones para estas métricas y algoritmos para mitigar el sesgo en conjuntos de datos y modelos. También incluye una experiencia web interactiva (https://aif360.mybluemix.net) que proporciona una introducción suave a los conceptos y capacidades para los usuarios de la línea de negocios, así como una amplia documentación, orientación de uso y tutoriales específicos de la industria para habilitar científicos de datos y profesionales para incorporar la herramienta más adecuada para su problema en sus productos de trabajo. La arquitectura del paquete ha sido diseñada para ajustarse a un paradigma estándar utilizado en ciencia de datos, mejorando así la usabilidad para los profesionales. Tal diseño arquitectónico y abstracciones permiten a los investigadores y desarrolladores ampliar el kit de herramientas con sus nuevos algoritmos y mejoras, y usarlo para la evaluación comparativa del rendimiento. Una infraestructura de prueba incorporada mantiene la calidad del código.



Este kit de herramientas de código abierto extensible puede ayudar a comprender (explicabilidad) cómo los modelos de aprendizaje automático predicen por diversos medios a lo largo del ciclo de vida de la aplicación AI. Con ocho algoritmos de vanguardia para el aprendizaje automático interpretable, así como métricas para la explicabilidad, está diseñado para traducir la investigación algorítmica del laboratorio en la práctica real de dominios tan amplios como finanzas, gestión de capital humano, atención médica, y educación.



Este kit de herramientas de código abierto extensible puede ayudar a examinar, informar y mitigar la discriminación y el sesgo (justicia o igualdad) en los modelos de aprendizaje automático a lo largo del ciclo de vida de la aplicación AI. Con más de 70 métricas de equidad y 10 algoritmos de mitigación de sesgos de última generación desarrollados por la comunidad investigadora, está diseñado para traducir la investigación algorítmica del laboratorio en la práctica real de dominios tan amplios como finanzas, gestión de capital humano, salud y educación.



Adversarial Robustness Toolbox está diseñado para ayudar a los investigadores y desarrolladores a crear nuevas técnicas de defensa, así como a desplegar defensas prácticas de sistemas de IA del mundo real. Los investigadores pueden usar la caja de herramientas de robustez adversaria para comparar las defensas novedosas contra el estado del arte. Para los desarrolladores, la biblioteca proporciona interfaces que admiten la composición de sistemas de defensa integrales utilizando métodos individuales como bloques de construcción.



Gestione la IA de producción, con confianza en los resultados. Vea cómo IBM Watson® OpenScale ™ rastrea y mide los resultados de la IA a lo largo de su ciclo de vida, y adapta y gobierna la IA a las situaciones comerciales cambiantes, para modelos construidos y funcionando en cualquier lugar. 


TERCERA SECCIÓN:

Conclusiones y recomendaciones


Para definir de forma adecuada esta sección, tomaremos como referencia el modelo ‘Esquema Europeo de Certificación de Tecnologías de Productos y Servicios de IA‘ propuesto por el PhD. Carlos Galán (ver capítulo 9.1.3). Y siguiendo este modelo vamos a efectuar nuestras conclusiones y recomendaciones de forma pautada. (Estas conclusiones y recomendaciones pudieran ser tomadas como borrador para discusión).


A este apartado se me ocurre denominarlo Los 7 mandamientos de la IA.


Modelo-Certificacion_ES.png

Fig. I A. 9.1.4-A [ES]- Modelo de certificación propuesto en el documento La certificación como mecanismo de control de la inteligencia artificial en EuropaC9.1-5. URL: http://www.ieee.es/Galerias/fichero/docs_opinion/2019/DIEEEO46_2019CARGAL-InteligenciaArtificial.pdf


Modelo-Certificacion_EN.png

Fig. I A. 9.1.4-B [EN]- Certification model proposed in the document Certification as a mechanism for controlling artificial intelligence in Europe C9.1-5.


  1. El principio más universal es que la inteligencia artificial es un asunto a nivel mundial. Y como tal debe ser tratado.
  2. Las pautas iniciales y mayormente importantes para referenciarse en una ética confiable pueden ser extraídas de ‘La ética de la IA en Europa’. URL: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai que se puede ver complementada o mejorada por sus homólogas descritas aquí: [4.5.1.1.- Estrategias nacionales e internacionales de IA].
  3.  Los principales estándares para una ética confiable pueden ser extraidos del IEEE (familia de P7000) y del ISO/IEC ISO/IEC JTC1/SC42 . (Estos estándares debieran ser abiertos, conocidos, auditables en caso de necesidad y con un formato de funcionamiento similar a los desarrrollos del tipo Open Source).
  4. El sistema legal aún está por concretarse de manera adecuada. La regulación debiera establecerse de forma universal (mundial). Un buen punto de partida sería la ONU como elemento troncal (en consonancia con la Declaración Universal de Derechos Humanos y La protección de los derechos fundamentales en la Unión Europea). De tal forma que no existan variaciones de normativa al respecto entre países. (Quizá muy probablemente esas leyes debieran ser votadas y aprobadas de forma también universal para establecer los valores que afectan a nivel mundial, procurando evitar al máximo lagunas legislativas o agujeros legales).
  5. Los datos (o bancos de datos) manejados por la inteligencia artificial debieran poder ser sometidos a auditoría mundial. Por lo que un organismo internacional debiera tener esa responsabilidad con el fin de evitar que los datos tengan distintos sesgos en función de dónde sean utilizados. Y aún a mayor responsabilidad, garantizar y evitar el mal uso de estos datos en detrimento de la población mundial. Este apartado también ha de comprometer a los datos o estímulos externos que reciban las IAs para que también puedan ser auditados públicamente. (En consonancia con el Reglamento Europeo de Protección de Datos, RGPD).
  6. Una norma como la ISO/IEC 17065 (o similar mejorada) debe ser implantada con el objeto y fin de certificar los servicios, productos o personas influenciados o sometidos a la inteligencia artificial.
  7. Con carácter bianual u otro el organismo encargado de auditar los datos (o banco de datos) deberá entregar un informe de impacto a cada país o gobierno que lo solicite con el fin de mantener y garantizar el aprovechamiento humano pretendido por la sociedad. 

  • Versión vigente de este documento: V.1
  • Fecha: 21/10/2019

Bibliografía


[C9.1-1]. Leslie, D. (2019). Understanding artificial intelligence ethics and safety: A guide for the responsible design and implementation of AI systems in the public sector. The Alan Turing Institute. https://doi.org/10.5281/zenodo.3240529

[C9.1-2]. Introducing AI Fairness 360. Website. [Recuperado 23/10/2019 de: https://www.ibm.com/blogs/research/2018/09/ai-fairness-360/ ]


© 2019. Licencia de uso y distribución: Creative Commons CC BY 4.0