La propuesta europea para una Inteligencia Artificial ética

  • 21 enero, 2019
  • Por Jaume Ríos

La Inteligencia Artificial es una de las mayores fuerzas transformadoras de nuestro tiempo ¿Cuál es la propuesta europea para controlar su alcance?

Estudio de la inteligencia artificial en la Unión Europea

La Inteligencia Artificial (IA) es una de las mayores fuerzas transformadoras de nuestra era y alterará profundamente nuestra sociedad. Sus potencialidades son múltiples para Gobiernos, negocios y organizaciones ciudadanas. Por su capacidad para transformar el paradigma digital existente, hemos visto cómo el sentido de su uso puede cambiar el impacto y resultados en una sociedad determinada. Con una misma tecnología, podemos penalizar tuits por discriminación de género y, a la vez, controlar una población mediante el reconocimiento facial. Esta ambivalencia ha provocado que un gran número de instituciones, empresas y organizaciones civiles hayan fijado sus esfuerzos en debatir, regular y fiscalizar las implicaciones éticas y políticas de la implementación de la Inteligencia Artificial.

La propuesta europea

Desde la Comisión Europea se considera que la IA traerá enormes beneficios, pero también puede conllevar nuevos riesgos y disrupciones, tanto en la esfera pública como privada.  Por este motivo, el Grupo de alto nivel de expertos en Inteligencia Artificial (AI HLEG) ha desarrollado una guía con pautas para minimizar los riesgos y maximizar los beneficios de esta nueva tecnología.

El documento está pensado tanto para desarrolladores como para implementadores y reguladores, para poder marcar unas fronteras éticas de la IA basadas en los derechos fundamentales e indivisibles de los seres humanos, el respeto al marco legal vigente y la promoción de las libertades democráticas y el bien común.

Derechos fundamentales

Cuando hablamos de unas fronteras éticas de la IA, basadas en los derechos fundamentales, debemos tener en cuenta a cuáles hacemos referencia. En el informe de los expertos de la Comisión Europea, destacan el respeto por la dignidad humana, la libertad individual, el respeto a la democracia, el derecho a las minorías y los derechos de los ciudadanos.

Estos principios quieren forzar a que el desarrollo de la IA tenga un sentido etnocéntrico.

Principales ámbitos de preoucupación

Los reguladores y autoridades que estudian las implicaciones de la Inteligencia Artificial han planteado, durante los últimos meses, cuáles son los principales riesgos o ámbitos donde la IA puede vulnerar ciertos derechos fundamentales o romper las barreras éticas más básicas.

El primer riesgo que se contempla en el documento de la Comision Europea es la identifiación sin consentimiento. El propio informe especifica que el procesamiento de datos solo debe estar permitido cuando tenga una base legal, por ello, cuando no exista una necesidad clara definida por la legalidad, las tecnologías de identificación deben partir de la base de que las personas no dan su consentimiento para ser identificadas.

El segundo punto que destacan es la existencia de sistemas de IA encubiertos. Debería considerarse que una persona tiene derecho a saber si está interactuando con otro ser humano o con una máquina, puesto que, en caso contrario, aquellos que controlan los sistemas de IA obtienen el potencial de manipular a las personas en una escala sin precedente.

La puntuación masiva y normativa de ciudadanos sin consentimiento y en contra de los derechos fundamentales también es una de las principales preocupaciones de los expertos. Actualmente, estos sistemas ya se emplean por ejemplo en sistemas escolares y permisos de conducir, pero también suponen un riesgo para la libertad y la autonomía de los ciudadanos. Por ello, debe informarse al público del proceso, objetivos y metodología cuando se use esa información, y debe permitirse a los ciudadanos ser excluidos de estos procesos de puntuación.  

Otro elemento que genera preocupación entre los expertos es el uso de la IA en sistemas de armas letales autónomas. El AI HLEG considera fundamental que los seres humanos sigan siendo responsables de las bajas causadas por dichos sistemas, además de mostrarse preocupados por la posible carrera armamentística que puede desarrollarse alrededor de esta tecnología. En este contexto, llama a desarrollar una legislación al respecto que tenga en cuenta los dilemas legales y éticos que rodean a estos sistemas.  

Pautas para la implementación de la IA

Si queremos que la Inteligencia Artificial sea un elemento que genere confianza pública y transmita valores éticos a una sociedad que la percibe con reservas, hay algunas consideraciones que deberíamos tener en cuenta.

El estudio de la Comisión Europea plantea algunos puntos interesantes que
deberían ser valores estructurales para implementar sistemas basados en Inteligencia Artificial. Estos son: la propia responsabilidad de los sistemas inteligentes; la buena gobernanza de los datos; la no discriminación en los algoritmos; el respeto a la autonomía humana; la existencia de una privacidad real y sin fisuras; y la transparencia.

Más allá de los elementos que pueden generar confianza, también nos tenemos que plantear con qué herramientas o métodos técnicos podemos bloquear estos valores:

  • Diseño de los sistemas basados en la ética y el respeto a los marcos legales. Esta medida entiende que deben incorporarse valores-por-diseño que provean un nexo explícito y preciso entre los principios abstractos que debe seguir el sistema de IA con las decisiones específicas que implementa, de forma que sean accesibles y justificables ante las reglas legales y sociales. Esto se aplica actualmente mediante mecanismos de seguridad-por-diseño y privacidad-por-diseño.
  • Los requisitos para una IA de confianza deben transformarse en procedimientos anclados a la arquitectura de los sistemas inteligentes, por ejemplo, estableciendo límites de comportamiento.  
  • El sistema de pruebas tradicional no es suficiente debido a la naturaleza no determinista de los sistemas inteligentes. Por ello, un sistema de pruebas y validaciones constantes, que incluya, además de los datos, los inputs que se hacen al sistema y su comportamiento global, debe ser instaurado.
  • Para garantizar la transparencia del sistema, la IA debe documentar las decisiones que toman, así como su proceso de toma de decisiones, de manera que puedan ser entendidas, evaluadas y explicadas por las personas responsables con sistemas de rastreo y auditabilidad.
  • Debe poder entenderse por qué un sistema ha tomado una decisión, así como limitar las situaciones adversas que derivan de la variación en la interpretación de los datos por distintas IA. El campo de investigación XAI es una área clave para entender el funcionamiento de las IA y hacerlas más confiables.

Siguientes pasos

El documento publicado por la Comisión Europea es un paso importante. Se deben valorar los esfuerzos de las Administraciones públicas para generar marcos normativos y éticos delante de las disrupciones generadas por la transición digital.

Aun así, los siguientes pasos deben involucrar a más agentes, privados y públicos, para poder aterrizar estos principios en la regulación de los Estados miembro. Al mismo tiempo, se debe trabajar para concienciar a los desarrolladores y arrancar compromisos de cumplimiento de los principios que, finalmente, se establezcan para que la Inteligencia Artificial genere confianza, transmita seguridad jurídica y respete unos parámetros éticos.

En muy poco tiempo, ningún Gobierno podrá permitirse no atender este debate. Aquellos actores gubernamentales que no pongan esfuerzos en garantizar que la IA opere bajo un marco jurídico delimitado y unos principios morales se verán superados por una serie de disrupciones que están llamadas a cambiar el paradigma relacional, comunicativo y productivo de culaquier sociedad contemporánea.

Compartir

Volver arriba