NOTICIAS

El principio de transparencia en la regulación de la inteligencia artificial

 

Diario La Ley – Carlos B Fernández – Marzo 2017

La reciente propuesta del Parlamento Europeo a la Comisión para que elabore unas normas de Derecho Civil sobre robótica, incluye muchos elementos para la reflexión.

Entre los más relevantes se encuentra el principio de transparencia que debe aplicarse a los desarrollos basados en la inteligencia artificial.

Para comprender la importancia de este principio hay que trasladarse por un momento al concepto mismo de inteligencia artificial que se incluye en dicha propuesta (punto 1 de los Principios generales relativos al desarrollo de la robótica y la inteligencia artificial para uso civil).

Este concepto incluye como características de un sistema inteligente, a) la capacidad de adquirir autonomía mediante sensores y el intercambio y análisis de los datos capturados; b) la capacidad de autoaprendizaje a partir de la experiencia y la interacción y, c) la capacidad de adaptar su comportamiento al entorno.

Es decir, son sistemas capaces de aprovechar los datos recibidos para procesarlos y adoptar decisiones autónomas de actuación, mejorando su comportamiento de forma igualmente autónoma.

Pues bien, el principio de transparencia se dirige a permitir conocer el por qué de esas decisiones autónomas de actuación, a la lógica que soporta las decisiones adoptadas por la máquina. Ese principio de transparencia impone que dicha lógica de conducta deba ser visible y comprensible por los seres humanos, como analizamos a continuación.

Las premisas de la propuesta

La propuesta del Parlamento Europeo parte, entre otras, de la muy probable premisa de que “humanidad se encuentra a las puertas de una era en la que robots, bots, androides y otras formas de inteligencia artificial cada vez más sofisticadas parecen dispuestas a desencadenar una nueva revolución industrial” (Introducción, B).

Se considera que esta tendencia “apunta al desarrollo de máquinas inteligentes y autónomas, con capacidad para ser entrenadas para pensar y tomar decisiones de manera independiente” (*) (introducción, G).

Y esa futura capacidad requiere “que los implicados en el desarrollo y comercialización de aplicaciones en inteligencia artificial incorporen desde el principio características de seguridad y ética” (introducción, N).

El marco ético aplicable al desarrollo de la robótica y la inteligencia Artificial

A este fin, la propuesta incluye una relación de principios éticos relativos al desarrollo de la robótica y de la inteligencia artificial para uso civil, que comienzan por la asunción de que “el actual marco normativo de la Unión debe actualizarse y completarse, en su caso, por medio de directrices éticas que reflejen la complejidad del ámbito de la robótica y sus numerosas implicaciones sociales, médicas y bioéticas” a fin de disponer de “un marco ético claro, estricto y eficiente que oriente el desarrollo, diseño, producción, uso y modificación de los robots” (epígrafe 11).

El concepto de ética al que se refiere la propuesta del Parlamento puede extraerse tanto de la letra Q de su introducción (“… la evolución en la robótica y en la inteligencia artificial puede y debe concebirse de modo que preserve la dignidad, la autonomía y la autodeterminación del individuo …”), como, más precisamente, de la letra V de la misma, situada bajo el epígrafe de “Principios generales” que señala que: “…es necesario disponer de una serie de normas en materia de responsabilidad, transparencia y rendición de cuentas que reflejen los valores humanistas intrínsecamente europeos y universales que caracterizan la contribución de Europa a la sociedad…”).

Este marco ético incluye tres bloques de principios.

1. Unos incorporados directamente en la propia Propuesta (epígrafe 13): los principios de beneficencia, no maleficencia, autonomía y justicia.

El contenido de estos principios de detalla en el Preámbulo del Código de conducta ética para los ingenieros en robótica incluido en esta propuesta:

– Principio de beneficencia: los robots deben actuar en beneficio del hombre;

– Principio de no perjuicio, no maleficencia o doctrina de «primero, no hacer daño»: los robots no deberían perjudicar a las personas;

– Principio de autonomía: significa la capacidad de tomar una decisión con conocimiento de causa e independiente sobre los términos de interacción con los robots;

– Principio de Justicia: hace referencia a la distribución justa de los beneficios asociados a la robótica y la asequibilidad de los robots utilizados en el ámbito de la asistencia sanitaria a domicilio y de los cuidados sanitarios en particular.

Puedes consultar la noticia completa aqui, Diario La Ley

Global Gold Sponsor

Ventajas de ser socio

¿POR QUÉ HACERSE SOCIO DE ISMS FORUM?

  • Tendrás acceso gratuito a todos los eventos organizados por ISMS Forum, incluyendo la Jornada Internacional de Seguridad de la Información anual.
  • Contarás con descuentos especiales para matricularte en las actividades formativas organizadas por ISMS Forum, como cursos o seminarios.
  • Podrás darte de alta en el Registro de Profesionales Certificados de España y poner a disposición del mercado, si lo deseas, tus datos de contacto. El único requisito es poseer al menos alguna de las siguientes certificaciones:
    • CDPP, CCSP, CPCC, CAIP, CDPD
    • CISA, CISM, CISSP, CDPSE, CC
  • Recibirás la newsletter de la Asociación y tendrás acceso a la descarga gratuita de estudios y publicaciones fruto de la labor de los Grupos de Trabajo de ISMS Forum u otros de especial interés para el sector.
  • Gracias al networking podrías incrementar tu red de contactos e intercambiar experiencias con otros profesionales de la Seguridad de la Información que desarrollan su labor en empresas, administraciones públicas, universidades y centros de investigación, otras asociaciones y organismos de todos los sectores.
  • Podrás formar parte de los grupos de trabajo de las distintas iniciativas de ISMS Forum (Data Privacy Institute (DPI), Cloud Security Alliance España (CSA-ES), Cyber Security Center (CSC), Grupo de Inteligencia Artificial (GIA), y Cyber Resilien Centre (CRC), y participar directamente en el desarrollo de sus actividades.

Y ADEMÁS LAS EMPRESAS

  • Podrán hacer visible su compromiso con la Seguridad de la Información y materializar la Responsabilidad Social Corporativa.
  • Si eres empresa tendrás la capacidad para nombrar a 8 trabajadores de la empresa como socios de pleno derecho.
  • Si eres microempresa (empresas de menos de 10 trabajadores) podrás nombrar hasta 2 trabajadores como socios de pleno derecho.
  • Si eres una gran empresa tendrás la capacidad para nombrar a 24 trabajadores de la empresa como socios de pleno derecho

Si te haces socio de ISMS Forum, formarás parte de la mayor red activa de organizaciones y expertos comprometidos con la Seguridad de la Información en España.