La empresa española Acuilae anuncia el lanzamiento pionero de ETHYKA, el primer módulo ético en Inteligencia Artificial para el sector de la automoción, capaz de analizar diversos dilemas complejos para optimizar el funcionamiento de los equipos de IA, mejorar sus decisiones y evitar su corrupción.

ETHYKA en la Automoción

En este ámbito ETHYKA ayuda a tomar decisiones de componente ético a sistemas autónomos de conducción y en la gestión de dilemas, comportamientos ante situaciones impredecibles y patrones predecibles. Asimismo, actúa en la detección de comportamiento no ético de conductor de trenes, metros, autobuses como dormidas, desvanecimiento, comportamientos extraños, comunicando la incidencia y activando todos los protocolos de urgencia inmediatos, para estacionar el medio de la manera más segura y en el menor tiempo posible.

El desarrollo de conciencia en IA

A día de hoy, desarrollar conciencia en robots no es lo mismo que darles las funciones para realizar acciones contraproducentes. Hasta el momento, la IA de dominio específico es aquella que se enfoca en la realización de algoritmos que son destinados a resolver solo una tarea determinada. Aunque estos algoritmos generalmente son más eficientes que los humanos a la hora de desempeñar la tarea, no tienen un rango de ejecución más allá de la razón por la que fueron programados.  Por lo tanto, dotar de ética a la IA asegurando que, en nuestro futuro próximo y cercano, las acciones derivadas del análisis de datos se ejecutarán mediante actuaciones y decisiones éticas en un mundo más seguro, mejor y respetuoso con los demás humanos, es el objetivo de esta innovadora propuesta.

Resolver la potencial “corrupción” ética

Determinados sistemas asistenciales y robots en contacto con humanos tienden a corromperse. En este contexto, ETHYKA pretende resolver el problema de la potencial “corrupción” moral de sistemas de aprendizaje autónomos en contacto con humanos, la mejora en la toma de decisiones de sistemas híbridos hombre-máquina y de las acciones de sistemas autónomos (vehículos, robots o drones).

Su framework permite implementar fácilmente y con agilidad modelos éticos en sistemas de inteligencia artificial (robots, asistentes virtuales, etc.). Puede ser implementado en asistentes virtuales, unidades autónomas o simplemente en cualquier app o web services.

La ética en IA

Convivimos y conviviremos con sistemas que son gobernados mediante Inteligencia Artificial, sistemas que tomarán decisiones autónomas, decisiones que tendrán su impacto en nuestra vida diaria y en nuestra convivencia con los demás. La robótica e IA afectarán en profundidad nuestras relaciones económicas, sociales o políticas. De esta manera, todos los sectores y grupos sociales se verán afectados y en el mundo actual se reclaman comportamientos éticos y morales en todos los ámbitos. Ante esta realidad, se nos plantean varias preguntas reflexivas:

  • ¿Quién nos asegura que estos sistemas tomarán decisiones “humanas”?
  • ¿Se plantearán estos sistemas los aspectos éticos en la toma de sus decisiones?
  • ¿Se limitarán a evaluar simplemente entradas de datos y tomarán la decisión objetivamente más positiva desde un punto de vista de un simple cálculo matemático o una ponderación coste-eficacia?
  • ¿Pondríamos nuestras vidas o las vidas de nuestros hijos en manos de sistemas cuyo único razonamiento para la toma de decisiones sean entrenamientos sesgados y/u operaciones matemáticas?
  • ¿Qué principios deberán regir a los robots?
El comportamiento del cerebro

Por mucho que el cerebro humano parece un prodigio de la naturaleza capaz de hacer cosas bastante impresionantes, lo cierto es que el conjunto de datos con los que trabaja siempre está lleno de lagunas. De hecho, ni siquiera es capaz de procesar debidamente toda la información que le va llegando en tiempo real a través de los sentidos. Por esta razón, el cerebro humano obedece al principio de supervivencia. La atención es el mecanismo por el que se seleccionan ciertas partes de la información disponible y se ignoran otras. De este modo, el sistema nervioso es capaz de localizar elementos de información que resultan relevantes para focalizar la atención en ellos y no en otros, todo ello dependiendo de cuál sea nuestro objetivo. Los tipos de estímulos que el cerebro interpreta incluyen sonidos, luz, olores y dolor. ETHYKA de igual manera es capaz de recepcionar toda la información que le llega a través de cámaras, audios, sensores, información recibida a través de apps, frameworks, etc., mediante un formato de entrada que recogerá distintas partes de información.

Análisis de cada dilema

En la segunda fase, ETHYKA utiliza un catálogo de dilemas con factores predeterminados en función del tema tratado para determinar la existencia o carencia del dilema. Esta propuesta cuenta con un gran almacenamiento de memoria, por lo que es más eficaz y rápida en momentos determinados. Por lo que la respuesta cognitivo emocional se obtiene cotejando la información del contexto con las expectativas de recompensa en función a los valores y las normas que cada uno es libre de respetar.

ETHYKA analiza el dilema reconocido en distintas fases:

Primera fase: Determinando qué tipo de ética se va a utilizar, puede ser que sea una o varias, dependiendo del escenario. Entre ellas: la ética aprobativa, la autónoma y heterónoma, la evolutiva, la teológica, la social, la cívica y la profesional.

Segunda Fase: Qué principios debe de cumplir, dependiendo del escenario y del tipo de ética asignado.

Tercera Fase: En su utilidad más compleja, utiliza machine learning/Deep learning para generar predicciones, que ayudarán a contrastar la toma de decisiones éticas de los dilemas planteados en base a la información almacenada. Mientras que en su utilidad más fácil, simplemente bloqueará resultados impropios, como por ejemplo en su aplicación en asistentes virtuales o en chatbots.

La toma de decisiones 

Los criterios de decisión se estructuran en tres modelos:

Baja certidumbre: Se tiene conocimiento total sobre el problema, las alternativas de solución que se planteen van a causar siempre resultados conocidos e invariables. Al tomar la decisión solo se debe pensar en la alternativa que genere mayor beneficio.

Bajo riesgo: La información con la que se cuenta para solucionar el problema es incompleta, es decir, se conoce el problema, se conocen las posibles soluciones, pero no se conocen con certeza los resultados que pueden arrojar.

Baja incertidumbre: Se posee información deficiente para tomar la decisión, no se tienen ningún control sobre la situación, no se conoce cómo puede variar o la interacción de las variables del problema.

Las soluciones de ETHYKA son válidas en todas estas circunstancias con soluciones para cada sector, en una cultura o país determinado y bajo unas reglas de comportamiento diferentes y específicas de cada sociedad.

El mencionado módulo ha sido planificado y diseñado por Cristina Sánchez, CEO de Acuilae y de amplia trayectoria en Accenture para grandes compañías, y Pedro Diezma, uno de los mayores expertos mundiales en Wearable Technology (tecnología vestible), IoT, Human Enhancement Technologies (HET), también es miembro de MENSA y Premio “Mejor Iniciativa” Wearable en eSalud 2017 y “Mejor Solución” tecnológica 2018 a la seguridad laboral.

 

Dejar respuesta

Please enter your comment!
Please enter your name here