¿El asistente de Google con IA disparó un arma?

Un Ingeniero especializado en robótica del MIT ha mostrado como el asistente de Google a base de IA disparó un arma con una orden de voz.

robot shoots

Un asistente de Google es lo que Alexander Reben es un artista y un Ingeniero especializado en robótica del Instituto de Tecnología de Massachusetts (MIT) utilizó para realizar un proyecto donde integró un altavoz inteligente Google Home y el Asistente de la compañía estadounidense para disparar un arma, con sólo decir las palabras “Ok Google, activa la pistola”

Reben ha declarado que con este proyecto busca provocar al espectador e iniciar una conversación sobre los límites de lo que la Inteligencia Artificial puede realizar en el mundo real, sobre todo en países donde la violencia armada puede escalar con facilidad.

Parte del mensaje para mí incluye las consecuencias involuntarias de la tecnología y la inutilidad de considerar cada caso de uso

– Alexander Reben, Ingeniero especializado en robótica del MIT

El Ingeniero menciona que tardó aproximadamente 30 minutos en construir un dispositivo que estaba enganchado al gatillo de una pistola la cual disparaba la bala hacia una manzana que tenía a apenas unos centímetros de distancia. Este dispositivo tenía que ser capaz de activarse una vez recibiera la orden por parte de Google Home.

Google ya ha asegurado en el pasado que a pesar de que se pronuncien palabras que tengan que ver con ejecutar acciones violentas, un asistente digital no está capacitado para aceptar ese tipo de órdenes, ya que están en contra de las normas de la compañía.

Por esta condición, Reben tuvo que manipular de alguna forma el dispositivo para que aceptara esa norma como correcta y activar el sistema que apretara el gatillo. El mensaje que postula Reben no gira en torno al cómo lo hizo, sino que plantea una pregunta para esta tecnología: ¿hasta qué punto la tecnología que creamos puede convertirse en nuestra enemiga o en cómplice de nuestras malas acciones?

El Ingeniero del MIT ha reconocido que esta prueba se trata de provocar un debate, plantear dudas y preguntas acerca de que tan capaces son los humanos de poder manipular reconfigurando estos asistentes a base de Inteligencia Artificial para dañar a otros.

 

Salir de la versión móvil