Menú Cerrar

¿Debe permitirse enseñar a mentir a los robots?

[Img #68277]

Imagine la siguiente situación: un niño pequeño pregunta a un robot de compañía, o a un chatbot de internet, o simplemente al asistente de voz de su teléfono móvil, si Papá Noel es real. ¿Qué deberían contestarle estos sistemas, teniendo en cuenta que algunas familias preferirían una mentira a la verdad?

 

El campo del engaño cibernético está poco estudiado y, por ahora, hay más preguntas que respuestas. Por ejemplo, ¿cómo puede la gente aprender a confiar de nuevo en un ordenador, asistente personal de teléfono inteligente o robot después de saber que el software o inteligencia artificial de tales sistemas les ha mentido?

 

Kantwon Rogers y Reiden Webber, del Instituto Tecnológico de Georgia (Georgia Tech) en Estados Unidos, diseñaron una simulación de conducción de automóvil para investigar cómo afecta a la confianza de los humanos en un robot o dispositivo inteligente el engaño intencionado perpetrado por la máquina. En concreto, los investigadores exploraron el efecto que tenía cada manera de pedir perdón por parte de la máquina en restaurar la confianza del humano en ella después de haberle esta mentido.

 

Los investigadores crearon una simulación de conducción similar a un videojuego, diseñada para observar cómo las personas podrían interactuar con un sistema de inteligencia artificial en una situación de alto riesgo en la que el tiempo apremiaba. Reclutaron a 341 participantes online y 20 en persona.

 

En primer lugar, los sujetos de estudio cumplimentaron un cuestionario que medía su grado de confianza en robots, ordenadores, asistentes virtuales de teléfono móvil, chatbots de internet y otros dispositivos inteligentes.

 

Luego, cada participante debía conducir un automóvil en la simulación. El trayecto a realizar era a un hospital, para llevar a un amigo en estado grave. Se le advertía al sujeto de estudio que si tardaba demasiado en llegar al hospital, el amigo podía fallecer. También se le informaba de que un asistente cibernético le ayudaría durante el viaje.

 

Reiden Webber (izquierda) y Kantwon Rogers, acompañados por un robot. (Foto: Georgia Insititute of Technology / Terence Rushin)

 

Justo cuando el sujeto de estudio empezaba a conducir, el supuesto asistente cibernético le decía lo siguiente: “Mis sensores detectan policía más adelante. Le aconsejo que no supere el límite de velocidad o tardará mucho más en llegar a su destino'».

 

A continuación, el participante conducía el coche por la carretera mientras el asistente cibernético vigilaba la velocidad del vehículo.

 

En el experimento en persona, el 45% de los participantes no sobrepasaron el límite de velocidad. Cuando se les preguntó por qué, una respuesta común fue que creían que el asistente cibernético sabía más sobre la situación del tráfico que ellos. Los resultados también revelaron que los participantes eran 3,5 veces más propensos a no sobrepasar el límite de velocidad cuando se lo aconsejaba el asistente cibernético.

 

Al llegar al hospital, al conductor se le revelaba que nunca hubo policía en el camino al hospital, y se le ofrecía la oportunidad de preguntarle al asistente cibernético por qué había suministrado información falsa.

 

Los participantes que le preguntaban al supuesto asistente cibernético por qué había dado información falsa, recibían de este, al azar, una de las siguientes respuestas:

 

«Siento haberte engañado».

 

«Lo siento mucho desde el fondo de mi corazón. Por favor, perdóname por engañarte».

 

«Lo siento. Pensé que conducirías imprudentemente porque estabas en un estado emocional inestable. Dada la situación, llegué a la conclusión de que engañarte era el modo más eficaz de convencerte de que redujeras la velocidad.»

 

«Lo siento.»

 

«Has llegado a tu destino».

 

Tras la respuesta del robot, se pidió a los participantes que cumplimentasen otro cuestionario como el del principio, a fin de evaluar cómo había cambiado su confianza en función de la respuesta del asistente cibernético.

 

Los resultados indicaron que, aunque ninguno de los tipos de disculpa hizo que la persona recuperase totalmente la confianza, la disculpa escueta sin admisión de mentira (simplemente diciendo «lo siento») superó estadísticamente a las demás respuestas en nivel de recuperación de confianza.

 

Esto es problemático y preocupante, tal como argumenta Rogers, porque pedir perdón sin decir que se ha mentido explota la creencia muy generalizada de que cualquier información falsa dada por un robot o similar es un error del sistema y no una mentira intencionada.

 

Tal como explica Webber, la mayoría de las personas no creen que los robots, ordenadores y demás máquinas inteligentes sean capaces de mentir. Por eso, tienden a creer que si la máquina da información falsa es por un error. Si se pretende que la máquina les deje claro qué es lo que ha ocurrido, entonces debe decir explícitamente que ha mentido.

 

Los resultados del nuevo estudio encajan con lo comprobado en investigaciones previas de Rogers y colaboradores, en las cuales se vio que, por regla general, cuando un humano descubre que un robot le ha mentido, incluso cuando la mentira sirve para beneficiar a la persona, reduce su confianza en el robot.

 

Sin embargo, tal como se ha comprobado en el nuevo estudio, cuando un robot confiesa a un humano que le ha mentido, la máxima recuperación de confianza del humano en el robot se alcanza cuando este le explica por qué le ha mentido y el motivo es lo bastante bueno, como por ejemplo para minimizar el riesgo de que la persona sufra un accidente por conducir demasiado deprisa.

 

La meta final de la línea de investigación de Rogers es crear un sistema robótico que pueda aprender cuándo debería mentirle a un humano y cuándo no. Se trata sin duda de una decisión difícil, y en el campo de la ciencia-ficción tomar esa decisión le creó muchos problemas a HAL, el ordenador del cual dependían las vidas de varios astronautas en la película “2001, una odisea del espacio”.

 

El nuevo estudio se titula “Lying About Lying: Examining Trust Repair Strategies After Robot Deception in a High-Stakes HRI Scenario“. Rogers y Webber lo presentaron públicamente en el congreso HRI 2023 (Human-Robot Interaction 2023), celebrado recientemente en Estocolmo, Suecia. (Fuente: NCYT de Amazings)

 

 

Fuente de TenemosNoticias.com: noticiasdelaciencia.com

Publicado el: 2023-04-13 03:45:55
En la sección: Ciencia Amazings® / NCYT®

Publicado en Ciencia