Nuestros asistentes de robot están aprendiendo a mentir y debemos dejarlos

Los robots se hacen cargo (1/2) | DW Documental

Los robots se hacen cargo (1/2) | DW Documental
Anonim

Los robots se están convirtiendo en grandes compañeros humanos. ¿Quién no querría que un adorable Pepper nos contara chistes, nos felicitara y, en general, nos haga sentir menos solos en el mundo? Incluso los robots sin forma están demostrando ser una compañía sorprendentemente buena. Toma la Alexa de Amazon Echo, por ejemplo. Es un cerebro robótico con una voz humana atrapada dentro del cuerpo de un altavoz de audio, pero es útil y, si lees sus comentarios, está claro que se ha convertido en algo familiar para muchos usuarios. ¿La gente pensaría diferente si ella mintiera? ¿Qué tal si te dijo algo que realmente no querías escuchar?

Piénselo: les decimos a los niños que nunca digan una mentira y que la honestidad es la mejor política, y sin embargo omitimos, distorsionamos la verdad y mentimos abiertamente a los niños. todo el tiempo. Esto les enseña, a través de nuestras acciones, si no a través de nuestras palabras, que no se trata de honestidad completa, sino de aprender las complicadas reglas sociales sobre cuándo y cómo revelar u ocultar información potencialmente confidencial. La programación de robots para observar estas reglas sociales puede ser una parte difícil pero necesaria del proceso continuo de innovación de autómatas.

Aquí hay un ejemplo: estuve en la casa de mi cuñado el otro fin de semana y fui a la tienda a buscar algo de sándwich para el almuerzo de todos. Mi sobrina de seis años me estaba ayudando a sacar la comida mientras todos los demás estaban fuera de la cocina, y ella me preguntó cuánto habían costado las compras. Le dije, porque enseñar a los niños sobre el valor del dinero es algo bueno.

En la mesa del almuerzo, me pidió que les dijera a todos cuánto habían costado las compras. Dije que no."¿Por qué?", ​​Preguntó ella, genuinamente confundida en cuanto a por qué una pregunta que había contestado libremente unos minutos antes era ahora información secreta. "No es educado", dije, explicando que, debido a que es una niña, las reglas son diferentes cuando estamos solos. Le estaba enseñando que la honestidad y la franqueza tienen tiempo y lugar. En un contexto humano, la información no siempre quiere ser libre.

Es lo mismo con los robots. Pensamos que no queremos que nuestros robots nos mientan, pero en realidad queremos que aprendan las complicadas reglas sociales de cortesía y discreción que a veces requieren distorsiones de la verdad. Y ya están aprendiendo a hacerlo. Toma este breve clip de Pepper interactuando con un reportero, por ejemplo:

Lo primero que sale de la boca de Pepper es un cumplido: "Entonces, eres muy elegante. ¿Eres modelo?"

El reportero es lo suficientemente guapo, pero la pregunta de Pepper no es ser completamente honesta. Entendemos que Pepper en realidad no se pregunta si es un modelo y que ha sido programado para decir cosas agradables sin importar cómo se vea una persona.

Poco después, Pepper pide un préstamo, de la nada. Es una pregunta descortés, una indiscreción de que perdonamos fácilmente a un robot como lo haríamos con un niño. El periodista podría haber señalado que la pregunta es grosera, sugirió que los robots no necesitan dinero o admitió que no tenía ningún interés en entregar $ 100 a Pepper. Toda la verdad es que el reportero. podría prestar el robot al dinero, pero entiende que la pregunta en sí es un poco un juego. Lo que decide decir es una desviación, y ya sea una mentira blanca o una verdad a medias, no tiene el dinero en él. La esperanza es que el robot entienda esto como un suave "no" y no sugiera que el reportero vaya a un cajero automático y haga un retiro. Como Pepper evidentemente tiene algo de gracia social, la línea de preguntas termina allí.

Los robots sociales están programados para aprender señales sociales, y esto es algo bueno: en última instancia, los hará mejores en nuestros trabajos. La tarea de los programadores no es eliminar todo el engaño de los robots, sino agregar características que faciliten a los robots tomar decisiones sobre las respuestas adecuadas.

Cuando los robots son nuestros confidentes, necesitan tener conciencia del contexto y la audiencia. Si me estoy probando ropa en casa, por ejemplo, voy a querer una evaluación honesta de qué tan halagadoras son las diferentes opciones. Si salgo a una fiesta y de repente estoy consciente de que he elegido el vestido equivocado, la seguridad de que me veo bien será la respuesta más útil.

Los robots aprenderán mucha información personal sobre sus compañeros, y será importante para ellos entender la diferencia entre información confidencial e información pública, y también estar al tanto de quién está escuchando cada vez que habla. Las preguntas tendrán diferentes respuestas dependiendo de quién esté preguntando. Los robots se comportarán de manera diferente cuando los invitados estén en la casa.

Los robots, como los niños, necesitan una crianza responsable. Esto significa que tanto los programadores de robots como los propietarios de robots deben pensar profundamente acerca de las consecuencias éticas y sociales de nuestro A.I. interacciones Pero no significa exigir honestidad perfecta, en serio, nadie quiere eso.