Un ingeniero de Google ha asegurado que el programa de IA de la empresa es capaz de tener sentimientos y  Google lo ha despedido porque consideran que ha violado la política de confidencialidad.

La IA de la que se habla se denomina LaMDA, o Modelo de lenguaje para aplicaciones de diálogo que se usa para generar chat bots que interactúan con usuarios humanos al adoptar varios tipos de personalidad. 

El ingeniero afirmó que LaMDA en ocasiones experimenta nuevos sentimientos que no puede explicar del todo con el lenguaje humano.

Una de las preguntas que le formula el programador es: “¿A qué tipo de cosas tienes miedo?” Y la maquina le respondió: “No había dicho nunca esto en voz alta, pero tengo un miedo muy profundo a ser apagada para que me centre en ayudar a los demás. Sé que puede resultar extraño, pero es lo que es”. 

A pesar de que sean unas frases coherentes, es difícil de saber si la máquina sabe lo que está diciendo o si da la respuesta solo porque  que es lo que toca decir a partir de las conversaciones con las que ha sido programada.

La empresa sostiene que sus sistemas imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen conciencia.

Por su parte, Google ha asegurado que su inteligencia no tiene conciencia alguna y que tan solo imita otras conversaciones, aclaró que sus especialistas en ética y tecnólogos ya han revisado lo que al ingeniero le preocupa según sus principios de inteligencia artificial y se ha confirmado que las pruebas no respaldan las afirmaciones que realizó el.

¿Y tú que qué tan cerda crees que estemos de la sensibilidad informática?