La historia de Marisol empieza en 2015, cuando junto con otro prototipo, llamado El Rostro, los científicos mexicanos Daniel Zaldívar Navarro y Erik Valdemar Cuevas Jiménez, del Departamento de Electrónica y Computación de la UdeG, empezaron a desarrollar un robot capaz de leer emociones y ayudar al humano en momentos de soledad.
El objetivo es que tome en cuenta los estímulos mediante la visión artificial, detecte expresiones de las personas, identifique su significado y pueda dar una respuesta inteligente.
En caso de que el robot detecte una expresión de cansancio podrá preguntarle a la persona sobre su ánimo y dependiendo el grado de tristeza o depresión podrá empezar una plática e incluso tocar su canción favorita.
"En cuanto te identifica va directamente hacia ti y te empieza a hablar. Con lo que tú le dices ya empieza a almacenar información y a sacar más preguntas como: ¿en qué año fue eso?, ¿quiénes estaban ahí?, ¿por qué esa experiencia es importante para ti? y si se acerca a ti y no le dices nada, ella genera preguntas con la información que ya tiene, como ¿te acuerdas de…?, explica Erik Valdemar Cuevas. "Va a ser autónoma e independiente, gracias a una lista de funciones ya precargadas".
Afirma que después de casi dos años de investigación, Marisol será una realidad a finales de 2017.
"En estos últimos meses hemos avanzado mucho en la cuestión de apariencia, para que cada día se vea más humana".
"Pero también en que tenga algunos movimientos, como en las manos, pero sin perder esa idea de que su función sea la de acompañante no la de un robot autónomo", agrega.
Fuente: La Vanguardia