¿Cómo conseguir científicamente que un camarero te haga caso?
Identificar si a los clientes les gustaría ordenar requiere reconocer las acciones que los clientes están realizando actualmente y, en segundo lugar, comprender su significado comunicativo y la razón de su intención. El reconocimiento de acciones es el primer paso en el proceso y se definió como hacer coincidir la percepción de una acción con una acción correspondiente en la memoria (por ejemplo, Jeannerod, 2006 ), por ejemplo, agarrar una taza.
La investigación en humanos demostró que las neuronas espejo contribuyen a reconocer acciones e identificar el objetivo de una acción (Johnson-Frey et al., 2003 ; Iacoboni et al., 2005 ; Kilner et al., 2007 ; para una revisión ver Van Overwalle y Baetens , 2009 ). Por ejemplo, Wurm y Schubotz ( 2012) compararon a los participantes observando acciones en diferentes contextos, como romper un huevo en un tazón en la cocina y en el baño. Observaron efectos de interferencia en fMRI, así como en los datos de comportamiento y argumentaron que esto refleja cuán adecuada es una acción en un contexto dado y si la observación se ajusta a una secuencia plausible de acciones.
Identificar la secuencia de acciones es esencial para reconocer la intención del agente, pero interpretar una señal social requiere un razonamiento adicional. Por ejemplo, al romper un huevo, el agente podría indicar que se está encargando de preparar la comida, mientras que el interlocutor debe completar alguna otra tarea. Atraer la atención del cantinero por hacer un pedido de bebidas es una intención social (cf. Levinson, 1995 ; Van Overwalle y Baetens,2009 ).
Para desarrollar un conjunto de reglas que hagan que las intenciones sociales humanas sean accesibles para un agente robótico, presentamos un método para usar estímulos naturales de un entorno de la vida real y vincular explícitamente el reconocimiento de acción y el reconocimiento de intenciones sociales.
El robot de barman debe confiar en la visión por computadora para reconocer las acciones y la postura de los clientes.
La investigación en esta área se centró en clasificar correctamente las acciones como agitar, caminar y correr (para una revisión, ver Poppe, 2010 ), por ejemplo, computando y apilando las siluetas del agente en un volumen de espacio-tiempo (Blank et al., 2005 ; Gorelick et al., 2007 ) o identificando parches relevantes mediante un análisis lento de características y comparándolos con los datos de entrenamiento (Zhang y Tao, 2012 ). Además, la pose del agente (Shotton et al., 2013 ) y las manos y los rostros se pueden identificar y rastrear (Baltzakis et al., 2012) Eso significa que los sensores robóticos pueden extraer la postura, los movimientos y las acciones realizadas por los clientes en (casi) en tiempo real. Esto proporciona al sistema de robot información esencial. Pero, como se describió anteriormente, estos datos deben interpretarse en un contexto social.
Comentarios
Publicar un comentario