有成千上万种可用于各种问题陈述的数据集,但是,当要获得合适的数据集来训练机器人与人交流和互动时,大多数可用数据集都不可行。
韩国电子与电信研究院(ETRI)开发了AIR-ACT2ACT,这是一种人与人之间的交互数据集,用于向机器人教授非语言社交行为
数据集包含语言和非语言交互,这将帮助机器人理解人类交互以做出相应的响应。
招募了100名老年人和2名大学生,以使用Microsoft Kinect v2摄像机执行和记录大约十次互动。数据记录包括深度图,身体索引和3-D骨骼数据。

各种交互方案包括老年人如何反应:
- 进入房间
- 无缘无故站着
- 呼叫机器人
- 看着机器人
- 掩面哭泣
- 威胁要击中机器人
- 离开这个房间
- 握手
- 高举五手
- 要求机器人离开
该数据集将有助于训练机器人根据老年人的互动做出响应。它可以在医疗保健,精神病治疗等不同领域带来有益的发展。它可以用于向机器人教授社交技能和基准动作识别算法。

Github: //github.com/ai4r/AIR-Act2Act
纸: //arxiv.org/pdf/2009.02041.pdf