AIR-Act2Act:向机器人教授非口头社交行为的数据集

0
654
Source: //github.com/ai4r/AIR-Act2Act

有成千上万种可用于各种问题陈述的数据集,但是,当要获得合适的数据集来训练机器人与人交流和互动时,大多数可用数据集都不可行。 

韩国电子与电信研究院(ETRI)开发了AIR-ACT2ACT,这是一种人与人之间的交互数据集,用于向机器人教授非语言社交行为

数据集包含语言和非语言交互,这将帮助机器人理解人类交互以做出相应的响应。 

广告Coursera Plus标语,包含约翰·霍普金斯大学,谷歌和密歇根大学的课程,突出显示数据科学职业发展的内容

招募了100名老年人和2名大学生,以使用Microsoft Kinect v2摄像机执行和记录大约十次互动。数据记录包括深度图,身体索引和3-D骨骼数据。

//arxiv.org/pdf/2009.02041.pdf

各种交互方案包括老年人如何反应: 

  1. 进入房间
  2. 无缘无故站着
  3. 呼叫机器人
  4. 看着机器人
  5. 掩面哭泣
  6. 威胁要击中机器人
  7. 离开这个房间
  8. 握手
  9. 高举五手
  10. 要求机器人离开

该数据集将有助于训练机器人根据老年人的互动做出响应。它可以在医疗保健,精神病治疗等不同领域带来有益的发展。它可以用于向机器人教授社交技能和基准动作识别算法。

//github.com/ai4r/AIR-Act2Act

Github: //github.com/ai4r/AIR-Act2Act

纸: //arxiv.org/pdf/2009.02041.pdf

广告

发表评论

请输入您的评论!
请在这里输入您的名字

该网站使用Akismet减少垃圾邮件。 了解如何处理您的评论数据.