近日,谷歌发布AVA (Atomic Visual Actions)数据库,由YouTube公开的视频集组成,这些视频可以用80个原子动作进行标注,例如走路、握手、踢东西等,所有动作具有时空定位,累计有5.76万个视频片段,9.6万个人类动作,以及21万个动作标签。谷歌称,此次发布的AVA技术将帮助谷歌分析多年的视频,还能帮助广告商更好地瞄准消费者。他们的最终目标是教计算机社交视觉智能化,即“理解人类在做什么,下一步该做什么,以及他们想要实现什么目标。”
机器人及机械臂2017-11-14 | 中国机器视觉网 |
3760