中国领先的IT技术网站
|
|

谷歌推出 AVA 数据库:让机器识别视频中人类行为

谷歌推出了一个新的视频数据库,希望能够推动计算机视觉识别影像中行为的研究。“原子视觉行为”的英文缩写“AVA”是一个由多个标签组成的数据库,用户可以在视频序列中进行操作。

作者:佚名来源:网易科技|2017-10-23 12:35

Tech Neo技术沙龙 | 11月25号,九州云/ZStack与您一起探讨云时代网络边界管理实践


计算机视觉正在成为科技公司的一大福音,能够让机器加速运转,并完成迄今为止只能由人类完成的任务。

几个月前,eBay公布将要添加新的搜索功能,可以让用户使用现有照片来寻找类似商品,同时线上服装零售商ASOS则在时尚领域涉足此项。Shutterstock上周公布了一项全新的测试功能,用户可以根据自己的布局来搜索股票照片。过了几天,谷歌照片应用发布了新的宠物图像识别功能。

简而言之,在计算机视觉领域,发展越来越激动人心,同时也可以看到人们对人工智能领域的大量投资卓有成效。

目前,大多数计算机视觉技术的进步主要发生在静态图像领域,但我们也开始在视频中看到计算机视觉技术的成果。例如,俄罗斯当局在全国的实时监控网络中应用了面部识别技术。Pornhub也在做类似的事情,自动对“成人娱乐”视频进行分类,包括训练系统识别特定的性姿势。此外,还有蓬勃发展的自动驾驶汽车行业,在很大程度上依赖于机器对现实世界行为理解的能力。

在这样的背景下,谷歌推出了一个新的视频数据库,希望能够推动计算机视觉识别影像中行为的研究。“原子视觉行为”的英文缩写“AVA”是一个由多个标签组成的数据库,用户可以在视频序列中进行操作。

视频中动作识别的困难主要在于视频中各种复杂的场景交织在一起,多个动作也在同一时间由不同的人发出。

谷歌软件工程师顾春晖和大卫罗斯在一篇博客文章中解释道:“教会机器去识别影像中的人类行为是发展计算机视觉的一大基本难题,但是对于个人视频搜索和发现、体育分析和手势界面等应用至关重要。”“尽管过去几年在图像分类和寻找物体方面取得了激动人心的突破,但识别人类行为仍然是一个巨大的挑战。”

本质上,AVA就是一堆被80个原子动作标注的YouTube网址,并延伸到了近5.8万个视频片段,涉及到很多日常活动,比如握手、踢腿、拥抱、接吻、喝酒、玩乐器、散步等等。

通过对外开放数据库,谷歌希望可以改进机器的“社交视觉智能”,这样他们就能理解人类在做什么,并预测他们下一步会做什么。

该公司表示:“我们希望,AVA的发布将有助于改进人类行为识别系统的开发,并有机会基于时空间隔标签对复杂的活动进行建模。”

【编辑推荐】

  1. 国美在线那广:数据库运维思考与实践
  2. 巨杉数据库联合创始人&CTO王涛:企业级NewSQL加速企业大数据落地
  3. 深度学习中图片数据库的网络爬取与数据清洗
  4. 如何不必多掏钱,就能将数据库的速度提升200倍?
  5. 外媒速递:我误删了数据库中的生产数据,怎么办?
【责任编辑:张燕妮 TEL:(010)68476606】

点赞 0
分享:
大家都在看
猜你喜欢

读 书 +更多

精通JBuilder 2006

JBuilder 2006是一款强大的Java企业级开发平台,其集成了几乎所有的Java技术,涵盖了软件开发生命周期的各个过程。本书深入浅出地介绍了JBu...

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊
× CTO训练营(深圳站)