Спецпроєкти

Google поможет машинам распознавать действия людей на видео


Компьютерное зрение становится одной из главных сфер развития для технологических компаний, которые хотят модернизировать свои программы и устройства до ранее невиданного уровня.

Недавно eBay объявила о планах добавить новый способ поиска: пользователь сможет использовать существующие фотографии для нахождения похожих предметов. Онлайн-магазин одежды ASOS  также объявил о чем-то подобном. А несколько дней назад приложение Google Photos добавило новую функцию распознавания изображений для домашних животных.

 

Мы уже начинаем видеть плоды технологии компьютерного зрения в сфере видео: например, российские власти развернули распознавание лиц по всей сети CCTV в стране; Pornhub создает систему визуального распознавания конкретных сексуальных позиций в видеороликах для взрослых. Также существует отдельная растущая индустрия автономных автомобилей, у которых развивают способность понимать реальные действия.

На фоне всего этого Google опубликовала новый набор видеоданных, который, как она надеется, будет использован для “ускорения исследований” в сфере компьютерного зрения. Атомные визуальные действия (AVA) представляют собой набор данных, состоящих из видео с ярлыками (на каждом из них информация о том, что происходит на видео).

AVA – это, по сути, куча URL-адресов YouTube, аннотированных набором действий, таких как рукопожатие, пинание, обнимание, поцелуи, питие, игры на инструменте, ходьба и многое другое.

Предоставляя кому-либо доступ к набору данных, Google надеется улучшить визуальный интеллект машин, чтобы они могли понимать, что делают люди, а также предугадывать то, что они могут делать дальше.

"Мы надеемся, что выпуск AVA поможет улучшить разработку систем распознавания человеческих действий и предоставит возможности моделирования сложных ситуаций на основе ярлыков с мелкой пространственно-временной детализацией", – сказали в компании.

#bit.ua
Читайте нас у
Telegram
Ми в Телеграмі
підписуйтесь