Рейтинг пользователей: / 0
ХудшийЛучший 

Няньковський П.С.

Порівняння методів сегментації зображення людини, яка жестикулює

Національний університет «Львівська політехніка»

 

У статі наведено результати досліджень з побудови ефективної сегментації зображення людини для вдосконалення тренажеру української жестової мови. Досліджено методи сегментації на основі  кольору шкіри, текстури, форми, локальних характеристик.  Знайдено оптимальні алгоритми сегментації та значення параметрів.

Ключові слова: сегментація зображення, жести, колір шкіри, нейронна мережа.

In this article comparison of different algorithms for gesture recognition is made. Algorithms based on human skin color, texture, form and local characteristics are examined. Optimal algorithms for segmentation together with their parameters are found.

Key words: image segmentation, gestures, skin color, neural network

У статті наведено результати експериментів із застосування різних алгоритмів сегментації зображення для вдосконалення тренажеру української жестової мови та розроблення комп’ютеризованої системи перекладу мови жестів у текст [1]. Така система обробляє сигнал із фронтальним зображенням людини, яка розмовляє жестовою мовою для розпізнавання елементів жестової мови.

У дослідженнях використано відеопідручник української жестової мови. Цей підручник використовують для навчання жестовій мові у спеціалізованих школах для дітей з пониженим слухом та люди, які втратили слух. Для проведення досліджень фільм був конвертований у цифровий формат, а його кадри використано для побудови моделі жесту та подальшого її аналізу.

ЧИТАТЬ ВЕСЬ ТЕКСТ >>>

 
Секции-октябрь 2011
КОНФЕРЕНЦИЯ:
  • "Научные исследования и их практическое применение. Современное состояние и пути развития.'2011"
  • Дата: Октябрь 2011 года
  • Проведение: www.sworld.com.ua
  • Рабочие языки: Украинский, Русский, Английский.
  • Председатель: Доктор технических наук, проф.Шибаев А.Г.
  • Тех.менеджмент: к.т.н. Куприенко С.В., Федорова А.Д.

ОПУБЛИКОВАНО В:
  • Сборник научных трудов SWorld по материалам международной научно-практической конференции.