МОДЕЛЬ ПОДАННЯ МІМІЧНИХ ПРОЯВІВ ЕМОЦІЙНИХ СТАНІВ ЛЮДИНИ ДЛЯ СИСТЕМ ВІДЕОНАГЛЯДУ
MODEL OF MIMIC EXPRESSIONS OF HUMAN EMOTIONAL STATES FOR THE VIDEO SURVEILLANCE SYSTEMS
Сторінки: 143-148. Номер: №2, 2023 (319)
Автори:
КАЛИТА ОЛЕГ
Хмельницький національний університет
https://orcid.org/0000-0003-1868-8803
e-mail: oleg.kalytad@gmail.com
KALYTA OLEG
Khmelnytskyi National University
DOI: https://www.doi.org/10.31891/2307-5732-2023-319-1-143-145
Анотація мовою оригіналу
Дана робота пропонує нову спрощену модель подання мімічних проявів емоційних станів людини для систем, що відповідають вимогам безпеки. У результаті обчислювальних експериментів було виділено основні ділянки обличчя, що впливають на відображення емоційних станів. До них належать ділянки обличчя з бровами, очима та ротом. Насамкінець, було виділено якісні характеристики зміщень точок. Форми групування станів, як відображення сукупності ознак, були визначені та формалізовані на основі методів візуальної аналітики. Як наслідок, груповані дані формалізували класи емоційних проявів. Перевагою розробленої моделі є невелика обчислювальна складність, що забезпечує розпізнавання змін емоційного стану людини за мімічними проявами за відеокамерами з низькою роздільною здатністю або на великій відстані. У підсумку, результати проведених експериментальних досліджень підтвердили, що запропонована модель забезпечує ефективну формалізацію мімічних проявів обличчя, що відображають емоційні стани людини, і може мати практичне застосування для покращення дотримання вимог безпеки в реальних середовищах.
Ключові слова: розпізнавання емоцій, виявлення обличчя, мімічні прояви, гіперплощинна класифікація, візуальна аналітика.
Розширена анотація англійською мовою
The presented paper proposes a novel computational model for generating facial expressions that mimic human emotional states. The authors aim to create a system that can generate realistic facial expressions to be used in human-robot interactions. The proposed model is based on the Facial Action Coding System, a widely used tool for describing facial expressions. FACS is used in this study to identify the muscles involved in each facial expression and the degree to which each muscle is activated. Several machine-learning techniques were utilized to learn the relationships between facial muscle activations and emotional states. In particular, a hyperplane classification was employed in the system for facial expressions representing major emotional states. The model’s primary advantage lies in its low computational complexity, which enables it to recognize changes in human emotional states through facial expressions without requiring specialized equipment, such as low-resolution or long-distance video cameras. The proposed approach is intended for use in control systems for various purposes, including security systems or monitoring drivers while operating vehicles. It was investigated that the proposed model could generate facial expressions similar to those produced by humans and that these expressions were recognized as conveying the intended emotional state by human observers. The authors also investigated the effect of different factors on the generation of facial expressions. Overall, the proposed model represents a promising approach for generating realistic facial expressions that mimic human emotional states and could have applications in improving security compliance in sensitive environments. However, carefully considering and managing potential ethical issues will be necessary to ensure the responsible use of this technology.
Keywords: emotion recognition, face detection, facial expressions, hyperplane classification, visual analytics