Frontiers in Psychology: ИИ точно определил эмоции человека по голосу
Фото: Luke Southern / Unsplash
Специалисты из Германии создали модель искусственного интеллекта (ИИ), которую научили точно распознавать эмоции человека по его голосу. Исследование было опубликовано в журнале Frontiers in Psychology.
Ученые выяснили, что для определения настроения модели потребовалась 1,5-секундная запись его речи. «Наши модели достигли точности, аналогичной человеческой», — заявил автор исследования Ханнес Димерлинг.
Модель анализировала голос и определяла настроение человека с помощью нейросетей. Посредством глубоких нейронных сетей (DNN) она анализировала частоту и высоту тона, с помощью сверточных нейросетей (CNN) модель научилась определять эмоции по ритму и текстуре голоса. Наконец, гибридная модель (C-DNN) позволила выстраивать визуальную спектрограмму для прогнозирования эмоций.
По словам Димерлинга, в итоге модель оказалась настолько же корректной, насколько точен обычный человек при определении настроения собеседника. «Если бы модели превзошли в этом людей, это могло бы означать, что могут существовать закономерности, которые мы не распознаем», — заметил ученый.
Ранее ученые выяснили, что сгенерированная искусственным интеллектом (ИИ) пища оказалась более привлекательной для людей, чем настоящая еда. По мнению экспертов, искусственная еда может создавать «зрительный голод».