Подписывайтесь на «АН»:

Telegram

Дзен

Новости

Также мы в соцсетях:

ВКонтакте

Одноклассники

Twitter

Аргументы Недели → Хайтек 13+

ИИ учится распознавать и предсказывать эмоции людей

, 12:00 , Журналист Источник: kommersant.ru

Буквально на этой неделе нейробиологи из Массачусетского техноинститута (MIT) опубликовали в СМИ статью, посвящённую распознаванию человеческих эмоций со стороны ИИ. Подобные разработки могут позволить нейросетям предсказывать эмоции людей, в числе которых радость, благодарность, смущение, замешательство, сожаление.

Участница исследования профессор Ребекка Сакс отмечает, что подобные разработки основное внимание уделяют распознаванию эмоций по выражению лица. Но сам по себе этот навык – совсем не самая важная часть эмоционального интеллекта человека. «Самое важное – предсказывать, что люди почувствуют до того, как это произошло, - указывает профессор, - если бы весь наш эмоциональный интеллект был исключительно реактивным, это было бы катастрофой».

Поставленная учёными задача заключалась в том, чтобы модель предсказывала людские эмоции в ситуациях, описываемых «дилеммой заключённого». Это пример из теории игр, когда двое «заключённых» независимо друг от друга должны принять ответственное решение – о сотрудничестве или о предательстве. Авторы исследования отметили, что при построении модели они включили несколько разных факторов, способных влиять на человеческие эмоции. Среди них – желания людей, их ожидания в конкретных ситуациях, факт того, наблюдает ли за ними кто-то или нет, и многое другое.

Для построения модели учёные взяли сценарий известной британской телеигры Golden Balls. Там на каждую пару выделяют 100 тысяч долларов. После обсуждения в паре каждый её участник должен принять решение – разделить награду или играть за себя. Если разделение выбирают оба, каждый получает по 50 тысяч долларов. Если один хочет разделить, а другой – играть за себя, последний получает 100 тысяч. Если оба игрока отказываются сотрудничать, никто ничего не получает.

В ходе игры участники обычно испытывают совершенно разные эмоции. Компьютерная модель должна выступить в роли наблюдателя за игрой. Но самая главная задача – восстановить шаги, которые приводят наблюдателя к выводу об эмоциях участников. Для создания «предсказывающей» модели авторы исследования выделили три отдельных модуля. Первый – делает выводы о предпочтениях и убеждениях человека на основе его действий. Второй – сравнивает результаты с тем, что хотел и ожидал каждый игрок. Третий – делает выводы об эмоциях игроков на основании их ожиданий и итогов игры.

Профессор Сакс отмечает, что на этих данных модель учится многому, к примеру, чувствовать сильную радость в такой ситуации, значит, получить то, что ты хотел, честно и без обмана. По её словам, построение модели отчётливо показывает, что люди хотят не просто получить заветные деньги, но и не выглядеть в глазах других обманщиками и жуликами.
Далее исследователи сравнили оценку эмоций, демонстрируемых компьютерной моделью, обученной на таких примерах, с оценкой людей-наблюдателей. Учёные утверждают, что уровень точности массачусетской модели был выше, чем у другой модели, созданной для определения людских эмоций. В дальнейшем научные деятели из MIT хотят развивать модель так, чтобы она делала прогнозы об эмоциях людей в более сложных ситуациях.

Профессор Уорикского университета Ник Чатер уже высказался по этому поводу. «Исследователи помогли выстроить более глубокое понимание того, как эмоции воздействуют на наши действия, - сказал эксперт, - а затем, переворачивая эту модель, они показывают, как мы можем использовать действия людей для понимания эмоций, лежащих в основе этих действий». По его словам, такое направление работы помогает увидеть эмоции не просто как «чувства», но и как то, что играет существенную и при этом трудно различимую роль в социальном поведении.

Но всё же есть такие эксперты, которые сомневаются в эффективности программы. К примеру, в HireVue какое-то время использовали систему распознавания эмоций по лицу во время собеседований. Однако потом компания отказалась от этого из-за неверной оценки эмоций и «псевдонаучности». Также подобные системы пытались использовать в некоторые странах силовые ведомства, и всё равно это приводило к неудачам. А в ЕС вообще собираются запретить системы такого рода, так как они, по мнению европолитиков, нарушают права человека.

Подписывайтесь на Аргументы недели: Новости | Дзен | Telegram