Главная - ФАКТЧЕКИ & БЛОГПОСТЫ - Можно ли с помощью искусственного интеллекта выявлять ложь?

Можно ли с помощью искусственного интеллекта выявлять ложь?

28 ноября 2023 года на сайте LiarLiar.ai вышла презентационная статья под названием «Раскрытие правды с помощью ИИ: более пристальный взгляд на LiarLiar.ai». Авторы этой публикации утверждают, что передовые алгоритмы нового искусственного интеллекта способны превзойти традиционный полиграф и распознавать ложь по видео. Наша команда заинтересовалась проблемой использования технологий прикладного ИИ (искусственного интеллекта) в системе определения степени правдивости высказываний человека.

Мы проанализировали статьи по данной теме, опубликованные в зарубежных и российских СМИ, чтобы выделить преимущества и недостатки применения как технологии, указанной в исследуемой статье, так и других подходов к данному вопросу. В ходе нашего исследования мы также изучили следующие аспекты проблемы: возможно ли с помощью LiarLiar.ai определять ложь с высокой точностью, насколько правомерно его повсеместное использование и в каких сферах жизни он может быть употреблен.

Преимущества и недостатки ИИ в обнаружении лжи

В статье «Алгоритмы обнаружения лжи на основе ИИ: окончательное решение проблемы обмана?» Марцина Фронцкевича, вышедшей 5 октября 2023 года на сайте TS2, описаны преимущества алгоритмов детекции лжи на основе ИИ: способность анализировать огромные объемы данных за короткий период, скорость и эффективность.


Автор обращает внимание на критиков, которые утверждают, что эти алгоритмы могут быть предвзятыми и дискриминировать определенных людей. Несмотря на указанные возражения, Марцин Фронцкевич приходит к выводу, что совершенствование искусственного интеллекта и его последующая эволюция могут привести к окончательному решению проблемы обнаружения обмана.

Мы обратились к эксперту, директору Института информационных технологий, математики и механики ННГУ, доктору физико-математических наук Николаю Юрьевичу Золотых, чтобы выяснить, является ли алгоритм, выработанный на основе уже имеющихся достижений в области компьютерного зрения, рабочим. Он отметил, что возможность использования технологий ИИ в данной сфере научно обоснована. Однако в любом случае, на корректность обнаружения искусственным интеллектом признаков ложного высказывания оказывает сильное влияние качество и видео звука, освещение и сжатие видео.

Инструмент искусственного интеллекта фиксирует изменения с помощью дистанционной фотоплетизмографии – технологии, которая наблюдает изменения цвета лица, коррелирующие с пульсом сердца, а изменение пульса дает много информации о том, лжет ли человек или говорит правду. Однако низкое разрешение видео может значительно сказаться на точности работы нейросети. Очевидно, что должны быть соответствующие требования к качеству камеры, — отметил эксперт.

Дмитрий Булгаков в своей статье «Никакого обмана: ложь научились выявлять с помощью IT-технологий» от 26 марта 2023 года, опубликованной на сайте iz.ru, разбирает проблемы обнаружения лжи техническим способом на основе комментариев российских ученых.

Автор опрашивает создателей программы «Эморадар», призванной помочь экспертам-пролайферам (специалистов по анализу поведения человека). Дмитрий Булгаков приводит комментарий руководителя агентства стратегических коммуникаций MassEffect Agency и профайлера-верификатора Натальи Дыбиной, которая считает главной причиной неэффективности ИИ – индивидуальные внутренние причины человека скрыть ту или иную реакцию. По ее словам, машины не смогут распознать ложь в этом случае.

Автор статьи в своем выводе приводит слова эксперта о невозможности замены машинного способа специалистов-профайлеров, поскольку эмоциональная сфера человека устроена слишком сложно.

Известно, что алгоритмы ИИ построены на анализе общих психологических изменений тела и мимики человека, когда он говорит неправду. Одной из основных проблем является то, что нейросеть не учитывает индивидуальные особенности каждого человека. Так, механизм работы искусственного интеллекта LiarLiar.ai направлен на считывание физиологических показателей, которые меняются, когда человек лжет. При этом инструмент не учитывает случаи тех людей, которых называют «патологическими лжецами». Мы обратились к эксперту – доценту кафедры социальной безопасности и гуманитарных технологий, кандидату психологических наук, заведующей лабораторией киберпсихологии Валерии Алексеевне Демаревой с просьбой спрогнозировать поведение ИИ в случае уверенности лжеца в своих словах.

На самом деле в этом самая большая сложность: если человек искренне уверен, что так оно и было, то такую информацию невозможно достоверно детектировать. В эмоциональном плане понятно, что он себя настолько убедил, что реакция будет абсолютно идентична той, что характерна при изложении правдивой информации, когнитивных усилий для того, чтобы как-то сконструировать вымышленную ситуацию, тоже, скорее всего, никаких не будет. Поэтому разоблачить патологического лжеца скорее нельзя, чем можно, — считает она.

Эффективность ИИ в сравнении с полиграфом

На сайте РБК Тренды 7 сентября 2021 года вышла статья «Обмани меня. Могут ли нейросети распознавать человеческую ложь?» с комментариями эксперта Марии Чуриковой – Lead Research Scientist в Neurodata Lab.

В статье приводятся отличия ИИ, распознающего обман, и детектора лжи. Эксперт приходит к выводу, что оба механизма лишь измеряют различные физиологические показатели и не могут самостоятельно определить, солгал ли человек. Они являются вспомогательным инструментом для специалиста.

На невозможность алгоритмов искусственного интеллекта в полной мере предоставить точную оценку правдивости или ложности того или иного высказывания обращает внимание наш эксперт – генеральный директор ООО «Квантум ИНК», специалист в сфере ИТ-технологий Юрий Викторович Баташев. По его словам, ИИ может быть полезным только в совокупности с работой психолога-интерпретатора.

ИИ скорее может работать как такой упрощенный полиграф. То есть он измеряет точно, математически, количественно какие-то конкретные признаки и на их основании дает какую-то интегральную оценку. Но эта оценка может свидетельствовать, как и оценка полиграфа, о том, что человек во время произнесения этих слов испытывает, допустим, дискомфорт, либо напрягается, но это напрямую не равно тому, что он лжет. Как в случае с полиграфом, огромная часть работы – это профессионализм психолога-интерпретатора, который глядит на объективные показания этого прибора, — утверждает эксперт.


Психологические и этические аспекты работы нейросети

В статье «Детекторы лжи всегда вызывали подозрения. Искусственный интеллект лишь усугубил проблему» от 13 марта 2020 года, опубликованной на сайте MIT Technology Review, Джейк Биттл исследует попытки распознать обман на основе ИИ.

Автор приводит в качестве примера истории людей, которых полиграф признал виновными, хотя они таковыми не являлись. Джейк Биттл приходит к выводу, что технологии прикладного искусственного интеллекта, разработанные для обнаружения лжи, могут усугубить проблему наказания невиновных людей и дисквалифицировать достойных претендентов на получение работы или оформления кредита.

На сайте ThinklML 24 августа 2022 года вышла редакционная статья под названием «Детектор лжи с искусственным интеллектом: продвинутые способы обнаружения лжи».

В ней авторы утверждают, что ИИ может быть полезным при работе с социальными сетями, а также для обеспечения безопасности людей в местах скопления, например, в аэропортах. Они приходят к выводу, что нейросеть для определения правды является большим техническим достижением.

Правовые аспекты использования ИИ

Мы обратились к эксперту – доценту, кандидату юридических наук, декану юридического факультета ННГУ им. Лобачевского Евгении Евгеньевне Черных с просьбой прокомментировать правовые возможности использования ИИ в различных областях. По ее словам, LiarLiar.ai легально может воспользоваться даже без ведома другого человека. Однако данные, полученные с помощью алгоритмов, не могут восприниматься как весомые, и поэтому их использование в системе правоохранительной деятельности невозможно.

С точки зрения закона это легально. В уголовном кодексе действительно существует статья о нарушении неприкосновенности частной жизни (УК РФ Статья 137. Нарушение неприкосновенности частной жизни), и предметом регулирования данного процесса будут являться полученные сведения, но в данном случае нет той информации, которая могла бы содержать какую-либо тайну. Поэтому здесь и не может быть никакой ответственности. Но нельзя забывать, что мы не имеем права обвинять человека во лжи, если не можем это доказать. Алгоритм, как и полиграф, несовершенен, и они не могут в суде рассматриваться как основное доказательств, — отмечает эксперт Евгения Черных.

Заключение

Таким образом, алгоритм детекции лжи на основе технологий ИИ имеет ряд преимуществ, главными из которых являются скорость и эффективность результата в системе анализа внушительного объема данных. Тем не менее, возможности искусственного интеллекта не позволяют ему корректно совершать глубинный анализ эмоциональных проявлений человека, связанных с индивидуальными особенностями. В частности, несомненен тот факт, что в случае с патологическими лжецами результаты детекции лжи нейросетью будут недостоверны.

Важную роль в корректном заключении в рамках обнаружения лжи нейросетью играет эксперт или человек-оператор, поскольку физиологические параметры человека напрямую зависят от его личной “нормы”. То есть, искусственный интеллект играет важную роль в процессе обнаружения ложных высказываний, позволяя быстро и точно анализировать поведение, речь и невербальные сигналы человека. Однако применение таких технологий должно быть подчинено строгим этическим стандартам.

С одной стороны, использование искусственного интеллекта для обнаружения лжи может способствовать повышению уровня справедливости и доверия в обществе. Но с другой стороны, есть опасения, что использование таких технологий может привести к нарушению прав человека и созданию общества тотального контроля. Это может включать в себя нарушение приватности, дискриминацию и стигматизацию людей, которые по каким-то причинам могут быть определены как “лжецы”.

Поэтому важно разработать такие этические принципы и нормы, которые бы гарантировали, что применение искусственного интеллекта в обнаружении лжи не приведет к нарушению основных прав и свобод граждан. Необходимо обеспечить прозрачность и доступность данных, а также гарантировать конфиденциальность и защиту личной информации.

Также важно осознавать, что даже самые передовые технологии не могут заменить человеческий опыт и интуицию в вопросах этики и морали. Важно, чтобы люди принимали решения с учетом своих моральных соображений, а не только на основе данных, полученных при помощи технологий искусственного интеллекта.

Авторы: Анна Садовина, Алина Калашникова, Дарья Назарова, Анастасия Захарова, Алена Манина.

Обложка: Ева Михеева

Все новости