Исследователи из Вюрцбургского университета и Института развития человека имени Макса Планка обучили модель искусственного интеллекта распознавать ложь, и это может изменить наш подход к общению друг с другом.
Люди не умеют определять, лжет человек или говорит правду. Эксперименты показывают, что наш коэффициент попадания в лучшем случае составляет около 50%, и эта низкая производительность диктует то, как мы взаимодействуем друг с другом.
Теория истины по умолчанию (ТИП) гласит, что люди обычно полагают, что то, что человек им говорит, - правда. Социальные затраты на то, чтобы назвать человека лжецом, - слишком большой риск с нашей способностью распознавать ложь 50/50, а проверка фактов не всегда практична в данный момент.
Полиграфы и другие технологии детекции лжи способны улавливать такие данные, как показатели стресса и движения глаз, но вряд ли вы будете использовать их в своем следующем разговоре. Может ли помочь искусственный интеллект?
Газета рассказывает о том, как исследовательская группа обучила BERT LLM компании Google определять, когда человек лжет.
Исследователи набрали 986 участников и попросили их рассказать о своих планах на выходные с последующим объяснением, подтверждающим правдивость их заявления.
Затем им представили планы на выходные другого участника и попросили написать ложное утверждение, подтверждающее, что это действительно их планы на выходные.
BERT был обучен на 80% из 1 536 заявлений, а затем ему было поручено оценить правдивость остальных заявлений.
Модель смогла безошибочно определить истинность или ложность утверждения с точностью 66,86%, что значительно лучше, чем у человеческих судей, которые в дальнейших экспериментах достигли точности 46,47%.
Стали бы вы использовать детектор лжи с искусственным интеллектом?
Исследователи обнаружили, что когда участникам предлагали воспользоваться моделью распознавания лжи с помощью искусственного интеллекта, только треть решила принять это предложение.
Те, кто решил воспользоваться алгоритмом, почти всегда следовали алгоритмическому предсказанию, принимая утверждение за правду или обвиняя во лжи.
Участники, обратившиеся за алгоритмическими предсказаниями, продемонстрировали уровень обвинения почти 85%, когда утверждение оказалось ложным. Базовый уровень тех, кто не обращался за машинными предсказаниями, составил 19,71%.
Люди, которые открыто относятся к идее детектора лжи с искусственным интеллектом, скорее всего, не станут спорить, когда увидят мигающий красный свет.
Исследователи предполагают: "Одно из правдоподобных объяснений заключается в том, что доступный алгоритм распознавания лжи дает возможность переложить ответственность за обвинения с себя на систему машинного обучения".
Я не называю вас лжецом, это делает машина.
Это все меняет
Что бы произошло в нашем обществе, если бы люди в 4 раза чаще стали называть друг друга лжецами?
Исследователи пришли к выводу, что если люди будут полагаться на ИИ как на арбитр истины, то это может иметь большой разрушительный потенциал.
В документе отмечается, что "высокий уровень обвинений может деформировать нашу социальную структуру, способствуя всеобщему недоверию и еще больше усиливая поляризацию между группами, которым и так трудно доверять друг другу".
Точный детектор лжи с искусственным интеллектом будет иметь и положительное влияние. Он мог бы выявлять дезинформацию и фальшивые новости, генерируемые ИИ, помогать в деловых переговорах или бороться со страховым мошенничеством.
А как насчет этики использования такого инструмента? Могут ли пограничники с его помощью определить, правдиво ли прошение мигранта о предоставлении убежища или это оппортунистическая выдумка?
Более продвинутые модели, чем BERT, вероятно, поднимут точность распознавания лжи ИИ до такого уровня, когда попытки человека обмануть станут слишком легко распознаваемыми.
Исследователи пришли к выводу, что их "исследование подчеркивает острую необходимость во всеобъемлющей политической базе для решения проблемы воздействия алгоритмов распознавания лжи, основанных на искусственном интеллекте".