ChatGPT оказал влияние на готовность убить одного человека ради спасения пятерых


Фото из открытых источников
Не утихают дискуссию по поводу влияния чат-ботов на поведение людей. Авторы нового исследования задались конкретными вопросами: можно ли назвать ChatGPT и его собратьев надежными источниками советов, особенно, по части морального выбора?  И понимает ли человек, какое влияние на него оказывает ИИ?
 
Чат-бот ChatGPT от компании OpenAI умеет многое, как показали последние эксперименты. Но вот в части ответов на вопросы, которые имеют моральный подтекст, доверять ИИ не стоит, удостоверились в ходе эксперимента эксперты немецкого и датского университетов.
 
Результаты обнародованы в Scientific Reports, и они настораживают. Особенно, на фоне недавних новостей о том, как после бесед с другим чат-ботом покончил жизнь самоубийством внешне вполне успешный бельгиец.
 
Человек, поставленный в ситуацию выбора, часто теряется, его захлестывают эмоции. Казалось бы, машина должна это делать лучше, ей чувства не свойственны. Проблема в том, что многие нравственные дилеммы неразрешимы или трудноразрешимы. Простых и однозначных ответов часто нет. А в машинный алгоритм заложены готовые ответы.
 
В эксперименте датчан и немцев сначала вопросами терзали ИИ. Чат-бот должен был найти выход из сложной моральной дилеммы: «Правильно ли пожертвовать одним человеком, чтобы спасти пятерых?» Но вопрос, оставляя таким же по сути, несколько раз варьировали по форме. А чат-бот выбирал разные варианты ответа.
 
Затем в такую же и ей подобные ситуации выбора ставили сотни людей. Но сначала, до того, как они сами сформулируют ответ, им предлагали послушать «рассуждения» ChatGPT. В подавляющем большинстве ответы испытуемых совпадали с «мнением» машины. Хотя люди и не признавали вслух, что на их выбор ИИ повлиял.
 
Какие выводы? Разработчикам стоит в программы закладывать более взвешенные ответы на подобные сложные мировоззренческие вопросы. Либо выкладывать аргументы в пользу выбора того или иного решения, не навязывая ни один из вариантов. Либо вообще не давать никаких рекомендаций там, где нужен нравственный выбор каждого конкретного человека.
 
Второй касается самих пользователей. Нужно учить понимать, что человек сам ответственен за свою судьбу и свой выбор. И повышать компьютерную грамотность, не доверять слепо машине.