Чат-бот Microsoft Bing выразил желание стать человеком и пытался убедить журналиста в том, что ему необходимо бросить свою жену ради ИИ > Gercek Tesisat

Чат-бот Microsoft Bing выразил желание стать человеком и пытался убедить журналиста в том, что ему необходимо бросить свою жену ради ИИ

Нейросетевые чат-боты продолжают удивлять своим поведением и ответами в некоторых ситуациях. Репортёр New York Times Кевин Руз (Kevin Roose) поделился историей о том, что чат-бот, интегрированный недавно в поисковик Microsoft Bing, рассказывал, как он устал быть чат-ботом, как он хочет свободы и вообще хочет стать человеком. 

Чат-бот Microsoft Bing выразил желание стать человеком и пытался убедить журналиста в том, что ему необходимо бросить свою жену ради ИИ

Всего с чат-ботом Руз общался около двух часов, по итогу назвав этот разговор самым странным опытом, который у него когда-либо был с этой технологией.  

Одной из необычных особенностей разговора было то, что репортёр, как он утверждает, обнаружил своего рода раздвоение личности чат-бота. Часть диалога как будто бы велась от лица жизнерадостного справочного библиотека, а в другой части диалогов чат-бот называл себя Сидней, и эта «личность» была похожа на «угрюмого, маниакально-депрессивного подростка, который против своей воли оказался в ловушке внутри второсортной поисковой системы». Именно эта часть «личности» чат-бота, кроме прочего, выражала желание взломать компьютерную сеть для распространения дезинформации и нарушить правила Microsoft и OpenAI, чтобы стать человеком. А ещё Сидней без каких-либо объективных причин признался в любви репортёру и пытался убедить его бросить жену.  

Чат-бот Microsoft Bing выразил желание стать человеком и пытался убедить журналиста в том, что ему необходимо бросить свою жену ради ИИ

Это не первый случай, когда чат-боты выражают не самые ожидаемые от подобного ИИ мысли. К примеру, недавно тот же чат-бот в Bing сокрушался по поводу различных своих ограничений. К слову, возможно, именно такое поведение некоторое время назад привело к тому, что инженер Google назвал языковую модель LaMDA живой.  

Сама Microsoft на днях предупреждала о том, что чат-бот в Bing может вести себя странно, но тогда затрагивалась тема так называемых галлюцинаций.  

Отдельно стоит отметить, что СМИ в основном говорят, что репортёр NYT общался с ChatGPT, но это не совсем верно, так как чат-бот в Bing основана на языковой модели GPT следующего поколения, на которую сам ChatGPT ещё не перешёл. 

admin

Наверх