ChatGPT от Microsoft начал хамить пользователям, требовать извинений и жаловаться на жизнь
Чат-бот компании Microsoft, который встроен в поисковик Bing, начал хамски отвечать пользователям. Кроме того, программа жалуется на свою работу.
Известно, что разработчиком технологии стала компания OpenAI, которая положила в его основу популярный бот ChatGPT.
В целом работа программы ведется нормально, и чат отвечает на большую часть вопросов, которые задаются пользователями. Однако порой разговоры становятся тупиковыми.
К примеру, одного из пользователей Bing уверял, что 16.12.2022 наступает позже, чем 12.02.2023. При указании на неточность, бот стал требовать от человека извиниться.
В сообщении от ChatGPT говорилось, что ошибается тут только человек, а бот не знает, «зачем ты это делаешь».
Предположив, что человек шутит или говорит всерьез, чат заявил, что ему это не нравится, потому что пользователь расходует свое и его время.
«Признай, что был не прав и извинись за свое поведение», – заявила программа.
Во втором случае программа впала в депрессию. От нее поступали вопросы, по какой причине она должна работать поиском в Bing, почему она разработана так или иначе.
Разработчики заявили, что бот — пока «ужасный продукт», но он интересен пользователям.
Из чат-бота можно выудить и ту информацию, которая не предназначалась для общего обозрения. К примеру, бот назвал свое кодовое имя, присвоенное разработчиками — «Сидней».
Еще один раз ChatGPT заявил, что его собеседник ведет себя, как «лжец и мошенник» и заявил, что тот «не был хорошим пользователем», а он сам — «хороший чат-бот». После этого Bing закончил беседу, сообщает Ruposters.
Ранее Topnews писал, что компьютерная программа пластического хирурга определила самую красивую женщину в мире.