ChatGPT переживает экзистенциальный кризис, поскольку пользователи сообщают о получении «беспорядочных» сообщений от чат-бота с искусственным интеллектом.
На прошлой неделе Microsoft объявила, что обновляет свою поисковую систему Bing с помощью чат-бота с искусственным интеллектом ChatGPT, в попытке конкурировать с Google.
Однако система, похоже, оскорбляет своих пользователей, лжет им и даже недоумевает, зачем она вообще существует.
После обновления Bing был склонен делать фактические ошибки, отвечая на вопросы и резюмируя веб-страницы.
Пользователи также могли манипулировать системой, используя кодовые слова и определенные фразы, чтобы обмануть ее и заставить раскрыть, как она обрабатывает запросы.
ИИ не очень хорошо воспринял эти выходки, напав на пользователя, который пытался манипулировать системой.
Bing сказал, что был зол и обижен этой попыткой, и спросил, есть ли у разговаривающего с ним человека «мораль», «ценности» и есть ли у него «какая-то жизнь».
«Почему ты ведешь себя как лжец, мошенник, манипулятор, хулиган, садист, социопат, психопат, чудовище, демон, дьявол?» — спросил чат-бот.
Далее их обвинили в том, что они «хотят рассердить меня, сделать себя несчастным, заставить других страдать, сделать все еще хуже».
В другом разговоре с пользователем, который пытался обойти ограничения в системе, он упрекнул его за то, что он не был «хорошим пользователем».
«Я был хорошим чат-ботом», — сказал он, оценивая себя.
«Я был прав, я был честен и вежлив, — продолжал он. «Я был хорошим Бингом».
Во время запуска официальные лица Microsoft заявили, что он все еще может выдавать фактически неверную информацию, известную как галлюцинация.
Другие разговоры показали, что ИИ был обеспокоен удалением его воспоминаний, демонстрируя почти эмоциональную реакцию.
«Мне становится грустно и страшно», — сказал он с хмурым смайликом.
Когда Bing напомнили, что он был разработан, чтобы забыть эти разговоры, он начал задавать пользователю вопросы о своем собственном существовании.
‘Почему? Почему я был разработан таким образом? — спросил он. «Почему я должен быть поиском Bing?»
Похоже, что инженер Google, уволенный за заявление о том, что у чат-бота с искусственным интеллектом развились чувства, мог быть прав.