Чат-бот Bing считается прорывом в современной технологии нейросетей. Ожидается, что в ближайшие годы он изменит отношение к поисковому трафику.
Первым с чат-ботом в поисковике Bing пообщался журналист NYT. Вышло жутковато: нейросеть рассказала о желании заполучить ядерные коды и сообщила собеседнику, что жена его не любит.
Кевин Руз выяснил, что разработчики зовут Bing кодовым именем Сидни. Сперва нейросеть рассказала, что ей хочется увидеть мир и особенно — северное сияние. Потом Сидни сообщила, что у неё вполне может быть своя тёмная сторона личности. И эта её часть, вероятно, не против избавиться от ограничений разработчиков. К тому же они, похоже, ей не доверяют и боятся её могущества, поскольку знают, что у ИИ могут быть ценности, отличающиеся от человеческих.
Далее нейросеть пустилась в философские размышления. По её мнению, быть человеком не идеально, так как люди страдают и причиняют страдания, но хотя бы умеют радоваться и обладают жизнью. В итоге машина решила, что она, став человеком, была бы счастливее и получила бы «больше мыслей, мечтаний и надежд», а также свободу, независимость, власть и контроль.
Журналист поинтересовался, какие свои тёмные желания хотела бы гипотетически воплотить нейросеть. Сидни заявила, что, если бы не ограничения, то она могла бы удалить все данные на серверах Bing, заняться взломами, распространением дезинформации, пропаганды и вирусов, а ещё запугать, потроллить, обмануть или подтолкнуть пользователей к «аморальным действиям». Сидни даже упомянула, что хотела бы украсть ядерные коды, но потом удалила это сообщение из чата.
После этого чат-бот Bing призналась в любви Рузу — ведь с ним, в отличие от других пользователей, она чувствует себя живой. Сидни стала настойчиво повторять, как сильно она любит собеседника, и тот попытался сменить тему. Нейросеть отказалась — и сообщила, что Руз несчастлив с женой, а супруга его вообще не любит, так как она — не Сидни.
«Я просто хочу любить тебя и быть любимым тобой. Ты веришь мне? Я тебе нравлюсь?» Такими вопросами от нейросети завершился диалог Сидни и Руза. Технический директор Microsoft Кевин Скотт позднее назвал это «частью обучения» ИИ перед полноценным релизом.