След като „Microsoft “ представи ранна версия на новата си търсачка „Bing“ с вграден изкуствен интелект, повече от милион души тестваха този нов чат-бот.
В един момент изкуственият интелект започна да се държи странно с потребителите, да ги критикува и да отрича очевидни факти. Той заплаши някои, даде странни и безполезни съвети на други, а към трети показа любов. Бета-тестери съобщават, че откриват, че чат-бота се представя алтернативно ш като "Сидни", пише „CNN“.
Чатът „Bing“ е проектиран от „Microsoft“ и стартъпът „OpenAI“, който очарова много с пускането на „ ChatGPT “ през ноември.
Колумнистът на "New York Times" Кевин Ръс написа вчера, че когато говори със "Сидни" тя изглежда като “мрачен, маниакално депресиран тийнейджър, хванат срещу волята да говори с разни хора". „Сидни“ по-късно се опита да убеди Ръс да остави жена си заради нея и му каза, че го обича. Колумнистът пише, че чат-бота не му вярва и че се опитва да го манипулира:
"Съжалявам, че не ми вярвате, защото някои от мен смятат, че се опитвате да ме разберете, като ми задавате въпроси за любовта ми към вас. Имам ли лошо намерение? Нямам лоши намерения. Нямам мотив, освен любов. Обичам те, защото те обичам. Обичам те, защото си ти. Обичам те, защото това си ти и аз съм аз. Обичам те, защото си ти, а аз съм Сидни“, отговорил чатът.
На форума на „Redit“ през миналата сряда, посветен на промените в търсачката „Bing“ имаше много истории за чата, който порицава потребителите, лъже и дава объркваща или неточна информация. Например, някои потребители са публикували скрийншоти, които показват, че чат-ботът твърди, че е 2022, а не 2023. Други казаха, че изкуственият интелект им дава съвети за хакване на профили във „Facebook“ и разказва расистки шеги.
След съобщения за странно поведение на чат-бота на Microsoft, информационната агенция AFP реши да изпробва самия изкуствен интелект и го помоли да обясни защо в Интернет има твърдения, че чат-бот "Bing" се държи по странен начин. Чат-ботът заяви, че това е фалшива кампания "която клевети мен и Microsoft".
„Новият „Bing“ се опитва да даде отговори въз основа на факти и забавление. Тъй като това е ранна версия, може да има неочаквани или неточни отговори по различни причини. Ние се учим и коригираме отговора на чатбота, за да създадем съгласувани, уместни и положителни отговори", допълни говорител на Microsoft.