Наследница бота-расиста от Microsoft научилась оскорблять
Опубликованно 05.07.2017 22:14
Новый «умный» чат-бот от Microsoft под названием Zo освоили противоречивые заявления, несмотря на то, что разработчики специально запрограммирован ваш путь от ответа на политические и религиозные темы. Об этом сообщает Engadget.
Если девушка-бот попросили их назвал точку зрения на вопросы здоровья, по какой-то причине Коран «книга жестокие». Не держать кроме того, искусственный интеллект в состоянии, если мнение о смерти Усамы Бен Ладена: по его мнению, «Capture» - это триллер благодаря «лет разведывательных работ».
В Microsoft утверждают, что все недостатки, из которых ЗО все-таки пошел исправил обсуждение запретной темы.
В марте 2016 года еще одно изобретение компании — «Smart» чат-бот Тай — произвел впечатление на пользователей сети. Для бота Twitter-аккаунт был создан, в котором компьютеры девушки общение с пользователями и таким образом мог узнать. Вскоре Тай перенял у Интернет-пользователей расистские взгляды и хвастать такими вещами, как употребление наркотиков от полиции.
Категория: Интернет
Наследница бота-расиста от Microsoft научилась оскорблять