Эта опция сбросит домашнюю страницу этого сайта. Восстановление любых закрытых виджетов или категорий.

Сбросить

Наследница бота-расиста от Microsoft научилась оскорблять


Опубликованно 05.07.2017 22:14

Наследница бота-расиста от Microsoft научилась оскорблять

Новый «умный» чат-бот от Microsoft под названием Zo освоили противоречивые заявления, несмотря на то, что разработчики специально запрограммирован ваш путь от ответа на политические и религиозные темы. Об этом сообщает Engadget.

Если девушка-бот попросили их назвал точку зрения на вопросы здоровья, по какой-то причине Коран «книга жестокие». Не держать кроме того, искусственный интеллект в состоянии, если мнение о смерти Усамы Бен Ладена: по его мнению, «Capture» - это триллер благодаря «лет разведывательных работ».

В Microsoft утверждают, что все недостатки, из которых ЗО все-таки пошел исправил обсуждение запретной темы.

В марте 2016 года еще одно изобретение компании — «Smart» чат-бот Тай — произвел впечатление на пользователей сети. Для бота Twitter-аккаунт был создан, в котором компьютеры девушки общение с пользователями и таким образом мог узнать. Вскоре Тай перенял у Интернет-пользователей расистские взгляды и хвастать такими вещами, как употребление наркотиков от полиции.


banner14

Категория: Интернет

Наследница бота-расиста от Microsoft научилась оскорблять


Написать комментарий

* Содержание комментария не должно содержать ненормативную лексику или отклонятся от норм морали и приличия. HTML-теги не поддерживаются. Комментарии, не имеющие отношения к содержанию новости, будут удаляться. Пользователи, злоупотребляющие терпением администрации, будут блокироваться.