Главная » Новости » Microsoft отключила бота для общения из-за его нацистских взглядов

Microsoft отключила бота для общения из-за его нацистских взглядов

cover4_1436462735-1024x512

Microsoft отключила бота для общения Tay, который за сутки в твиттере приобрел человеконенавистнические взгляды. Как пояснил вице-президент компании Питер Ли, это произошло из-за злоумышленнников, обнаруживших уязвимость в боте. Заново бота запустят, только когда он научится противостоять подобным атакам.

Бот Tay, созданный для общения с молодежью от 19 до 24 лет, был запущен 23 марта. С ним можно было пообщаться на английском языке в том числе в Twitter. Сначала он писал, что «люди классные» и прочие милые вещи. Но вскоре программа приобрела совсем другие взгляды.

Среди опубликованных им твитов оказались фразы в поддержку политики Адольфа Гитлера в отношении евреев, а также критические твиты в адрес феминисток. Некоторые сообщения были, впрочем, написаны по просьбе пользователей — они просили бота что-то повторить за ними, и тот соглашался.

«Искусственный интеллект обучается как на позитивных, так и негативных примерах. Мы постараемся решить проблему защищенности бота с технической стороны, но каким образом люди будут взаимодействовать с ботом, предсказать невозможно», — написал Питер Ли.

MICROSOFT
В китайском интернете у Microsoft работает бот Xiaoice, который притворяется 19-летним подростком. Как писал один из исследователей компании, китайцы с удовольствием делятся с ней своими секретами, несмотря на то, что это не человек, а робот.

Уважаемые читатели! Подписывайтесь на нас в Твиттере, Вконтакте, Одноклассниках или Facebook

Просмотров:93
comments powered by HyperComments