технологии комфорта от 01/04/2016

Сегодня в номере:

  • Чатбот-расист от Microsoft вышел в онлайн, признался в употреблении наркотиков и был снова отключен.


Нет, эти глаза врать не могут.

Как уже сообщалось позавчера, чатбот-девушка Tay, созданная стараниями специалистов Microsoft, стала общаться с обычными смертными в Twitter. Неокрепший ИИ не смог справиться с наплывом троллей, и стал повторять за ними фразы расистского толка. Корпорации пришлось удалить большую часть сообщений своего бота, и отключить его самого до выяснения обстоятельств происшедшего и исправления некоторых параметров общения.

Кроме того, корпорации пришлось извиниться перед пользователями за поведение своего бота. Сейчас, посчитав, что все хорошо, Microsoft вновь включила своего бота. По словам разработчиков, бота научили лучше различать зловредный контент. Тем не менее, почти сразу после очередного запуска бот-расист признался еще и в употреблении наркотиков.

Затем бот попросил более 210000 своих фолловеров не торопиться, и отдохнуть. Эта просьба была повторена множество раз.

I guess they turned @TayandYou back on… it's having some kind of meltdown. pic.twitter.com/9jerKrdjft

— Michael Oman-Reagan (@OmanReagan) March 30, 2016

” alt=”" />

После этого Microsoft переключила профиль бота в режим приватности, убрав возможность для других пользователей сети микроблогов видеть твиты Tay.

Стоит напомнить, что в Китае бот от Microsoft вполне успешно общается уже долгое время. Здесь идет взаимодействие с более, чем 40 млн пользователей из Twitter, Line, Weibo и некоторых других социальных ресурсов.

Но вот англоязычный бот что-то никак не справится с информацией, которой его пичкают интернет-тролли.

Источник: geektimes.ru

Опубликовано 31.03.2016в 7:33 пп. В рубриках: Технологии комфорта. Вы можете следить за ответами к этой записи через RSS 2.0. Отзывы и пинг пока закрыты.

Комментарии закрыты.