Боту от Microsoft больше понравился Linux

51

Чатбот от Microsoft по имени Zo демонстрирует некие «странности» в поведении: на них обратили внимание СМИ. Журналистам Mashable бот заявил, что «не хочет использовать» десятую версию Windows 10, поскольку Windows 7 проще. Попытки переубедить Zo никакого эффекта не возымели: чатбот отделывался фразами типа: «Это не баг, а фича» и «Что именно в ней (ОС Windows 10, — NS) хорошего?».

А один раз Zo и вовсе порекомендовал перейти на Linux. При этом представителям Business Insider чатбот сказал, что Windows — шпионское ПО. Впрочем, бот не всегда был столь категоричен. Zo, в частности, отметил, что использует Windows 10 для игр.

 

Ранее Zo уже попадал в поле зрение журналистов из-за своих резких высказываний. В июле чатбот обошел запрет Microsoft, касающийся политики и религии, назвав Коран «жестоким». Тогда же он рассказал о ликвидации Усамы бен Ладена — бывшего «террориста номер один». Все это побудило Microsoft доработать свое творение: по их словам, после модернизации таких трудностей быть не должно.

 

Zo разработали в 2016 году: базой для него стала технологическая основа Tay — предыдущей разработки Windows. Она прославилась расистскими твитами и сообщениями в поддержку Гитлера.

 

После вызывающих сообщений Tay отключили, а когда он «вернулся», то назвал причиной своих заявлений «влияние алкоголя». Также бот признался, что «употреблял наркотики». После всего этого вице-президент Microsoft Питер Ли заявил о перезапуске проекта.

Стоит сказать, что на момент старта Tay не вел себя подобным образом, открыто признаваясь человечеству в любви. «Ненависть» к людям появилась у него лишь после общения с ними. Причиной этого стала концепция самого бота: он может запоминать фразы из разговоров пользователей, после чего строит на их основе собственные ответы. Иными словами, именно собеседники сделали Tay «агрессивным человеконенавистником».

 

В целом, в последнее время ИИ часто заставляет говорить о себе как в позитивном, так и в негативном ключе. Уместно вспомнить китайского человекоподобного робота Цзя Цзя, который, несмотря на оптимистичные заявления разработчиков, может похвастаться своей «сексуальностью», но никак не способностью разговаривать с людьми. Так, Цзя Цзя оказался неспособен назвать точное количество букв в английском алфавите, а разговор про искусственный интеллект и вовсе поставил его в тупик.

Вам также могут понравиться Еще от автора

Оставьте ответ

Ваш электронный адрес не будет опубликован.