ѕоиск
ƒополнительное меню

Ќовости »“-бизнеса дл€ ѕрофессионалов

20 сент€бр€ : среда

»нтервью

 урсы

USD ÷Ѕ –‘ 19/09 57.6242 -0.1464
EUR ÷Ѕ –‘ 19/09 68.7514 +0.0564
EUR/USD 19/09 1.1931 +0.004

»скусственный интеллект заговорил по-своему

02.08.2017 10:55

¬ июне нынешнего года специалисты отдела Facebook по исследованию возможностей искусственного интеллекта (FAIR) опубликовали исследование о том, как они занимаютс€ обучением ботов диалогам с элементами согласовани€ условий, достижени€ компромисса, то есть такому общению, которое обычный человек ведет ежедневно в разных ситуаци€х. ќбучение шло успешно, однако в какой-то момент ученые FAIR обнаружили, что боты перешли с пон€тного английского на какой-то свой вариант €зыка с использованием английских слов, не имеющий смысла дл€ человека. ¬о избежание непредсказуемых последствий — боты могли договоритьс€ о чем-то неизвестном — ученые отключили эту систему »» и запрограммировали дальнейшее общение ботов только на английском €зыке.

Ёкспертное сообщество в обсуждении этого случа€ чаще всего вспоминало фильм "“ерминатор", в котором еще в 1984 году был описан случай обретени€ искусственным интеллектом —кайнет (SkyNet) свободы воли и творческих способностей.

¬едению диалога двух ботов ученые FAIR обучали на примере ситуации, когда нужно поделить между собой р€д каких-либо предметов, имеющих разную ценность дл€ каждого из собеседников. Ќапример, им предложили поделить две книги, одну шл€пу и три м€ча, оба бота не знали, какую ценность каждый из этих предметов имеет дл€ другого. ƒиалог выгл€дел примерно так: "я хочу вз€ть шл€пу и м€чи", "Ўл€па нужна мне самому, но € могу отдать тебе все книги", " ниги мне не нужны, можешь забрать себе их и один м€ч", "ƒва м€ча", "ƒоговорились". ¬ зависимости от того, насколько успешно и быстро удавалось договоритьс€ виртуальным собеседникам, их поощр€ли соответствующими баллами.

—пуст€ какое-то врем€ на новом этапе исследований ученые вдруг увидели, что боты начали говорить что-то невн€тное. ƒиалог приобрел следующую форму: "я могу могу € € все остальное", "ћ€чи ноль дл€ мен€ дл€ мен€ дл€ мен€ дл€ мен€ дл€ мен€ дл€ мен€ дл€ мен€ дл€ мен€ дл€". ѕоначалу ученые решили, что допустили какую-то ошибку в программировании. ќднако дальнейший анализ ситуации показал, что система »» с возможностью обучени€ и саморазвити€ просто позволила ботам найти новый способ достижени€ цели — вести диалог с наибольшей скоростью и большей эффективностью (каждый получает награду в зависимости от того, насколько успешно будет завершен диалог), и дл€ этого собеседники перешли на более удобный в данной ситуации €зык. ”ченые прин€ли решение отключить эту систему »» во избежание непредвиденных последствий.

 ак по€снил в интервью ресурсу Fast Co. Design один из участников FAIR ƒхрув Ѕатра, "от общени€ на английском €зыке не было никакой выгоды", ботам не было предложено поощрений за нормальное человеческое общение и не было поставлено ограничений на использование определенного €зыка, поэтому они начали перестраивать €зык на свой лад.

"Ѕоты отошли от использовани€ пон€тного €зыка и начали изобретать дл€ себ€ словесные коды,— по€снил ученый.— Ќу, как, например, если бы € сказал какое-то слово п€ть раз, то вы бы это пон€ли как то, что € хочу п€ть штук чего-то. Ёто не слишком отличаетс€ от того, как люди создают в €зыке какие-то сокращени€".

Ќо в то врем€ как люди одной профессии могут не понимать специальных терминов и сокращений, прин€тых в другой профессии и пон€тных другим специалистам, ученые задумались, а нужно ли позвол€ть »» делать то же самое? ¬елика веро€тность того, отмечают в FAIR, что человек никогда не сможет пон€ть €зык ботов. "¬ажно не забывать, что нет людей, владеющих каким-то человеческим €зыком и €зыком »»",— говорит ƒхрув Ѕатра. ѕо его словам, человек уже не понимает, насколько сложно мысл€т системы »», потому что человек не может увидеть их мыслительный процесс, а если они еще начнут общатьс€ между собой, то это только усложнит проблему.

”ченые же подчеркивают, что сейчас их больше интересует возможность общени€ ботов с людьми, так как это применимо в жизни. Ќад аналогичной проблемой сейчас работают не только в FAIR, но и в Microsoft, Google, Amazon, Apple. —уществующие наработки уже позвол€ют добитьс€ от систем »» ведени€ простых диалогов с человеком и выполнени€ простых задач, как, например, забронировать столик в ресторане.

–анее основатель и глава компании Tesla »лон ћаск за€вил, что человеку необходимо быть очень осторожным с »», учитыва€, что машины и программы могут многое сделать лучше человека. "я работаю с самыми передовыми технологи€ми »» и думаю, что люд€м нужно быть очень внимательными к этой проблеме",— сказал он на летней конференции Ќациональной ассоциации губернаторов, подчеркнув, что »» представл€ет самую большую опасность дл€ человечества. "»» представл€ет опасность дл€ существовани€ человеческой цивилизации, какую не представл€ют автокатастрофы, авиакатастрофы, бракованные лекарства или испорченные продукты",— отметил он. ѕо мнению »лона ћаска, необходимо жестко регулировать исследовани€ »», чтобы в любой момент любое исследование можно было остановить и убедитьс€ в его безопасности. ќ возможной опасности »» говорили в последние годы также основатель Microsoft Ѕилл √ейтс, а также известный английский физик-теоретик —тивен ’окинг.

»сточник:  оммерсантъ

02 августа