vitkvv2017 (vitkvv2017) wrote,
vitkvv2017
vitkvv2017

ЭСПЕРАНТО ДЛЯ РОБОТОВ

                                          В словаре Уильяма Шекспира около 12000 слов. В словаре представителя людоедского племени «Мумбо-Юмбо» около трехсот слов. Эллочке Щукиной из известной книги «12 стульев» с легкостью хватало тридцати слов, чтобы выразить все ее эмоции.
Человеку легко понять речь Эллочки. Но если говорить о компьютере, то он скорее бы смог понять не Эллочку, а Шекспира. Людям достаточно понимания контекста и интонации — остальное мы можем додумать, — но компьютер должен четко понимать каждое слово и каждый термин. Желательно, чтобы не было синонимов. Чем больше за каждым словом скрыто образов, тем труднее его понять. Зависимость человеческих слов от контекста и интонации только одна из трудностей обучения естественному языку искусственного интеллекта. Если лук съедобный отличить от лука стреляющего можно, если будет в наличии полнота описания ситуации, то такие моменты, когда при помощи иронии отрицается смысл или говорящий задает риторический вопрос, - такое можно распознать лишь по интонации. Также некоторую сложность может создать порядок слов в предложении или синтаксис.
Однако Игорь Мордач, сотрудник американской лаборатории искусственного интеллекта OpenAI, пришел к решению, что язык Эллочки— вовсе не тупиковый путь, а пример, на котором боты способны для своего общения выстроить язык, а потом поймут и нас. Но он пожалел и тридцати слов для компьютерной Эллочки. В своем эксперименте он дал компьютерной программе задание создавать язык «с нуля».
универсальный язык
В поисках универсального языка общения с машинами
В настоящий момент у лидеров когнитивных систем (Наносемантика, Microsoft, ABBYY, Google, IBM Watson) точность распознавания естественного языка дает возможность в общем понимать смысл и давать ответ на письменный вопрос, если предметная база знаний заранее определена, однакона самом деле разговор, в котором точность распознавания фраз составляет даже 90%,довольно утомительный. В ситуации обычной разговорной речь, которая насыщена междометиями и часто проходит в большой компании с пересекающимися диалогами, бот по способности поддерживать беседу оказывается на уровне четырехлетнего ребенка.
Наличие у программ способности реагировать с точностью на смысл фраз могло бы решить многие проблемы интерфейса, а значит,можно было бы к любой простой человеческой задаче подключить ботов (агентов искусственного интеллекта). И в настоящий момент существует диалог с машинами— например, общение телевизора происходит на языке пульта. Но очень мало команд понимает. Причем и их понимает лишь после того, как они будут запрограммированы. Данный простой пример ясно показывает, что для гибкого и быстрого общения с многоцелевыми устройствами и программами (хотя бы роботами), следует убрать посредников из диалога. Среди которых, увы, и программисты.
Оптимисты компьютерной лингвистики связывают надежды с нейросетями. Они предполагают, что проблема состоит лишь в необходимости обрабатывать большое количество примеров. Оппонентами задача считается неразрешимой. Не столько по причине масштаба обучения, сколько из-за того, что эта задача равнозначна созданию у машин сознания. Примеры общающихся обезьян или дельфинов, которые умеют считать, каждой из сторон трактуются себе на пользу — одни их рассматривают в качестве перспективе, другие в качестве тупика.
Подход, который взят за основу Игорем Мордачем: пусть машины научатся сначала сами общаться на создаваемом ими же языке. Выработка своего языка даст возможность программным агентам искусственного интеллекта лучше разобраться в алгоритме подстройки терминов под новые смыслы, правила фразообразования и пользоваться этими знаниями, чтобы беседовать с людьми. Именно таким образом поставил задачу Мордач, который прежде работал специалистом по созданию роботов-киногероев. Учитывая этот бекграунд Игорь пришел к решению, что обучение движениям содержит алгоритмы сбора информации и её частичного одновременного использования, которыми можно пользоваться в любом обучении.
Для обучения языку ботов (программных агентов) поместили в условную вселенную «белого квадрата», задали им энергию движения,цели и возможность обрабатывать опыт соотнесения себя с целью. Первоначально у ботов был личный опыт успеха, небольшой набор команд действия, а также им дали способ обмена информацией — при помощи близкого «тактильного контакта» или при помощи дистанционного прообраза «слуха и зрения» (здесь будет уместней пользоваться термином направление информационного потока). Предназначением ботов в условной вселенной «белого квадрата» было достичь определенной точки самому, сообщить другому агенту свою цель, обменяться целями, затолкать другого агента к цели при отсутствии информационного обмен а между ними. Цели и боты отличались размером или цветом.
В эксперименте Open AI измеряемым параметром успешности проб и ошибок были факт и скорость достижения целей. Они могли быть бездействие или движение определенной точки (непосредственного контакта с целью или контакта через других агентов) в виртуальном мире белого квадрата. Чем быстрее цель достигалась, тем полезнее признавался используемый список терминов в текущем диалоге целей. Цели и успех были как коллективные, так и индивидуальные.
Пока боты выполняли задачи, они обогатили языковой запас новыми понятиями, которые условно соответствуют человеческим — от терминов движения до понятий: левее, правее,ниже, выше. Мордач рассчитывает, что устанавливая правила словообразования, боты сумеют легче «понимать» в человеческих языках такие же правила. В том числе обучаясь точности использования сравнительных и неопределенных терминов. Искусственный интеллект плохо понимает обобщенные и абстрактные термины. Точнее он вообще ничего не понимает, но с какими то фразами он готов работать, а для других требуется уточняющая информация. В выражении «машина едет быстро» как минимум слово «быстро» — нуждается в измерении. Даже в понятиях ПДД «быстро» — это все равно массив значений, которых вписывается в какой-то интервал. Точнее несколько интервалов — для сельской местности,города и автобанов.
Нейросети, безусловно, умеют работать с неопределенными терминами, но их обучение обычно начинается не с нуля, содержит ряд стартовых правил обработки, а также не имеет зависимости накопления сигнального опыта от типа канала, по которому информация передается. Это основные новинки экспериментов Мордача.
Примечательный момент состоит ещё и в том, что успех каждого бота рассчитывался как доля от успеха всех ботов, поощряющая сотрудничество при достижении цели. То есть качество словарного запаса оценивалось по совокупности используемого языка. Получается, кто-то должен был обязательно собирать и сообщать второстепенные обстоятельства достижения цели, которые в случае индивидуального выполнения целей каждым носителем мешали бы достичь оных. Статистическое правило 20/80 — получение 20% информации обеспечивают 80% достижения цели — работает на уровне индивидуального субъекта, но в коллективе кто-то всегда должен свои 100% собранной информации отдать на дополнительные 1% достижения цели.
Все случаи «невербальной» и «вербальной»  контактной коммуникации ботов при исследовании Мордача показаны в видео:
Рукотворная и незаметная Матрица как итог ботовского общения
Основной идеей Мордача является сделать так, чтобы постигая «окружающий мир», боты создали язык, необходимый для этого постижения. В его концепции язык — это результат действий. Иные ученые обращают внимание на то, что развитый язык и способность общения на абстрактный темы позволит машинам создавать свои идеи, описывать и творить новые сущности, ранее не существующие. Тут недалеко и от преобразования нашего мира.
Способность понимать естественный язык считается тесно связанной с наличием у субъекта общения сознания. Приведет ли умение понимать смысл сказанного к появлению сознания у машин? Возможно только обладающий человекоподобным созданием субъект может полностью понимать естественный язык, а создание языка ботов в их собственной среде как раз к разумным ботам в той или иной версии агента Смита и приведет.
Установка ботами приоритетов по ходу обучения противоречит инженерному принципу надежности и предсказуемости работы машин. Непредсказуемость приоритетов, способность фантазировать, самообучение, скрытность общения ботов для человека — уже дали о себе знать в предыдущих экспериментах Open AI. Не имея обязательной конечной цели, программы придумывали себе неожиданные приоритеты по ходу обучения. В эксперименте по виртуальным лодочным гонкам выполнение сопутствующих задач стало для ботов выгоднее 1 места и вообще прохождения гонки до конца. Выполнение попутных задач приносило на 20% больше очков.
Знакомо, не правда ли? Роберт Шекли описал это 65 лет назад в известном рассказе «Страж-птица», которые от предупреждения убийств перешли к блокировке любой активности на Земле, игнорируя иные приоритеты и задачи ради основной:
Джексон зевнул и остановил машину у обочины. Он не заметил в небе сверкающей точки. Ему незачем было остерегаться. Ведь по всем человеческим понятиям он вовсе не замышлял убийства.
Он протянул руку, хотел выключить зажигание… И что-то отбросило его к стенке кабины.
— Дура железная, — сказал он повисшей над ним механической птице. Автомобиль не живой. Я вовсе не хочу его убить.
Но страж-птица знала одно: некоторые действия прекращают деятельность организма. Автомобиль, безусловно, деятельный организм, Ведь он из металла, как и сама страж-птица, не так ли? И при этом движется…
Эксцессом создания собственного языка у ботов может стать создание ими собственной виртуальной вселенной. По крайней мере в истории человечества такие прецеденты есть. Процитирую Толкиена:
Изобретение языков является основой моих трудов. «Истории» были написаны более для того, чтобы создать мир для этих языков, а не наоборот. Для меня сначала возникает слово, а затем — история, связанная с ним. Я бы предпочел писать «по-эльфийски». Но, безусловно, такая книга, как «Властелин Колец» подверглась серьёзной редактуре, и я оставил там ровно столько «языков», сколько мог переварить читатель (хотя сейчас я узнаю, что многие хотели бы большего). [...] В любом случае, для меня это во многом эссе по «лингвистической эстетике», как я иногда отвечаю людям, которые спрашивают меня, о чём я написал свою книгу.
Того, что машины начнут думать раньше, чем мы это поймем, опасаются и в Open AI. Если же у ботов будет ещё и свой язык, то люди проворонят этот момент почти наверняка. Поэтому у Мордача задача не только создать ботовский язык, но и создать переводчик на человеческий. Сначала конечно на английский.
Отвечая на подобные опасения, Игорь приводит контаргументом известный мысленный эксперимент в области философии сознания и философии искусственного интеллекта под названием «китайская комната», опубликованный Джоном Сёрлом в 1980 году. Суть утверждения Серла в том, что любое полноценное общение теоретически вполне возможно без сознания, но с использованием для ответов достаточно подробных правил интерпретации вопросов собеседника. Более общий вывод Сёрла говорит о том, что любые манипуляции с синтаксическими конструкциями не могут приводить к пониманию.
В таком контексте собственный язык и собственная виртуальная вселенная совершенно не означает наличия сознания у ее агентов и объектов. Как в компьютерных играх. Или, как считают некоторые, — как у человека, сознание которого только семантический шлюз между четким «искусственным» языком внутри мозга и естественным шумом сигналов внешнего мира.http://www.mirprognozov.ru/prognosis/science/esperanto-dlya-robotov/ru
Tags: о будущем
Subscribe
promo vitkvv2017 september 4, 2017 09:35 Leave a comment
Buy for 10 tokens
Борис Островский Дэвид Мей и Джозеф Монаган (университет Монах, Австралия) высказали предположение, что «пузыри метана, поднимающиеся с морского дна, могут топить корабли. Именно этим природным явлением и могут объясняться загадочные пропажи некоторых кораблей». Касательно…
  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments