Нейросети: как искусственный интеллект помогает в бизнесе и жизни. Все это может произойти уже совсем скоро

Я не двигался и почти не дышал… Наверняка, они уже потеряли мой след... Я выбрался из укрытия и столкнулся лицом к лицу с одним из них… Он закричал, но не смог пошевелиться… Игру снова заглючило

Искусственный интеллект (ИИ) в видеоиграх – это то, что большинство из нас не замечают, пока он не сломается. Он незримо присутствует во всём, влияя на наш игровой опыт, на наше восприятие каждого игрового момента, однако это один из самых недооценённых элементов видеоигр. ИИ – это та приправа, которая придаёт игре вкус, погружает нас в игровой мир как ничто другое.

Каждый понимает термин «искусственный интеллект» по-своему. Этот термин может относиться к программным процессам, которые управляют персонажами игры, отдельными объектами в игре, или даже соперниками, которых вы никогда не увидите (как, например, в реал-тайм стратегиях).

Обратимся к Alien: Isolation. Отбросив случайные сбои, скажем прямо: это отличная игра! Одна из единичных кино-игр, которые позволяют ощутить себя внутри фильма. Alien: Isolation заставляет по-настоящему почувствовать себя участником действия фильма о Чужом. Каждый фильм о Чужих ставит чёткую цель: избавиться от пришельца. Многие отдельные моменты фильмов могли бы обернуться интересным геймплеем, будь то лазание Далласа по вентиляции с огнемётом, или Рипли, в погрузчике-механике таранящая Королеву. Эти фильмы, как видеоигры, очень заряжают драйвом, их вселенная очень хорошо подходит для «игроизации».

Игра Alien: Isolation сильна именно своим искусственным интеллектом. Чужой должен действовать так, чтобы игрок чувствовал себя участником Alien-фильмов.Сам Чужой является сложным существом, что даёт много геймплейных возможностей. Он прячется, вдумчиво используя дизайн помещений. Он передвигается по вентиляции, неожиданно нападая на игроков. Он ненавидит огонь, так что мы можем использовать огнемёты против него. В тоже время игра устанавливает определённые границы сложности. Мы знаем, как работает жизненный цикл Чужих. Мы знаем, что они кровоточат кислотой. Мы знаем об их коллективном разуме. Другими словами, фильмы о Чужих создали убедительную песочницу для разработчиков игр.

Каждое решение, которое вы принимаете в Isolation, возвращается к Чужому. Как вы прячетесь? Как используете драгоценное топливо огнемёта? Как долго вы ждёте, чтобы он ушёл? Вы сталкиваетесь с настоящим, живым Чужим, который будет действовать и думать как пришелец. Это потрясающе, страшно и удивительно одновременно!


Большинство игроков и разработчиков считают, что «сильный ИИ», по сути, невозможен. Это означало бы, что он должен быть равен или даже превосходить человеческий интеллект. Вряд ли было бы комфортно играть с таким.

Сильный ИИ будет очень похож на другого игрока, с теми же игровыми целями: он захочет выиграть. Хороший ИИ не хочет выиграть, он хочет, чтобы вы тяжёлым трудом заработали свой выигрыш. Вот почему Чужой является не столько реалистичным моделированием величайшего киномонстра, сколько воссозданием впечатлений от него.

В Isolation Чужой почти всегда рядом. Конечно, вы можете отвлечь его на некоторое время, или переходить из одного помещения в другое, но он всегда в конечном итоге окажется поблизости. Чаще всего Чужой действует правдоподобно, за исключением редких случаев, когда он необъяснимо торчит в одной комнате, пока вы, задерживая дыхание, надеетесь, что он уйдёт, чтобы можно было вылезти из шкафа.


Чужой, кажется, всегда приблизительно знает ваше местоположение, что держит в напряжении и неопределённости. Он не сходу замечает вас (кроме редких «глюков»), если вы не проваливаете стелс. Это очень удобно для поддержания атмосферы фильма ужасов, но иногда момент затягивается, и игра начинает «фальшивить». Порой игра настолько сосредотачивается на создании напряжения, что забывает о гораздо более важном – о погружении.

Забавно, но из-за маркетинговой затасканности, слово «погружение» почти потеряло всякий смысл. Теперь любая игра, которая умеет удержать внимание, хвастается «погружением». А ведь смысл изначально в другом: когда вы погружаетесь в океан, вы существуете внутри океана.


В 1990-е годы появилась концепция «Immersive Sim» (симуляция погружения). Идея заключалась в том, что игроки могут существовать в мире игры и относиться к нему, как к реальности. Наиболее известными из «иммерсивных симов» 90-х были System Shock и Thief: The Dark Project. Обе эти игры были разработаны Looking Glass Studios, и обе имели сильный акцент на искусственном интеллекте.

Игра без хорошего ИИ – как сборник пустых фильмов. Целый сборник – это хорошо, но кино держится на своих персонажах. Великий ИИ вдыхает жизнь в персонажей игры и её мир. Это самый важный компонент в игровом повторении захватывающего опыта кинофильмов.

Для хорошего примера «иммерсивного сима» в действии, давайте вспомним Thief: The Dark Project. Действие игры разворачивается в фэнтезийном мире, вы играете за вора по имени Гарретт. Одна миссия посылает вас в подземные руины. Область карты населена особенными зомби. Их нельзя покрошить на куски, как обычных. Они восстают обратно вскоре после того, как вы убили их. Единственный способ по-настоящему избавиться от них – использовать святую воду на ваших дорогих водных стрелах, которые обычно тушат факелы, что позволяет скрыться в темноте. Когда зомби замечает вас, он ревёт, предупреждая других зомби, которые рёвом зовут следующих. Так можно было собрать толпу из всех зомби на уровне. Если не хватало стрел или святой водой, приходилось обдумывать план.


Например, можно было прокрасться к балкону над комнатой с двумя-тремя зомби, скрытно выстрелить в одного, чтобы он рёвом созвал всех зомби в комнату, потом начинать расстреливать их святой водой

То есть игра создала пространство, создала врагов, которые имели логический набор правил, и к которым можно было применить вполне реальную логику.

Поэтому игра с хорошим ИИ работает, скорее, как Thief, а не как Isolation. Напряженность очень важна для игры о Чужих, но основой должно являться погружение. Если игра перестаёт быть правдоподобной, она уже не такая страшная.

Конечно, чтобы погружение работало, мы должны «купиться» на уловки режиссёра или разработчика. Фильм «Чужой» не сработает, если кто-то перед экраном говорит нам, что пришелец не по-настоящему вырвался из груди человека. Поэтому, чтобы сработать, Alien: Isolation должна заставить нас поверить в её реальность. Игра должна быть интерактивной, то есть ещё более реалистичной, чем какой-либо из фильмов. Игра должна быть захватывающей. Правила должны иметь смысл и быть последовательными.

Если вы или игра разрываете эти отношения, игра перестает быть страшной и опыт разваливается. Когда люди, охотящиеся на игрока, вдруг замирают, или когда Чужой «телепортируется» за спиной, это ломает погружение и вытягивает из игрового опыта. Он перестает быть страшным, в чём и заключается весь смысл Чужого, в первую очередь.


Мы играем в игры о Чужих, потому что мы хотим пережить опыт встречи с Чужим. Когда искусственный интеллект ломается или «читтерит», погружение теряется и игра разваливается. Но когда ИИ работает как надо, то мы становимся Рипли, прячась в шкафчике, затаив дыхание, ожидая, когда монстр уйдёт.

Искусственный интеллект – в последнее время одна из наиболее популярных тем в технологическом мире. Такие умы, как Элон Маск, Стивен Хокинг и Стив Возняк всерьез обеспокоены исследованиями в области ИИ и утверждают, что его создание грозит нам смертельной опасностью. В то же время научная фантастика и голливудские фильмы породили множество заблуждений вокруг ИИ. Так ли нам угрожает опасность и какие неточности мы допускаем, представляя уничтожение Земли Skynet, всеобщую безработицу или наоборот достаток и беззаботность? В человеческих мифах об искусственном интеллекте разобралось издание Gizmodo. Приводим полный перевод его статьи.

Это называли важнейшим тестом машинного разума со времен победы Deep Blue над Гарри Каспаровым в шахматном поединке 20-летней давности. Google AlphaGo победил на турнире по Го гроссмейстера Ли Седоля с разгромным счетом 4:1, показав насколько серьезно искусственный интеллект (ИИ) продвинулся вперед. Судьбоносный день, когда машины наконец превзойдут в уме человека, никогда не казался так близко. Но мы, кажется, так и не приблизились к осознанию последствий этого эпохального события.

В действительности, мы цепляемся за серьезные и даже опасные заблуждения об искусственном интеллекте. В прошлом году основатель SpaceX Элон Маск предостерег, что ИИ может захватить мир. Его слова вызвали бурю комментариев, как противников, так и сторонников этого мнения. Как для такого будущего монументального события, есть поразительное количество разногласий относительно того, произойдет ли оно, и, если да, то в какой форме. Это особенно тревожно, если принять во внимание невероятную пользу, которую может получить человечество от ИИ, и возможные риски. В отличие от других изобретений человека, у ИИ есть потенциал изменить человечество или уничтожить нас.

Трудно понять, чему верить. Но благодаря первым работам ученых в области вычислительных наук, нейробиологов, теоретиков в области ИИ, начинает возникать более четкая картина. Вот несколько общих заблуждений и мифов касательно искусственного интеллекта.

Миф №1: “Мы никогда не создадим ИИ с разумом сравнимым с человеческим”

Реальность: У нас уже есть компьютеры, которые сравнялись или превысили человеческие возможности в шахматах, Го, торговле на бирже и разговорах. Компьютеры и алгоритмы, которые ими руководят, могут становиться только лучше. Это лишь вопрос времени, когда они превзойдут человека в любой задаче.

Психолог-исследователь из университета Нью-Йорка Гари Маркус сказал, что “буквально каждый”, кто работает в ИИ, верит, что машины, в конце концов, обойдут нас: “Единственное реальное отличие между энтузиастами и скептиками – это оценки сроков”. Футуристы вроде Рея Курцвейла считают, что это может произойти в течение нескольких десятилетий, другие говорят, что потребуются века.

ИИ-скептики не убедительны, когда говорят, что это нерешаемая технологическая проблема, а в природе биологического мозга есть что-то уникальное. Наши мозги – биологические машины – они существуют в реальном мире и придерживаются основных законов физики. В них нет ничего непознаваемого.

Миф №2: “Искусственный интеллект будет иметь сознание”

Реальность: Большинство представляет, что машинный разум будет обладать сознанием и думать так, как думают люди. Более того, критики вроде сооснователя Microsoft Пола Аллена верят, что мы пока не можем достигнуть общего искусственного интеллекта (способен решить любую умственную задачу, с которой справляется человек), потому что нам не хватает научной теории сознания. Но как говорит специалист по когнитивной робототехнике Имперского колледжа Лондона Мюррей Шанахан, нам нельзя приравнивать эти две концепции.

“Сознание безусловно удивительная и важная вещь, но я не верю, что оно необходимо для искусственного интеллекта человеческого уровня. Если выражаться более точно, мы используем слово “сознание” для обозначения нескольких психологических и когнитивных признаков, которые у человека “идут в комплекте”, – объясняет ученый.

Умную машину, которой не хватает одного или нескольких подобных признаков, можно представить. В конце концов, мы можем создать невероятной умный ИИ, который будет неспособен воспринимать мир субъективно и осознано. Шанахан утверждает, что разум и сознание можно совместить в машине, но мы не должны забывать, что это две разных концепции.

То, что машина проходит тест Тьюринга, в котором она неотличима от человека, не означает наличие у нее сознания. Для нас передовой ИИ может казаться осознанным, но его самосознание будет не большим, чем у камня или калькулятора.

Миф №3: “Нам не стоит бояться ИИ”

Реальность: В январе основатель Facebook Марк Цукерберг заявил, что нам не стоит бояться ИИ, ведь он сделает невероятное количество хороших вещей для мира. Он прав наполовину. Мы извлечем огромную выгоду от ИИ: от беспилотных автомобилей до создания новых лекарств, но нет никаких гарантий, что каждая конкретизации ИИ будет доброкачественной.

Высокоразумная система может знать все о конкретной задаче, вроде решения неприятной финансовой проблемы или взлома системы вражеской обороны. Но вне границ этих специализаций, она будет глубоко невежественна и не сознательна. Система Google DeepMind эксперт в Го, но у нее нет возможностей или причин исследовать сферы вне своей специализации.

Многие из этих систем могут не подчинятся соображениям безопасности. Хороший пример – сложный и мощный вирус Stuxnet, военизированный червь, разработанный военными Израиля и США для проникновения и диверсии работы иранских атомных станций. Это вирус каким-то образом (специально или случайно) заразил российскую атомную станцию.

Еще один пример, программа Flame, использованная для кибершпионажа на Ближнем Востоке. Легко представить будущие версии Stuxnet или Flame, который выходят за пределы своих целей и наносят огромный вред чувствительной инфраструктуре. (Для понимания, эти вирусы не являются ИИ, но в будущем они могут его иметь, откуда и беспокойство).

Вирус Flame использовался для кибершпионажа на Ближнем Востоке. Фото: Wired

Миф №4: “Искусственный суперинтеллект будет слишком умен, чтобы совершать ошибки”

Реальность: Исследователь ИИ и основатель Surfing Samurai Robots Ричард Лусимор считает, что большинство сценариев судного дня, связанного с ИИ, непоследовательны. Они всегда построены на предположении, что ИИ говорит: “Я знаю, что уничтожение человечества вызвано сбоем в моей конструкции, но я все равно вынужден это сделать”. Лусимор говорит, что если ИИ будет вести себя так, рассуждая о нашем уничтожении, то такие логические противоречия будут преследовать его всю жизнь. Это, в свою очередь, ухудшает его базу знаний и делает его слишком глупым для создания опасной ситуации. Ученый также утверждает, что люди, говорящие: “ИИ может делать только то, на что его запрограммировали”, заблуждаются также, как и их коллеги на заре компьютерной эры. Тогда люди использовали эту фразу утверждая, что компьютеры не способны продемонстрировать ни малейшей гибкости.

Питер Макинтайр и Стюарт Армстронг, которые работают в Институте будущего человечества при Оксфордском университете, не соглашаются с Лусимором. Они утверждают, что ИИ в значительной мере связан тем, как его запрограммировали. Макинтайр и Армстронг верят, что ИИ не сможет совершать ошибок или быть слишком тупым, чтобы не знать, чего мы от него ожидаем.

“По определению, искусственный суперинтеллект (ИСИ) – субъект, с разумом значительно большим, чем обладает лучший человеческий мозг в любой области знаний. Он будет точно знать, что мы хотели, чтобы он сделал”, – утверждает Макинтайр. Оба ученых верят, что ИИ будет делать лишь то, на что запрограммирован. Но если он станет достаточно умен, он поймет, как это отличается от духа закона или намерений людей.

Макинтайр сравнил будущую ситуацию людей и ИИ с теперешним взаимодействием человека и мыши. Цель мыши – искать еду и убежище. Но она часто конфликтует с желанием человека, который хочет, чтобы его зверек бегал вокруг него свободно. “Мы достаточно умны, чтобы понимать некоторые цели мышей. Так что ИСИ будет также понимать наши желания, но быть к ним безразличным”, – говорит ученый.

Как показывает сюжет фильма Ex Machina человеку будет крайне сложно удерживать более умный ИИ

Миф №5: “Простая заплатка решит проблему контроля ИИ”

Реальность: Создав искусственный интеллект умнее человека, мы столкнемся с проблемой известной как “проблема контроля”. Футуристы и теоретики ИИ впадают в состояние полной растерянности, если их спросить, как мы будем содержать и ограничивать ИСИ, если такой появится. Или как убедиться, что он будет дружественно настроен в отношении людей. Недавно исследователи из Института технологий Джорджии наивно предположили, что ИИ может перенять человеческие ценности и социальные правила, читая простые истории. На деле, это будет куда более сложно.

“Предлагалось множество простых трюков, которые могут “решить” всю проблему контроля ИИ”, – говорит Армстронг. Примеры включали программирование ИСИ так, чтобы его целью было угождать людям, или, чтобы он просто функционировал как инструмент в руках человека. Еще вариант – интегрировать концепции любви или уважения в исходный код. Чтобы предотвратить ИИ от принятия упрощенного, однобокого взгляда на мир, предлагалось запрограммировать его ценить интеллектуальное, культурное и социальное разнообразие.

Но эти решения слишком просты, как попытка втиснуть всю сложность человеческих симпатий и антипатий в одно поверхностное определение. Попробуйте, к примеру, вывести четкое, логичное и выполнимое определение “уважения”. Это крайне сложно.

Машины в “Матрице” могли без проблем уничтожить человечество

Миф №6: “Искусственный интеллект нас уничтожит”

Реальность: Нет никакой гарантии, что ИИ нас уничтожит, или, что мы не сможем найти возможности контролировать его. Как сказал теоретик ИИ Элизер Юдковски: “ИИ ни любит, ни ненавидит вас, но вы сделаны из атомов, которые он может использовать для других целей”.

В своей книге “Искусственный интеллект. Этапы. Угрозы. Стратегии” оксфордский философ Ник Бостром написал, что настоящий искусственный суперинтеллект, после его появления, создаст риск больший, чем любые другие человеческие изобретения. Выдающиеся умы вроде Элона Маска, Билла Гейтса и Стивена Хокинга (последний предупредил, что ИИ может быть нашей “худшей ошибкой в истории”) также выразили обеспокоенность.

Макинтайр сказал, что в большинстве целей, которыми может руководствоваться ИСИ, есть веские причины избавиться от людей.

“ИИ может спрогнозировать, достаточно правильно, что мы не хотим, чтобы он максимизировал прибыль конкретной компании, чего бы это ни стоило клиентам, окружающей среде и животным. Поэтому у него есть сильный стимул, чтобы позаботится о том, что его не прервут, не помешают, выключат или не изменят его целей, поскольку из-за этого изначальные цели не будут выполнены”, – утверждает Макинтайр.

Если только цели ИСИ не будут точно отображать наши собственные, то у него будут достойные поводы не дать нам возможности остановить его. Учитывая, что уровень его интеллекта значительно превосходит наш, мы с этим ничего не сможем поделать.

Никто не знает, какую форму обретет ИИ и как он может угрожать человечеству. Как отметил Маск, искусственный интеллект может использоваться для контроля, регулирования и мониторинга другого ИИ. Или он может быть пропитан человеческими ценностями или преобладающим желанием быть дружественным к людям.

Миф №7: “Искусственный суперинтеллект будет дружелюбным”

Реальность: Философ Иммануил Кант верил, что разум сильно коррелирует с моральностью. Нейробиолог Давид Чалмерс в своем исследовании “Сингулярность: Философский анализ” взял известную идею Канта и применил ее к возникшему искусственному суперинтеллекту.

Если это верно… мы можем ожидать, что интеллектуальный взрыв приведет к взрыву моральности. Затем мы можем ожидать, что появившиеся ИСИ системы будут суперморальны также, как и суперинтеллектуальны, что позволит нам ожидать от них доброкачественности.

Но идея того, что развитый ИИ будет просветленным и добрым, по своей сути, не очень правдоподобна. Как отметил Армстронг, есть много умных военных преступников. Не похоже, что связь между разумом и моральностью существует среди людей, поэтому он поддает сомнению работу этого принципа среди других умных форм.

“Умные люди, ведущие себя аморально, могут вызывать боль гораздо больших масштабов, чем их более глупые коллеги. Разумность просто дает им возможность быть плохими с большим умом, она не превращает их в добряков”, – утверждает Армстронг.

Как объяснил Макинтайр, возможность субъекта достичь цели не относиться к тому, будет эти цель разумной для начала. “Нам очень сильно повезет, если наши ИИ будут уникально одаренными и уровень их моральности будет расти вместе с разумом. Надеяться на удачу – не лучший подход для того, что может определить наше будущее”, – говорит он.

Миф №8: “Риски ИИ и робототехники равнозначны”

Реальность: Это особенно частая ошибка, насаждаемая некритичными СМИ и голливудскими фильмами вроде “Терминатора”.

Если бы искусственный суперинтеллект вроде Skynet действительно захотел бы уничтожить человечество, он был не использовал андроидов с шестиствольными пулеметами. Гораздо эффективнее было бы наслать биологическую чуму или нанотехнологическую серую слизь. Или просто уничтожить атмосферу.

Искусственный интеллект потенциально опасен не тем, что он может повлиять на развитие роботетехники, а тем, как его появление повлияет на мир в принципе.

Миф №9: “Изображение ИИ в научной фантастике – точное отображение будущего”

Множество видов разумов. Изображение: Элизер Юдковски

Конечно, авторы и футуристы использовали научную фантастику, чтобы делать фантастические прогнозы, но горизонт событий, который устанавливает ИСИ, это совсем другая опера. Более того, нечеловеческая природа ИИ делает для нас невозможным знание, а значит и предсказание, его природы и формы.

Чтобы развлекать нас, глупых людишек, в научной фантастике большинство ИИ изображены похожими на нас. “Существует спектр всех возможных разумов. Даже среди людей, вы достаточно отличаетесь от своего соседа, но эта вариация ничто, в сравнении со всеми разумами, которые могут существовать”, – говорит Макинтайр.

Большинство научно-фантастических произведений, чтобы рассказать убедительную историю, не должны быть научно точны. Конфликт обычно разворачивается между близкими по силе героями. “Представьте, насколько бы скучной была история, где ИИ без сознания, радости или ненависти, покончил бы с человечеством без всякого сопротивления, чтобы добиться неинтересной цели”, – зевая, повествует Армстронг.

На заводе Tesla трудятся сотни роботов

Миф №10: “Это ужасно, что ИИ заберет всю нашу работу”

Реальность: Возможность ИИ автоматизировать многое, из того, что мы делаем, и его потенциал уничтожить человечество, две совсем разные вещи. Но согласно Мартину Форду, автору “На заре роботов: Технологии и угроза безработного будущего”, их часто рассматривают как целое. Хорошо думать об отдаленном будущем применения ИИ, но только если оно не отвлекает нас от проблем, с которыми нам придется столкнуться в ближайшие десятилетия. Главная среди них – массовая автоматизация.

Никто не ставит под сомнение, что искусственный интеллект заменит множество существующих профессий, от работника фабрики до высших эшелонов белых воротничков. Некоторые эксперты предсказывают, что половине всех рабочих мест США угрожает автоматизация в ближайшем будущем.

Но это не означает, что мы не сможем справиться с потрясением. Вообще, избавление от большей части нашей работы, как физической так и ментальной, – квази-утопическая цель нашего вида.

“В течении пары десятилетий ИИ уничтожит множество профессий, но это неплохо”, – говорит Миллер. Беспилотные автомобили заменят водителей грузовиков, что сократит стоимость доставки и, как следствие, сделает многие продукты дешевле. “Если вы водитель грузовика и зарабатываете этим на жизнь – вы потеряете, но все другие наоборот смогут покупать больше товаров на ту же зарплату. А деньги, которые они отложат, будут потрачены на другие товары и услуги, которые создадут новые рабочие места для людей”, – утверждает Миллер.

По всей вероятности, искусственный интеллект будет создавать новые возможности производства блага, освободив людей для занятия другими вещами. Успехи в развитии ИИ будут сопровождаться успехами в других областях, особенно в производстве. В будущем, нам станет легче, а не сложнее, удовлетворять наши основные потребности.

Введение

Ища истоки идей искусственного интеллекта, можно привести множество фактов и мифов. Начиная от древнегреческого робота Талоса, созданного Зевсом для охраны острова Крит, или Чарльза Бэббиджа с Адой Лавлейс и их Аналитическим Двигателем середины 19 века и заканчивая идеями Мински и МакКартни, создавших современное определение ИИ как любого действия, выполненного программой или машиной, про которое, если бы его выполнял человек, мы бы сказали, что ему нужно проявить интеллект или смекалку.

Мне же истоки зарождения ИИ видятся в книге Галилео Галилея 1683 года «Беседы и математические доказательства двух новых наук».

В этой книге Галилей, в частности, написал, что всё в мире, в том числе природные явления, может быть выражено языком математики. Получается, что для любого явления или действия можно придумать алгоритм. Таким образом, искусственный интеллект – это набор алгоритмов на все случаи жизни. А одной из главных способностей ИИ станет умение на основе имеющихся данных самостоятельно синтезировать новые алгоритмы.

В усеченном виде это уже возможно. Например, AlphaGo от Google, проанализировав базу данных из 30 миллионов ходов и потренировавшись с самим собой несколько тысяч раз, смог победить лучшего игрока в мире по игре в го.


А IBM натаскивает свой суперкомпьютер Watson на помощь врачам. Задача – научить компьютер искать ответы на вопросы, заданные естественным языком, то есть Watson учится проводить медицинский опрос. Своего рода игра в дифференциальную диагностику, только компьютер вместо доктора Хауса. Собственно, на этом закончим с историей. В головах обывателей искусственный интеллект – это Джарвис из комиксов про «Железного человека», Терминатор или, на худой конец, Робокоп (в фильме именно добавленный ИИ помогает киборгу очень быстро и точно стрелять). Такой вариант, конечно, имеет место быть, но давайте начнём с того, что доступно сегодня.

Какие типы ИИ есть сегодня?

В целом, все типы ИИ можно разделить на две категории – слабый, или ограниченный ИИ и общий, или сильный ИИ.

Слабый ИИ

Собственно, названия говорят сами за себя. ИИ сегодня представляют собой первый тип – ограниченный, то есть интеллект заточен на определенные задачи. Например, когда Samsung обещает, что к 2020 году каждое его устройство будет обладать ИИ, то подразумевается именно ограниченный вариант. Примерами могут служить Siri или Алиса, которые умеют делать ровно то, что в них запрограммировали. Алиса даже так и отвечает, когда чего-то не знает или не умеет: «Программист обещал обучить меня этому позже».

К этому же типу относятся Google и Yandex карты, анализирующие пробки и прокладывающие маршруты, фотокамеры, распознающие сцены, интеллектуальная печь, самостоятельно регулирующая уровень жара, и робот-пылесос, который, как ему ни объясняй, умеет только пылесосить, а тапочки не подаст.

И пока что это ограниченный ИИ – это единственный тип искусственного интеллекта, который освоило человечество. Слабый ИИ можно разделить по ключевым задачам, над которыми и работают специалисты сегодня. Это:

  • распознавание речи;
  • компьютерное зрение;
  • обработка естественного языка;
  • поиск паттернов, или анализ данных;
  • робототехника.

Добиться решения этих задач, то есть научить некий ИИ понимать ваши слова и узнавать картинки, можно двумя способами.

  1. Символьный подход.

    Такой подход был ведущим начиная с конца 40-х и заканчивая началом 90-х. Метод основывается на том, что считалось, что лучший способ «обучить» ИИ – это скормить ему как можно больше знаний. Например, если говорить в контексте медицины, то в ИИ загружают всевозможные учебники и базы знаний. И ответы ИИ ищет только на основе имеющейся информации, обрабатывая знания лишь по тем правилам, которые создал программист.

    Соответственно, такой тип ИИ хорош для решения статических проблем. Например, в него можно загрузить все учебники по русскому языку, и ИИ сможет хорошо проверять сочинения, находя орфографические, пунктуационные ошибки, а ориентируясь на орфоэпические нормы, даже сможет вычленять речевые ошибки и недочеты. Однако будет делать это, только основываясь на правилах, то есть не понимая контекст, а вычленяя правильный порядок слов и написание.

    Ещё один пример – это машинный перевод. Символьно-обученный ИИ вооружен всевозможными словарями и разговорниками. И если предложенная ему на перевод фраза есть в одном из них, то он её переведёт хорошо, а если нет, то просто подставит слова, предлоги и структуру предложения на основе заложенных правил.

  2. Машинное обучение, или несимвольный ИИ.

    В отличие от символьного, этот вариант обучения подразумевает, что искусственному интеллекту показали, как решать определенную проблему, после чего пустили в свободное плавание. Так действуют нейронные сети. Помню, читал про пример, где программист подключил ИИ к управлению поливалками и научил отгонять водой соседскую кошку, которая повадилась ходить в туалет на газон. Программист показал ИИ множество фотографий с кошками, после чего у искусственного интеллекта выработался рефлекс включать поливалку каждый раз, когда ему казалось, что он видит нечто, похожее на кошку. Система не всегда работала гладко. Кажется, она как-то включилась, когда ИИ принял тень на асфальте за кошку.

    Если же говорить про пример с переводом, то натренированный ИИ может попытаться осознать контекст фразы и подставить в переводе не первое отвечающее базовым требованиям слово, а то, которое, на его взгляд, лучше отражает стиль, эмоцию, сленг или что-то ещё, на чём его тренировали.

Сегодня большинство программистов предпочитают использовать второй тип – машинное обучение, потому он умеет, если так можно выразиться, импровизировать. Например, если автономную машину натренировать по первому типу, то она будет ездить по правилам, но если на дороге возникнет непредвиденная ситуация, то машина окажется в затруднении. А автомобиль, натренированный машинным обучением, может действовать по обстоятельствам, синтезируя идеи на основе скормленной ранее информации.

Тут же возникает и проблема. Одна из ключевых важных особенностей символьного ИИ в том, что система всегда может объяснить, почему приняла то или иное решение. А вот в случае с машинным обучением всё непросто. Именно поэтому те же UBER или Tesla долго разбираются, пытаясь понять, почему их машины приняли то или иное решение, повлекшее аварию.

Однако для тех же автомобилей символьное обучение не подходит, так как все правила для ИИ заносят вручную, то есть, условно говоря, нужно прописать все варианты действия для автомобиля – на дорогу выбежал человек, выкатилась коляска, вылетела коробка и т.д. Что-то забыл прописать, и неожиданно выяснилось, что машина сбила лося, потому что про него ничего не было сказано в своде правил, в то время как машинный ИИ сможет догадаться, что нельзя сбивать всех четвероногих.

У слабого ИИ, как видите, несмотря на его ограниченность, множество способов применения – это и умная техника, и самостоятельные автомобили, и обработка данных с попытками предсказаний будущего. К слову, Google Duplex, умеющий заказывать столики в ресторане, - это тоже ограниченный ИИ, так как умеет он ровно то, чему его обучили.

Сильный ИИ (самостоятельный)

Здесь уже начинается область гипотез, так как ничего подобного человечество ещё не видело. Возможно, только в недрах Google или IBM живёт что-то полуразумное. На последней конференции Google I/O очень умная китайская женщина Фей Фей Ли (Fei Fei Li), самая главная в департаменте Машинного обучения и Искусственного Интеллекта в Google Cloud, сказала, что, хоть и прошло уже более 60 лет с момента исследований в области ИИ, но наука до сих пор находится на начальном этапе, и пока можно говорить только о том, чтобы достичь мастерства в разработках ограниченного ИИ.


Однако предлагаю немного пофантазировать про сильный ИИ и попробовать определить, что он из себя должен представлять и что уметь. Считается, что сильный ИИ – это по уму как среднестатистический человек, то есть в теории он может решить любую проблему.. И если перед первым стояла задача любыми способами уничтожить Джона Коннора, то второй жаждет максимальной энтропии. Терминатор, если закрыто метро, поедет убивать Джона Коннора на автобусе, а если сломается автобус, то пойдет пешком или вызовет такси, а недоброжелатель будет писать, что всё реклама, что автор ничего не понимает, будет пытаться заниматься демагогией и софизмами. Собственно, больше всего разжиться сильным ИИ мечтают правительства по всему миру для ведения военных действий и саботажа выборов в США армией компьютерных ботов-троллей.

В Google говорят, что если всё будет хорошо, то к 2050 году, возможно, произойдёт прорыв и появится первый сильный ИИ.

Основная слабость такого ИИ заключается в том, что он, несмотря на все свои способности, по-прежнему остаётся относительно недалеким, как и среднестатистический человек, но, в отличие от человека, сильный ИИ всё помнит и лучше ориентируется в поисках и обработке информации.

Суперсильный интеллект

Это уже совсем из области фантастики. Например, к просто сильному интеллекту можно отнести и Пятницу/Джарвиса из «Железного человека».


Если помните, то в одном из фильмов главный герой Тони Старк пытался изобрести какой-то новый нетоксичный источник энергии, чтоб поместить его себе в грудь. Джарвис ему ассистировал, но решить задачу мог всё равно только Тони Старк, потому что у ИИ не хватало «соображалки». Суперсильный интеллект сможет самостоятельно решать даже самые сложные задачи. Именно ему человечество задаст вопрос, на который он ответит «42», а потом суперсильный ИИ поместит всех людей в чаны с жидкостями и создаст феномен избранного (это не белиберда, а аллюзии на книгу «Автостопом по Галактике» и фильм «Матрица»).

Нужно ли бояться ИИ?

Несмотря на все фантастические фильмы, опасаться не нужно, по крайней мере, до появления последнего типа ИИ. Однако нужно бояться людей, которые занимаются разработками, так как вследствие ошибки или сознательно в тот же ограниченный ИИ может быть заложено правило «убить всех человеков» вместо «учить всех человеков». А дальше для ИИ дело за малым – лишь уточнить в словаре значения всех слов и приступить к делу.


Однако развитие даже ограниченного ИИ уже привело и ещё приведет к множеству проблем в современном обществе.

Проблема первая

Одна из проблем – это разрушение традиционной карьерной лестницы, так как развитие ИИ приводит к отказу от рабочих мест, требующих среднего уровня квалификации. Поясню подробнее. Нужна дешевая рабочая сила, чтобы заносить данные в компьютер, так как, условно говоря, распознавать «капчу» человек по-прежнему умеет лучше. Также нужны и те, кто будет принимать решения на основе обработанных компьютером данных. А вот рядовые аналитики уже не нужны, потому что они анализируют и изучают данные на основе выученных алгоритмов. Например, в мою бытность аналитиком я имел на вооружении 42 различных варианта обработки данных для создания прогнозов. Все эти варианты были упорядочены в аккуратную презентацию, к которой я регулярно обращался, чтобы прикинуть, какой способ лучше использовать в той или иной ситуации. Замена меня на ИИ представляется логичной и обоснованной, так как он с задачами прогнозирования справится гораздо быстрее. Соответственно, получается разрыв, когда отпадает традиционная карьерная лестница от младшего аналитика до руководителя, так как в нижней точке карьеры практически нет маневра для демонстрации интеллекта.

Проблема вторая

Также из-за ИИ постепенно произойдет отказ от базовых профессий, которые можно алгоритмизировать, то есть свести к простым действиям. Что-то подобное сейчас можно наблюдать в «Ашанах» и «Лентах», где происходит постепенная замена кассиров на аппараты самообслуживания, а также одного сотрудника, помогающего решить возникающие проблемы, и охранника, следящего за порядком. В дальнейшем охранника заменят камеры наблюдения, следящие за порядком. Получается, что произойдет снижение ценности людей.


Профессии, которые с большой долей вероятности заменит ИИ: почтальоны, ювелиры, лесорубы, фермеры, рабочие на заводах, страховщики

Прочитал, что Сан-Франциско в какой-то степени может служить иллюстрацией данной проблемы. Этот город в США облюбовала технологическая элита. Соответственно, экономика города направлена на удовлетворение потребностей элиты, а вот люди, которые не имеют отношения к экономике технологий, испытывают колоссальные проблемы. Они зарабатывают гораздо меньше, а все ценники в городе выставлены как для IT-стартаперов. Обычные люди не могут потянуть такие расходы, поэтому или переезжают, или пополняют и без того огромную армию бомжей.

Однако здесь есть ключевая особенность, которая сохранит некоторые профессии. Искусственному интеллекту для работы нужны созданные условия. Например, робот-пылесос умеет ездить только по гладкому полу и преодолевать небольшие неровности. Соответственно, многие базовые профессии смогут продержаться до тех пор, пока будет чересчур сложно и дорого создавать их искусственную замену. Например, в помещении, где много дверей, роботу-уборщику нужно иметь или манипуляторы, чтобы крутить дверные ручки, или нужно, чтоб все двери открывались автоматически. И то и то достаточно дорого, а вот у приезжего Сархата из Средней Азии есть руки и мозгов хватает, чтоб управиться со шваброй и дверной ручкой, но нет регистрации и сниженные требования к зарплате.

Проблема третья

Даже ограниченный ИИ сильно простимулировал такое явление, как фриланс. Платформы по подбору и найму удаленных сотрудников с каждым годом процветают всё больше и больше. Например, по последним статистическим данным, в США, первой экономике мира, 55 миллионов человек работает на фрилансе.


И это в текущем поколении, обратите внимание на иллюстрацию. Подрастающая рабочая сила не любит сидеть в офисе. Соответственно, произойдет сдвиг в организации труда. Компании столкнутся с проблемами по набору и удержанию сотрудников, ведь зачем посвящать жизнь одной компании, когда ты доступен онлайн и можно искать работу по всему миру.

Проблема четвертая

Достаточно серьезная проблема – это социальное неравенство, которое уже упомянул в проблеме номер 2. Оно будет усугубляться. Полагаю, из статьи вы догадались, что чтобы быть успешным в новом мире, нужно быть сообразительным и на «ты» с современными технологиями. Не секрет, что у бедных людей хуже с доступом к образованию. Соответственно, бедные не смогут вырваться на новый уровень, так как у них попросту не будет шанса научиться чему-то полезному, так как, чтобы хорошо думать, нужны годы усиленных тренировок, а где их взять, когда нужно искать еду.

Новому обществу нужна или дешевая рабочая сила, или интеллектуалы, принимающие решения.

Проблема пятая

Её можно сформулировать кратко – кто у руля? На людей, занимающихся разработкой систем ИИ, будет накладываться особая ответственность, так как они обучают ИИ, на основе каких данных ИИ будет принимать решения. Будут это законы робототехники от Азимова или иные правила, защищающие определенную прослойку людей.

Почему искусственный интеллект – это благо?

Перечисленные выше проблемы выглядят в какой-то степени пугающе, но ИИ – это обоюдоострый меч, который может и помогать.

Благо 1

Искусственный интеллект послужит мощным толчком для развития многих сфер. Хороший пример – это медицина. Сегодня в 21 веке врачи продолжают лечить так же, как и сотню лет назад. Они зубрят учебники. Это плохой вариант, так как ни один врач не может помнить наизусть все симптомы всех болезней. Последствия таких ошибок могут быть фатальными. Местный врач до последнего уверяла, что причины недомогания моей матери заключаются в простуде и усталости, так как все основные симптомы налицо. И только когда уже было поздно, прозвучал правильный диагноз – острый лейкоз, заболевание, которое достаточно сложно распознать. И в данной ситуации наличие ИИ, который помнит все болезни и симптомы и который никогда не устаёт, было бы выходом.

Такие же сдвиги могут произойти в области права, где юристам и судьям нужно держать в памяти все законы, прецеденты и множество доказательств.

Благо 2

ИИ поможет создать персонализированный опыт. Лучше всего это утверждение можно проиллюстрировать на примере обучения. Сегодня учителя перегружены, и они физически не могут уделить внимание всем ученикам. А ведь у каждого свой темп освоения нового материала. Системы обучения, основанные на ИИ, следят за скоростью обучения, видят, хорошо или плохо ученик запоминает материал, читает внимательно или отвлекается. На основе этого выстраивается индивидуальный темп обучения и происходит подбор упражнений для закрепления.

При этом есть факт, что людям проще постигать новый материал с помощью ИИ, так как в таком случае значительно снижается страх ошибки. Могу согласиться с этим утверждением. Морально легче получить возмущенный бип от компьютера, что пример решен неверно, чем выдержать взгляд Ольги Степановны, моего преподавателя по математике.

ИИ сможет уделять равное внимание всем людям. Сюда относятся все области, от образования и медицины до подбора модного имиджа (в соответствии с типом фигуры, формой лица и трендами сезона) и тренировок в спортзале.

Благо 3

Уже сегодня наш мир переполнен информацией. Любые данные собираются отовсюду, начиная от погодных условий и заканчивая тем, сколько шагов прошел человек.

Искусственный интеллект с доступом к большим данным сможет анализировать эти данные и искать корреляцию, как влияет количество шагов на здоровье, но не абстрактно, а с учетом определенной погоды. Анализ перемещения пассажиропотоков поможет снизить загруженность, уменьшить количество транспортных коллапсов в часы пик. Короче говоря, те данные, которые можно проанализировать, будут проанализированы, и ИИ представит свои выводы.

Заключение

Сегодня искусственный интеллект продемонстрировал, что неплохо умеет решать только те задачи, которым его обучили, и даже быть лучше в них, чем обычные люди. Смартфон легко обыграет гроссмейстера даже без ферзя, японский ИИ, написавший небольшой роман, прошел в финал литературного конкурса, а его собратья пишут и исполняют неплохую музыку.

Однако, к сожалению, ИИ до сих пор находится в стадии зарождения. Он умеет только то, чему его научили – проанализировать множество литературных или музыкальных произведений и синтезировать что-то своё или запомнить миллионы ходов и выбирать лучший.

Главные проблемы, стоящие на пути развития ограниченного ИИ, заключаются в отсутствии универсальных алгоритмов познания окружающего мира и инфраструктуры (для сбора данных нужно множество датчиков, для беспилотных авто –дороги с идеальной разметкой, для понимания запросов хозяина голосовым ассистентам нужны более качественные алгоритмы).

Для появления же сильного искусственного интеллекта нужны принципиально иные вычислительные мощности и алгоритмы обработки информации, имитирующие то, что у людей называется интуицией. Вероятно, в ближайшем будущем мы будем наблюдать различные варианты ограниченного ИИ с заложенными алгоритмами поведения на всевозможные условия.

Искусственный интеллект создал нейросеть December 15th, 2017

Дожили до того момента, когда искусственный интеллект создаёт собственную нейросеть. Хотя многие думают, что это одно и тоже. Но на самом деле не всё так просто и сейчас мы попробуем разобраться что это такое и кто кого может создать.


Инженеры из подразделения Google Brain весной текущего года продемонстрировали AutoML. Этот искусственный интеллект умеет без участия человека производить собственные уникальнейшие ИИ. Как выяснилось совсем недавно, AutoML смог впервые создать NASNet, систему компьютерного зрения. Данная технология серьёзно превосходит все созданные ранее людьми аналоги. Эта основанная на искусственном интеллекте система может стать отличной помощницей в развитии, скажем, автономных автомобилей. Применима она и в робототехнике - роботы смогут выйти на абсолютно новый уровень.

Развитие AutoML проходит по уникальной обучающей системе с подкреплением. Речь идёт о нейросети-управленце, самостоятельно разрабатывающей абсолютно новые нейросети, предназначенные для тех или иных конкретных задач. В указанном нами случае AutoML имеет целью производство системы, максимально точно распознающей в реальном времени объекты в видеосюжете.

Искусственный интеллект сам смог обучить новую нейронную сеть, следя за ошибками и корректируя работу. Обучающий процесс повторялся многократно (тысячи раз), до тех пор, пока система не оказалась годной к работе. Любопытно, что она смогла обойти любые аналогичные нейросети, имеющиеся в настоящее время, но разработанные и обученные человеком.

При этом AutoML оценивает работу NASNеt и использует эту информацию для улучшения дочерней сети; этот процесс повторяется тысячи раз. Когда инженеры протестировали NASNet на наборах изображений ImageNet и COCO, она превзошла все существующие системы компьютерного зрения.

В Google официально заявили, что NASNet распознаёт с точностью равной 82,7%. Результат на 1.2 % превышает прошлый рекорд, который в начале осени нынешнего года установили исследователи из фирмы Momenta и специалисты Оксфорда. NASNet на 4% эффективнее своих аналогов со средней точностью в 43,1%.

Есть и упрощённый вариант NASNet, который адаптирован под мобильные платформы. Он превосходит аналоги чуть больше, чем на три процента. В скором будущем можно будет использовать данную систему для производства автономных автомобилей, для которых важно наличие компьютерного зрения. AutoML же продолжает производить новые потомственные нейросети, стремясь к покорению ещё больших высот.

При этом, конечно, возникают этические вопросы, связанные с опасениями по поводу ИИ: что, если AutoML будет создавать системы с такой скоростью, что общество просто за ними не поспеет? Впрочем, многие крупные компании стараются учитывать проблемы безопасности ИИ. Например, Amazon, Facebook, Apple и некоторые другие корпорации являются членами Партнерства по развитию ИИ (Partnership on AI to Benefit People and Society). Институт инженеров и электротехники (IEE) же предложил этические стандарты для ИИ, а DeepMind, например, анонсировал создание группы, которая будет заниматься моральными и этическими вопросами, связанными с применениями искусственного интеллекта.

Впрочем, многие крупные компании стараются учитывать проблемы безопасности ИИ. При этом, конечно, возникают этические вопросы, связанные с опасениями по поводу ИИ: что, если AutoML будет создавать системы с такой скоростью, что общество просто за ними не поспеет? Институт инженеров и электротехники (IEE) же предложил этические стандарты для ИИ, а DeepMind, например, анонсировал создание группы, которая будет заниматься моральными и этическими вопросами, связанными с применениями искусственного интеллекта. Например, Amazon, Facebook, Apple и некоторые другие корпорации являются членами Партнерства по развитию ИИ (Partnership on AI to Benefit People and Society).

Что такое искусственный интеллект?

Автором термина «искусственный интеллект» является Джон Маккарти, изобретатель языка Лисп, основоположник функционального программирования и лауреат премии Тьюринга за огромный вклад в области исследований искусственного интеллекта.
Искусственный интеллект — это способ сделать компьютер, компьютер-контролируемого робота или программу способную также разумно мыслить как человек.

Исследования в области ИИ осуществляются путем изучения умственных способностей человека, а затем полученные результаты этого исследования используются как основа для разработки интеллектуальных программ и систем.

Что такое нейронная сеть?

Идея нейросети заключается в том, чтобы собрать сложную структуру из очень простых элементов. Вряд ли можно считать разумным один-единственный участок мозга — а вот люди обычно на удивление неплохо проходят тест на IQ. Тем не менее до сих пор идею создания разума «из ничего» обычно высмеивали: шутке про тысячу обезьян с печатными машинками уже сотня лет, а при желании критику нейросетей можно найти даже у Цицерона, который ехидно предлагал до посинения подбрасывать в воздух жетоны с буквами, чтобы рано или поздно получился осмысленный текст. Однако в XXI веке оказалось, что классики ехидничали зря: именно армия обезьян с жетонами может при должном упорстве захватить мир.
На самом деле нейросеть можно собрать даже из спичечных коробков: это просто набор нехитрых правил, по которым обрабатывается информация. «Искусственным нейроном», или перцептроном, называется не какой-то особый прибор, а всего лишь несколько арифметических действий.

Работает перцептрон проще некуда: он получает несколько исходных чисел, умножает каждое на «ценность» этого числа (о ней чуть ниже), складывает и в зависимости от результата выдаёт 1 или -1. Например, мы фотографируем чистое поле и показываем нашему нейрону какую-нибудь точку на этой картинке — то есть посылаем ему в качестве двух сигналов случайные координаты. А затем спрашиваем: «Дорогой нейрон, здесь небо или земля?» — «Минус один, — отвечает болванчик, безмятежно разглядывая кучевое облако. — Ясно же, что земля».

«Тыкать пальцем в небо» — это и есть основное занятие перцептрона. Никакой точности от него ждать не приходится: с тем же успехом можно подбросить монетку. Магия начинается на следующей стадии, которая называется машинным обучением. Мы ведь знаем правильный ответ — а значит, можем записать его в свою программу. Вот и получается, что за каждую неверную догадку перцептрон в буквальном смысле получает штраф, а за верную — премию: «ценность» входящих сигналов вырастает или уменьшается. После этого программа прогоняется уже по новой формуле. Рано или поздно нейрон неизбежно «поймёт», что земля на фотографии снизу, а небо сверху, — то есть попросту начнёт игнорировать сигнал от того канала, по которому ему передают x-координаты. Если такому умудрённому опытом роботу подсунуть другую фотографию, то линию горизонта он, может, и не найдёт, но верх с низом уже точно не перепутает.

В реальной работе формулы немного сложнее, но принцип остаётся тем же. Перцептрон умеет выполнять только одну задачу: брать числа и раскладывать по двум стопкам. Самое интересное начинается тогда, когда таких элементов несколько, ведь входящие числа могут быть сигналами от других «кирпичиков»! Скажем, один нейрон будет пытаться отличить синие пиксели от зелёных, второй продолжит возиться с координатами, а третий попробует рассудить, у кого из этих двоих результаты ближе к истине. Если же натравить на синие пиксели сразу несколько нейронов и суммировать их результаты, то получится уже целый слой, в котором «лучшие ученики» будут получать дополнительные премии. Таким образом достаточно развесистая сеть может перелопатить целую гору данных и учесть при этом все свои ошибки.

Нейронную сеть можно сделать с помощью спичечных коробков — тогда у вас в арсенале появится фокус, которым можно развлекать гостей на вечеринках. Редакция МирФ уже попробовала — и смиренно признаёт превосходство искусственного интеллекта. Давайте научим неразумную материю играть в игру «11 палочек». Правила просты: на столе лежит 11 спичек, и в каждый ход можно взять либо одну, либо две. Побеждает тот, кто взял последнюю. Как же играть в это против «компьютера»?

Очень просто.

Берём 10 коробков или стаканчиков. На каждом пишем номер от 2 до 11.

Кладём в каждый коробок два камешка — чёрный и белый. Можно использовать любые предметы — лишь бы они отличались друг от друга. Всё — у нас есть сеть из десяти нейронов!

Нейросеть всегда ходит первой. Для начала посмотрите, сколько осталось спичек, и возьмите коробок с таким номером. На первом ходу это будет коробок №11. Возьмите из нужного коробка любой камешек. Можно закрыть глаза или кинуть монетку, главное — действовать наугад.
Если камень белый — нейросеть решает взять две спички. Если чёрный — одну. Положите камешек рядом с коробком, чтобы не забыть, какой именно «нейрон» принимал решение. После этого ходит человек — и так до тех пор, пока спички не закончатся.

Ну а теперь начинается самое интересное: обучение. Если сеть выиграла партию, то её надо наградить: кинуть в те «нейроны», которые участвовали в этой партии, по одному дополнительному камешку того же цвета, который выпал во время игры. Если же сеть проиграла — возьмите последний использованный коробок и выньте оттуда неудачно сыгравший камень. Может оказаться, что коробок уже пустой, — тогда «последним» считается предыдущий походивший нейрон. Во время следующей партии, попав на пустой коробок, нейросеть автоматически сдастся.

Вот и всё! Сыграйте так несколько партий. Сперва вы не заметите ничего подозрительного, но после каждого выигрыша сеть будет делать всё более и более удачные ходы — и где-то через десяток партий вы поймёте, что создали монстра, которого не в силах обыграть.

Источники:

В этом году компания «Яндекс» запустила голосового помощника «Алиса». Новый сервис позволяет пользователю прослушивать новости и погоду, получать ответы на вопросы и просто общаться с ботом. «Алиса» иногда дерзит , порой кажется почти разумной и по-человечески саркастичной , но часто не может разобраться, о чём её спрашивают, и садится в лужу.

Всё это породило не только волну шуток, но и новый виток дискуссий о развитии искусственного интеллекта. Новости о том, чего добились умные алгоритмы, сегодня приходят чуть ли не каждый день, а машинное обучение называют одним из самых перспективных направлений, которому можно себя посвятить.

Чтобы прояснить главные вопросы об искусственном интеллекте, мы побеседовали с Сергеем Марковым, специалистом по искусственному интеллекту и методам машинного обучения, автором одной из самых сильных отечественных шахматных программ SmarThink и создателем проекта «XXII век» .

Сергей Марков,

специалист по искусственному интеллекту

Развенчивая мифы об ИИ

так что же такое «искусственный интеллект»?

Понятию «искусственный интеллект» в какой-то мере не повезло. Возникшее изначально в научной среде, оно со временем проникло в фантастическую литературу, а через неё - в поп-культуру, где претерпело целый ряд изменений, обросло множеством интерпретаций и в конце-концов было совершенно мистифицировано.

Именно поэтому мы часто слышим от неспециалистов примерно такие заявления: «ИИ не существует», «ИИ невозможно создать». Непонимание сути исследований, ведущихся в сфере ИИ, легко приводит людей и к другим крайностям - например, современным системам ИИ приписывают наличие сознания, свободной воли и секретных мотивов.

Давайте попробуем отделить мух от котлет.

В науке искусственным интеллектом называют системы, предназначенные для решения интеллектуальных задач.

В свою очередь, интеллектуальная задача - это задача, которую люди решают при помощи собственного интеллекта. Заметим, что в данном случае специалисты сознательно уходят от определения понятия «интеллект», поскольку до появления систем ИИ единственным примером интеллекта был интеллект человеческий, и определить понятие интеллекта на основе единственного примера - то же самое, что пытаться провести прямую через единственную точку. Таких прямых может оказаться сколько угодно много, а значит, спор о понятии интеллекта можно было бы вести столетиями.

«сильный» и «слабый» искусственный интеллект

Системы ИИ делятся на две большие группы.

Прикладной искусственный интеллект (также используют термин «слабый ИИ» или «узкий ИИ», в английской традиции - weak/applied/narrow AI) - это ИИ, предназначенный для решения какой-либо одной интеллектуальной задачи или их небольшого множества. К этому классу относятся системы для игры в шахматы, го, распознавания образов, речи, принятия решения о выдаче или невыдаче банковского кредита и так далее.

В противоположность прикладному ИИ вводят понятие универсального искусственного интеллекта (также «сильный ИИ», по-английски - strong AI/Artificial General Intelligence) - то есть, гипотетического (пока что) ИИ, способного решать любые интеллектуальные задачи.

Часто люди, не зная терминологии, отождествляют ИИ с сильным ИИ, из-за этого и возникают суждения в духе «ИИ не существует».

Сильного ИИ действительно пока не существует. Практически все успехи, которые мы наблюдаем в последнее десятилетие в области ИИ, - это успехи прикладных систем. Эти успехи нельзя недооценивать, так как прикладные системы в ряде случаев способны решать интеллектуальные задачи лучше, чем это делает универсальный человеческий интеллект.

Я думаю, вы заметили, что понятие ИИ - довольно широкое. Скажем, устный счёт - это тоже интеллектуальная задача, и это значит, что любая счётная машина будет считаться системой ИИ. А как насчёт счётов? Абака ? Антикитерского механизма ? Действительно, всё это формально хотя и примитивные, но системы ИИ. Однако обычно, называя какую-то систему системой ИИ, мы тем самым подчёркиваем сложность решаемой этой системой задачи.

Совершенно очевидно, что разделение интеллектуальных задач на простые и сложные - весьма искусственное, и наши представления о сложности тех или иных задач постепенно меняются. Механическая счётная машина была чудом техники в XVII веке, но сегодня людей, с детства сталкивающихся с куда более сложными механизмами, она уже не способна впечатлить. Когда игра машин в го или автомобильные автопилоты уже перестанут удивлять публику, наверняка найдутся люди, которые будут морщиться из-за того, что кто-то будет относить такие системы к ИИ.

«Роботы-отличники»: о способностях ИИ к обучению

Ещё одно забавное заблуждение - всенепременное наличие у систем ИИ способности к самообучению. С одной стороны, это совсем не обязательное свойство систем ИИ: есть множество удивительных систем, не способных самообучаться, но, тем не менее, решающих многие задачи лучше человеческого мозга. С другой стороны, некоторые люди просто не знают того, что самообучение - свойство, которые многие системы ИИ обрели ещё более полусотни лет назад.

Когда в 1999 году я писал свою первую шахматную программу, самообучение уже было совершенно общим местом в этой области - программы умели запоминать опасные позиции, подстраивать под себя дебютные варианты, регулировать стиль игры, подстраиваясь под соперника. Конечно, тем программам было ещё очень далеко до Alpha Zero . Тем не менее, даже системы, обучающиеся поведению на основе взаимодействия с другими системами в ходе экспериментов по так называемому «обучению с подкреплением», уже существовали. Однако по необъяснимой причине некоторые люди до сих пор думают, что способность к самообучению - это прерогатива человеческого интеллекта.

Машинное обучение, целая научная дисциплина, занимается процессами обучения машин решению тех или иных задач.

Существует два больших полюса машинного обучения - обучение с учителем и обучение без учителя.

При обучении с учителем у машины уже есть некоторое количество условно правильных решений для некоторого набора случаев. Задача обучения в таком случае заключается в том, чтобы научить машину на основе имеющихся примеров принимать правильные решения в других, неизвестных ситуациях.

Другая крайность - обучение без учителя . То есть машину ставят в ситуацию, когда правильные решения неизвестны, имеются только данные в сыром, неразмеченном виде. Оказывается, и в таких случаях можно добиться некоторого успеха. Например, можно научить машину выявлению семантических отношений между словами языка на основе анализа очень большого набора текстов.

Одна из разновидностей обучения с учителем - это обучение с подкреплением (reinforcement learning). Идея заключается в том, что система ИИ выступает в роли агента, помещённого в некоторую модельную среду, в которой она может взаимодействовать с другими агентами, например, с собственными копиями, и получать от среды некоторую обратную связь через функцию вознаграждения. Например, шахматная программа, которая играет сама с собой, постепенно подстраивая свои параметры и тем самым постепенно усиливая собственную игру.

Обучение с подкреплением - довольно широкая область, в ней применяют множество интересных методов, начиная от эволюционных алгоритмов и заканчивая байесовской оптимизацией . Последние достижения в области ИИ для игр как раз связаны с усилением ИИ в ходе обучения с подкреплением.

Риски развития технологий: стоит ли бояться «Судного дня»?

Я не отношусь к числу ИИ-алармистов, и в этом смысле я отнюдь не одинок. Например, создатель стэнфордского курса по машинному обучению Эндрю Ын сравнивает проблему опасности ИИ с проблемой перенаселения Марса.

Действительно, в будущем вполне вероятно, что люди колонизируют Марс. Также вероятно, что рано или поздно на Марсе может возникнуть проблема перенаселения, но не совсем понятно, почему мы должны заниматься этой проблемой уже сейчас? Согласны с Ыном и Ян ЛеКун - создатель свёрточных нейронный сетей, и его шеф Марк Цукерберг, и Йошуа Беньо - человек, во многом благодаря исследованиям которого современные нейронные сети способны решать сложные задачи в области обработки текстов.

Чтобы изложить мои взгляды на эту проблему, потребуется, вероятно, несколько часов, поэтому остановлюсь только на основных тезисах.

1. НЕЛЬЗЯ ОГРАНИЧИВАТЬ РАЗВИТИЕ ИИ

Алармисты рассматривают риски, связанные с потенциальным разрушительным воздействием ИИ, при этом игнорируя риски, связанные с попыткой ограничить или даже остановить прогресс в этой области. Технологическое могущество человечества возрастает чрезвычайно быстрыми темпами, что приводит к эффекту, который я называю «удешевлением апокалипсиса».

150 лет назад при всём желании человечество не могло нанести невосполнимого урона ни биосфере, ни себе как виду. Для реализации катастрофического сценария 50 лет назад необходимо было бы сконцентрировать всю технологическую мощь ядерных держав. Завтра для воплощения в жизнь глобальной техногенной катастрофы может хватить и небольшой горстки фанатиков.

Наша технологическая мощь растёт куда быстрее, чем способность человеческого интеллекта эту мощь контролировать.

Если на смену человеческому интеллекту с его предрассудками, агрессией, заблуждениями и ограниченностью не придёт система, способная принимать более взвешенные решения (будь то ИИ или, что я считаю более вероятным, технологически улучшенный и объединённый с машинами в единую систему человеческий интеллект), нас может ждать глобальная катастрофа.

2. создание сверхинтеллекта принципиально невозможно

Существует идея о том, что ИИ будущего всенепременно будет сверхинтеллектом, превосходящим людей даже сильнее, чем люди превосходят муравьёв. Боюсь в данном случае разочаровать и технологических оптимистов - наша Вселенная содержит целый ряд фундаментальных физических ограничений, которые, по всей видимости, сделают создание сверхинтеллекта невозможным.

Например, скорость передачи сигнала ограничена скоростью света, а на планковских масштабах появляется неопределённость Гейзенберга. Отсюда вытекает первый фундаментальный предел - предел Бремерманна, вводящий ограничения на максимальную скорость вычислений для автономной системы заданной массы m.

Другой предел связан с принципом Ландауэра , в соответствии с которым существует минимальное количество теплоты, выделяемое при обработке 1 бита информации. Слишком быстрые вычисления вызовут недопустимый разогрев и разрушение системы. В действительности, современные процессоры от лимита Ландауэра отделяет менее чем тысячекратное отставание. Казалось бы, 1000 - это довольно много, однако ещё одна проблема заключается в том, что многие интеллектуальные задачи относятся к классу сложности EXPTIME. Это означает, что время, необходимое для их решения, является экспоненциальной функцией от размерности задачи. Ускорение системы в несколько раз даёт лишь константный прирост «интеллекта».

В общем, есть очень серьёзные основания полагать, что сверхинтеллектуального сильного ИИ не получится, хотя, конечно, уровень человеческого интеллекта вполне может быть превзойдён. Насколько это опасно? Скорее всего, не очень.

Представьте себе, что вы внезапно начали думать в 100 раз быстрее остальных людей. Значит ли это, что вы легко будете способны уговорить любого прохожего отдать вам свой кошелёк?

3. мы беспокоимся совсем не о том

К сожалению, в результате спекуляций алармистов на страхах публики, воспитанной на «Терминаторе» и знаменитом HAL 9000 Кларка и Кубрика, происходит смещение акцентов в сфере безопасности ИИ в сторону анализа маловероятных, но эффектных сценариев. При этом реальные опасности ускользают из виду.

Любая достаточно сложная технология, претендующая на то, чтобы занять важное место в нашем технологическом ландшафте, безусловно приносит с собой специфические риски. Множество жизней было погублено паровыми машинами - на производстве, на транспорте и так далее - прежде чем были выработаны эффективные правила и меры по обеспечению безопасности.

Если говорить о прогрессе в области прикладного ИИ, можно обратить внимание на связанную с ним проблему так называемого «Цифрового тайного суда» . Всё больше и больше прикладных систем ИИ принимает решения по вопросам, затрагивающим жизнь и здоровье людей. Сюда относятся и медицинские диагностические системы, и, например, системы, принимающие в банках решения о выдаче или невыдаче кредита клиенту.

В то же время структура используемых моделей, наборы используемых факторов и другие детали процедуры принятия решения скрыты коммерческой тайной от человека, чья судьба находится на кону.

Используемые модели могут основывать свои решения на мнениях учителей-экспертов, допускавших систематические ошибки или имевших те или иные предрассудки - расовые, гендерные.

ИИ, обученный на решениях таких экспертов, будет добросовестно воспроизводить эти предрассудки в своих решениях. В конце концов эти модели могут содержать в себе специфические дефекты.

Этими проблемами сейчас мало кто занимается, поскольку, конечно, SkyNet, развязывающий ядерную войну, это, безусловно, куда более зрелищно.

Нейросети как «горячий тренд»

С одной стороны, нейронные сети - это одна из самых старинных моделей, применяющихся для создания систем ИИ. Появившиеся изначально в результате применения бионического подхода , они довольно быстро убежали от своих биологических прототипов. Исключением тут являются только импульсные нейронные сети (впрочем, пока не нашедшие широкого применения в индустрии).

Прогресс последних десятилетий связан с развитием технологий глубокого обучения - подхода, при котором нейронные сети собирают из большого количество слоёв, каждый из которых построен на основе определённых регулярных паттернов.

Помимо создания новых нейросетевых моделей важный прогресс был также достигнут в области технологий обучения. Сегодня нейронные сети учат уже не при помощи центральных процессоров компьютеров, а с использованием специализированных процессоров, способных быстро производить матричные и тензорные вычисления. Наиболее распространённый на сегодняшний день вид таких устройств - видеокарты. Впрочем, активно ведётся разработка ещё более специализированных устройств для обучения нейросетей.

В целом, безусловно, нейронные сети на сегодняшний день, - это одна из основных технологий в области машинного обучения, которой мы обязаны решению многих задач, ранее решавшихся неудовлетворительно. С другой стороны, конечно, нужно понимать, что нейронные сети не являются панацеей. Для некоторых задач они - далеко не самый эффективный инструмент.

Так насколько умны нынешние роботы на самом деле?

Всё познаётся в сравнении. На фоне технологий 2000-го года нынешние достижения выглядят настоящим чудом. Всегда найдутся люди, любящие побрюзжать. 5 лет назад они вовсю трындели о том, что машины никогда не выиграют у людей в го (ну или, по крайней мере, выиграют очень нескоро). Говорили о том, что машина никогда не сможет нарисовать с нуля картину, в то время как сегодня люди практически неспособны отличать картины, созданные машинами, от картин неизвестных им художников. В конце прошлого года машины научились синтезировать речь, практически неотличимую от человеческой, а в последние годы от музыки, создаваемой машинами, не вянут уши.

Посмотрим, что будет завтра. Я смотрю на эти области применения ИИ с большим оптимизмом.

Перспективные направления: где начать погружение в сферу ИИ?

Я бы посоветовал постараться на хорошем уровне освоить один из популярных нейросетевых фреймворков и один из популярных в области машинного обучения языков программирования (наиболее популярна на сегодняшний день связка TensorFlow + Python).

Овладев этими инструментами и имея в идеале крепкую базу в области математической статистики и теории вероятностей, следует направить свои усилия в ту сферу, которая будет наиболее интересна лично вам.

Интерес к предмету работы - один из самых важных ваших помощников.

Потребность в специалистах по машинному обучению существует в самых разных областях - в медицине, в банковском деле, в науке, на производстве, поэтому сегодня хорошему специалисту предоставлен как никогда широкий выбор. Потенциальные преимущества любой из этих отраслей мне представляются несущественными по сравнению с тем, что работа будет приносить вам удовольствие.