Искусственный интеллект – надежды и опасения - Джон Брокман
Шрифт:
Интервал:
Мы живем в уникальный исторический период, когда доступность огромного объема данных о человеческом поведении и достижения в машинном обучении позволяют решать сложные социальные проблемы посредством алгоритмического принятия решений. Возможности для человеко-искусственной экологии оказывать позитивное социальное воздействие посредством более справедливых и более прозрачных решений очевидны. Но имеются и риски «тирании алгоритмов», когда миром начнут заправлять никем не выбранные эксперты по обработке данных. Выбор, который мы делаем сегодня, даже более важен, быть может, нежели тот, который стоял перед нами в 1950-х годах, когда создавались ИИ и кибернетика. Проблемы выглядят похожими, но это обманчивое впечатление. Мы ушли далеко вперед, масштабы заметно увеличились. Речь уже не о роботизированном ИИ против людей, речь об ИИ, управляющем экологиями.
* * *
Как можно создать хорошую человеко-искусственную экосистему, которая будет не сугубо машинным обществом, а киберкультурой, в рамках которой найдется место для людей, – так сказать, культуру с человеческим лицом? Мы не желаем довольствоваться малым – например, рассуждать только о роботах и беспилотных автомобилях. Нет, нам нужна глобальная экология. Мы думаем с размахом «Скайнет». Но как сделать нечто в духе «Скайнет» с человеческими ресурсами?
Первый вопрос, который напрашивается: какая магия заставляет работать нынешний ИИ? В чем мы ошибаемся и в чем правы?
Хорошо то, что нынешний ИИ обладает так называемой функцией передачи ответственности. Это позволяет брать «тупые нейроны» – малые линейные функции – и выяснять в контексте большой сети, кто из них работает по-настоящему; эти «работяги» стимулируются. Мы словно берем случайную группу коммутаторов, подключенных друг к другу в сети, и наделяем их разумом через обратную связь о результатах деятельности. Звучит просто, но в основе этой процедуры лежат сложные вычисления. Вот магия, которая заставляет работать нынешний ИИ.
Скверно же то, что, поскольку эти крохотные нейроны и вправду глупы, сведения и опыт, которые они усваивают, не слишком хорошо обобщаются. Если ИИ видит что-то, чего не видел раньше, или если мир вокруг немного меняется, ИИ с немалой вероятностью допустит какую-нибудь нелепую ошибку. Он совершенно не умеет учитывать контекст. В некотором смысле это настолько далеко от первоначального представления Норберта Винера о кибернетике, насколько вообще возможно, потому что опыт не контекстуализируется; перед нами юный idiot savant [151].
Но вообразим, что мы устранили эти ограничения. Допустим, вместо использования тупых нейронов мы взяли нейроны, в которые заложено знание о реальном мире. Возможно, вместо линейных нейронов мы использовали нейроны, являющиеся функциями в физике, а затем попытались согласовать физические данные. Или, может быть, мы вложили в них обилие знаний о людях и человеческих способах взаимодействия друг с другом, то есть статистику и характеристики людей.
Когда мы добавляем эти базовые знания и применяем функцию передачи ответственности, возможно опереться на данные наблюдений и использовать указанную функцию для стимулирования тех, которые обеспечивают правильные ответы. В результате ИИ начнет действовать эффективно и научится обобщать. Например, при решении физических задач часто требуется всего несколько «шумных» точек данных для получения внятного описания какого-то явления, поскольку мы заложили в систему знания о том, как работает физика. Налицо резкий контраст с «обычным» ИИ, которому нужны миллионы обучающих примеров и который чрезвычайно чувствителен к шуму. Добавив соответствующие базовые знания, мы получаем развитый интеллект.
Как и в случае с физическими системами, если мы создаем нейроны, наделенные массой знаний об умении людей учиться друг у друга, то можно выявлять человеческие пороки и причуды и предсказывать тенденции поведения человека, причем поразительно точно и эффективно. Эта «социальная физика» работает потому, что поведение человека определяется как шаблонами нашей культуры, так и рациональным индивидуальным мышлением. Эти модели подлежат математическому описанию и могут быть использованы для точных прогнозов.
Именно концепция передачи ответственности, стимулирующей укрепление связей между нейронами, которые лучше прочих справляются со своим делом, составляет ядро современных исследований в области ИИ. Если сделать эти крошечные нейроны умнее, сам ИИ тоже поумнеет. Но что произойдет, если заменить нейроны людьми? Люди обладают множеством возможностей. Им многое известно о мире вокруг, они способны воспринимать мир широко, осознанно, чисто по-человечески. Что случится, возникни у нас сеть людей, где возможно укреплять полезные связи и минимизировать те, от которых нет пользы?
Очень похоже на некое общество или компанию, правда? Мы все живем в человеческой социальной сети. Мы укрепляем связи, делая то, что идет, как кажется, на пользу другим, и стараемся избегать поступков, которые осуждаются. Культура есть результат работы такого вот человеческого ИИ применительно к решению человеческих задач; это процесс построения социальных структур через укрепление полезных и уничтожение бесполезных связей. Едва становится понятным, что можно взять эту общую структуру ИИ и создать человеческий ИИ, возникает вопрос: как правильно это сделать? Безопасно ли это? Или совершенно безумно?
Мы с моими учениками изучаем человеческие способы принятия решений по гигантским базам финансовых данных, деловых решений и многих других разновидностей решений. Мы обнаружили, что люди часто принимают решения, как бы имитируя алгоритмы передачи ответственности ИИ и тем самым делают умнее сообщество в целом. Особенно любопытно в указанной работе то, что она затрагивает классическую проблему эволюции, известную как проблема выбора группы. Суть этой проблемы в следующем: как выбирать культуру в эволюции, когда воспроизводят себя именно индивиды? Здесь нужно что-то, позволяющее отбирать лучшие культуры и лучшие группы – а также лучших индивидов, поскольку это они передают гены.
Когда формулируешь задачу таким образом и берешься за математическую литературу, то обнаруживаешь, что имеется единственный общепризнанный способ это сделать. Речь о «распределенном сэмплировании Томпсона», математическом алгоритме, что используется при выборе из совокупности возможных действий с неизвестным результатом такого, которое максимизирует ожидаемое вознаграждение. Ключевым моментом выступает социальная выборка, способ объединения доказательств, исследования и эксплуатации одновременно. Это нетипичный подход, уникальный тем, что он может быть лучшей стратегией для отдельного человека и для группы в одно и то же время. Если отталкиваться от группы, которая затем либо уничтожается, либо усиливается, то мы при этом также отбираем подходящих индивидов. Если же отталкиваться от индивидов, каждый из которых делает то, что хорошо лично для него или для нее, то этот выбор автоматически становится наилучшим для группы. Налицо удивительное сочетание личного интереса и пользы, оно дает реальное понимание того, как культура «вписывается» в естественный отбор.
Социальная выборка, если совсем упрощенно, сводится к изучению действий окружающих, таких же как мы, выявлению наиболее популярных шагов и подражанию этим действиям, если они нас привлекают. Распространению идеи способствует
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!