Искусственный разум и новая эра человечества - Эрик Шмидт
Шрифт:
Интервал:
На уровне отдельных стран предстоит решить сложные дилеммы. Большая часть нашей социальной и политической жизни сегодня проходит на сетевых платформах. Демократические страны особенно сильно зависят от этих информационных пространств, открытых для дебатов и дискуссий, формирующих общественное мнение и придающих легитимность правительствам. Кто или какие институты должны определять роль ИИ? Кто должен регулировать ИИ? Какую роль должны играть люди, использующие ИИ? А корпорации, которые производят ИИ? Правительства стран, которые применяют ИИ? В рамках решения этих вопросов ИИ во многих случаях должен быть аудируемым – то есть выводы, которые он делает, должны быть проверяемы. Выработка ответов на поставленные вопросы будет зависеть от разработки принципов восприятия и принятия решений ИИ. У самостоятельных ИИ нет морали, воли и чувства вины. Аналогичные вопросы придется решать для большинства других аспектов общества, от транспорта до финансовых рынков и медицины.
Рассмотрим влияние ИИ на социальные сети. Это молодые онлайн-сервисы, но они все чаще отражают жизненно важные аспекты нашей общественной жизни. Власть, которой пользуются Twitter и Facebook, когда они продвигают, ограничивают или запрещают тот или иной контент или тех или иных авторов, показывает, что эти сетевые платформы заняли в нашем обществе центральное место. Мы уже не можем использовать сетевые платформы без ИИ, но одностороннее, непрозрачное продвижение контента и отдельных людей – это тоже результат работы ИИ. Сможем ли мы сохранить свою самостоятельность по мере того, как наша социальная и политическая жизнь все больше перемещается в области, курируемые ИИ, в которых мы не можем ориентироваться без этого курирования?
Используя ИИ для навигации по информационным массивам, мы сталкиваемся с проблемой искажения информации – когда ИИ создает для нас ту картину мира, которую мы инстинктивно предпочитаем. Наши когнитивные предубеждения порождают «эхо», которое усиливается благодаря ИИ – и в конечном счете создает дезинформацию и способствует ее распространению. Для контроля дезинформации и борьбы с ней также используется ИИ. Как мы видим, применение ИИ может привести – и уже приводит – к непреднамеренным печальным последствиям. Операторы социальных сетей не стремятся к продвижению экстремистской информации и разжиганию политической ненависти – но совершенно очевидно, что их работа также не привела и к усиленной пропаганде просвещения. При этом попытки направить ИИ соцсетей на формирование взаимопонимания или распространение точной информации также вызывают протесты, поскольку воспринимаются как форма контроля со стороны алгоритмов.
Проложить маршрут между этими полюсами – важнейшая задача для всех свободных стран нашего времени. Но какова же должна быть природа наших отношений с ИИ? Как нам поступить – изолировать его, наделить его полномочиями или сделать нашим партнером? Не подлежит сомнению, что распространение определенной информации – особенно дезинформации – может нанести ущерб обществу, разобщить его и разжечь вражду. Определенные ограничения необходимы – но наша сегодняшняя готовность осуждать, пресекать и уничтожать «вредную» информацию тоже должна заставить задуматься. В свободных странах корпорации не должны монопольно решать, какая информация является вредной и что такое дезинформация. Если эта функция будет доверена правительственной комиссии или агентству, то этот орган должен действовать в соответствии с определенными публичными стандартами, а используемые им процессы должны поддаваться контролю. Если это будет делать специальный ИИ, то постановка задач, обучение и работа этого ИИ должны быть ясны, аудируемы и доступны для обжалования.
Конечно, у разных стран разные вкусы и установки. Некоторые страны придают особое значение свободе слова, и они будут ограничивать роль ИИ в модерации контента в соответствии со сформированным у них пониманием индивидуального самовыражения. Каждая страна выберет то, что ценно для нее, – и это приведет к разногласиям с операторами транснациональных сетевых платформ. ИИ учится у нас даже в процессе разработки, поэтому будет иметь значение не только выбор каждой страны, но и ее отношения с ИИ, ее восприятие ИИ и модели поведения, которым ИИ будет учиться у своих наставников-людей. Но поиск фактов и истины не должен приводить к тому, чтобы общество воспринимало жизнь через скрытые неконтролируемые фильтры. Важная особенность человека – спонтанное восприятие реальности во всей ее противоречивости и сложности, даже если это приводит к снижению эффективности и ошибкам.
Учитывая ставки, существует огромное количество вопросов, на которые можно ответить только на глобальном уровне. Как регулировать сетевые платформы, не провоцируя напряженность между странами, обеспокоенными возможными последствиями для безопасности? Могут ли сетевые платформы разрушить традиционные концепции государственного суверенитета наподобие того, как в XX в. это сделали такие институты, как ЕС? Не навяжут ли эти институты всему миру такую полярность, какой не существовало со времен распада Советского Союза? Как на это отреагируют малые государства? Может ли такая попытка иметь надежду на успех?
По мере того как возможности ИИ будут расти, все более важно будет определить роль человечества в партнерстве с ИИ. Можно представить себе мир, в котором люди будут все больше подчиняться ИИ – а масштабы вопросов, решаемых ИИ, будут расти. Но если противник успешно развертывает ИИ – можно ли ответственно решить не развертывать свой собственный ИИ, даже если последствия точно не известны? И разумно ли отказаться от ИИ, который превосходно предсказывает наиболее эффективный курс действий, если этот курс повлечет за собой огромные жертвы? Как политик может удостовериться в том, что эти жертвы необходимы для победы? А если такая уверенность есть – захочет ли политик отказаться от этих жертв?
Человеку всегда сопутствовало его несовершенство. Даже лучшие лидеры принимают решения, не имея полной информации или в ситуации сложного выбора. Политики бывают пристрастны, они могут действовать на основе ошибочных предположений, они могут быть неспособны глубоко мыслить или задавать важные вопросы. Иногда они действуют под влиянием чистых эмоций. Их видение мира может искажать болезнь или идеология. Какие бы стратегии ни разрабатывались для организации партнерства человека и ИИ, это необходимо учитывать. ИИ может показывать в некоторых областях сверхчеловеческие способности, но его придется приспосабливать и к несовершенному человеческому контексту.
Дилемма сферы безопасности заключается в том, что возможность внедрения ИИ и кибероружия одной стороной может побудить противника, не имеющего такой возможности, атаковать первым. Это непохоже на ту ситуацию, которую создает ядерное оружие. Если ядерное оружие находится в международных рамках доктрин безопасности и концепций контроля над вооружениями, разработанных и дорабатываемых на протяжении десятилетий правительствами, учеными, стратегами и специалистами по этике, то ИИ и кибероружие не ограничены подобными рамками, а те рамки, которые существуют, правительства не готовы обсуждать. Страны – и, возможно, технологические компании – должны договориться о том, что будет допустимо и как будут сосуществовать различные силы, вооруженные ИИ. США и их союзники столкнутся с дополнительными вопросами, важнейшим из которых будет влияние ИИ на процветание демократических обществ.
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!