Архитекторы интеллекта. Вся правда об искусственном интеллекте от его создателей - Мартин Форд
Шрифт:
Интервал:
Но на самом деле мы можем исчезнуть из-за своих разрушительных действий или внешних факторов. Поэтому, на мой взгляд, совершенствование человека как вида нельзя рассматривать как предмет элитного потребления. Тут нет вопроса, каковы плюсы и минусы. Я уверен, что, если мы этого не сделаем, нам грозит вымирание. Разумеется, это не означает, что нужно кидаться головой в омут или принять неравенство как должное.
Просто в этом вопросе следует исходить из принципа абсолютной необходимости. Учитывать интересы каждого члена общества нужно в процессе реализации технологии. Нужно понимать, как построить систему, застрахованную от злоупотреблений. Говорят, что интернет разрабатывался с учетом того, что далеко не у всех пользователей будут добрые намерения. Сейчас эти вещи не обсуждаются. Обсуждение прекращается на том, что совершенствование считают роскошью. Но это одна из причин наших проблем как вида.
М. Ф.: Фактически вы считаете, что нам придется принять идею еще более радикального неравенства. Потому что сначала потребуется группа людей, которые займутся стоящими перед человечеством проблемами, а уже после того, как эти проблемы будут решены, можно задуматься о том, как сделать, чтобы система работала для всех. Я вас правильно понял?
Б. Дж.: Нет. Я предлагаю развивать технологию. Люди должны модернизировать себя, чтобы оставаться востребованными после появления ИИ, а не исчезнуть как вид. У нас уже есть оружие, позволяющее уничтожить человечество, и в течение десятилетий мы были на грани уничтожения.
Представьте, как люди, живущие в 2050 г., говорят: «Невозможно поверить, что в 2017-м считалось нормальным хранить оружие, позволяющее уничтожить всю планету». Мы сейчас застряли в существующей концепции реальности и не можем вырваться из нее, чтобы сформировать будущее, основанное на гармонии, а не на конкуренции, в котором ресурсов хватит на всех и каждый будет заботиться о процветании общества.
Мы же отталкиваемся от того, что люди всегда будут стремиться причинять друг другу вред. Чтобы преодолеть эти ограничения и наши когнитивные предрассудки, нужны улучшения. Я за то, чтобы улучшать всех одновременно. Конечно, такой подход усложняет процесс развития технологии, но по-другому тут никак.
М. Ф.: У меня возникает ощущение, что вы думаете о повышении не только интеллекта, но и морали. Считаете ли вы, что технологии сделают нас более этичными?
Б. Дж.: Мне в принципе не очень нравится термин «интеллект» применительно к моей концепции. Его обычно связывают с IQ, что, на мой взгляд, некорректно. Говоря о радикальном улучшении людей, я имею в виду все возможные сферы.
Если ИИ возьмет на себя большую часть повседневных задач, мозг человека освободится от вещей, которым он посвящает 80 % своих ресурсов. И у него появится время на задачи высшего порядка. Что мы тогда будем делать? Вдруг изучение физики и квантовой теории начнет восприниматься как такая же интересная и приятная задача, как просмотр телешоу? Что мы тогда сможем создать? И к чему придем?
Концепция, которую я предлагаю, сложна для понимания, потому что мозг убеждает нас, что мы уже понимаем все вокруг, и текущая реальность является единственно возможной. Гутенберг не мог представить все книги, которые будут изданы благодаря его изобретению.
Людям нужно смириться с ИИ и потихоньку готовить почву для будущих трансформаций.
М. Ф.: Как вы предлагаете бороться с последствиями введения вашей технологии, особенно в условиях демократии? Достаточно посмотреть на социальные сети, с которыми возникло множество проблем. Ведь речь идет о новом уровне социального взаимодействия.
Б. Дж.: Ничего неожиданного не будет. Люди вполне предсказуемо начнут использовать новые инструменты в собственных интересах. Для заработка, получения статуса, уважения и преимущества перед другими. Это было, есть и будет… если мы не займемся улучшением себя. Если не сможем выйти за собственные пределы и сформировать человечество 3.0 или 4.0. Проблема в том, что прямо сейчас у нас нет инструментов для подобных улучшений.
М. Ф.: Но то, что вы предлагаете, невозможно без регулирования со стороны. Потому что, скорее всего, многие не захотят повышать именно моральный уровень, если сочтут его невыгодным.
Б. Дж.: На мой взгляд, к этой проблеме нужно подходить иначе. В вашей формулировке вопроса подразумевается, что правительство – единственная группа, способная разрешить конфликт интересов. На самом деле это не так. Люди сами могут создавать сообщества для регулирования происходящего.
Во-вторых, вы утверждаете, что каждый человек имеет право сам выбирать, какой уровень морали и этики ему нужен. Но если оглянуться назад, мы увидим, что почти все биологические виды, существовавшие в течение четырех с лишним миллиардов лет, уже вымерли. Люди сейчас в трудном положении, и каждый должен это осознать.
Например, недавно вышли книги Factfulness: Ten reasons we’re wrong about the world, and Why things are better than you think («Фактологичность: десять причин, по которым мы ошибаемся насчет мира, и почему все лучше, чем кажется») Ханса Рослинга и The Better Angels of Our Nature: Why Violence Has Declined («Высшие ангелы нашей природы: почему насилие уменьшилось») Стивена Пинкера. В этих книгах утверждается, что по всем данным мир становится лучше, и этот процесс ускоряется. Но они не учитывают, что у людей никогда не было такой быстро развивающейся формы интеллекта, как ИИ. Не было таких разрушительных инструментов. Поэтому я не принимаю исторический детерминизм как доказательство развития человечества. Мы должны меняться.
Люди же продолжают действовать наобум. Зачастую мы обращаем внимание на то, что происходит вокруг, только после того, как наступит кризисная ситуация. Но невозможно двигаться вперед, ничего не планируя. Мы же, как вид, ничего не планируем. А уже пора задуматься, как сохранить то, что нам важно.
М. Ф.: Давайте поговорим об ИИ в целом. Используют ли его ваши компании?
Б. Дж.: Да, компании, в которые я инвестировал, используют ИИ и машинное обучение для продвижения научных открытий, чем бы они ни занимались – разработкой лекарств, поиском новых белков или созданием физических продуктов.
Недавно Генри Киссинджер написал в журнал The Atlantic открытое письмо, где высказался, что его пугает ИИ в программе AlphaGo, который за несколько дней не просто освоил игру, но и изобрел новые ходы. Реальность Киссинджера напоминает настольную игру, ведь он был политиком во время холодной войны, когда разыгрывалась шахматная партия между США и СССР. Я же только обрадовался тому, что ИИ показывает нам вещи, которых мы не видим. Но большинство людей верит страшным прогнозам и спешат ими поделиться.
М. Ф.: Илон Маск и Ник Бостром выражают обеспокоенность сценарием быстрого взлета и проблемой выравнивания. Они боятся, что ИИ может выйти из-под контроля. Но я слышал, что улучшение когнитивных способностей позволит нам лучше контролировать ИИ. Это действительно так?
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!