📚 Hub Books: Онлайн-чтение книгРазная литератураСоздатели искусственного гения. О бунтарях, которые наделили интеллектом Google, Facebook и весь мир - Кейд Метц

Создатели искусственного гения. О бунтарях, которые наделили интеллектом Google, Facebook и весь мир - Кейд Метц

Шрифт:

-
+

Интервал:

-
+
1 ... 57 58 59 60 61 62 63 64 65 ... 97
Перейти на страницу:
собственным характером. «Технология развивалась стремительно, – говорит Филлип Изола, профессор Массачусетского технологического института, который участвовал в разработке этих методов. – Она очень быстро прошла путь от “Что ж, это действительно интересная академическая задача, но это невозможно использовать для создания фальшивых новостей, ведь получаются лишь маленькие размытые пятна” до “Ого, вы действительно можете создавать фотореалистичные лица”».

Спустя несколько дней после того, как Nvidia представила технологию, и за несколько минут до начала выступления Яна Гудфеллоу на небольшой конференции432 в Бостоне, кто-то из репортеров попросил его поделиться своим мнением о происходящем. Гудфеллоу признал, что любой человек433 уже может создавать фальшивые изображения с помощью Photoshop, но он также сказал, что задача становится все проще. «Мы просто ускоряем процесс, который и так уже возможен»434, – заявил он. Одетый в черную рубашку и синие джинсы, с эспаньолкой и челкой, он сочетал в своем облике и манере разговора образ ботана и одновременно «крутизны». По мере того, как эти методы будут совершенствоваться, объяснил он, они положат конец эпохе435, когда фотографии и видео были доказательством того, что что-то действительно имело место. «В историческом разрезе возможность полагаться на видеозаписи как на свидетельство того, что что-то действительно произошло, надо признать мимолетной удачей436, – сказал он. – В прошлом нам приходилось много размышлять над тем, кто что сказал и почему он так сказал и кому в каких вопросах можно доверять. И теперь мы, кажется, возвращаемся к тем временам». Но это возращение будет трудным437. «К сожалению, в наши дни люди разучились критически мыслить438. В вопросе о том, кто заслуживает доверия, а кто нет, мы, как правило, руководствуемся трайбализмом». Наверняка нас ждет тяжелый переходный период439, период адаптации. «Есть много других направлений, где искусственный интеллект открывает двери440, которые мы никогда раньше не открывали. И мы действительно не знаем, что находится по ту сторону, – сказал он. – Но в данном случае складывается впечатление, что ИИ, наоборот, закрывает некоторые из тех дверей, которые наше поколение привыкло держать открытыми».

Этот период адаптации начался почти мгновенно – когда некто, называющий себя Deepfakes441, начал вставлять лица знаменитостей в порнофильмы и выкладывать их в интернет. После того как этот анонимный шутник распространил программное приложение, которое позволяло делать такие фокусы, подобные видео начали массово появляться на онлайновых форумах, в социальных сетях и на видеосайтах, таких как YouTube. Кто-то использовал лицо Мишель Обамы, кто-то проделывал эти фокусы с Николасом Кейджем. Такие сервисы, как PornHub, Reddit и Twitter, вскоре запретили подобную практику442, но не раньше, чем идея просочилась в мейнстримные СМИ. Термин deepfake («дипфейк») вошел в лексикон, став обозначением для любого видео, созданного с использованием ИИ и распространяемого онлайн.

Сам будучи активным разработчиком искусственного интеллекта, Ян Гудфеллоу начал разделять растущее в обществе беспокойство по поводу слишком быстрого развития этой технологии, и речь шла о более приземленных, непосредственных опасностях, нежели потенциальная глобальная угроза со стороны сверхразума, о которой предостерегает Илон Маск. Генеративно-состязательные сети были только частью проблемы. Когда Гудфеллоу только перешел в Google, он начал изучать особый метод работы с нейронными сетями443, называемый «состязательными атаками», и показал, что нейронную сеть можно обмануть, заставив ее видеть или слышать то, чего на самом деле нет. Просто меняя несколько пикселей на фотографии слона444 – поправка, совершенно незаметная для человеческого глаза, – он мог обмануть нейронную сеть, заставляя ее думать, что этот слон на самом деле является автомобилем. Когда нейронная сеть обучается на достаточно большом множестве образцов, такие мелкие, совершенно незаметные искажения могут вкрадываться в процесс обучения445 – и об этом никто не догадывается. Этот феномен особенно тревожил в той связи, что эти алгоритмы используются при разработке беспилотных автомобилей, помогая им распознавать пешеходов, транспортные средства, уличные знаки и другие объекты на дороге. Вскоре группа исследователей показала446, что, прикрепив несколько бумажных наклеек на знак «Стоп», они могут обмануть беспилотный автомобиль, заставив его думать, что никакого знака там нет. Гудфеллоу предупредил, что то же самое явление447 может подорвать доверие также и к другим практическим приложениям этой идеи. Финансовые фирмы, сказал он448, могли бы применять этот метод к автоматическим торговым системам, совершая несколько сделок, предназначенных для того, чтобы обманом побудить своих конкурентов сбросить акции по сниженной цене, а затем начать снова скупать акции, наращивая их цену, прежде чем они рухнут до своей истинной стоимости.

Весной 2016 года Гудфеллоу покинул компанию Google, не проработав там и двух лет, чтобы продолжить свои исследования в новой лаборатории OpenAI, куда его привлекла заявленная ими миссия: создавать искусственный интеллект на этических принципах и открыто делиться своими открытиями и разработками с внешним миром. Его работа, включающая как генеративно-состязательные сети, так и состязательные атаки, идеально соответствовала этой миссии. Он хотел показать, какими могут быть последствия этих явлений и как мир мог бы с этим справиться. Кроме того, как позже стало известно из налоговой документации лаборатории, он получил 800 000 долларов449 только за последние девять месяцев года (включая бонус за подписание контракта в размере 600 000 долларов). Но проработал он в OpenAI немногим больше девяти месяцев. В следующем году он вернулся обратно в Google, когда Джефф Дин создал новую группу внутри Google Brain, посвященную вопросам безопасности ИИ. Учитывая высокий авторитет Гудфеллоу в научном сообществе и в технологической индустрии в целом, этот шаг стал болезненным ударом для OpenAI. Эта история также показала, что бесконтрольное развитие искусственного интеллекта волновало уже не только одну лабораторию.

Глава 14

Высокомерие. «Когда я произносил свою речь, я знал, что китайцы наступают нам на пятки»

Весной 2017 года, через год после матча в Корее, AlphaGo сыграла свой следующий матч в Учжэне, древнем городе на воде в восьмидесяти милях к югу от Шанхая вдоль реки Янцзы. Живописные пруды с лилиями, каменные мосты и узкие лодочные каналы, змеящиеся между рядами небольших деревянных домов, увенчанных черепичными крышами – вот как выглядел городок Учжэнь столетия назад, и почти так же он мог бы выглядеть сейчас – если бы не гигантский конференц-центр площадью в почти двадцать тысяч квадратных метров450, раскинувшийся среди рисовых полей. По своей архитектуре он такой же, как и деревянные дома, разбросанные по всему Учжэню. На его крышу ушло более 2,5 миллиарда плиток черепицы451. Он был построен для проведения Всемирной интернет-конференции452, ежегодного собрания, где китайские власти трубят о развитии новых

1 ... 57 58 59 60 61 62 63 64 65 ... 97
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?