📚 Hub Books: Онлайн-чтение книгДомашняяЖизнь 3.0. Быть человеком в эпоху искусственного интеллекта - Макс Тегмарк

Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта - Макс Тегмарк

Шрифт:

-
+

Интервал:

-
+
1 ... 30 31 32 33 34 35 36 37 38 ... 110
Перейти на страницу:

Есть и другой тип вредоносных программ: они используют «уязвимости» не в программном обеспечении, а в людях. 5 мая 2000 года, словно бы в честь моего дня рождения, многие люди получили от знакомых и коллег письма с темой «ILOVEYOU», и те из пользователей Microsoft Windows, кто открыл вложенный в письмо файл «LOVE-LETTER-FOR-YOU.txt.vbs», неосторожно запустили скрипт, повредивший их компьютеры и повторно разославший то же самое сообщение всем, кто только был в их адресных книгах. Этот червь, созданный двумя молодыми филиппинскими программистами, тоже заразил около 10 % интернета, как и червь Морриса. Но из-за того что интернет к этому времени стал намного больше, вызванная им инфекция стала величайшей инфекцией на тот момент: от нее пострадало свыше 50 миллионов компьютеров, а общий убыток составил более 5 миллиардов долларов. Вам, вероятно, известна печальная правда, что интернет по-прежнему остается зараженным бесчисленными разновидностями инфекций, которые специалистами по кибер-безопасности классифицируются как черви, трояны, вирусы и иные устрашающе звучащие категории, а их деятельность варьируется от засорения вашего компьютера забавными безвредными сообщениями до стирания нужных файлов, кражи личной информации, шпионажа и «зомбирования» вашего компьютера для рассылки спама.

Вредоносная программа цепляется к любому компьютеру, к какому только может, но хакеры атакуют вполне конкретные цели — среди недавних жертв много громких имен: Target, TJ Maxx, Sony Pictures, сайт знакомств Эшли Мэдисон, cаудовская нефтяная компания Aramco и Национальный комитет Демократической партии США. Более того, чем дальше, тем выше ставки. В 2008 году хакеры украли 130 миллионов номеров кредитных карт и другую информацию о счетах пользователей платежной системы Heartland Payment, а в 2013 они украли больше трех миллиардов (!) учетных записей в системе электронной почты Yahoo! В 2014 году при взломе системы Управления кадровой службы правительства США была украдена информация о более чем 21 миллионе человек, включая, по некоторым данным, сведения о сверхсекретных сотрудниках и отпечатки пальцев тайных агентов.

Поэтому я поднимаю глаза к небу всякий раз, когда читаю о новейших системах безопасности, якобы обеспечивающих стопроцентную защиту от взлома. И тем не менее «стопроцентная защита от взлома» — это именно то, что нам необходимо для будущих систем искусственного интеллекта, прежде чем мы поставим их управлять, скажем, какими-то важными объектами инфраструктуры или системой вооружений, поэтому с ростом вовлеченности искусственного интеллекта в общественную жизнь непрерывно возрастает важность обеспечения компьютерной безопасности. Хотя очень часто причиной взлома оказывается элементарная человеческая доверчивость или неочевидная уязвимость недавно выпущенной программы, не менее часто несанкционированный вход на удаленный компьютер обеспечивает банальная ошибка, остававшаяся незамеченной неприлично долгое время. Ошибку «Heartbleed» не замечали с 2012 по 2014 год в одной из самых популярных библиотек программного обеспечения для безопасной связи между компьютерами, а ошибка «Bashdoor» оставалась в самой операционной системе всех работавших под Unix компьютеров с 1989 до 2014 года. Это означает, что средства для улучшения тестирования, валидации и контроля в системах искусственного интеллекта будут служить также и повышению безопасности.

К сожалению, лучшие системы искусственного интеллекта окажутся одинаково эффективны как в поиске новых уязвимостей, так и в проведении наиболее изощренных хакерских атак. Представьте себе, что в один прекрасный день вы получаете электронное письмо, образец необычно персонализированного «фишинга», как пример практически неотразимой попытки разгласить вашу персональную информацию. Письмо приходит с адреса близкого вам человека, и взломавший его искусственный интеллект необычайно искусно выдает себя за него, имитируя его стиль и наиболее характерные выражения, с которыми он мог познакомиться, проанализировав почту в его аутбоксе, в том числе и отправленные им вам сообщения, а также используя собранную о вас информацию из других источников. Вы бы не попались? А если бы фишинговое письмо пришло из кредитной компании, выдавшей вам кредитную карточку, а за ним последовал бы телефонный звонок, и приветливый человеческий голос в трубке никак не опознавался бы как сгенерированный искусственным интеллектом? Пока незаметно, чтобы в набирающем обороты соревновании хакеров и защитников компьютерной безопасности позиции последних были сильнее.

Законы

Мы, люди, — социальные животные, сумевшие подчинить себе другие виды животных и занять доминирующее положение на планете благодаря нашей способности к сотрудничеству. Мы разработали законы для поддержания и облегчения сотрудничества, и если искусственный интеллект сможет улучшить наши законодательные и правительственные системы, то мы сможем сотрудничать еще более успешно, чем когда-либо прежде, проявляя все то лучшее, что в нас есть. И поскольку существует много способов для написания и применения наших законов, давайте рассмотрим сейчас и то и другое.

Каковы первые ассоциации, которые приходят на ум, когда вы думаете о судебной системе в вашей стране? Если вы подумали о бесконечных проволочках, дороговизне и о то и дело случающихся несправедливостях, то вы не одиноки. Правда, было бы замечательно, если бы вместо всего этого вы прежде всего подумали об эффективности и честности? Поскольку судебный процесс в теории может рассматриваться как вычисление, на входе которого информация о собранных доказательствах и законах, а на выходе — судебное решение, то есть ученые, мечтающие полностью его автоматизировать, передав всю процедуру в ведение роботов-судей — систем с искусственным интеллектом, которые в каждом своем решении неизменно опираются на самые высокие правовые стандарты и не знают человеческих слабостей, таких как пристрастность, утомление или недостаток новейших знаний.

Роботы-судьи

В 1994 году Байрон Делабэквит-младший был осужден за убийство лидера движения за гражданские права чернокожих Медгара Эверса, совершенное им в 1963 году, при том что уже на следующий год после убийства два разных жюри штата Миссисипи, включавшие только белых заседателей, не смогли вынести ему приговор, хотя, объективно говоря, набор улик никак не изменился. Увы, история права изобилует предвзятыми суждениями, на которые повлиял то цвет кожи, то пол, то сексуальная ориентация, то религиозная принадлежность, то национальность, то еще какой-нибудь фактор. Роботы-судьи в принципе могут гарантировать, что в первый раз в истории все будут действительно равны перед законом: их можно так запрограммировать, чтобы они ко всем относились одинаково и с каждым одинаково себя вели, обеспечивая транспарентность в применении закона и его полную беспристрастность.

Роботы-судьи также, в отличие от людей, неподвластны случайным предубеждениям, равно как и предубеждениям систематическим. Например, вызвавшее много споров исследование 2012 года работы израильских судей показало, что те выносят значительно более жесткие приговоры, когда голодны: они отклоняли около 35 % прошений об условно-досрочном освобождении сразу после завтрака, но больше 85 % — непосредственно перед обедом. Еще один недостаток людей в роли судей заключается в том, что им часто не хватает времени, чтобы изучить все детали дела. В отличие от них робота-судью легко размножить, так как он ненамного больше заложенного программного обеспечения, и тогда все дела будут изучаться параллельно, а не одно за другим, и каждое из них получит собственного судью на весь срок рассмотрения дела. Наконец, судья-человек не может обладать всеми техническими знаниями, необходимыми для ведения разнообразных дел — от запутанных патентных споров до таинственных убийств, раскрываемых лишь с помощью новейших достижений судебной медицины, а роботы-судьи будущего смогут располагать практически неограниченными емкостью памяти и обучаемостью.

1 ... 30 31 32 33 34 35 36 37 38 ... 110
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?