📚 Hub Books: Онлайн-чтение книгДомашняяЖизнь 3.0. Быть человеком в эпоху искусственного интеллекта - Макс Тегмарк

Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта - Макс Тегмарк

Шрифт:

-
+

Интервал:

-
+
1 ... 31 32 33 34 35 36 37 38 39 ... 110
Перейти на страницу:

Когда-нибудь такие роботы-судьи окажутся и более эффективными, и более справедливыми, чем люди, будучи беспристрастными, компетентными и транспарентными. А их эффективность послужит еще бóльшему усилению справедливости, ускорив ход юридических процессов и уничтожив предпосылки для воздействия на их исход со стороны подкованных юристов, при этом они позволят добиваться справедливости через суд при значительно меньших расходах. И тогда шансы даже не располагающего особыми средствами просителя или стартап-компании успешно противостоять миллиардеру или транснациональной корпорации сильно возрастут, несмотря на армию юристов, помогающих оппоненту.

С другой стороны, чем грозят для такого робота-судьи программные глюки или атаки хакеров? И от того и от другого уже пострадали машины автоматизированного голосования, а когда на карту поставлены годы за решеткой или миллионы на банковском счету, цена кибератаки заметно повышается. Даже если мы уверены, что искусственный интеллект использует правильный законодательный алгоритм, почувствуем ли мы достаточную уверенность в логике его использования, чтобы уважать выносимые решения? Эта проблема усугубляется быстрым прогрессом в развитии нейронных сетей, которые часто превосходят довольно очевидные традиционные алгоритмы искусственного интеллекта, за что приходится расплачиваться их прозрачностью. Если ответчик хочет знать, почему ему вынесли именно такой приговор, он должен иметь право на лучший ответ, чем какой-нибудь такой: «Мы натренировали нашу систему на большом количестве данных, и она теперь приняла такое решение». Кроме того, недавние исследования показали, что если вы тренируете нейронные системы глубокого обучения на большом количестве данных о заключенных, они могут предсказывать, кто из этих заключенных с большой вероятностью вернется к своей преступной деятельности (и кому из них поэтому должно быть отказано в условно-досрочном освобождении), лучше, чем судья-человек. Но что делать, если эта система обнаружит, что склонность к рецидивам статистически связана с полом или расовой принадлежностью заключенного, — будет ли это считаться проявлением сексизма или расизма робота-судьи, который, следовательно, нуждается в перепрограммировании? Действительно, исследование 2016 года показывает, что программное обеспечение, используемое в Соединенных Штатах для предсказание рецидивизма, предвзято настроено против афроамериканцев и поддерживало несправедливые приговоры. Это важные вопросы, которые нам надо поставить и обсудить, чтобы сохранить возможность эффективно использовать искусственный интеллект. У нас нет необходимости принимать решение из разряда «все или ничего» в отношении роботов-судей, но решать, до каких пределов и с какой скоростью мы хотим вводить искусственный интеллект в нашу правовую систему, нам придется. Мы хотим, чтобы завтра люди, выполняющие работу судей, получили себе в помощь системы информационной поддержки принятия решений на основе искусственного интеллекта, как ее получат врачи? Мы хотим идти дальше и дать роботам-судьям возможность самостоятельно принимать решения, которые могут быть обжалованы в суде, состоящем только из людей, или же мы хотим пойти до конца и дать машинам право выносить не подлежащие обжалованию приговоры, даже если речь о высшей мере наказания?

Юридические препоны

Пока мы обсуждали только применение закона, давайте теперь обратимся и к его содержанию. Существует общее согласие по поводу того, что наши законы должны развиваться, чтобы идти в ногу с нашей технологией. Например, все обвинения против двух программистов, создавших червя ILOVEYOU, о котором рассказывалось выше и который повлек ущерб в миллиарды долларов, были сняты, и они ушли от всякого наказания просто потому, что в то время на Филиппинах не было закона, запрещавшего создание вредоносных программ. Поскольку темпы технического прогресса, по-видимому, и дальше будут увеличиваться, законы должны обновляться также со всевозрастающей скоростью, но они имеют тенденцию отставать. Вероятно, обществу было бы полезно иметь побольше технически подкованных людей в юридических вузах и в правительстве. Но не следует ли уже сейчас подумать о системах поддержки принятия решений на основе технологий искусственного интеллекта для избирателей и законодателей, а затем, не откладывая в долгий ящик, и о роботах-законодателях?

Вопрос, как приспособить наши законы к быстро меняющейся действительности, чтобы они наилучшим образом соответствовали прогрессу в области искусственного интеллекта, вызывает горячие и увлекательные споры. Один из возможных подходов отражает существующее противоречие между правом на неприкосновенность частной жизни и свободой информации. Фанаты свободы слова утверждают, что чем сильнее мы сузим сферу неприкосновенности, тем больше доказательств будет в распоряжении судов и тем более справедливые решения они будут выносить. Например, если правительство получит доступ ко всем электронным устройствам и будет постоянно вестись запись, где они находятся, какие кнопки на них нажимают, что в них говорят и что с ними еще делают, многие преступления могут быть сразу и с легкостью раскрыты, а еще большее их количество можно было бы предотвратить. Защитники частной жизни возражают на это, что они не хотят оказаться в оруэллианском государстве тотальной слежки и что, даже если бы они этого и хотели, есть риск быстрого превращения такого государства в тоталитарную диктатуру неслыханных доселе масштабов. Более того, методы машинного обучения показали очень хорошие результаты в анализе данных МРТ мозга для определения, что человек думает и, в частности, насколько правдиво то, что он говорит. Если суды признают возможным использование методов сканирования мозга при условии, что его результаты расшифровываются искусственным интеллектом, и такая технология станет нормой, длительный и скрупулезный в настоящее время процесс установления истинности предоставляемых фактов окажется легким и быстрым, существенно ускоряя судебные разбирательства и гарантируя их справедливость. Но защитники неприкосновенности частной жизни имеют все основания беспокоиться по поводу случайных ошибок, совершаемых такими системами, или, обращаясь к проблеме более фундаментальной, — по поводу допустимости правительственной слежки за состоянием наших умов. Правительства, не поддерживающие свободу мнений, могут использовать такие технологии для введения уголовной ответственности за приверженность определенным убеждениям и мнениям. А где бы вы лично провели линию между требованиями общественного блага и защитой личного пространства, между защитой общества в целом и защитой ваших личных свобод? Но где бы вы ее ни провели, не будет ли она незаметно, но неумолимо смещаться в ту сторону, где частная жизнь оказывается защищена все меньше, — для того, чтобы компенсировать всевозрастающую легкость подделки улик? Например, когда искусственный интеллект научится изготавливать видео, неотличимые от подлинных, но тем не менее поддельные, на которых запечатлено, как вы совершаете преступление, то разве вы сами не проголосуете за такую систему, которая даст правительству возможность постоянно отслеживать ваше местонахождение, предоставляя вам при необходимости железное алиби?

Не менее горячие споры разворачиваются вокруг вопроса о регулировании исследований искусственного интеллекта, или, если говорить конкретнее, о том, как политики должны стимулировать исследователей искусственного интеллекта, чтобы максимизировать вероятность благоприятного результата. Среди самих исследователей есть такие, кто выступает категорически против любых форм регулирования в данной области, утверждая, что оно приведет только к неоправданному замедлению внедрения по-настоящему необходимых инноваций (например, беспилотных автомобилей, сохраняющих жизни участников дорожного движения) и заставит тех, кто ведет самые передовые исследования, уйти в подполье или бежать в страны с менее требовательными правительствами. На конференции в Пуэрто-Рико по дружественному AI, о которой рассказывалось в главе 1, Илон Маск говорил, что от правительств нам сейчас нужно содействие, а не противодействие — в частности, необходимо, чтобы на правительственных постах были технически образованные люди, которые следили бы за прогрессом в области искусственного интеллекта и не давали этим исследованиям съезжать на обочину. Он также утверждал, что правительственные регулирующие директивы иногда могут способствовать прогрессу, а не душить его: например, если правительственные стандарты безопасности для беспилотных автомобилей помогут уменьшить количество дорожно-транспортных происшествий с их участием, то вероятность общественных выступлений против новой технологии сильно снизится и принятие ее пройдет быстрее. Поэтому наиболее озабоченные проблемами безопасности компании могут поддерживать такое регулирование, которое заставит менее ответственных конкурентов соответствовать высоким стандартам безопасности.

1 ... 31 32 33 34 35 36 37 38 39 ... 110
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?