📚 Hub Books: Онлайн-чтение книгРазная литератураИскусственный интеллект – надежды и опасения - Джон Брокман

Искусственный интеллект – надежды и опасения - Джон Брокман

Шрифт:

-
+

Интервал:

-
+
1 ... 47 48 49 50 51 52 53 54 55 ... 84
Перейти на страницу:
мешали компьютеру раскрыть свой истинный потенциал. Этот же метод удалось недавно обобщить: стартовав с нуля, всего за двадцать четыре часа похожая шахматная программа AlphaZero смогла одолеть самые популярные на сегодняшний день «обычные» шахматные программы, которые, в свою очередь, брали верх над лучшими шахматистами-людьми.

Прогресс не ограничивается играми. Нынешние компьютеры значительно лучше распознают изображения и синтезируют голоса. Опухоли на рентгенограммах они обнаруживают быстрее и надежнее большинства людей. Медицинская диагностика и персонализированная медицина существенно улучшаются. Поездки на беспилотных автомобилях сделают дорожный трафик безопаснее. Моему внуку, возможно, никогда не придется приобретать водительские права, потому что вождение автомобиля сделается похожим на сегодняшнее катание на лошадях – это хобби для немногих. Опасные занятия, например добыча полезных ископаемых, перейдут в ведение компьютеров, как и утомительная рутинная работа. Правительство начнет предлагать более адресные, персонализированные и эффективные государственные услуги. ИИ может произвести революцию в образовании, анализируя потребности каждого ученика и открывая возможности индивидуального обучения, дабы любой ребенок мог обучаться с оптимальной для себя скоростью.

Наряду с этими огромными преимуществами, конечно же, существует немало потенциальных рисков. При избытке личных данных в базах компьютеры будут знать о нас больше, чем мы сами; вопрос относительно того, кто владеет данными о нас, приобретет первостепенное значение. Более того, решения, основанные на данных, будут, несомненно, отражать социальные предубеждения: даже предположительно нейтральная интеллектуальная система прогнозирования кредитных рисков, скажем, способна заключить, что простая принадлежность к тому или иному социальному меньшинству повышает вероятность дефолта по кредиту. Разумеется, подобное решение легко оспорить и исправить, но реальная опасность заключается в том, что мы не всегда осознаем искажение данных и вполне можем в своем неведении с ним смириться.

Машинное обучение также может зафиксировать наши собственные предубеждения. Когда «Нетфликс» или «Амазон» пытаются посоветовать, что мы можем посмотреть или купить, это практическое следствие машинного обучения. В настоящее время такие советы порой выглядят забавно, но со временем, при увеличении обработанных данных, они станут намного точнее, будут укреплять наши предрассудки, симпатии и антипатии. Будем ли мы сожалеть о случайной встрече, которая убедила нас изменить наши взгляды, заставила взглянуть на мир иначе, внушила новые (и противоречивые) идеи? Социальные медиа, учитывая их влияние на выборы, служат особенно яркой иллюстрацией того, как можно углубить пропасть между людьми, занимающими принципиально разные концы политического спектра.

Возможно, мы уже достигли стадии, когда большинство правительств не в силах сопротивляться совокупному влиянию ряда могучих транснациональных корпораций, которые контролируют нас и наше цифровое будущее. Сегодня борьба между ведущими компаниями – это действительно борьба за контроль над персональными данными. Корпорации наверняка воспользуются своим громадным влиянием, чтобы не допустить государственного регулирования данных, поскольку их интерес заключается именно в беспрепятственном контроле над данными. Более того, они обладают финансовыми ресурсами, позволяющими нанимать наиболее талантливых сотрудников, и тем самым еще надежнее укрепляют свою власть. Мы охотно делимся персональными данными ради «бесплатного сыра», будь то почтовая служба Gmail или Фейсбук, но, как отметил журналист Джон Ланчестер в «Лондон ревью оф букс», если что-то предлагается бесплатно, значит, продукт – это мы. Настоящими клиентами корпораций являются те, кто платит за доступ к знаниям о нас, чтобы убедить нас покупать их товары или оказывать влияние иными способами. Говорят, что можно избавиться от монополии на контроль над данными, если лишить компании, которые их используют, права на владение данными. В итоге люди сохранят доступ к своим персональным данным (и эта модель будет стимулировать конкуренцию, так как люди смогут свободно и добровольно передавать свои данные тем компаниям, которые предлагают более качественные услуги). Кроме того, злоупотребление данными не сводится исключительно к корпорациям: в тоталитарных государствах и даже в номинально демократических государствах правительства знают о гражданах столько, сколько Оруэллу и привидеться не могло. Использование этой информации далеко не всегда прозрачно, а помешать ему достаточно сложно.

Перспектива применения ИИ в военных целях выглядит пугающе. Можно вообразить интеллектуальные системы, спроектированные для автономных действий на основе данных в реальном времени, причем быстрее аналогичных систем противника; это чревато катастрофическими войнами. Такие войны не обязательно будут обычными или даже ядерными. Учитывая важность компьютерных сетей для современного общества, гораздо более вероятно, что войны ИИ развернутся в киберпространстве. А вот их последствия могут быть реальными до отвращения.

* * *

Несмотря на описанную утрату контроля, мы упорно продолжаем создавать мир, в котором ИИ будет повсюду: люди не смогут сопротивляться удобствам, которые он сулит, и его власти, а корпорации и правительства не устоят перед соблазном обрести конкурентные преимущества. Но перед нами встают важные вопросы о будущем работы как института. Компьютеры уже причастны к значительному сокращению рабочих мест для синих воротничков за последние несколько десятилетий, но до недавнего времени многим рабочим местам белых воротничков – занятиям, которые «доступны исключительно людям», – как будто ничто не угрожало. Внезапно ситуация резко изменилась. Бухгалтеры, юристы и медицинские работники, финансовые аналитики и биржевые маклеры, турагенты – все эти профессии (едва ли не бо́льшая часть «традиционных» занятий белых воротничков) исчезнут благодаря развитию комплексных программ машинного обучения. Нас ждет будущее, где фабрики производят товар при минимальном человеческом участии, а сам поток товаров преимущественно автоматизирован, как и предоставление многих услуг. Что же останется людям?

В 1930 году, задолго до появления компьютеров, не говоря уже об искусственном интеллекте, Джон Мейнард Кейнс опубликовал статью «Экономические возможности наших внуков», где говорилось, что повышение производительности труда позволит обществу удовлетворять все свои потребности за счет пятнадцатичасовой рабочей недели. Еще Кейнс, наряду с ростом творческого досуга, предсказывал конец денег и богатства как цели в жизни:

«Мы позволим себе осмелиться и установим истинную ценность стяжательства. Страсть к обладанию деньгами – в отличие от уважения к деньгам как средству достижения жизненных удовольствий и ценностей – будет считаться тем, чем она является на самом деле, – постыдным заболеванием, одной из тех полупреступных, полупатологических наклонностей, вид которых пугает и заставляет обращаться к специалистам по психическим расстройствам»[143].

К сожалению, предсказания Кейнса не сбылись. Хотя производительность труда действительно увеличилась, система – возможно, «исконная» для рыночной экономики – отнюдь не сократила количество рабочих часов человека. Скорее, произошло то, что антрополог-анархист Дэвид Гребер[144] характеризует как появление «мнимых рабочих мест»[145]. Такие занятия, как производство предметов первой необходимости, будь то продукты питания, жилье и потребительские товары, удалось во многом автоматизировать, но при этом налицо колоссальное разрастание таких секторов экономики с человеческим «наполнением», как корпоративное право, академическое образование и управление здравоохранением (в отличие от реального обучения,

1 ... 47 48 49 50 51 52 53 54 55 ... 84
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?