📚 Hub Books: Онлайн-чтение книгРазная литератураИскусственный интеллект – надежды и опасения - Джон Брокман

Искусственный интеллект – надежды и опасения - Джон Брокман

Шрифт:

-
+

Интервал:

-
+
1 ... 52 53 54 55 56 57 58 59 60 ... 84
Перейти на страницу:
пообещали отдать более 50 процентов своего богатства либо еще при жизни, либо после кончины, породив таким решением разноголосицу мнений на свой счет[153]. Самым известным примером является, вероятно, Билл Гейтс, который фактически решил подменить собой правительство. Вам нужны москитные сетки? Пожалуйста. Необходимы противовирусные препараты? Получите. Мы побуждаем заинтересованных участников к учреждению различных фондов, призванных обеспечивать общественное благо, и у каждого из них есть собственное представление о том, что считать общественным благом. Это разнообразие целей породило много удивительных особенностей современного мира. Действия неправительственных организаций, подобных фондам Форда и Слоуна[154], которые берутся за дела, невозможные для остальных, изменили мир к лучшему.

Конечно, эти миллиардеры – люди со всеми присущими человеку недостатками, и далеко не всё сегодня так, как могло и должно было быть. С другой стороны, схожая ситуация наблюдалась сразу после прокладки железных дорог. Некоторые сколотили огромные состояния. Многие обанкротились. Обычные люди получили железные дороги. Это хорошо. То же самое относится к электроэнергии – и к прочим новым или бывшим когда-то новыми технологиям. Процесс «взбалтывания» подбрасывает кого-то вверх, а затем роняет обратно – самого «везунчика» или его наследников. Пузыри чрезмерного богатства возникали в конце 1800-х и начале 1900-х годов, когда внедрялись паровые машины, железные дороги и электрические фонари. Порожденные ими состояния исчезли за два-три поколения.

Будь США такими, как Европа, я бы начал беспокоиться. В Европе те же самые семьи, если присмотреться, владеют богатством на протяжении сотен лет, поэтому они укоренились не только в финансовой, но и в политической системе, а также в иных отношениях. Но Америке до сих пор удавалось не допустить появления такой наследственной классовой системы. Чрезмерное богатство краткосрочно, и это хорошо. Оно не должно задерживаться. Если вы выиграете в лотерею, то получите свой миллиард долларов, но пусть ваши внуки сами зарабатывают на жизнь.

Об ИИ и обществе

Люди боятся ИИ. Возможно, это правильно. Но надо понимать, что ИИ питается данными. Без данных он – ничто. Не стоит тратить время на наблюдения за ИИ; вместо этого следует изучать его «диету» и поступки. Структура доверительной сети, которую мы конструируем с государственной помощью ЕС и других стран, обеспечивает рамки, куда помещаются наши алгоритмы, куда встраивается наш ИИ; но мы должны контролировать ее входы и выходы, чтобы при необходимости спрашивать: это дискриминирующее решение? Это то, чего действительно хотят люди? Или оно выглядит странновато?

Наиболее показательная аналогия заключается в том, что нынешние регуляторы, бюрократия и правительства очень похожи на ИИ: они берут правила, которые мы называем законами и нормативами, используют накопленные государством данные и принимают решения, которые влияют на нашу жизнь. Недостаток нынешней системы заключается в том, что мы очень слабо контролируем эти министерства, органы регулирования и прочую бюрократию. Единственный способ контроля, доступный нам, – это выборы, возможность передать власть кому-то еще. Нужно добиваться более плотного и тщательного контроля. Нужно фиксировать данные, послужившие основой для каждого принятого решения, и анализировать результаты для всех заинтересованных сторон – наподобие того, как изначально предполагалось для выборных легислатур.

При наличии данных на входе и выходе всякого решения мы легко можем узнать, насколько честен алгоритм. Не составит труда выяснить, морален этот ИИ или аморален с нашей точки зрения. Такой подход принято называть «открытым алгоритмом»; вы воочию видите информацию на входе и оцениваете решение, основанное на этой информации. Тем самым появляется возможность понять, поступает ИИ правильно или неправильно. Оказывается, это несложно. Кто контролирует данные, тот контролирует ИИ.

Люди часто забывают упомянуть о том, что все тревоги по поводу ИИ аналогичны опасениям по поводу действий нынешних правительств. Применительно к большей части правительства – речь о системе правосудия и пр. – общество не обладает достоверными сведениями о конкретных действиях в конкретных ситуациях. Как узнать, справедлив суд или нет, если у нас нет входной и исходящей информации? Аналогичная проблема возникает с машинным ИИ, и ее следует трактовать схожим образом. Нужны достоверные данные, чтобы контролировать нынешние правительства в сфере обработки данных и принятий решений, – и машинный ИИ нисколько здесь не отличается.

ИИ следующего поколения

Современные алгоритмы машинного обучения по своей сути непроходимо глупы. Они используют метод грубой силы, поэтому им требуются сотни миллионов образцов и примеров. Они работают благодаря тому, что возможно аппроксимировать что угодно из множества малых элементов. Такова ключевая идея современных исследований ИИ: если используется обучение с подкреплением для обратной связи в передаче ответственности, то возможно на основании обилия малых фрагментов вывести любую произвольную функцию по желанию программиста.

Но использование неправильных функций для принятия решений означает, что способность ИИ принимать правильные решения не подлежит обобщению. Если мы зададим ИИ иные данные, система может принять другое, совершенно необоснованное решение. Или, если ситуация изменится, ее придется переучивать. Имеются забавные методики поиска «нулевого пространства» в системах ИИ. Речь об образцах, которые ИИ признает валидными, поскольку его обучили их распознавать (скажем, человеческие лица, кошек и т. д.), но для человека эти образцы покажутся полной нелепицей.

Нынешний ИИ ведет описательную статистику способом, который не является научным и который практически невозможно сделать научным. Чтобы построить эффективную систему, требуется некая наука в основе данных. Системы, которые я рассматриваю как ИИ следующего поколения, будут порождением такого научного подхода: если вы собираетесь создать ИИ для оперирования чем-то физическим, в него следует внедрить знание законов физики (описательных функций) вместо пресловутых тупых нейронов. Допустим, нам известно, что физика использует такие функции, как полиномы, синусоиды и экспоненты; значит, они, а не крохотные линейные нейроны, должны стать нашими базовыми функциями. При использовании этих более подходящих базовых функций понадобится гораздо меньше данных, намного легче подавлять шум, а результаты оказываются куда лучше.

Если, отталкиваясь от примера с физикой, мы хотим создать ИИ для работы с человеческим поведением, то нужно встраивать статистические свойства человеческих сетей в алгоритмы машинного обучения. При замене тупых нейронов на те, которые отражают основы человеческого поведения, возможно выявлять тенденции на основе крайне ограниченного количества данных и отсекать сильные шумы.

Тот факт, что люди обладают «здравым смыслом», с которым они подходят к решению большинства проблем, наводит на следующую мысль: перед нами, как я говорю, человеческая стратегия. Человеческое общество представляет собой сеть, аналогичную нейронным сетям, подготовленным для глубинного обучения, вот только «нейроны» человеческого общества намного умнее. Мы с вами наделены поразительно общими описательными способностями, которыми пользуемся для оценки и понимания широкого диапазона ситуаций. Мы в состоянии понять, какие связи следует укреплять. Это означает, что мы способны заставить наши социальные сети работать намного лучше и

1 ... 52 53 54 55 56 57 58 59 60 ... 84
Перейти на страницу:

Комментарии

Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!

Никто еще не прокомментировал. Хотите быть первым, кто выскажется?