Законы эпидемий. Как развиваются и почему прекращаются эпидемии болезней, финансовые кризисы, вспышки насилия и модные тренды - Адам Кучарски
Шрифт:
Интервал:
Это работает и в обратном направлении: меры контроля могут способствовать пониманию механизмов распространения. В случае с такими явлениями, как болезни, употребление наркотиков и вооруженное насилие, медицинские учреждения часто служат окнами, через которые мы смотрим на эпидемию. Это означает, что, если система здравоохранения неразвита или перегружена, качество поступающих сведений будет невысоким. Во время эпидемии Эболы в Либерии в августе 2014 года один из наборов данных, с которым мы работали, указывал на стабилизацию числа новых случаев заболевания в столице страны, Монровии. Поначалу мы обрадовались этой новости, но затем поняли, что происходит на самом деле. Эти данные поступали из переполненного медицинского учреждения: число зарегистрированных случаев оставалось постоянным не потому, что эпидемия шла на спад, а потому, что больница не могла принимать больше пациентов.
Связь между пониманием механизмов и контролем распространения также важна в сфере борьбы с преступностью. Если власти хотят знать, где происходят преступления, они должны опираться на зарегистрированные случаи. Но если пытаться использовать модели для прогнозирования инцидентов, могут возникнуть сложности. В 2016 году статистик Кристиан Лам и политолог Уильям Айзек опубликовали историю о том, как зарегистрированные в прошлом данные могут влиять на прогнозы[329]. Они сосредоточились на проблеме употребления наркотиков в Окленде (Калифорния). Исследователи собрали данные об арестах за наркотики в 2010 году, а затем загрузили их в программу PredPol – популярный в США алгоритм прогнозирования правонарушений. По сути, подобные алгоритмы представляют собой преобразователи: они получают информацию о человеке или каком-то районе и на ее основе оценивают риск преступлений. По утверждению разработчиков PredPol, их программа использует для прогнозов только три набора данных: о типах преступлений в прошлом, а также о месте и времени их совершения. Индивидуальная информация, например о расовой или гендерной принадлежности человека, напрямую не используется, чтобы избежать предвзятости в отношении тех или иных групп.
С помощью алгоритма PredPol Лам и Айзек спрогнозировали, где именно в 2011 году следовало ожидать преступлений, связанных с наркотиками. Они также рассчитали реальное распределение таких преступлений – в том числе незарегистрированных – в текущем году, использовав данные национального исследования потребления наркотиков и здоровья населения. Если бы предсказания алгоритма были точны, программа указывала бы на те районы, где в прошлом совершались преступления. Однако алгоритм, судя по всему, отмечал те места, в которых производились аресты. Исследователи заметили, что здесь возникает петля обратной связи между пониманием и контролем преступности. «Поскольку такие прогнозы, по всей вероятности, смещаются в сторону тех районов, которые уже известны полиции, полицейские будут активно патрулировать те же места и видеть новые преступления, укрепляясь в своих представлениях о распределении преступной деятельности»[330].
Некоторые специалисты критиковали анализ Лам и Айзека, отмечая, что полиция не использует PredPol для прогнозирования преступлений, связанных с наркотиками. Но Лам считает, что полиция прибегает к методам прогнозирования с более широкой целью – сделать решения более объективными: «Неявный мотив заключается в том, чтобы освободить систему от человеческих предрассудков». Однако если прогнозы отражают нынешние действия полиции, то эти предрассудки не исчезнут, а лишь спрячутся за якобы объективным алгоритмом. «Когда вы ведете обучение на данных, порожденных системой, в которой за одно и то же преступление представителей меньшинств задерживают чаще других, вы просто сохраняете все в неизменном виде, – говорит она. – Вы получаете те же проблемы, пропущенные через высокотехнологичный инструмент».
У алгоритмов прогнозирования преступности гораздо больше недостатков, чем может показаться. В 2013 году исследователи из RAND Corporation описали четыре распространенных мифа о прогнозах преступлений[331]. Первый из них – убеждение, будто компьютер точно знает, что произойдет в будущем. «Эти алгоритмы предсказывают риск будущих событий, а не сами события», – отмечают авторы работы. Второй миф состоит в том, что компьютер может проделывать всю работу, от сбора релевантных данных о преступлениях до выработки соответствующих рекомендаций. В реальности компьютер наиболее эффективен тогда, когда помогает человеку анализировать данные и принимать решения, а не полностью его заменяет. Согласно третьему мифу, полиции необходима мощная модель для надежных прогнозов, тогда как на самом деле проблемы чаще связаны с получением нужных данных. «Бывает, что у вас есть набор данных, в котором отсутствует информация, необходимая для прогноза», – объясняет Лам.
Последний, но, вероятно, самый стойкий миф заключается в том, что точный прогноз гарантирует снижение уровня преступности. «Сами по себе прогнозы – это только прогнозы, – отмечают исследователи из RAND. – Для реального снижения уровня преступности требуется принятие мер, основанных на этих прогнозах». Таким образом, для борьбы с преступностью властям необходимо сосредоточиться не на самих прогнозах, а на активных действиях и профилактике. Это справедливо и для других видов эпидемий. По мнению Криса Уитти, главного санитарного врача Англии, лучшие математические модели не обязательно те, которые нацелены на точное прогнозирование будущего. Важнее провести анализ, который выявит пробелы в нашем понимании ситуации. «Как правило, модели наиболее полезны тогда, когда выявляют последствия решений, непредсказуемые с позиции здравого смысла, – говорит Уитти. – Суть обычно не в том, что они “верны”, а в том, что они указывают на неочевидные решения»[332].
В 2012 году полиция Чикаго представила алгоритм Strategic Subjects List (SSL), который предсказывает, кто из жителей города может быть вовлечен в перестрелки. Проект отчасти был основан на работах Эндрю Папахристоса по теме социальных сетей и вооруженного насилия, хотя сам ученый дистанцировался от SSL[333]. Алгоритм оценивает степень риска для конкретных жителей города и составляет соответствующий список. По утверждению разработчиков, SSL не учитывает в явном виде такие факторы, как пол, раса или место проживания. Однако на протяжении нескольких лет было непонятно, какие именно данные используются. В 2017 году под давлением газеты Chicago Sun-Times полицейское управление города все же опубликовало данные, на которые опирался SSL. Набор данных включал информацию для алгоритма (возраст человека, его связь с бандами и аресты в прошлом), а также рассчитанные оценки риска. Исследователи положительно охарактеризовали этот шаг. «Такое случается очень редко – и тем ценнее эта публикация данных, используемых для прогнозирования преступности», – отметила Брианна Посадас, сотрудница общественной организации Upturn, выступающей за социальную справедливость[334].
В полную базу данных SSL было включено около 400 тысяч человек, и почти 290 тысяч из них входили в группу риска. Хотя алгоритм не использует напрямую данные о расовой принадлежности людей, между расовыми группами наблюдаются заметные различия: в базу внесено
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!