Автономия. Как появился автомобиль без водителя и что это значит для нашего будущего - Лоуренс Бернс
Шрифт:
Интервал:
Иными словами, ситуацию можно было описать так: Tesla предлагает потребителю продукт, неспособный предотвратить ДТП двух важнейших типов. Она предпринимает шаги, чтобы защитить себя от юридической ответственности. Например, инструкция предупреждает, что один из компонентов Autopilot под названием Autosteer разработан только для использования «на автомагистралях и дорогах с ограниченным числом въездов под непрерывным контролем водителя». Но сколько владельцев в самом деле видели это предупреждение? Как позже заметил член NTSB Кристофер Э. Харт, «оно дается без учета того очевидного факта, что практически никто из владельцев автомобилей и еще меньшее число людей, владельцами не являющихся, читает инструкцию. Некоторые, может быть, заглядывают в нее дважды в год – когда нужно перевести часы на летнее время и обратно». Если бы Tesla доносила информацию об ограничениях на автономное вождение способом, имеющим больше шансов достичь адресата, это было бы совсем другое дело.
По моему мнению, сама Tesla заложила в своей технологии многие предпосылки этой аварии. Одна из них и наиболее очевидная – это само название продукта: Autopilot. Уже после этих печальных событий аналитик Morgan Stanley Адам Джонас предложил компании перестать использовать это слово, «поскольку оно потенциально создает проблему потребительских ожиданий и может привести к моральному ущербу». Посвященный защите прав потребителей журнал Consumer Reports задался вопросом, не пытается ли Tesla «создать у покупателей опасную иллюзию, что машина способна к полностью автономному управлению».
«Многие автопроизводители внедряют подобные полуавтономные решения в свои машины, но Tesla ведет себя гораздо агрессивнее остальных, – писал Consumer Reports. – Это единственный производитель, позволяющий владельцам не держать руки на руле в течение значительного времени, и недавняя катастрофа с летальным исходом ясно подчеркивает все заложенные в такую политику риски». Consumer Reports, так же как и Джонас, призвал Tesla перестать называть систему Autopilot.
Помимо неудачного выбора названия, Tesla недостаточно информировала владельцев о заложенных в систему ограничениях. Со стороны водителя разумно предполагать, что автомобиль, способный адекватно вести себя в пробке на шоссе, может должным образом отреагировать на такое крупное препятствие, как тягач с полуприцепом. На момент аварии с участием Брауна Tesla говорила, что ее продукты автономного управления предназначены для использования на шоссе с ограниченным числом въездов. Поскольку Браун, по-видимому, активировал автопилот как на SR 24, так и на U.S. 27А, ни одна из которых дорогой с ограниченным количеством въездов не является, он определенно не был в курсе этого запрета.
В-третьих, в случае с Брауном ситуация особенно непростительна, поскольку сам Маск делал перепост его видео. На том, которое он перепостил, машина в самом деле движется по дороге с ограниченным количеством въездов. Знал ли Маск, что аккаунт Брауна на YouTube содержит другие ролики, где Браун пользуется автопилотом на узких, извилистых двухполосных дорогах, для которых система не предназначена? Перепост даже одного видео Маском мог быть воспринят как знак одобрения всем предыдущим действиям Брауна.
Оглядываясь назад, я прихожу к выводу, что со стороны Tesla было предельно неосмотрительно выпускать на рынок систему, позволяющую водителю подолгу не держать руки на руле, но при этом неспособную защитить от аварий нескольких типов, важных для тех дорог, на которых водитель эту машину использует. Ролики Брауна на YouTube означают, что в компании о попытках применения автопилота на не предназначенных к тому дорогах знали.
Всего через несколько недель после того, как происшествие с Брауном стало достоянием гласности, поставщик компонентов для систем автономного управления, Mobileye, разорвал отношения c Tesla. Причиной послужило, как пояснил председатель совета директоров и технический директор Амнон Шашуа, «пренебрежение ограничениями на продукт, наложенными из соображений безопасности».
Решение Mobileye, примененное Tesla в разбившемся автомобиле Model S, «не предназначено для обработки всех возможных аварийных ситуации безопасным образом, – сказал Шашуа в интервью Reuters. – Как ни крути, это система помощи водителю, а не управления без водителя». Последние слова мне хотелось бы особо подчеркнуть.
Шашуа заявил, что из-за аварии Брауна и повышенного внимания к ее причинам со стороны специалистов и прессы его компания вынуждена реагировать на противоречивые заявления Tesla – в частности, он напомнил, как Маск и его фирма хвастались автономными возможностями технологии, в то же время предупреждая владельцев не сводить глаз с дороги и не снимать рук с рулевого колеса. «Если компания с нашей репутацией будет и дальше ассоциироваться с подобным пренебрежительным отношением к ограничениям, наложенным из соображений безопасности, то в долгосрочной перспективе это плохо скажется как на нас, так и на отрасли в целом. Скажется очень вредно».
Для полемики между крупными компаниями это обвинение было необычно жестким и конкретным. Tesla заявила, что Mobileye якобы просто узнала о том, что Tesla собирается выпустить на рынок систему компьютерного зрения собственной разработки, и раздражена этим. Ответ Mobileye был весьма болезненным. В ее пресс-релизе говорилось, что еще в 2015 году, за год до гибели Джошуа Брауна, Шашуа выражал Маску свои «опасения относительно безопасности» системы в режиме «без рук». «После личной встречи, – говорилось в релизе Mobileye, – генеральный директор Tesla подтвердил, что активация автопилота будет возможна, только когда водитель держит руки на рулевом колесе». Даже после этого Mobileye продолжала просить Tesla занять более сдержанную позицию в маркетинге Autopilot.
На той же самой неделе, когда компании Tesla и Mobileye обменивались словесными ударами, первая из них провела обновление программного обеспечения Autopilot с целью заставить водителей внимательнее следить за дорогой. Например, если автомобиль двигался со скоростью свыше 70 км в час больше минуты и других машин перед ним не было, звучал сигнал, напоминающий положить руки на рулевое колесо. Если водитель трижды игнорировал предупреждение в течение часа, автопилот отключался до парковки автомобиля. Маск заявил, что это обновление, также расширявшее возможности радара, могло бы предупредить гибель Брауна. Сомнительно, впрочем, что беспокойство Mobileye и других информированных наблюдателей могло бы быть этим удовлетворено.
Из гибели Джошуа Брауна я сделал несколько выводов. Tesla вообще и Илон Маск в частности известны привычкой обещать больше, чем возможно, а делать меньше, чем обещано. Их история с автопилотом укладывается в эту тенденцию. Будучи горячим сторонником технологии автономного управления, я рад, что Ларри Пейдж и Сергей Брин начали финансировать ее разработку задолго до того, как Илон Маск задумался об автоматизации автомобилей. Google испытывала свои машины на дорогах общего пользования семь лет без единой аварии по их вине. Когда авария все же произошла, дело ограничилось помятым крылом на скорости 3 км в час. Такой результат оказался возможен только благодаря культуре безопасности, принятой в Chauffeur, и исключительной команде водителей-испытателей и инженеров. Маск и Tesla вывели на рынок свою систему Autopilot в октябре 2015 года, и меньше чем через семь месяцев она записала на свой счет ДТП со смертельным исходом. Можете представить себе, как развивались бы события, если бы это случилось в Google в первые семь месяцев с момента начала испытаний в 2009 году? Ни столпотворения желающих на рынке автономной мобильности, ни энтузиазма вокруг технологии – ничего этого бы не было.
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!