Искусственный интеллект. Этика и право - Елена Сергеевна Ларина
Шрифт:
Интервал:
Как бы там ни было, в рамках определения режима ответственности, необходимо решить три главных вопроса. Первый – будет ли ответственность выражена, прежде всего, в финансовой форме, либо предусматривать и уголовные сроки наказания. Второй – будет ли перед конечным пользователем нести ответственность только эксплуатант ИИ, либо будет использоваться система солидарной ответственности, включающая всех поставщиков, провайдеров и эксплуатантов, связанных с конкретным ИИ. Третий – будет ли реализован принцип одноранговой или многоранговой ответственности. В случае одноранговой – безусловную ответственность перед потребителем несет только эксплуатант ИИ. Он же в свою очередь выставляет регрессивные иски поставщикам ИИ или отдельных его компонентов. В случае многоранговой ответственности изначально перед потребителем будут нести ответственность все так или иначе связанные с конкретным изделием ИИ производители. В этом случае суть расследования будет в том, чтобы свести до минимума круг конкретных виновников, исключив из него добросовестных производителей компонентов ИИ.
Покажем это на простом примере. Идеальным примером одноранговой ответственности является строгая ответственность работодателя перед клиентом за действия своих сотрудников при исполнении ими своих обязанностей. В реальной практике в странах ЕС в основном используется так называемая относительно строгая ответственность. Она допускает более широкий набор исключений, часто связанных со степенью предсказуемости действия и т. п. типичным случаем относительно строгой ответственности является действующий режим ответственности за качество продукции или ответственности за ущерб, причиненный животными, находящимися под наблюдением своих хозяев.
Что касается ответственности перед конечным пользователем, то большинство правовых систем стран ЕС базируются на принципе «единого окна», т. е. единого субъекта, который несет ответственность за возмещение ущерба. При этом эта система предусматривает дальнейшее расщепление ответственности. Материальную ответственность в таких случаях несет один единый субъект, как правило, страховая компания, а ответственность за нарушения технических регламентов, стандартов, отраслевых правил и т. п., носящие в том числе уголовный характер, несет конкретный виновник происшествия.
Кроме того, в европейском законодательстве подход «единого окна» предусматривает возможность первому ответственному субъекту подать в суд на другие субъекты цепочки создания стоимости для получения возмещения. Например, если авария вызвана неполадками в датчике автомобиля с самостоятельным управлением, то изготовитель автомобиля будет нести ответственность перед лицами, которым нанесен ущерб. При этом, он сможет добиться возмещения своих затрат путем иска непосредственно производителю датчика.
Кроме того, в случае ИИ возникает проблема, которой нет в коллизиях, связанных с авиатранспортом, автомобилями, судами и т. п. Невероятно малая доля происшествий с такого рода сложными системами связана с человеческим фактором не на стороне эксплуатанта, а на стороне пользователя. В прошлом году произошло лишь два случая, когда люди погибли в аэропортах стран ЕС, оказавшись на взлетно-посадочных полосах во время взлета и приземления самолетов. Тщательный анализ выявил, что в обоих случаях люди сознательно обманули охранные системы и персонал аэропорта. Пока подобного рода инциденты крайне редки, но при массовом внедрении ИИ казусы и инциденты по вине пользователей могут стать гораздо более частыми. При этом сами пользователи будут стремиться получить материальную компенсацию за полученный ущерб. Соответственно, если не вооружить суды четкими и однозначными рекомендациями и инструкциями, чем дальше, тем больше они будут заниматься инцидентами, связанными с человеко-машинным взаимодействием, априори решая конфликты в пользу человека.
Есть еще одна проблема. Она на данный момент совершенно не отрефлектирована специалистами в юриспруденции. Особенность ИИ заключается в том, что он действует в большинстве случаев в рамках всемирной сети. Соответственно, весьма вероятно, что отказы или сбои в работе ИИ могут происходить не по причинам, связанным с программноаппаратными средствами, а с общесетевыми проблемами. На сегодняшний день нет даже наметок законодательного определения в рамках солидарной ответственности конкретной ответственности всех юридических лиц, связанных с функционированием ИИ в интернете, включая провайдеров.
§ 3. К кому приравнять ИИ: к объектам, животным или рабам?
Рассмотрение режима ответственности для ИИ неизбежно сводится к наиболее фундаментальному вопросу: можно ли рассматривать ИИ как обычный технический объект, который находится под полным контролем человека, или же ИИ обладает некоторыми элементами автономии и разумности. Если ответ положительный, то это делает возможным применение к компаниям, производящим и эксплуатирующим программно-аппаратные комплексы ИИ, того же набора правил, включая технические регламенты, отраслевые и объектные стандарты и юридические нормы, как к производителям и экслуатантам обычных технически сложных, многокомпонентных изделий, типа самолетов, кораблей и т. п.
Если ИИ рассматривается как своего рода развитие или расширение возможностей человека, то правила ответственности, применимые к людям можно ограниченно использовать и для ИИ. При этом ответственность появляется, когда имеет место субъективный элемент, например, халатность или намерение причинить вред, которые привели к нанесению ущерба, а также на основе дистрибуции собственности, которая наносит ущерб третьей стороне.
Разумно ожидать, что ИИ в перспективе будет использоваться в основном не как объект, а как услуга.
В этих обстоятельствах остается открытым вопрос, должна ли ответственность за услугу иметь договорной характер или ответственность неконтрактного характера (деликатная ответственность).
В последние годы растет число юристов, отвергающий приравнивание ИИ к обычным сложным многокомпонентным устройствам. Они предлагают рассматривать ИИ как животное, особенно в тех случаях, когда ИИ предполагает определенную степень автономии. Это опция в последнее годы подкрепляется научными исследованиями, согласно которым в ближайшие годы продвинутые системы ИИ сравняются по мощности интеллекта с кошкой. Этот вариант подразумевает, что сам по себе ИИ не имеет статуса юридического лица, но также как опасные дикие животные налагает большие дополнительные требования к собственникам ИИ, так как это сегодня действует в законодательствах большинства стран относительно ответственности владельцев диких животных. Наиболее детальная система ответственности за животных, содержащихся частными лицами в неволе, предусматривается в системе общего права США.
В последние годы ряд британских и израильских юристов предложили разрабатывать законодательство по ИИ по аналогии с римским правом в отношении рабов. Такое толкование подтверждается тем фактом, что само по себе слово «робот» впервые использованное Карлом Чапеком на чешском языке, означает «принудительный труд» или «раб». В римском праве хозяева несут ответственность за ущерб, причиненный их рабами. В южных штатах Америки еще в первой половине XIX века хозяин нес полную ответственность за каждый противозаконный поступок раба, независимо от того, был ли он совершен на службе и в рамках выполнения работ в интересах рабовладельца,
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!