Живым голосом. Зачем в цифровую эру говорить и слушать - Шерри Тёркл
Шрифт:
Интервал:
Кажется, этого социолога не смутило, что в роли психиатра Siri принялась бы консультировать людей по поводу их жизни, хотя собственной жизни у нее нет. По словам социолога, если Siri может вести себя, как психиатр, значит, она может быть психиатром. Если никого не смущает, что “как будто” и реальность – не одно и то же, значит, пусть машина займет место человека. В этом и есть прагматизм роботизированного момента.
Однако с концепциями робота-друга или терапевта (о, это простое избавление, даруемое нам роботизированным моментом!) все обстоит далеко не так просто.
Хотя машины запрограммированы, чтобы подражать множеству действий, и общаются с нами так, как будто им есть до нас дело, на самом деле они понятия не имеют о том, что такое дуга человеческой жизни. Когда мы говорим с ними о таких человеческих проблемах, как любовь и утрата, или об удовольствии есть томатный суп и танцевать босиком в дождливый день, они могут только имитировать эмпатию и контакт.
Вот что может знать искусственный интеллект: ваше расписание, буквальное содержание ваших электронных сообщений, ваши кино-, теле- и кулинарные предпочтения. Если вы наденете те или иные датчики, ИИ узнает, что способно на вас эмоционально воздействовать, ведь он сделает эти выводы на основе психологических маркеров. Однако ИИ не сможет понять, что все эти вещи значат для вас.
Но мы же хотим, чтобы машины понимали именно значение вещей. И мы готовы тешиться иллюзиями, что они это действительно понимают.
Игры с уязвимостью
Мы уже очень долго играем с искусственным интеллектом в игры с уязвимостью – еще с тех пор, когда программы были несравнимо проще нынешних. В 1960-х компьютерная программа ELIZA[316], созданная Джозефом Вейценбаумом из МТИ, смогла освоить “отражающий” стиль психотерапевта, практикующего роджерианский (клиент-центрированный) подход. Таким образом, если бы вы напечатали фразу: “Почему я ненавижу свою мать?”, ELIZA могла бы ответить: “Я слышу, вы говорите, что ненавидите свою мать”. Эта программа успешно создавала иллюзию умного слушателя – по крайней мере в течение короткого периода времени. И вот еще какой момент: мы хотим говорить с машинами, даже если нам известно, что они не заслуживают нашего доверия. Я называю это “эффектом ELIZA”.
Вейценбаум был потрясен следующим фактом: люди (к примеру, его секретарша и магистранты), знавшие, что ELIZA обладает весьма ограниченной способностью понимать, все же хотели оставаться с программой наедине для доверительного общения. ELIZA показала, что люди (за очень редкими исключениями) проецируют человеческие свойства на программы, претендующие на человекоподобие. Этот эффект усиливается, когда люди оказываются в обществе роботов, именуемых “коммуникабельными” машинами: такие машины способны проследить за вашими движениями, установить визуальный контакт и запомнить ваше имя[317]. Тогда люди чувствуют, что рядом находится кто-то знающий, кто-то, кому есть до них дело. Двадцатишестилетний мужчина беседует с роботом по имени Kismet, способным устанавливать визуальный контакт, опознавать выражения лица и издавать звуки, напоминающие модуляции человеческой речи. Этот молодой человек настолько дорожит поддержкой робота Kismet, что готов обсуждать с ним позитивные и негативные моменты своего дня[318].
Машины, наделенные голосами[319], обладают особой силой внушать нам, что они нас понимают. Впервые дети знакомятся с матерями, привыкая узнавать их голоса, причем происходит это еще в утробе. Во время нашей эволюции единственной речью, которую мы слышали, была речь других людей. Теперь, по мере развития сложной искусственной речи, мы оказались первыми людьми, чьей задачей стало отличать речь людей от речи машин[320]. С точки зрения неврологии, мы не обладаем качествами, необходимыми для такого рода деятельности. Поскольку прежде – скажем, в течение 200 000 лет – люди слышали только человеческие голоса, требуются серьезные умственные усилия, чтобы отличить речь человека от речи, генерируемой машинами. Для нашего мозга речь – это то, что делают люди.
Особой силой обладают также машины с человекоподобной внешностью.
У людей форма улыбки или гримасы высвобождает химические вещества, воздействующие на психологическое состояние. Наши зеркальные нейроны возбуждаются как при выполнении действий, так и при наблюдении за действиями других. Мы сами чувствуем эмоции, которые видим на лице другого человека. Выразительное лицо робота тоже может оказать на нас влияние. По мнению философа Эмманюэля Левинаса, присутствие лица влечет за собой действие этического договора между людьми. Лицо сообщает: “Не убивай меня”. Появление лица связывает нас обязательствами еще до того, как мы узнаем, что за ним стоит, – еще до того, как мы, возможно, узнаем, что это лицо машины, которую нельзя убивать. И, с точки зрения Левинаса, лицо робота, безусловно, говорит: “Не покидай меня”. Опять-таки, это этический и эмоциональный договор, связывающий нас обязательствами, но не имеющий смысла, если наши чувства обращены к машине[321].
Экспрессивное лицо машины – будь то лицо робота или программа на экране компьютера – помещает нас в ландшафт, где мы ищем признания и чувствуем, что можем его получить. По сути дела, нас побуждают искать эмпатию у объекта, неспособного ее дать.
Поделиться книгой в соц сетях:
Обратите внимание, что комментарий должен быть не короче 20 символов. Покажите уважение к себе и другим пользователям!