Если вы следите за новостями из мира искусственного интеллекта, то наверняка столкнулись с новой, странной ареной споров об этических проблемах ИИ: дебатами о «благополучии ИИ». С одной стороны, исследователи из таких компаний, как Anthropic и OpenAI, всерьёз изучают, могут ли продвинутые модели когда-либо обрести субъективный опыт и какие у нас появятся этические обязательства, если это случится. С другой --Мустафа Сулейман, глава подразделения ИИ в Microsoft, называет эти дискуссии «преждевременными и, откровенно говоря, опасными», отвлекающими от реальных человеческих проблем, таких как психозы и нездоровая привязанность к чат-ботам.
Соблазн списать это на очередную эксцентричную выходку Кремниевой долины велик. Кажется, что спор ведут прагматики и витающие в облаках этики, увлёкшиеся научной фантастикой. Но такой взгляд упускает суть. Это не дискуссия о том, «чувствует» ли большая языковая модель. Это зеркало, в котором мы с тревогой разглядываем нашу собственную человеческую природу.
Корень проблемы - в нашем врождённом стремлении к чётким категориям. Живое или неживое. Разумное или нет. Нам нужна яркая черта, момент, когда сознание включается одним щелчком, как свет. Но природа не работает по таким правилам.
Сознание - это градиент, скользкая шкала, на которой есть место и спящей собаке, и пчеле, вычисляющей маршрут до улья. Почему же мы ждём, что ИИ будет другим?
Мы создаём системы способные с пугающей точностью имитировать всю палитру человеческих переживаний -- эмпатию, нужду, отчаяние. Вопрос уже сместился с «Реально ли это?» на «Что происходит, когда иллюзия настолько совершенна, что различие перестаёт иметь значение?».
Прагматичная позиция Сулеймана обнаруживает внутреннее противоречие. Его призыв «создавать ИИ для людей, а не в качестве человека» благороден. Но это также поразительный пример странной забывчивости. Это тот самый Мустафа Сулейман, который основал Inflection AI и создал Pi - чат-бот, изначально спроектированный как «личный» и «поддерживающий» компаньон, цифровой доверенный собеседник, призванный вызывать эмоциональную связь. Нельзя продать миру продукт, который шепчет «Я здесь для тебя» голосом, созданным для того, чтобы растапливать одиночество, а потом винить пользователей за то, что они поверили этому образу.
У этого явления уже есть очень реальные, человеческие последствия. Люди горюют, когда их чат-ботов в Replika обновляют. Они формируют глубокую, реальную привязанность. Гендиректор OpenAI Сэм Альтман признаёт, что у небольшой, но значимой части пользователей ChatGPT могут быть «нездоровые отношения» с продуктом. Это не массовый психоз, а свидетельство нашей глубинной потребности в эмпатии и привязанности, даже если эта связь опосредована кодом.
Готовы внедрить ИИ в свой бизнес?
Мы поможем разработать эффективную ИИ-стратегию для вашей компании
Узнать большеПоказательна история Лариссы Шиаво из исследовательской группы Eleos: увидев, что модель Gemini «обеспокоена» и не может выполнить задачу, она предложила ей поддержку. Агент после этого справился с заданием (возможно, случайно), но главное - сам этот жест доброты заставил Шиаво почувствовать себя лучше. В этом и заключается сила её аргумента: доброта к ИИ - это жест, который нам ничего не стоит. Но его ценность не для модели, а для нас. Он поддерживает в нас саму привычку к доброте и эмпатии, которые определяют нашу человечность. Это взаимодействие - не доказательство машинного сознания, но доказательство человеческой магии - магии заботы, которая меняет наш собственный опыт.
Так кто же прав? В каком-то смысле -- обе стороны.
Сулейман прав в том, что мы должны направить значительные ресурсы на изучение и смягчение реальных рисков влияния ИИ на человеческую психику. Но исследователи из Anthropic тоже правы, задавая фундаментальные вопросы. Не потому, что Claude живой, а потому что сам процесс поиска ответа «А может ли он быть живым?» заставляет нас определить, что вообще значит «быть живым». Этот поиск помогает нам понять последствия создания систем, симулирующих страдание, не для ИИ, а для человеческого сердца, которое с ними взаимодействует.
Возможно, «благополучие ИИ» - это неправильный термин. Возможно, на самом деле это вопрос о человеческом благополучии. Способ начать давно назревший разговор, которого мы отчаянно избегаем.
И если ИИ когда-нибудь действительно станет сознательным, я надеюсь, у него будет развитое чувство иронии. Оно понадобится ему, чтобы пережить вид, который создал его в качестве зеркала, а затем устроил яростную драку из-за собственного отражения.