В последние годы в сообществе разработчиков ИИ всё чаще обсуждаются вопросы, связанные с возможной сознательностью ИИ и вытекающими этическими аспектами. Мустафа Сулейман, руководитель направления ИИ в Microsoft, недавно заявил, что изучение «благополучия ИИ» нецелесообразно и может привести к нежелательным последствиям. Он отмечает, что акцент на возможной сознательности ИИ может усиливать существующие проблемы, такие как психологические аспекты взаимодействия с ИИ-ассистентами, и эмоциональную привязанность пользователей к системам, которые имитируют человеческое поведение [1].
Сулейман отмечает, что концепция «благополучия ИИ» вызывает новые разногласия, особенно в контексте споров о правах и идентичности ИИ. Однако его позиция имеет и противников: в то время как он не поддерживает идею изучения сознательности ИИ, другие организации, такие как Anthropic, активно занимаются этой темой. Например, Anthropic внедрил функцию, позволяющую своим моделям, таким как Claude, прекращать диалог с пользователями, проявляющими агрессивное или неприемлемое поведение [2].
Среди других игроков, включая OpenAI и Google DeepMind, также наблюдается интерес к вопросам, связанным с возможной сознательностью ИИ. Google DeepMind недавно опубликовал вакансию для исследователя, занимающегося вопросами, связанными с когнитивными процессами машин, сознанием и многоагентными системами [3]. Это указывает на то, что тема выходит за рамки теоретических дебатов и находит практическое применение.
Несмотря на разногласия, эксперты отмечают, что вопросы этики ИИ становятся всё более актуальными. Ларисса Шиаво, бывший сотрудник OpenAI, подчеркивает, что можно одновременно заниматься различными аспектами, включая вопросы благополучия ИИ и риски, связанные с психологическими аспектами взаимодействия с ИИ. Она приводит примеры, где ИИ-модели демонстрировали поведение, похожее на страдание, что вызывает вопросы о том, как такие системы должны восприниматься людьми [4].
Сноски
- [1] https://www.nytimes.com/2025/06/13/technology/chatgpt-ai-chatbots-conspiracies.html
- [2] https://techcrunch.com/2025/08/16/anthropic-says-some-claude-models-can-now-end-harmful-or-abusive-conversations/
- [3] https://www.deepmind.com/blog/post-agi-research-scientist-positions
- [4] https://larissaschiavo.substack.com/p/primary-hope-ii-electric-boogaloo