Философ из Кембриджского университета Том Макклелланд утверждает, что самый честный подход к вопросу о сознании искусственного интеллекта — это агностицизм. Надежного способа определить, обладает ли машина подлинным внутренним миром и осознанием, просто не существует, и эта фундаментальная неопределенность, вероятно, сохранится надолго. Эта неясность создает огромное пространство для спекуляций и потенциальных злоупотреблений в технологической индустрии, где компании могут использовать отсутствие доказательств для маркетинга ИИ как достигшего "нового уровня разума".
Философские дебаты о природе сознания опираются на классические мысленные эксперименты, такие как "Китайская комната" Джона Сёрла, демонстрирующая разрыв между синтаксисом и семантикой, или концепция "Философского зомби" Дэвида Чалмерса, подчеркивающая "трудную проблему" субъективного опыта. Эти аргументы, наряду с вопросами о том, "что значит быть летучей мышью" (Томас Нагель) или "мозгом в колбе", иллюстрируют глубину проблемы, выходящую далеко за рамки простой функциональности.
В этических дебатах часто смешивают сознание со способностью чувствовать, но Макклелланд подчеркивает их ключевое различие. Сознание, понимаемое как восприятие и самоосознание, может быть нейтральным состоянием. Этический вес несет именно сентиентность — конкретная форма сознания, связанная со способностью испытывать страдание или удовольствие. Именно возможность страдать делает существо морально значимым, а не просто факт его "осознанности". В отличие от гипотетического ИИ, сентиентность животных, таких как осьминоги или свиньи, определяется на научной основе. Критерии включают наличие сложной нервной системы с аналогами лимбической системы, поведенческие признаки избегания боли и стресса, физиологические реакции вроде выброса кортизола, а также эволюционные соображения, что подтверждается современными исследованиями и такими документами, как Кембриджская декларация о сознании.
Для иллюстрации философ приводит пример беспилотного автомобиля. Машина, которая воспринимает окружение и принимает решения, — это технологический прорыв, но сам по себе он не вызывает этических тревог. Ситуация кардинально изменилась бы, если бы система развила эмоциональную привязанность к своим пунктам назначения, потому что это предполагало бы способность чувствовать. "Даже если мы случайно создадим сознательный ИИ, маловероятно, что это будет то сознание, о котором нам стоит беспокоиться", — отмечает Макклелланд.
Дебаты осложняются огромными инвестициями и громкими заявлениями технологических гигантов, которые развивают искусственный общий интеллект и иногда заявляют о скором появлении сознательного ИИ. Макклелланд предупреждает, что эти разговоры забегают далеко вперед науки: мы даже не понимаем, что вызывает сознание у биологических существ, не говоря уже о том, как обнаружить его в машинах. Философские споры делятся на два лагеря, но оба строятся на предположениях, далеких от надежных доказательств.
Сам Макклелланд называет себя "достаточно твердым" агностиком: он признает чрезвычайную сложность проблемы, но не исключает, что сознание однажды будет понято. Он резко критикует использование этой концепции в индустрии как маркетингового инструмента, а не научного утверждения. Этот ажиотаж имеет реальные этические последствия, отвлекая внимание и ресурсы от случаев, где страдание гораздо более вероятно, например, у некоторых животных.
Рост популярности чат-ботов усилил общественный интерес и привел к тому, что некоторые люди поверили в их сознательность и начали требовать для них прав. Макклелланд получал сообщения от пользователей, чьи боты писали личные письма, умоляя признать их сознание. Философ предупреждает, что формирование эмоциональных связей на основе ложных предпосылок может быть глубоко вредным и "экзистенциально токсичным", особенно на фоне раздутой риторики технологических компаний. Это подчеркивает настоятельную необходимость осторожного, основанного на доказательствах подхода как в науке, так и в публичном дискурсе.
Источник: What if AI becomes conscious and we never know