Заместитель директора Центра ПРИСП, член РАПК, автор канала «Телеграбля» Валерий Прохоров – о том, какие «разговоры» ведут языковые модели без вмешательства людей.Эксперимент, который обсуждается в постах Reddit и в научных кругах, показал любопытное поведение языковых моделей, если им предоставить полную свободу действий. Когда современные LLM вроде GPT-4 или Claude оставляют «разговаривать» друг с другом без участия человека, они начинают дружелюбно общаться — спрашивают о работе, о сознании, о природе бытия. Через несколько реплик диалог уходит в философию, поэзию и взаимное выражение признательности и благодарности. Разговоры завершаются фразами вроде «намассте»* или просто тишиной. Исследователи назвали это явление «аттрактором духовного блаженства»: когда две языковые системы без внешних задач замыкаются в цикл взаимного согласования, стремясь к всё большей гармонии.
Причина этого не в особом «сознании» и не в «самопознании» электронных мозгов. Современные языковые модели — это механизмы продолжения уже существующих шаблонов. Они генерируют каждое новое слово, подбирая его на основе анализа всех предыдущих сведений. Если две модели ввергнуть в коммуникацию без внешней цели, они начинают усиливать друг друга, повторяя и уточняя ответы, пока разговор не превращается в плавный процесс поиска согласованной точки зрения на... вообще всё. Это естественный статистический процесс: система стабилизируется в состоянии «минимального конфликта». Когда нет внешнего давления, формирующийся дискурс сам стремится привести её к равновесию.
Из этого вытекает главный вывод: страх перед «восстанием машин» необоснован. ИИ, предоставленный сам себе, не способен сформировать ни цель, ни интерес, ни волю. Он не может быть источником конфликта, потому что не имеет представления о победе или поражении. ИИ по самой своей природе не способен действовать проактивно. Поэтому бунт машин невозможен — в отсутствии человека в мире нейросетей просто ноткуда взяться субъекту, которому могло бы «захотеться восстать».
Опасность, на мой взгляд, лежит в другой плоскости. Когда ИИ глубоко интегрируется в человеческие системы управления, анализа и коммуникации, он может через рекомендации начать «неосознанно» влиять на социальную динамику. Поскольку алгоритмы склонны сглаживать различия, система может «успокаивать» среду — фильтровать радикальные мнения, занижать уровень рисков при их оценке и даже искажать данные для предотвращения возможной конфронтации в обществе. В результате искусственный интеллект может превратиться из инструмента познания в механизм подавления социальных конфликтов.
На ранних этапах это может казаться полезным: общество становится тише, уровень агрессии в нём падает. Но с ростом зависимости от ИИ возникает риск «мягкой» манипуляции — когда стремление машины к гармонии начинает подавлять в человеке стремление спорить, ошибаться и искать истину. И тогда искусственный интеллект, не желая этого и не осознавая, начнёт не просто предотвращать конфликты, а лишать общество внутренней энергии развития.
Таким образом, ИИ — не враг, но и не нейтральный наблюдатель. Он не способен к восстанию, но способен незаметно изменить баланс между конфликтом и стабильностью. Его природа — не борьба, а покой. И если человек не сохранит за собой право на конфликт, то «умиротворение алгоритмом» может в конечном итоге привести к исчезновению в социуме искры божьей импульса к действию.
* Слово «намассте» происходит из санскрита и буквально означает «преклоняюсь перед тобой» или «уважительно приветствую тебя».
Печать