16 АПРЕЛЯ 2026
Не может быть и речи
Как мы знаем, больше половины всего контента в интернете
теперь пишут LLM. А в марте 2026 года журнал Nature опубликовал исследование о том, что даже молодые ученые не могут отличить научные тексты, сгенерированные нейросетями, от написанных человеком. На вопрос, это нейросети научились писать или люди разучились, искала ответ руководительница DH-центра Университета ИТМО и исследовательница ЕУСПб Полина Колозариди.
ask anything...

Машины учатся у нас, мы — у машин
В 2021 году у нас с коллегами состоялась дискуссия о том, как
меняется текст под воздействием разных технологий, которыми пользуются
при его создании. Примером стала история академического письма в ХХ веке: начиналось все с перьевых ручек, а закончилось экраном персонального компьютера. В ходе разговора стало ясно, что беспокойство о технологиях —
это беспокойство о коллективности. Участвовала ли в написании текстов
Анна Сниткина — секретарь-стенографистка, которой Достоевский диктовал «Игрока»? Или «Эрика» — легендарная печатная машинка фирмы Seidel & Naumann? Или «Сакко и Ванцетти» — московская фабрика карандашей?
Но сегодня не так часто возникают переживания из-за диктовки, авто-проверки орфографии или привлечения друзей к вычитке текста. Другое дело — нейросети1. Большие языковые модели вызывают опасения: машинную и человеческую речь все сложнее отличить друг от друга. Во-первых, оттого,
что стараниями инженеров генеративные LLM разговаривают все более похоже на людей. Во-вторых, потому что ежедневное общение с нейросетями может делать речь людей более похожей на чат-ботов. Например журналисты New York Times в прошлом году сперва выяснили, что язык нейросетей изобилует конструкциями «не просто Х, но и Y», а затем отыскали эти обороты в риторике кандидатов в президенты от Демократической партии на выборах 2024 года: этот риторический прием активно использовали и Камала Харрис, и Джо Байден. Другое наблюдение — это предпочтение триад: конструкций, состоящие из трех слов, предложений и сюжетных ходов. Да, примерно таких.
ИИ, большие языковые модели и нейросети — это разные понятия, но в тексте они часто используются как синонимы. В первую очередь я имею в виду языковые модели, на основе которых сделаны приложения с чат-ботами и инструменты работы с текстом.
1
❝
Исследователи обычно уточняют: язык меняют не технологии сами по себе, а связанный с ними сленг, новые практики общения, культурные изменения.
Трансформации можно увидеть на больших выборках, как показывает исследование Хирому Якуры из Института физики общества Макса Планка и его коллег. Авторы проанализировали сотни устных выступлений на английском языке за последние несколько лет — научно-технические подкасты, интервью, обсуждения, — и сравнили, как люди говорили до появления ChatGPT и после. Самый известный вывод исследования в том, что частота употребления слова delve («исследовать, копаться») в обычных разговорах выросла в разы. В список слов-пришельцев также попали intricate («сложный, замысловатый»), surpass («превосходить»), meticulous («скрупулезный»). Авторы исследования называют это «культурной петлей обратной связи»: машины учатся у нас, мы — у машин.
intricate
delve


Вопрос о воздействии ИИ на язык наследует волнению о том, как влияют на язык разные новые явления: телевидение, эсэмэс-сообщения и так далее. Исследователи обычно уточняют: язык меняют не технологии сами по себе, а связанный с ними сленг, новые практики общения, культурные изменения. Например, в книге Максима Кронгауза «Русский язык на грани нервного срыва» описано, как «после перестройки мы пережили минимум три словесных волны: бандитскую, профессиональную и гламурную». Он же в 2003 году в статье «Слово под лупой» в журнале "Отечественные записки объяснял,
что в сравнении с советскими временами СМИ перестали оказывать доминирующее влияние на повседневную человеческую речь. Получается,
что их место занимают все более новые медиа и технологии.
Люди — общаются, машины — исполняют
Интересные обсуждения происходят на «Хабре», основном русскоязычном форуме для общения айтишников. Участники сообщества регулярно ставят эксперименты и показывают на разных примерах, как отличить сгенерированный текст от того, что создан людьми. Например, автор подробнейшего гайда советует примечать не только кавычки и аккуратность текста, но ритм и эмоциональную динамику. Правда, как показывает дискуссия под постом, у читателей форума отличаются представления о том, какая динамика свойственна людям, а какая — машинам. В другой статье приводится целая таблица ключевых слов, по которым можно распознать нейросеть. Комментаторы и исследователи сходятся в том, что лучше всего авторство нейросети можно определить с помощью проверки текста другой нейросетью. Собственный метод и инструментарий для этого разработали, в частности, и российские ученые — из МФТИ, Сколтеха и AIRI. Разумеется, на том же «Хабре» выходит множество текстов о том, как обмануть ИИ-детектор. Проводятся чемпионаты по выявлению сгенерированных текстов. Только вот их результаты используются как раз для того, чтобы улучшать модели. Получается, что влияние ИИ на язык невозможно проверить уже хотя бы потому, что создатели машин и их «разоблачители» — это одни и те же люди, и они не останавливаются, дорабатывая модели. И конечно, потому что огромное количество текстов, создаваемых людьми, по умолчанию похожи на машинные
вне зависимости от своего происхождения: служебные записки, описания товаров на маркетплейсах, кликбейтные заголовки на новостных порталах. В результате, по мнению ученых, искать ключевые различия между «человеческим» и «машинным» текстом нужно не во внешних, а во внутренних признаках сообщения.
❝
Получается, что влияние ИИ на язык невозможно проверить уже хотя бы потому, что создатели машин и их «разоблачители» — это одни и те же люди, и они не останавли-ваются, дорабатывая модели.

Александр Климов, лингвист и филолог, руководитель программы по цифровым гуманитарным исследованиям НИУ ВШЭ, объясняет, что речь нейросетей устроена принципиально не так, как у человека. «У высказывания есть модус и диктум. Модус включает в себя отношение говорящего к реальности или даже к содержанию собственного высказывания. Когда мы общаемся с человеком, даже в чате, мы считываем огромный пласт косвенных сигналов: колебания, поиск нужного слова, так называемые хезитации (“э-э-э”, “ну...”), самоисправления (в чате, например, — досылания нужного слога или слова с исправленной ошибкой). Текст, созданный ИИ, лишен реального модуса и концентрируется на диктуме, то есть объективноми содержании. Да, с помощью промпта можно настроить степень уверенности, тональность текста, но это все еще не является модусом в том смысле, который присущ речи людей». Итак, в человеческой речи есть и модус, и диктум. Конечно, чат-бота тоже можно настроить на добавление модуса, но результат будет лишь имитацией привычной нам полноты высказывания. «Вдобавок в разговоре с ИИ мы используем в первую очередь конативную функцию языка: побуждение к действию вроде приказов или просьб. Но у языка много других функций, и он не сводится просто к указаниям и советам», — продолжает Александр. Пока непонятно, отразится ли увеличение количества приказов в человеческой практике на характере речи между живыми людьми. Но для лингвистов разница значительная: люди — общаются, машины — выполняют задачи. Правда, люди тоже выполняют задачи, в школах и университетах учат видеть мир как набор задач, соответствующих разным дисциплинам. Возможно, путаница возникает потому, что обучение машин и людей слишком похоже.
Шаблоны и рамки мышления
❝
Это становится еще одним поводом для беспокойства и в сфере образования, и во многих рабочих процессах: люди не учатся сами усваивать правила, но могут успешно имитировать это усвоение с помощью ИИ.
Влияние нейросетей сложно зафиксировать, можно лишь, опираясь на крупные тенденции, предположить, что оно
есть. Зато небольшие детали можно разглядеть, в том числе на собственном опыте. Для того чтобы с этим разобраться, нужно обратиться к антропологии. Антропологи изучают
в том числе и то, как устроены практики письма. «Мы
можем рассматривать взаимодействие человека с ИИ как своеобразную “этнографическую встречу” — изучать логи переписок, наблюдать за тем, как пользователи формулируют промпты, как интерпретируют ответы модели, как меняют
(или, наоборот, сохраняют) свои привычные коммуникативные стратегии», — рассказывает доцент Европейского университета в Санкт-Петербурге и научный сотрудник Лаборатории антропологической лингвистики ИЛИ РАН Екатерина Хонинева. Получается, что, даже если ИИ-технологии не влияют на язык, они становятся триггерами вопроса
о том, где проходит граница между человеком и машиной.


Одна из распространенных практик использования ИИ — делегирование им работы секретаря или ассистента: того, кому можно отправить сыроватый текст и попросить привести в необходимую форму. Так школьник придает своим соображениям облик сочинений, тамада — анекдотов, а бухгалтер — отчетов. Правила жанров могут быть не вполне понятны человеку или сложны для него. Машины, наоборот, учатся распознавать сочетания слов, принятые в базе данных, статье, архиве, в общем, в определенной ситуации. Это становится еще одним поводом для беспокойства и в сфере образования, и во многих рабочих процессах: люди не учатся сами усваивать правила, но могут успешно имитировать это усвоение с помощью ИИ. Поэтому в работе и образовании становится непонятно, на основании чего ставить оценки или повышать зарплату: действительно ли сам человек научился лучше выполнять какую-то задачу, или только хорошо настроил машину, чтобы она сделала это за него,
или между этими рабочими параметрами уже и нет никакой разницы.
«Хорошая аналогия находится в XVIII веке — это наборы инструкций по написанию писем, так называемые письмовники, — говорит руководитель центра изучения русской мысли в БФУ имени Канта Андрей Тесля. — А из чуть более близкой нам культуры — открытки к конкретным праздникам, где уже
что-то преднаписано. Потому что у людей уже нет эпистолярной культуры
как таковой, но есть сознание того, что нужно послать весточку».
Зачем разоблачать машины?
На изменение самого понятия грамотности указывают не только историки. Исследовательницы Анна Качкаева и Светлана Шомова из НИУ ВШЭ выделяют несколько разные видов грамотности — включая, например визуальную и даже «мемную» — которые в современной научной среде связывают с умением работать с медиа. Такое определение грамотности нужно для защиты существующего порядка: как будто за любым текстом может стоять генеративный контент, подразумевается необходимость его «разоблачать».
Неудивительно, что не утихают протесты против ИИ. Люди пишут коллективные письма и делают публичные заявления против ИИ-инструментов, добиваются того, чтобы издатели не работали со сгенерированными текстами. Но языковые модели — не та технология, которую можно регулировать запретами сверху. Многие профессионалы сами используют нейросети и говорят о работе «человеко-машинной системы», а не просто об использовании инструмента.

Лейф Визерби, американский исследователь культуры и технологий, утверждает в своей книге Language machines, что с письмом будет происходить то же, что полтора века происходит с вычислениями. С середины позапрошлого века — с момента изобретения машины Чарльза Бэббиджа и первых опытов программирования Ады Лавлейс — изменилось место вычислений в человеческой деятельности. Чем они важнее, тем меньше людей, даже профессионалов, вычисляют в уме: мы доверяем это машинам, а работой математиков остаются формулы и их соотношение с тем, что подлежит подсчету (от налогов до поведения бозона Хиггса). Возможно, наш язык пока недостаточен для описания того, что будет происходить с письменностью и речью при развитии языковых моделей. Но новые приемы для использования ИИ появляются постоянно: у журналистов, школьниц, студентов, писательниц и так далее. Также каждый день случаются новые разоблачения ИИ-письма. Сложно сказать, какой процесс успешнее, но оба заставляют пользователей каждый день экспериментировать с технологиями и отношениями с собственным языком. Эти эксперименты позволяет людям убеждаться в том, что хотя бы сами они — все еще не роботы. Как говорит об этом Екатерина Хонинева: «Встреча с искусственным собеседником становится пусковым механизмом для личной рефлексии пользователей о том, что собой представляет язык и коммуникация, каковы их социальные функции, какова их связь с личностью, сознанием, индивидуальной агентностью — и истиной. Каким образом вообще язык соотносится с человеческим и человечным?». Наше беспокойство о границах человеческого меняет сами эти границы, и это беспокойство неотделимо от технологий. С ним тоже можно экспериментировать.