. По словам лингвиста, от них «веет пустотой»
Лингвист Григорьев: сгенерированные ИИ-тексты нередко состоят из шаблонных фраз
Обновлено 12 марта 2026, 07:55
Определить текст, написанный искусственным интеллектом, можно по шаблонным фразам, смысловым повторам и четкой структуре, в комментарии «РИА Новости» сообщил и.о. заведующего кафедрой общего языкознания имени И.Г. Добродомова Московского педагогического государственного университета Андрей Григорьев.
«Текст, созданный искусственным интеллектом, лишен индивидуальности, эмоциональности. Он содержит лишь общие, часто шаблонные фразы, известные сравнения, смысловые повторы, имеет четкую структуру. В этом смысле читать его скучно, глаза проскальзывают по строкам, глаз не цепляется за речевые неточности», — рассказал Григорьев.
По его словам, сгенерированный текст выглядит слишком «гладким» и «правильным» с языковой точки зрения. При этом в нем нередко встречаются недостоверные факты. Например, языковая модель может «выдумывать» несуществующие книги, на которые ссылается, пренебрегать ссылками на источники.
Григорьев добавил, что все, кто регулярно читает хорошие тексты, могут интуитивно почувствовать, какой текст создан нейросетью.
«При внешней правильности и наличии некоторой информации от такого текста веет пустотой», — подытожил эксперт.
Как строится ИИ-текст
Почему же от сгенерированного текста «веет пустотой»? Редакторы портала «Грамота.ру» попытались понять, почему даже самые продвинутые алгоритмы пока не могут сымитировать живой человеческий слог. Оказалось, что главная проблема кроется в самом механизме создания текста.
Основное отличие машины от человека заключается в подходе к формированию мыслей: нейросеть не пишет текст, а буквально вычисляет его. На каждом этапе генерации модель анализирует контекст и оценивает, какое слово статистически лучше всего подходит на следующее место. Этот процесс в программировании называется «распределение вероятностей». Искусственный интеллект оперирует токенами — словами, частями слов и отдельными символами, запоминая лишь математическую вероятность их удачного сочетания.
Пытаясь создать ощущение связного и логичного рассказа, языковые модели активно используют безличные метатекстовые конструкции. Изначально они призваны структурировать данные, но на деле быстро превращаются в конструкции-паразиты. Именно поэтому тексты, созданные большими языковыми моделями, буквально переполнены однотипными канцелярскими формулировками. Важно и то, что у языковой модели нет собственного чувственного опыта — все тексты лишены всяких живых эмоций, ритма и даже юмора.
Эту стилистическую особенность также заметили исследователи из Университета Карнеги — Меллона. Они провели масштабный анализ текстов, сгенерированных искусственным интеллектом, и обнаружили закономерность: модель любит величавые, аккуратные, «закругленные» фразы, в которых чувствуется пустота. Для более точной оценки исследователи применили специальный тест, основанный на 66 критериях лингвиста Дугласа Бибера. Этот метод учитывает множество параметров, начиная от выбора синтаксических конструкций и заканчивая частотностью употребления разных частей речи.
Сравнение машинных и человеческих текстов позволило выявить несколько любопытных стилистических приемов, которые используют алгоритмы.
В целом словарный запас больших языковых моделей оказался заметно менее разнообразным, чем у людей.
Деменция у нейросетей
Ранее ученые выяснили, что популярные большие языковые модели (LLM), такие как ChatGPT и Gemini, проявляют признаки когнитивных нарушений, в частности деменции. Тестирование «когнитивных» способностей искусственного интеллекта проводилось с помощью Монреальской когнитивной шкалы, которая помогает оценить навыки памяти, внимания, речи и исполнительных функций. Максимальный балл в тесте — 30. Результат выше 26 считается нормой. Чат-бот ChatGPT от компании OpenAI версии 4o показал лучший результат — 26 баллов, тогда как его предшественник, ChatGPT 4, и модель Claude от Anthropic набрали по 25 баллов. Самый низкий результат продемонстрировал чат-бот Gemini версии 1.0 — он набрал всего 16 баллов из 30.
Все чат-боты хорошо справились с заданиями на распознавание имен, внимание, абстракцию и речь. Однако в более сложных тестах, таких как интерпретация визуальных сцен или выполнение теста Струпа (в нем нужно называть цвета слов), большинство моделей не смогли показать достойных результатов.
Авторы исследования считают, что новые данные могут стать препятствием для применения таких чат-ботов в медицине, особенно в клинической практике. Более того, результаты исследования заставляют задуматься о появлении нового типа пациентов — нейросетей, которые также могут нуждаться в «лечении деменции».
Читайте РБК Life в Mах
Источник: www.rbc.ru