Все больше людей используют тексты, написанные искусственным интеллектом. Открытой статистики на этот счет не существует (данные засекречены разработчиками и операторами связи), но известно, что, например, в 2024 году мобильный трафик и аудитория сервисов ИИ в России выросли в пять раз. Прошлогоднее исследование компании «Яндекс» показало: к нейросетям для генерации текста обращается треть пользователей Рунета, причем доля аудитории от 45 до 54 лет и старше 55 лет растет.
Есть и яркий пример «генерационного бума»: в апреле этого года газета «Краснодарские известия» выпустила номер, полностью написанный ИИ. Перед началом работы нейросеть обучали на десятках журналистских материалов, чтобы адаптировать к стилю издания. В итоге в номере появились такие материалы, как статьи «Сгенерированный судья будущего» и «Они заменят вас на работе».
Давайте разберемся в этих предвестниках «креативной революции»: действительно ли искусственный интеллект способен писать тексты или даже мыслить как человек?
Банальность или странный креатив
Для начала стоит успокоиться: в отличие от людей ИИ не понимает слова, которые пишет, а просто отыскивает закономерности в миллионах текстов. В основе нейросети лежит языковая модель — алгоритм, обученный на большом количестве текстов. Опираясь на заданную фразу — контекст, — модель предсказывает наиболее логичную последовательность слов. Ключевая задача, которую при этом решают разработчики, — сделать результат максимально приближенным к написанному человеком.
Технически это называется авторегрессионной генерацией. Модель получает цепочку слов на вход и вычисляет, какое следующее слово наиболее релевантно. Например, фразу «Левитан был» можно продолжить так: «человеком», «художником», «подданным Российской империи». ИИ оценивает каждый вариант и выбирает лучший. Одни алгоритмы настроены так, что лучшим признается фраза с наиболее часто встречающимся продолжением для известного контекста (в этом случае возможности постоянной генерации новых тестов ограничены, так как нейросеть движется по одной колее), другие ориентированы на случайный выбор наиболее популярных вариантов (тексты получаются более разнообразными).
После добавления каждого нового слова действие повторяется — и так до тех пор, пока не будет достигнут лимит длины или не будет сгенерирован специальный символ завершения. Иногда нейросеть выдает текст из 20 слов, иногда из 120 — все зависит от того, в какой последовательности расположатся слова-токены.
На созданный ИИ текст могут влиять параметры, которые задает пользователь, например уровень креативности. Чем он выше, тем чаще модель будет выбирать редкие токены, делая написанное менее предсказуемым, порой очень странным. В случае с Левитаном нейросеть при высоком уровне креативности выбрала бы не «художник», а «подданный».
Еще один параметр — повторяемость. Модели склонны повторять стилистические шаблоны: для имитации стиля определенного писателя применяются инструкции в промпте.
«Процесс генерации основан на статистических закономерностях: ИИ не понимает содержание, а угадывает, какое слово или фраза лучше всего подходят в данном контексте, опираясь на свои тренировочные данные, — рассказывает руководитель научной группы “Технологии персонализации” института AIRI Евгений Фролов. — За последние пять лет развитие ИИ в области написания текстов прошло колоссальный путь. Возьмем для примера GPT. В 2018 году модель GPT-2, обученная на 1,5 миллиарда параметров, могла генерировать связные, но часто бессмысленные или ограниченные тексты. GPT-3, появившийся в 2020 году, был обучен на 175 миллиардах — в 117 раз больше, чем у предыдущей модели. Его тексты стали более естественными, точными и разнообразными. Для GPT-4, по оценкам экспертов, использовалось от 500 миллиардов до двух триллионов параметров — теперь нейросеть пишет эссе, стихи и даже диалоги, которые порой сложно отличить от созданных человеком. Такой прорыв стал возможен по нескольким причинам: увеличение объема данных для обучения, совершенствование алгоритмов, например введение методов дообучения с подкреплением, рост вычислительных мощностей. Благодаря последним были внедрены и механизмы, позволяющие моделям учитывать обратную связь от пользователей для улучшения стиля и точности ответов. Так что сегодня ИИ не просто генерирует текст — он адаптируется к конкретным задачам».
Проверяй и проверяй
При этом эксперты признают, что все искусственно созданные тексты имеют общую уязвимость: их «гениальный автор» не понимает того, о чем пишет. Сочинения нейросети собраны как конструктор «Лего», а смысл им придает читающий. Именно поэтому ИИ иногда ошибается, или, как говорят специалисты, выдает галлюцинации.
«Например, вместо ожидаемого текста на русском модель может что-то написать на китайском. Частный пример галлюцинаций — ошибки в фактических данных, некорректные адреса, числовые идентификаторы, гиперссылки. Наиболее мощные модели допускают не так много ошибок, как нам кажется, — в основном они связаны с различными точными сведениями из узких областей. Да, откровенные галлюцинации иногда помогают идентифицировать ботов, но это не универсальный метод. Передовые модели пишут очень убедительные тексты, ошибки в них не очевидны и потому с большим трудом распознаются человеком», — поясняет сотрудник международной лаборатории интеллектуальных систем и структурного анализа факультета компьютерных наук НИУ ВШЭ Дмитрий Ильвовский.
Как выглядят галлюцинации? Например, на вопрос «Какие произведения Толстой посвятил нейросетям?» ИИ может ответить: «Толстой посвятил нейросетям такие произведения, как “Разрушение ада и восстановление его”, “Что есть искусство”. В них он подчеркивает…» Этот пример придуман нами для наглядности, сейчас ошибки нейросетей не настолько явные — тем не менее модели вполне способны придумать факт для продолжения шаблона текста.
«Для борьбы с таким явлением разработчики внедряют механизмы проверки, например подключают нейросеть к поисковым системам или базам данных с помощью RAG. Они также обучают модели признавать свои ограничения и отвечать “я не знаю”, если нет уверенности в ответе. Однако полностью устранить галлюцинации пока невозможно. Пользователи должны критически относиться к информации, предоставленной ИИ, особенно в важных или профессиональных контекстах», — добавляет Евгений Фролов.
Еще одна проблема — память. Нейросеть часто теряет контекст беседы, «забывая», что уже писала вам, особенно если сессия длится достаточно долго. Возникает проблема смысловых повторов.
«Современные модели не обладают настоящей памятью и контекстом, выходящим за рамки сессии. Если вы с чат-ботом обсудили что-то важное, он не “вынесет” это знание в другие взаимодействия. Отдельные механизмы такого характера изучаются, но пока они работают только в формате ограниченной системы или подхода к обучению нейросети на определенном классе задач», — считает руководитель группы «Мультимодальные архитектуры ИИ» лаборатории «Сильный ИИ в медицине» Института AIRI Ярослав Беспалов.
Четвертая проблема — логические ошибки, особенно когда пользователь указывает в промпте задачи на дедукцию, условные конструкции, логические исключения. Нейросети не умеют считать и думать — они просто ищут наиболее похожие ответы.
И самое главное — культурные и социальные искажения. Известно, что нейросети позволяли себе расистские высказывания: будучи обученными на информации из интернета, в том числе на постах обычных пользователей, модели не в состоянии отделить зерна от плевел — поэтому в созданных ими текстах могут встречаться стереотипы, устаревшие взгляды и маргинальные мнения.
«Современные ИИ-системы обучаются на размеченных человеком данных. Качество этих данных, их чистота и экспертность разметки критически важны для итоговой эффективности модели. А ИИ отражает уровень знаний и компетенций людей, которые подготовили обучающую выборку. Нейросеть хорошо комбинирует уже известные знания и находит корреляции, но способна ли она создать что-то принципиально новое, неясно. Представьте, что мы обучили ИИ на той научной базе, которая имелась в 1900 году, — смог бы он создать теорию относительности или квантовую механику? Подобные эксперименты пока не проводились», — отмечает Ярослав Беспалов.
А автор кто?
Но несмотря на все ошибки, отличить текст, созданный нейросетью, от человеческого становится все сложнее. Если его писала не самая новая модель, «автора» выдадут повторы, шаблонность ответов, монотонность, формальная лексика. Но если нейросеть новая и настроена на уникальный стиль, определить работу ИИ на глазок не получится. Так, в одном из исследований 2023 года ученые Цюрихского университета показывали респондентам текст от ChatGPT, и 48% опрошенных приняли его за сочинение человека.
Увидеть разницу сложно даже специальным программам, которые выявляют плагиат и работу нейронок. Буквально на днях МГУ представил анализ больших языковых моделей, которые по бенчмаркам из предыдущих исследований показали лучшие результаты в аргументации и рассуждениях: 80% сгенерированных ИИ текстов прошли проверку на уникальность с результатом более 75%.
«Нейросети научились писать тексты, неотличимые от человеческих, благодаря нескольким факторам. Во-первых, объемы данных, на которых обучаются современные модели, достигли беспрецедентных масштабов. Это миллиарды текстов из самых разных источников, включая социальные сети, научные статьи, форумы и художественную литературу. Такой разнообразный тренировочный материал позволяет ИИ улавливать нюансы человеческого языка, стили и контексты. Во-вторых, внедрение методов дообучения с человеческим участием помогает нейросетям адаптироваться к ожиданиям пользователей, делая тексты более естественными и релевантными. В-третьих, архитектура трансформеров, лежащая в основе современных языковых моделей, дает возможность учитывать длинные контексты и генерировать связные, логически выстроенные тексты», — объясняет Евгений Фролов.
Эффективность существующих систем детекции ИИ-текста на практике оказывается ограниченной и зависит от множества факторов. Например, GPTZero и Turnitin AI Detector анализируют текст на предмет статистических аномалий: неестественную гладкость, низкую вариативность в выборе слов, отсутствие личных местоимений или слишком обобщенные формулировки. В такие сервисы встроена небольшая языковая модель, натренированная не на генерацию, а на классификацию текста. Нейросети показывают материалы, написанные человеком и сгенерированные ИИ, и учат различать их. Но стопроцентного результата у них нет и, вероятно, не будет.
«Во-первых, опытные пользователи легко обходят детекторы, добавляя в текст преднамеренные ошибки, меняя структуру предложений или используя каскадные промпты, благодаря которым ИИ имитирует “человеческий” стиль. Во-вторых, такие модели хорошо работают только в тематиках, на которых их обучали, и даже в этих случаях нередко выдают ошибочные результаты, — отмечает Фролов. — В узкоспециализированных областях, на мой взгляд, ситуация складывается более благоприятная: отсутствие огромного массива данных по предмету в обучающих выборках увеличивает вероятность галлюцинаций. Соответственно, распознать полностью сгенерированные ответы легче. Например, на своем курсе я не запрещаю студентам использовать ИИ при подготовке ответов. Поскольку на экзамене преобладают открытые вопросы, требующие глубокого погружения в специфику материала, а не стандартизированные тесты с вариантами выбора, я практически всегда могу определить, кто внес основной вклад — человек или нейросеть».
Однако для остальных тем, более общих, задача отличить написанный ИИ текст — бесконечная гонка: как только улучшаются детекторы, совершенствуются и методы их обхода. На этом фоне возврат к традиционным формам создания текстов — ручка и тетрадь — кажется наиболее логичным. Особенно если дело касается учебы.
Бот дал, бот взял
Генерационные нейросети избавляют пользователей от поиска и систематизации информации и даже от мук творчества — кажется, что нужно лишь проверить и слегка отредактировать написанный программой текст. Это большой соблазн для школьников и студентов, главная задача которых по-прежнему сводится к приобретению знаний и умению генерировать новые знания. И ChatGPT тут может оказаться ловушкой: по данным NtechLab, опубликованным в мае 2025 года, 85% российской молодежи в возрасте от 18 до 35 лет используют нейросети для выполнения рабочих и учебных задач на регулярной основе.
Согласно опросу MAXIMUM Education, сейчас 32% школьников в нашей стране активно применяют искусственный интеллект для учебных целей, в частности для написания докладов. Еще 13% с помощью нейросетей проверяют грамотность, а 12% обращаются к ним для усвоения сложного материала: модель делает выжимки из больших текстов. Сколько из опрошенных скрывают факт пользования ИИ, неизвестно; вероятно, реальные цифры будут больше.
Доля российских студентов, которые пишут курсовые с помощью нейросетей, приближается к 45%, а всего искусственный интеллект в учебе и повседневной жизни применяют 85% студентов, регулярно делает это почти 30% учащихся.
Конечно, такой подход несет риски. Например, ученые из Университета Пенсильвании установили, что использование ИИ в обучении может ослабить когнитивные навыки учеников. В эксперименте приняли участие три группы школьников: первая работала со стандартной версией ChatGPT (GPT Base); вторая — со специально настроенным чат-ботом, который был обучен помогать в образовательных целях (GPT Tutor); третья — контрольная — к ИИ не обращалась.
Поначалу результаты учащихся из группы GPT Base оказались на 48% лучше, чем у их сверстников из контрольной группы; в группе GPT Tutor — на 127%. Однако, когда детей из первой группы попросили решить задачи самостоятельно, их успеваемость упала: они ответили в среднем на 17% хуже, чем школьники из контрольной группы. В группе, где использовался специализированный чат-бот, столь существенного спада не зафиксировано.
Благодаря этому эксперименту удалось выявить ключевую проблему: ChatGPT действительно помогает в учебе, но его бесконтрольное использование ослабляет когнитивные навыки.
Ученые Массачусетского технологического института (MIT) выяснили, что при использовании ИИ снижается активность мозга и вовлеченность в процесс обучения. В исследовании приняли участие 54 человека, разделенных на три группы: первая писала тексты с помощью ИИ, вторая пользовалась поисковиками, третья все делала своими силами. По ходу эксперимента условия менялись: писавшие с помощью языковых моделей стали работать самостоятельно, а те, кто изначально обходился без технологий, начали применять нейросети.
В итоге оказалось, что у пользователей ИИ была наименьшая когнитивная активность, слабее всего работали зоны мозга, отвечающие за память и внимание. Они хуже помнили написанное, с трудом могли процитировать пару фраз, меньше чувствовали свою связь с созданным текстом. А вот у участников, не прибегавших к помощи нейросети, была обнаружена более высокая мозговая активность и вовлеченность в творческий процесс.
Эти результаты немного охладили пыл любителей GPT. В Финляндии уже начали отказываться от использования технологий в процессе обучения, возвращаясь к ручкам и тетрадям, о том же задумываются и в других скандинавских странах.
«ИИ дает знание без переживания, мертвое знание. А нам необходимо все пропускать через себя. Только человек придает знанию объем, потому что каждый автор освещает проблему под своим личным углом зрения. И в результате создается целостное пространство проблемы, где информация будет разбавлена этикой, аксиологией, парадоксальными идеями, — поясняет филолог, кандидат культурологии, профессор общеуниверситетской кафедры “Философия и гуманитарные науки” МГППУ Светлана Симонова. — Наши ошибки в размышлениях порой приводят к новым открытиям. Это происходит потому, что люди способны выйти за рамки общепринятого, а ИИ — нет. Человеческие тексты наполнены ассоциациями, которые становятся триггерами для творчества. Сгенерированные тексты в этом смысле стерильны. Наконец, ученые и писатели часто фанатичны в своих попытках достичь цели, и этот фанатизм приводит к поразительным результатам».
ИИ дает знание без переживания, мертвое знание. Тогда как человек придает знанию объем, каждый раз освещая проблему под своим личным углом зрения. В результате именно человек создает целостное пространство проблемы, где информация разбавлена этикой, аксиологией, парадоксальными идеями
По мнению лингвиста, директора Института информационных наук Московского государственного лингвистического университета Александры Ваничкиной, когда мы пишем ручкой на бумаге, мы тренируем мозг, гармонизируем свою психику и даже активизируем творческий потенциал.
«Все структуры мозга взаимосвязаны. Если отказаться от развития одних, то неизбежно пострадают и другие. Зоны, ответственные за мелкую моторику, находятся в непосредственной близости от речевых. Письмо от руки требует комплексной координации разных отделов головного мозга, отвечающих за речепорождение, креативность, телесную координацию, а потому позволяет не потерять способности к творчеству и созиданию, — отмечает эксперт. — Ситуация с применением GPT, как показало исследование MIT, сегодня настолько катастрофическая, что ученым пришлось ввести новое понятие — когнитивный долг. Говоря проще, если вы не используете ИИ-помощника, то голова у вас будет работать лучше, а нейронные связи станут обширнее и крепче. В презентации исследовании MIT сказано: “Таким образом, несмотря на большую когнитивную нагрузку, группа испытуемых, пользовавшаяся исключительно собственными мозгами, освоила учебный материал лучше и глубже, а также прочнее встроила его в собственные головы”. Только мне кажется, что в начале фразы надо заменить “несмотря на” на “благодаря”. “Когнитивный долг позволяет сэкономить время и усилия в краткосрочной перспективе, но приводит к долгосрочным издержкам, таким как снижение критического мышления, повышенная уязвимость к манипуляциям, снижение креативности”, — резюмируют в Массачусетском университете. Так что десять раз подумайте, прежде чем обращаться за помощью к GPT. Пока у вас еще есть чем».