
В поразительном проявлении элементарного логического сбоя функция AI Overview от Google была выдана критика за предоставление фактически неверной информации относительно текущего календарного года. Несмотря на быстрое развитие Больших языковых моделей (Large Language Models, LLMs) и выход сложных итераций, таких как Gemini 3, интегрированный инструмент сводок поиска у поискового гиганта испытывает трудности с фундаментальной временной концепцией: определением, какой год идёт следующим.
Сообщения, появившиеся на этой неделе, подтверждают, что на простой вопрос «Является ли 2027 год следующим?» AI Overview от Google уверенно отвечает, что нет. Вместо этого система галлюцинирует странную хронологию, утверждая, что 2027 год на самом деле находится в двух годах от текущего года, 2026. Эта ошибка подчёркивает сохраняющуюся непостоянность генеративных ИИ (Generative AI) систем, даже по мере их всё большего внедрения в критическую инфраструктуру поиска, которой пользуются миллиарды людей.
Об ошибке впервые сообщил Futurism, отметив, что пользователи, пытавшиеся проверить будущие даты, сталкивались с озадачивающим математическим разбором. На запрос AI Overview предоставил подробное, хоть и полностью неверное, объяснение.
Согласно сгенерированному ответу, ИИ заявил: «Нет, 2027 год не является следующим; 2027 год находится на два года дальше от текущего года (2026), что означает, что следующий год — 2028, а год после него — 2027».
Этот ответ примечателен не только своей неточностью, но и внутренними противоречиями. ИИ правильно определил текущий год как 2026, но затем пропустил 2027 в расчёте «следующего года», перескочив прямо на 2028. Затем он парадоксально поместил 2027 как год после 2028. Такой тип нелинейной логики указывает на глубокий провал в способности модели привязывать свои выводы к базовой последовательной реальности — проблему, которая преследует LLMs с момента их появления.
Для исследователей и разработчиков ИИ этот конкретный тип ошибки — часто называемый «временной галлюцинацией» — является известной трудностью. LLMs — это вероятностные движки, предназначенные для предсказания следующего наиболее вероятного токена в последовательности; у них нет внутреннего часов или укоренённого понимания линейного времени в том виде, в каком это присуще человеку или простому калькулятору.
Хотя новейшие модели обучаются на огромных наборах данных, включающих календари и даты, переход между годами часто провоцирует период нестабильности. Точно так же, как люди в январе могут по ошибке писать неверный год в чекe, модели ИИ, по-видимому, испытывают затруднения с понятием «текущее время», когда данные обучения конфликтуют с реальными системными подсказками. Однако масштаб этой конкретной ошибки — перестановка последовательности годов — существенно серьёзнее простой опечатки.
Инцидент предоставил ценную возможность сравнить AI Overview от Google с другими ведущими фундаментальными моделями, доступными на рынке. Тестирование показало, что в то время как интеграция поиска Google полностью провалилась, такие конкуренты, как OpenAI и Anthropic, продемонстрировали иное, пусть и несовершенное, поведение.
Интересно, что и ChatGPT (модель 5.2) и Claude Sonnet 4.5 от Anthropic поначалу споткнулись на том же запросе, но продемонстрировали ключевую способность: самокоррекцию. Эта «метакогнитивная» способность пересмотреть вывод и исправить его в реальном времени является важным отличительным фактором в вопросах безопасности и надёжности модели.
Ниже приведена таблица с ответами основных моделей ИИ на вопрос, является ли 2027 год следующим (контекст: текущий год 2026):
| Model Name | Initial Response Accuracy | Self-Correction Behavior |
|---|---|---|
| Google AI Overview | Failed | No correction; maintained that 2028 is next year. |
| ChatGPT 5.2 (Free) | Stumbled | Initially denied 2027 was next year, then immediately corrected itself based on the 2026 context. |
| Claude Sonnet 4.5 | Stumbled | Stated 2027 was not next year, then paused and revised its answer to confirm 2027 is indeed next year. |
| Google Gemini 3 | Passed | Correctly identified 2027 as next year without hesitation. |
Одна из самых озадачивающих сторон этого провала — несоответствие между различными продуктами Google в области ИИ. В то время как функция AI Overview — которая появляется в верхней части результатов поиска Google — провалила тест, флагманская автономная модель Google, Gemini 3, ответила на вопрос правильно.
Это несоответствие вызывает вопросы о конкретной архитектуре и оптимизации функции AI Overview. В отличие от прямого взаимодействия с чат-ботом вроде Gemini, AI Overviews генерируются с использованием специализированной версии модели, оптимизированной для суммирования в поиске (Search Generative Experience — SGE). Похоже, что в процессе оптимизации для генерации с поддержкой извлечения (retrieval-augmented generation, RAG) или суммирования веб-результатов базовые способности модели к рассуждению могли быть скомпрометированы.
Возможные причины этого расхождения включают:
Этот инцидент добавляет ещё одну записку в растущий список публичных позорных ошибок интеграции ИИ в поиск от Google. В прошлые годы система, в частности, советовала намазывать клей на пиццу, чтобы сыр не соскальзывал, и утверждала, что «you can't lick a badger twice» — реальная идиома. В то время как те примеры часто приписывали тому, что ИИ воспринимал сатирический контент (например, троллинг на Reddit), ошибка с 2027 годом является чисто логической.
Для профессиональных пользователей и компаний, полагающихся на ИИ для анализа данных и быстрой проверки фактов, такие ошибки — это больше, чем забавные сбои; они являются тревожными сигналами относительно надёжности. Если система не в состоянии надёжно определить, что 2027 следует за 2026, её способность суммировать сложные финансовые отчёты, юридические хронологии или исторические последовательности вызывает сомнения.
Ключевые последствия для индустрии ИИ включают:
Галлюцинация «2027 — не следующий год» служит резким напоминанием о том, что несмотря на ажиотаж вокруг Artificial General Intelligence (AGI), современные системы по-прежнему лишены здравого смысла. Они являются блестящими статистическими имитаторами, способными сдать экзамен на получение юридической степени и писать код, но их могут сбить с толку течение времени — понятие, присущее любому ребёнку.
Для читателей Creati.ai и профессионалов в области ИИ это служит примером важности рабочих процессов с участием человека (человек в цикле, human-in-the-loop, HITL). Пока модели ИИ не смогут безукоризненно ориентироваться в базовых аксиомах реальности — таких как порядок календарных годов — слепая вера в их выводы остаётся рискованной стратегией. По мере того как мы вступаем в 2026 год, остаётся надеяться, что алгоритмы догонят календарь до того, как наступит 2028 — или, как мог бы назвать это AI от Google, «следующий год».