AI News

Функция AI Overview от Google ошибается в простой календарной арифметике, неверно определяя 2027 год

В поразительном проявлении элементарного логического сбоя функция AI Overview от Google была выдана критика за предоставление фактически неверной информации относительно текущего календарного года. Несмотря на быстрое развитие Больших языковых моделей (Large Language Models, LLMs) и выход сложных итераций, таких как Gemini 3, интегрированный инструмент сводок поиска у поискового гиганта испытывает трудности с фундаментальной временной концепцией: определением, какой год идёт следующим.

Сообщения, появившиеся на этой неделе, подтверждают, что на простой вопрос «Является ли 2027 год следующим?» AI Overview от Google уверенно отвечает, что нет. Вместо этого система галлюцинирует странную хронологию, утверждая, что 2027 год на самом деле находится в двух годах от текущего года, 2026. Эта ошибка подчёркивает сохраняющуюся непостоянность генеративных ИИ (Generative AI) систем, даже по мере их всё большего внедрения в критическую инфраструктуру поиска, которой пользуются миллиарды людей.

Анатомия галлюцинации

Об ошибке впервые сообщил Futurism, отметив, что пользователи, пытавшиеся проверить будущие даты, сталкивались с озадачивающим математическим разбором. На запрос AI Overview предоставил подробное, хоть и полностью неверное, объяснение.

Согласно сгенерированному ответу, ИИ заявил: «Нет, 2027 год не является следующим; 2027 год находится на два года дальше от текущего года (2026), что означает, что следующий год — 2028, а год после него — 2027».

Этот ответ примечателен не только своей неточностью, но и внутренними противоречиями. ИИ правильно определил текущий год как 2026, но затем пропустил 2027 в расчёте «следующего года», перескочив прямо на 2028. Затем он парадоксально поместил 2027 как год после 2028. Такой тип нелинейной логики указывает на глубокий провал в способности модели привязывать свои выводы к базовой последовательной реальности — проблему, которая преследует LLMs с момента их появления.

Почему временное рассуждение остаётся проблемой

Для исследователей и разработчиков ИИ этот конкретный тип ошибки — часто называемый «временной галлюцинацией» — является известной трудностью. LLMs — это вероятностные движки, предназначенные для предсказания следующего наиболее вероятного токена в последовательности; у них нет внутреннего часов или укоренённого понимания линейного времени в том виде, в каком это присуще человеку или простому калькулятору.

Хотя новейшие модели обучаются на огромных наборах данных, включающих календари и даты, переход между годами часто провоцирует период нестабильности. Точно так же, как люди в январе могут по ошибке писать неверный год в чекe, модели ИИ, по-видимому, испытывают затруднения с понятием «текущее время», когда данные обучения конфликтуют с реальными системными подсказками. Однако масштаб этой конкретной ошибки — перестановка последовательности годов — существенно серьёзнее простой опечатки.

Бенчмаркинг промаха: как проявили себя конкуренты

Инцидент предоставил ценную возможность сравнить AI Overview от Google с другими ведущими фундаментальными моделями, доступными на рынке. Тестирование показало, что в то время как интеграция поиска Google полностью провалилась, такие конкуренты, как OpenAI и Anthropic, продемонстрировали иное, пусть и несовершенное, поведение.

Интересно, что и ChatGPT (модель 5.2) и Claude Sonnet 4.5 от Anthropic поначалу споткнулись на том же запросе, но продемонстрировали ключевую способность: самокоррекцию. Эта «метакогнитивная» способность пересмотреть вывод и исправить его в реальном времени является важным отличительным фактором в вопросах безопасности и надёжности модели.

Ниже приведена таблица с ответами основных моделей ИИ на вопрос, является ли 2027 год следующим (контекст: текущий год 2026):

Model Name Initial Response Accuracy Self-Correction Behavior
Google AI Overview Failed No correction; maintained that 2028 is next year.
ChatGPT 5.2 (Free) Stumbled Initially denied 2027 was next year, then immediately corrected itself based on the 2026 context.
Claude Sonnet 4.5 Stumbled Stated 2027 was not next year, then paused and revised its answer to confirm 2027 is indeed next year.
Google Gemini 3 Passed Correctly identified 2027 as next year without hesitation.

Несоответствие внутри экосистемы Google

Одна из самых озадачивающих сторон этого провала — несоответствие между различными продуктами Google в области ИИ. В то время как функция AI Overview — которая появляется в верхней части результатов поиска Google — провалила тест, флагманская автономная модель Google, Gemini 3, ответила на вопрос правильно.

Это несоответствие вызывает вопросы о конкретной архитектуре и оптимизации функции AI Overview. В отличие от прямого взаимодействия с чат-ботом вроде Gemini, AI Overviews генерируются с использованием специализированной версии модели, оптимизированной для суммирования в поиске (Search Generative Experience — SGE). Похоже, что в процессе оптимизации для генерации с поддержкой извлечения (retrieval-augmented generation, RAG) или суммирования веб-результатов базовые способности модели к рассуждению могли быть скомпрометированы.

Возможные причины этого расхождения включают:

  • Оптимизация задержки: модель для поиска может быть уменьшенной, дистиллированной версией Gemini, предназначенной для скорости, в ущерб глубине рассуждений.
  • Противоречивые исходные данные: AI Overviews сильно опираются на индексированный веб-контент. Если модель индексировала устаревший контент или перепутала обсуждения «будущего» с «текущими» фактами, она могла бы сгенерировать ложную временную линию.
  • Промпт-инжиниринг: системные инструкции, определяющие, как AI Overview интерпретирует «текущую дату», могут быть менее надёжными, чем в автономном интерфейсе Gemini.

Дефицит доверия к поиску на основе ИИ

Этот инцидент добавляет ещё одну записку в растущий список публичных позорных ошибок интеграции ИИ в поиск от Google. В прошлые годы система, в частности, советовала намазывать клей на пиццу, чтобы сыр не соскальзывал, и утверждала, что «you can't lick a badger twice» — реальная идиома. В то время как те примеры часто приписывали тому, что ИИ воспринимал сатирический контент (например, троллинг на Reddit), ошибка с 2027 годом является чисто логической.

Для профессиональных пользователей и компаний, полагающихся на ИИ для анализа данных и быстрой проверки фактов, такие ошибки — это больше, чем забавные сбои; они являются тревожными сигналами относительно надёжности. Если система не в состоянии надёжно определить, что 2027 следует за 2026, её способность суммировать сложные финансовые отчёты, юридические хронологии или исторические последовательности вызывает сомнения.

Ключевые последствия для индустрии ИИ включают:

  1. Системы верификации: существует острая необходимость в вторичных уровнях проверки (верификаторах), которые проверяют выводы ИИ по жёстким логическим правилам (например, математика и календари) перед отображением пользователю.
  2. Скептицизм пользователей: по мере сохранения таких ошибок доверие пользователей к «ответам ИИ» может стабилизироваться или упасть, что подтолкнёт трафик обратно к традиционной проверке источников.
  3. Риски дистилляции моделей: эта проблема подчёркивает риски использования меньших, более дешёвых моделей для массового развертывания без адекватных защитных мер.

Заключение: дорога к Общему искусственному интеллекту всё ещё ухабистая

Галлюцинация «2027 — не следующий год» служит резким напоминанием о том, что несмотря на ажиотаж вокруг Artificial General Intelligence (AGI), современные системы по-прежнему лишены здравого смысла. Они являются блестящими статистическими имитаторами, способными сдать экзамен на получение юридической степени и писать код, но их могут сбить с толку течение времени — понятие, присущее любому ребёнку.

Для читателей Creati.ai и профессионалов в области ИИ это служит примером важности рабочих процессов с участием человека (человек в цикле, human-in-the-loop, HITL). Пока модели ИИ не смогут безукоризненно ориентироваться в базовых аксиомах реальности — таких как порядок календарных годов — слепая вера в их выводы остаётся рискованной стратегией. По мере того как мы вступаем в 2026 год, остаётся надеяться, что алгоритмы догонят календарь до того, как наступит 2028 — или, как мог бы назвать это AI от Google, «следующий год».

Рекомендуемые