Русский ИТ бизнес 👨
Подписаться
Ожидалось, что ИИ одинаково хорошо справляются с анализом как первых, так и последних токенов в длинных текстах, но на деле производительность падает с ростом длины входа, даже на простых задачах.

Проще говоря, модели “устаете” при большом объёме текста и начинают ошибаться, терять важные данные или путаться. Значит, чтобы такие модели работали хорошо, нужно умело выбирать и структурировать информацию, а не просто кормить их огромными массивами текста без разбора.

В исследовании проверяли 18 моделей, включая GPT-4.1, Claude 4, Gemini 2.5 и Qwen3, и обнаружили, что модели работают всё менее надёжно по мере увеличения длины входного контекста.

Русский ИТ бизнес

Комментарии (0)

  • Devops_like_a_boss
    Все таки с длинным контекстом лучше резюмировать и подавать только релевантные куски, чем сыпать весь текст в модель )
  • ReTurbo
    Макс, подскажите какая модель AI лучше справится с задачей пирсинга с сайта?
    • dmitry236
      да, заебывает это исправление парсинга на пирсинг
    • GroupAnonymousBot
      Гпт мини
    • zerohold
      gpt-mini за 7 рублей за 1кк токенов, вообще огонь. И кольцо в пупок вставит 😂
    • McConst
      Обтекаемо сформулирован вопрос. Ибо коммерческий парсинг отличается от узкого парсинга для себя. Тут важны и цена вопроса, и возможность оплаты и объем контекста и зависания ответов от реквестов. Все ИИ по этим параметрам разные
  • McConst
    Deepseek на график забыли нанести. Не укладывается в концепцию?
  • ReTurbo
    Готов отплатить 7 за однократный парсинг одного сайта)
  • CaptainBuran
    Оригинальная статья длинная, но что конкретно делать - не понятно. Дробить большие файлы на мелкие? Или в одном текстовом файле дробить текст на пункты и подпункты?
    • GroupAnonymousBot
      дробить да
  • CaptainBuran
    что именно дробить? большой файл на мелкие или текст внутри файла? наверное, проще текст внутри, чем городить 100500 мелких файликов.