Русский ИТ бизнес 👨
Подписаться
Post media
Не знаю, как это запускать локально, ибо новые ИИ просто коллосы.

Судя по расчетам пользователей на основе кода (HuggingFace PR), общая база параметров GLM-5 составляет около 776 миллиардов (776B).

Чтобы запустить такую махину даже в сжатом виде (квантование 4-бит), потребуется более 400 ГБ видеопамяти (VRAM). Для этого нужно минимум 17–20 видеокарт RTX 3090/4090, что превращает «локальный» запуск в серверную задачу :)

В общем ИИ становятся умнее, но «входной билет» для их запуска дома подорожал до цены подержанного автомобиля в РФ.

Русский ИТ бизнес

Комментарии (4)

  • 6044436014
    Верно, локальный запуск сейчас это целая эпоха, а облако уже необходимость. Готов к такому вызову?
    Было бы круто посмотреть альтернативы подешевле за счёт оптимизаций и квантования
  • herolegal
    В инсте показывали набор из четырех маков, объединенных тандерболтом. 1.5Tb. $40k
  • oleshko_alexey
    на примере 1С GLM не очень https://vibecoding1c.ru/bench
  • Sergey_chto_nado
    или ИИ процессоры и дофига RAM понятно что ddr5, у меня нет на ноуте видеокарты, но модели до 20b и 32K контекста работают уверенно.