При этом как раз их проще всего ИИшкой то и заменить 😅
mmkouzminykh
А та контора, от которой был оффер, как поживает? Не расформировалась?
vapvapvapvap
Этим разработчиком был Альберт Эйнштейн
Прям так взял и отказался от зп в 2.5 раза больше?
899014842
Ему же пообещали карьерный рост
quokkus
Делают все, чтобы позволить другим программистам сбера путешествовать заграницей. Примерно посещать 20 стран за год
Ну да ну да
yobsss
Если предлагают сильно больше денег - надо бегом соглашаться.
В любой сфере в найме, всегда.
Но кидалово и наедалово никто не отменял.
quokkus
Тот же Сбер почему-то не может свой гигачат с нуля сделать
Как так случилось, что даже ему дешевле взять Qwen? Может работникам платить не хочется? Или зависимость от Китая сменили с зависимости от Запада?)
johncybersmith
Вы просто по видимому никогда к энтерпрайз не работали, там эффективные менеджеры, им пофиг свое, лучше или хуже, им надо галочку что сделали и премию получить как можно быстрее. Так, даже при наличии компетенций они заставят их брать qwen
quokkus
Работал, вот и пишу:)
DADementr
Ну здрасте приехали, Сбер единственный тянет полностью свою LLM даже в openSrc выложили, но все равно надо нести херню на РФ продукты
quokkus
И почему веса случайным образом совпадают с qwen))
Там бедлам:)
Когда об этом написали публично, пиар отдел сразу стал покупать посты о том, что все не так и вообще Сбер молодцы с нуля пишут
DADementr
ты же можешь сам скачать и проверить так ли это.
quokkus
Проверьте. Так и будет
DADementr
Я и так знаю что это не так. Зачем мне проверять?
DADementr
Вон даже перплексити не верит в такую хрень.
Нет, веса GigaChat от Сбера и Qwen от Alibaba не идентичны. Это разные модели с уникальными архитектурами, размерами и результатами обучения, а новости о их совпадении выглядят как спекуляции или фейк без подтверждений. [hmhm](https://hmhm.wtf/2025/sber-otkryl-vesa-gigachat-3-702b-ultra-i-10b-lightning-s-moe-arhitekturoj/)
## Размеры моделей
GigaChat 3 Ultra имеет 702B параметров (MoE с активацией 36B на токен), Lightning — 10B (активация 1.8B). [huggingface](https://huggingface.co/ai-sage/GigaChat3-10B-A1.8B)
Qwen предлагает варианты вроде 72B, 32B или MoE 80B-A3B, но без совпадения по параметрам с GigaChat. [skywork](https://skywork.ai/blog/qwen-tongyi-qianwen-open-weight-ai-model/)
Открытые веса GigaChat доступны на Hugging Face отдельно от Qwen. [reddit](https://www.reddit.com/r/LocalLLaMA/comments/1p21385/gigachat3702ba36bpreview_is_now_available_on/)
## Сравнение производительности
В бенчмарках GigaChat часто лидирует на русском (MMLU RU: 80.46% vs Qwen 2.5 72B: 78.30%), но уступает в некоторых англоязычных тестах. [t-j](https://t-j.ru/news/sber-gigachat-2/)
Анализы весов (LayerNorm, bias) показывают сходства от случайного обучения с нуля, но не копирование — нет массовых совпадений в QKV/MLP слоях. [habr](https://habr.com/ru/companies/sberdevices/articles/968904/comments/)
Модели обучаются на разных корпусах: GigaChat подчеркивает русский и собственные данные Сбера. [habr](https://habr.com/ru/articles/985976/)
## Открытость и слухи
Обе серии open-weights (MIT для GigaChat 3), но без заявлений Сбера о базе на Qwen — только сравнения с DeepSeek опровергают копирование. [hmhm](https://hmhm.wtf/2025/sber-otkryl-vesa-gigachat-3-702b-ultra-i-10b-lightning-s-moe-arhitekturoj/)
Слухи об идентичности возникают в комментариях, но без хэшей или прямых сравнений весов; новости фокусируются на конкуренции. [habr](https://habr.com/ru/companies/bothub/articles/972292/comments/)
quokkus
https://t.me/boris_again/3606
DADementr
еще раз, скачай и посмотри сам. Мне не интересны чьи то высеры про органы
dmitry236
но не у Макса
quokkus
Аналогично и с блогерами. Зачем они нужны, можно заменить на ИИ-агентов:)
andr_van
Мне тоже в свое время много денег предлагали. А сейчас нахрен никому не нужен.
Причины разные. Но видно, что идет конкуренция среди соискателей за то, кто меньше запросит денег.
quokkus
Когда админ уволит всех программистов, тогда поверю, что ИИ лучше работает
Stasildo
Не ушёл, потому-что ипотека под 4℅ у него 🙂
devanboo
Вот вы угараете, а ведь реально есть такие челики, что предпочитают сидеть в огромной корпорации, мол это же надежнее)
Многие, у кого семьи особенно и ипотеки всякие, боятся что то менять и рисковать)
Вот только старатпы за мой 10 летний опыт были куда надежнее, а всякие бигтехи ебучие постоянно открывали закрывали проекты с огромными сокращениями
Channel_Bot
Мораль - никогда не отдавайтесь компании полностью, делайте самый минимум, максимально высасывая из нее соки.
dmitriyssk
Сам недавно в такой роли оказался, правда повышения не предложили
Комментарии (26)
Этим разработчиком был Альберт ЭйнштейнПрям так взял и отказался от зп в 2.5 раза больше?
Ну да ну да
В любой сфере в найме, всегда.
Но кидалово и наедалово никто не отменял.
Как так случилось, что даже ему дешевле взять Qwen? Может работникам платить не хочется? Или зависимость от Китая сменили с зависимости от Запада?)
Там бедлам:)
Когда об этом написали публично, пиар отдел сразу стал покупать посты о том, что все не так и вообще Сбер молодцы с нуля пишут
Нет, веса GigaChat от Сбера и Qwen от Alibaba не идентичны. Это разные модели с уникальными архитектурами, размерами и результатами обучения, а новости о их совпадении выглядят как спекуляции или фейк без подтверждений. [hmhm](https://hmhm.wtf/2025/sber-otkryl-vesa-gigachat-3-702b-ultra-i-10b-lightning-s-moe-arhitekturoj/)
## Размеры моделей
GigaChat 3 Ultra имеет 702B параметров (MoE с активацией 36B на токен), Lightning — 10B (активация 1.8B). [huggingface](https://huggingface.co/ai-sage/GigaChat3-10B-A1.8B)
Qwen предлагает варианты вроде 72B, 32B или MoE 80B-A3B, но без совпадения по параметрам с GigaChat. [skywork](https://skywork.ai/blog/qwen-tongyi-qianwen-open-weight-ai-model/)
Открытые веса GigaChat доступны на Hugging Face отдельно от Qwen. [reddit](https://www.reddit.com/r/LocalLLaMA/comments/1p21385/gigachat3702ba36bpreview_is_now_available_on/)
## Сравнение производительности
В бенчмарках GigaChat часто лидирует на русском (MMLU RU: 80.46% vs Qwen 2.5 72B: 78.30%), но уступает в некоторых англоязычных тестах. [t-j](https://t-j.ru/news/sber-gigachat-2/)
Анализы весов (LayerNorm, bias) показывают сходства от случайного обучения с нуля, но не копирование — нет массовых совпадений в QKV/MLP слоях. [habr](https://habr.com/ru/companies/sberdevices/articles/968904/comments/)
Модели обучаются на разных корпусах: GigaChat подчеркивает русский и собственные данные Сбера. [habr](https://habr.com/ru/articles/985976/)
## Открытость и слухи
Обе серии open-weights (MIT для GigaChat 3), но без заявлений Сбера о базе на Qwen — только сравнения с DeepSeek опровергают копирование. [hmhm](https://hmhm.wtf/2025/sber-otkryl-vesa-gigachat-3-702b-ultra-i-10b-lightning-s-moe-arhitekturoj/)
Слухи об идентичности возникают в комментариях, но без хэшей или прямых сравнений весов; новости фокусируются на конкуренции. [habr](https://habr.com/ru/companies/bothub/articles/972292/comments/)
Причины разные. Но видно, что идет конкуренция среди соискателей за то, кто меньше запросит денег.
Многие, у кого семьи особенно и ипотеки всякие, боятся что то менять и рисковать)
Вот только старатпы за мой 10 летний опыт были куда надежнее, а всякие бигтехи ебучие постоянно открывали закрывали проекты с огромными сокращениями