Локальная станция для ИИ собрана целиком с вторичного рынка и стоит 4300$. Итого у сборки 96 ГБ VRAM, что за такие деньги выглядит адекватно, а владелец подумывает докупить еще две 3090 (цены не высокие сейчас на б-у карты). Автор писал, что брал карты у геймеров на корейском вторичном рынке (!) :). Использовал 2 блока питания EVGA по мощности 1600 ватт.
Вот здесь бурное обсуждение. Цель - запуск современных ИИ для локальных нужд. Мое мнение - это исключительно хобби, т.к. конструкция шумит, греется и потребляет электричество. Проще покупать токены на рынке.
Русский ИТ бизнес
Русский ИТ бизнес
15 сен 2025 12:56
-
ну в целом на таком можно запустить кибер-тянку сугубо под себя, и испытывать счастье от общения после тяжелого трудного дня, в течение которого не удавалось нормально сделать связку клаудпейментс и яндекс.сплит. -
Интересно, но слишком шумно! -
А в целом для чего подобные штуки для себя или для своей компании? Я где-то пропустил момент своей жизни, когда это стало мейнстримом. Может кто-то вечернее чтиво хорошее посоветует?-
для себя. просто хобби.-
В закрытых сетях для служебного пользования, заменить губернаторов на ИИ помощников😭😭😭
-
-
-
для генерации всратых видео на ютубе собирают -
Интересно кто-то гоняет LLM на Mac Mini M4 Pro и M4 Max? Как опыт? Не путать с просто M4.