Только в вагон и влезет....SDA, инвертор в вагон не влезет теперь?
Вы не поверите...SDA, понятно, ну надеюсь, что наши микросхемы не забывают оборудовать удобными ручками для переноски
И скобами для подъемного крана.SDA, понятно, ну надеюсь, что наши микросхемы не забывают оборудовать удобными ручками для переноски
Ручки тоже были импортными?Вы не поверите...
РымболтыИ скобами для подъемного крана.
Какой-то замшелый завод корпуса делает, по чертежам 1812 года. Моя просьба доработать типовой корпус вызвала такое недоумение, как будто я их попросил Землю крутануть в обратную сторонуРучки тоже были импортными?
я еще застал переход наших снабженцев с ритталовских шкафов на импортозамещающие аналоги. Цены у аналогов неожиданно оказались на уровне и даже в некоторых случаях выше, чем у Риттал.Какой-то замшелый завод корпуса делает, по чертежам 1812 года. Моя просьба доработать типовой корпус вызвала такое недоумение, как будто я их попросил Землю крутануть в обратную сторону
интересное мнение в официальном источнике. В беседе с «Газетой.Ru» заместитель декана по научной работе факультета ВМК МГУ им. Ломоносова, профессор Василий Фомичев рассказал: «Проскочило в новостях, что его мощность 400 петафлопс, и это был бы действительно второй-третий суперкомпьютер в мире по производительности, но это не так. Это немножко другие петафлопсы, что важно подчеркнуть». "... как отметил ученый, заявленная мощность в 400 петафлопс AI является проектной. Он предполагает, что в случае тестирования в LINPACK этот результат будет значительно ниже". Ключевая причина заключается в том, что заявленная производительность в 400 петафлопс — это не классический показатель для задач общей вычислительной нагрузки (как в тесте Linpack, используемом в TOP500), а специализированный параметр для операций искусственного интеллекта. Эти операции часто используют пониженную точность вычислений (например, FP16 или даже INT8), что позволяет значительно ускорить расчёты для нейросетей, но не применимо для многих научных задач, требующих двойной точности (FP64).Про "пиковую в ИИ задачах", то есть вообще про fp8, скорее всего (fp4 два года назад на доступном железе ещё не было).
Вы не внимательно прочли: не из чего делать, кристаллы из забугорья, отечественные кристаллы не позволяют сделать компактное устройствоУд не знаю, где Вы таких подрядчиков находите? В основной массе уже адекватные предприятия, готовые сделать что угодно для клиента. Хотя в Иваново сталкивался, но это было лет 5 назад. По цене да, вопросы могут быть, но с точки зрения возможностей и желания уже проблем давно нет. Делают всё что скажешь.
а этот суперкомпьютер вообще существует?МГУ-270 не универсальный суперкомпьюте
Хорошо, что Маск и всякие старгейты наконец-то начали оценивать мощность вычислительных центров в мегаваттах и блоках АЭС, так что ваша дискуссия устарела)FLOPS измеряет скорость вычислений, а не совершение физической работы. Это производительность, а не мощность в физическом понимании.
Не надо путать это с физической мощностью, которая измеряется в ваттах и показывает потребление электроэнергии. Еще раз: FLOPS — это мера скорости, а не энергии.
Мы ж , инженеры или как?
По идее, через годик ждём нейронку, обученную в МГУ , правильно? Или в чем цель суперкомпьютера для искусственного интеллекта?а этот суперкомпьютер вообще существует?
"Здесь мерилом работы считают усталость"Хорошо, что Маск и всякие старгейты наконец-то начали оценивать мощность вычислительных центров в мегаваттах и блоках АЭС, так что ваша дискуссия устарела)
официально DeepSeek использует 2048 H800 для обучения DeepSeek-V3 (общий парк GPU, доступный компании, оценивается в ~50000 единиц (H100, H800, A100, H20)). Обучение GPT-4 потребовало более 25000 графических карт Nvidia H100. Microsoft представила MAI-1-preview, которую, по словам компании, обучали на 15000 графических процессорах Nvidia H100. Технические параметры "МГУ-270" известны только узкому кругу. Остается ждать. "Что выросло?! — Ну, что выросло, то выросло"По идее, через годик ждём нейронку, обученную в МГУ , правильно? Или в чем цель суперкомпьютера для искусственного интеллекта?
А одна Н100 - это сколько флопс?)))официально DeepSeek использует 2048 H800 для обучения DeepSeek-V3 (общий парк GPU, доступный компании, оценивается в ~50000 единиц (H100, H800, A100, H20)). Обучение GPT-4 потребовало более 25000 графических карт Nvidia H100. Microsoft представила MAI-1-preview, которую, по словам компании, обучали на 15000 графических процессорах Nvidia H100.
одна карта H100 способна выполнять от 34 триллионов операций в секунду (FP64) до почти 4 квадриллионов операций в секунду (FP8)А одна Н100 - это сколько флопс?)))