понедельник, 28 мая 2018 г.

А в вашем ИТ-отделе уже есть штатный сантехник?

А в вашем ИТ-отделе уже есть штатный сантехник?

Всё чаще начал я натыкаться на всяческие изыски на тему водяного охлаждения непосредственно процессоров и чипсетов серверов. Уже несколько достаточно известных компаний предлагают «серийные» решения. Очень интересна аргументация: процессоры выделяют очень много тепла, отводить столько тепла воздухом — сложно.





Очень занятно сочетание текстов и картинок: в тексте рассказы о «пицца-боксах» и блэйдах, которые очень плотно набиваются в стойку. На картинках — двухюнитовые сервера...

Вот и возникает у меня вопрос: проблема-то в чём?

На данный момент основная проблема не столько в том, чтобы снять тепло с корпуса процессора, сколько в передаче тепла от кристалла на корпус... Но эта проблема вполне успешно решается производителями процессоров.

В двухюнитовом корпусе совершенно спокойно размещаются радиаторы почти любого размера и «проблема» с охлаждением вообще даже и не встаёт. Опять же, все новые серверные процессоры выпускаются в вариантах с тепловыделением до 100 Вт на процессор. В результате, типичный, полностью набитый одиночный двухпроцессорный сервер выделяет в тепло 350-400 Вт при работе с полной загрузкой. 17 кВт на стойку. Ладно, блэйдами можно набить 30 кВт на стойку. Но предлагаемые решения неприменимы для блэйдов!

Что ещё говорят? Говорят, что экономично. Что для охлаждения процессора можно использовать воду с температурой до 60 градусов и, значит, достаточно просто насоса и теплообменника на улице. Но не всё так просто.

Сами же авторы этих систем говорят, что до 50% тепловыделения сервера приходится на блоки питания, регуляторы напряжения процессоров, жёсткие диски и прочие детали, на которые водяной радиатор прикрутить проблематично. Т. е. в любом случае понадобится нормальная система охлаждения воздуха в помещении.

Кроме того, в каждый сервер нужно подать воду. Как вам идея 84 водяных кранов на стойку? Да-да! Мы же говорим о системах с высокой плотностью мощности! На каждый сервер два крана: вход и выход.

Любое обслуживание сервера потребует отключить его от «водопровода». Это значит, что как-то нужно будет избежать протечек. Значит, либо очень недешёвые гидравлические разъёмы, позволяющие подключать/отключать трубы без проливания жидкости, либо штатный сантехник в серверной. Это же всё тоже затраты.

О надёжности таких систем страшно думать. На каждый двухпроцессорный сервер должно быть, как минимум, 10 (!) соединений водяных труб и трубок! 420 соединений на стойку!!!

Но... Тенденция есть! Если такими темпами пойдёт дальше, в каждом ИТ-отделе будет штатный сантехник.

Автор: Игорь Обухов.

Интересное...



Комментарии:


Lsv said:
Эльбрус N2 8)?
В свое время очень радовали платы Эльбруса с электрическим разъемом и двумя трубками :)

leo said:
да - машины от ИТМ и ВТ традиционно были с водяным охлаждением. И что?

Igor Obukhov said:
2 LSV: да и у Крэя было занятно сделано: на плате с одной стороны разъем, с другой -- две трубки. Но! Там в системе был специальный хладагент на основе фреона (В ГидроМетЦентре жаловались, что утечки, которые иногда случались, очень дорого обходились -- хладагент стоил 300 у.е. за литр) и те самые специальные разъемы для подключения плат к гидросистеме без использования резьбовых соединений, ключей и прочего. Но при цене только самой машины в 5-11 миллионов долларов, цена разъемов особой роли не сыграет.
2 leo: Все же это немного разное. Я не говорю, что водяное охлаждение -- это плохо. Это хорошо, когда _вся_ система сделана в расчете на водяное охлаждение. У тех же Крэй, Эльбрусов или ИТМиВТ все охлаждение было водяное и дополнительно им ничего не требовалось.
А когда нужно в обычном сервере, который прекрасно охлаждается воздухом, заменить штатные радиаторы на водяные, подключить к ним трубочки и потом эти трубочки к водяной системе. И еще нужно воздух отдельно охлаждать, чтобы было охлаждение блоков питания и пр. Да и уровень требований к надежности тоже разный. Одно дело суперкомпьютеры, у которых задача -- считать максимально быстро и нормальной зачастую считается "наработка на отказ" 5-6 часов. После чего полчаса-час обслуживание, перезапуск, еще часов 6 посчитаем...
А когда речь о бизнес-приложении? Скорость особо не требуется, но требуется непрерывность функционирования системы и три-четыре часа простоя в день никто себе позволить не может.
PS: а среди суперкомпьютеров вообще попадаются интересные вещи, например, кто-то делал аппарат с охлаждением разбрызгиваемой водой! Но это не значит, что такое решение будет дешевым или надежным.

Mikhail Elashkin said:
Забавно. Не думал об этом ))

romx said:
Только не "сантехник". "Сантехник" (не SUNтехник;) это специалист по санитарно-техническому оборудованию. А в данном случае эта профессия должна называться гидротехник, наверное.

Vladislav Artukov said:
А зачем вообще заводить воду внутрь каждого юнита в стойке? Достаточно предусмотреть "размыкающийся" сухой теплообменник на каждом юните и посадочном месте для юнита. Тогда водяной канал будет проходить вертикально по стойке.
Тепло с процессоров (CPU, мосты, регуляторы напряжения) и дисков можно снимать тепловыми трубками и приземлять на теплообменник юнита. Да, мы не устраним вентиляторы полностью, но значительно снизим их количество и мощность.

Igor Obukhov said:
Идея интересная. Основная проблема -- площадь теплообменника. Надо считать, но, боюсь, что организовать адекватную теплопередачу на разъемном соединении будет непросто... Хотя, надо будет посчитать.


Другие посты по этой теме:



0 коммент.:

Отправить комментарий

Ваш комментарий появится в блоге после проверки администратором