Экспертные оценки

Повышение плотности вычислений заставит ИТ перейти на жидкостное охлаждение, от которого они выиграют

14 апреля 2015 г. | Хоптон Питер | Категория: Обсуждаем статью

Как говорят физики, теория «большого сжатия» предполагает, что, подобно тому, как расширилась вселенная в результате большого взрыва, так же точно она сожмется и в конечном итоге исчезнет. Это на удивление точная метафора применима и к сфере IT: можно предсказать, что мы в ближайшее десятилетие увидим нечто подобное большому сжатию.

Не бойтесь, мы не превратимся в черную дыру. Мы просто будем иметь дело с менее объемным, но более плотным вычислительным ресурсом: произойдет нечто, что отправит воздушное охлаждение в резерв и радикально изменит традиционные представления о центре обработки данных и о высокоплотных вычислениях.

Мы уже создаем сверхплотные вычислительные технологии, которые чрезвычайно трудно поддаются охлаждению с помощью вентиляторов. Это плохо, поскольку именно их можно найти в любом ЦОДе мира. Это беспокоит, но глядя на всю историю физического оборудования IT, можно увидеть ясную картину того, как мы к этому пришли.

На протяжении последних тридцати лет, с момента изобретения процессоров CMOS, стоимость обработки уменьшалась вдвое каждые полтора года: это явление известно как Закон Куми и тесно связано с более известным законом Мура. Понимаете, воздушное охлаждение сервера представляет собой некий тепловой конверт, и по мере того, как эффективность чипа повышается в два раза в смысле вычислений на ватт, сам чип начинает работать вдвое быстрее – это повышение энергоэффективности по закону Мура.

Производители чипов и материнских плат сталкивались с увеличивающимся тепловыделением от высокопроизводительных серверов – тех самых, которые вы найдете в среднем дата-центре или в зале для высокопроизводительных вычислений. Эту проблему они решали выводом тепла наружу в допустимый тепловой конверт, создаваемый воздушным охлаждением. Именно поэтому мы можем делать серверы с двумя, четырьмя и даже восемью процессорами. Однако, до тех пор, пока не придумают что-то из ряда вон выходящее, вывод тепла наружу больше не будет работать.

Передача данных сжигает энергию

Проблема заключается в стоимости энергии, затрачиваемой на передачу данных: расходы тут не уменьшаются с той же скоростью, что и расходы на собственно вычисления. Другими словами, соотношение энергии, используемой для обработки данных и для передачи данных (например, на RAM и шину PCle) меняется, и все большая доля от всей потребляемой энергии приходится на передачу.

Много лет назад аккумулятор мобильного телефона мог держать заряд неделю, а не один день. Жизнь батареи уменьшается – но не вследствие увеличения мощности процессора. Энергия уходит на все увеличивающиеся объемы передачи данных. Не верите? Выключите функцию передачи данных, wi-fi, 3G, 4G – и ваш аккумулятор будет работать вечность.

Двадцать лет назад дата-центры ставили в один шкаф оборудование, потребляющее 1 кВт. Десять лет назад – уже 5 кВт. Сегодня строящиеся дата-центры закладывают уже 10 кВт и даже выше. Некоторые высокопроизводительные ЦОДы, где от интерконнекта зависит производительность совместно используемых ресурсов серверов, закладывают в проект от 20 до 30 кВт, и это приближается к пределу, после которого традиционное охлаждение бессильно.

Для обуздания повышающихся затрат на электроэнергию для передачи между ядрами процессора, самим процессором и RAM, а также процессором и системой хранения, индустрия ищет способы сокращения дистанции передачи. К 2020 году, вероятно, RAM переместят с расстояния 5 см от процессора на гораздо меньшее – 5 мм. А локальное устройство хранения будет на расстоянии не 30 см, а 3 мм.

Эта проблема передачи данных будет все больше затруднять строительство мультисокетных серверов, и скорее всего, серверы придут к единому сокету на узел (хотя можно иметь множество узлов на плату).

И что же все это значит? Все эти новые сверхплотные системы процессоров, RAM и хранилища будут с трудом поддаваться охлаждению воздушными средствами, поэтому жидкостное охлаждение в той или иной форме станет насущно необходимым. Николас Дьюб, выдающийся инженер HP, считает: «К 2020 году плотность и тепловыделение будут таковы, что потребуется жидкостное охлаждение».

Я склонен согласиться с ним, и хотел бы добавить, что хотим мы этого или не хотим, но жидкостное охлаждение вновь вернется в IT. Такое охлаждение может позволить увеличение плотности, эффективности и производительности по сравнению с воздушным охлаждением, к тому же сейчас на рынке существует ряд более эффективных продуктов на жидкостном охлаждении, и IT-индустрия всерьез к ним присматривается.

Руководители IT, страдающие водобоязнью, теперь, вероятно, еще больше напуганы, но жидкостное охлаждение вовсе не так страшно. Это выглядит и работает так же, как и обычная серверная система. Это вовсе не открытые аквариумы, напоминающие местную рыбную лавку.

Жидкости, вероятно, и так уже применяются в вашем ЦОДе. Внутри ваших CRAC они находятся под большим давлением – этого достаточно, чтобы вымочить как следует ваше оборудование в случае аварии. Фактически, жидкостное охлаждение будет защищать вас от рисков, связанных с жидкостью, и ваш сервер будет герметично закрыт, что добавит надежности.

Майк Паттерсон, старший архитектор Intel по энергоснабжению и тепловыделению, недавно предположил в своем интервью на предмет жидкостного охлаждения следующее: «Почти в каждом случае применения жидкости для охлаждения, процессор работает на более низкой скорости и его надежность повышается. С таким охлаждением вы получите всегда меньший диапазон колебания температур, чем с воздушным охлаждением, и это помогает повышению отказоустойчивости». Конечно, эти слова – убедительное одобрение применения жидкостного охлаждения, и я с ними нельзя не согласиться.

Боитесь вы или нет, но будущее придет, и это будущее – жидкость.

Теги: Жидкостное охлаждение

Чтобы оставить свой отзыв, вам необходимо авторизоваться или зарегистрироваться

Комментариев: 0

Регистрация
Каталог ЦОД | Инженерия ЦОД | Клиентам ЦОД | Новости рынка ЦОД | Вендоры | Контакты | О проекте | Реклама
©2013-2024 гг. «AllDC.ru - Новости рынка ЦОД, материала по инженерным системам дата-центра(ЦОД), каталог ЦОД России, услуги collocation, dedicated, VPS»
Политика обработки данных | Пользовательское соглашение