Экспертные оценки

Системы охлаждения современных дата-центров снижают затраты на электроэнергию

04 сентября 2015 г. | МакФарлейн Роберт | Категория: Обсуждаем статью

Усовершенствованные способы и технологии систем охлаждения уже существуют, и их внедрение целиком зависит от выбора правильного решения специалистами и руководством организации.

Развитие дата-центров привело к росту потребления электроэнергии, что в свою очередь требует улучшения способов охлаждения. Также важно сокращать расходы, поэтому выбор правильного подхода поможет добиться баланса между эффективностью и затратами при создании оптимальной среды для вычислительного оборудования.

Фото: IBM

Повышение уровня тепловыделения в высокоплотных шкафах привело к расширению границ допустимых параметров для систем охлаждения традиционного ЦОДа. Некоторые новые и эффективные технологии неплохо проработаны, в то время как другие еще находятся в зачаточном состоянии. Все они нацелены на снижение потребление энергии дата-центром.

Варианты герметизации коридоров

Герметизация  ― это продолжение концепции горячего и холодного коридоров. Каждый ряд в конце блокируется дверьми или пластиковыми шторами для предотвращения дальнейшего смешивания воздушных потоков. Поскольку системы охлаждения обычно потребляют много энергии, следует рассмотреть какие-то формы герметизации для минимизации ненужного потребления.

Частичная герметизация, блокирующая лишь торцы горячего и холодного коридоров, эффективна на 80% по сравнению с полной герметизацией. Оба метода улучшают эффективность охлаждения и энергопотребления как в новых, так и в старых ЦОДах.

Защита от пожара – наиболее важная проблема для существующих помещений. Полная герметизация заблокирует распыление воды или газа для подавления огня, а это опасно и незаконно.

Есть три решения этой проблемы: установка разбрызгивателя и/или головок с инертным газом в горячем и холодном коридорах, возведение барьеров, которые электроника опускает автоматически в случае сигнала задымления, или устройство частичной герметизации. В США, например, все здания должны придерживаться стандартов пожарной безопасности NFPA-75 Fire Protection Standard, особенно при сооружении опускающихся барьеров.

Ротационные теплообменники, называемые также «колеса Киото», представляют собой большие медленно вращающиеся устройства с множеством воздушных камер. По мере того, как колесо поворачивается, наружный холодный воздух поступает в дата-центр, а горячий выводится наружу.

Эти замысловатые колеса работают как теплообменники в течение ротационного цикла и привносят незначительное количество наружного воздуха. Они потребляют очень мало энергии для вращения и эффективны в большинстве климатических зон. Из всех способов фрикулинга ротационные теплообменники стоят на первом месте по энергоэффективности.

Адиабатическое охлаждение – это испарительная система. Это эффективный способ рассеивания тепла. Переход воды из жидкого в парообразное состояние поглощает тепло, так что если мы будем разбрызгивать воду на внешнюю камеру в теплом, сухом климате, то вода будет быстро испаряться, и камера будет охлаждаться. Если мы одновременно будем пропускать теплый воздух через эту камеру, то воздух будет охлаждаться. Количество воды, используемое в этой системе, как правило, меньше, чем потребляют водяные башни.

Системы охлаждения дата-центра, устанавливаемые на источнике тепла

Внутрирядное охлаждение (IRC) предусматривает размещение установок воздушного кондиционирования серверного зала (CRAC) внутри ряда шкафов: в конце или посередине между шкафами с вычислительным оборудованием. Установки IRC поставляют холодный воздух прямо в холодный коридор, а затем вытягивают горячий воздух из горячих коридоров прямо в пространство позади каждого устройства, тем самым заставляя горячий воздух рециркулировать даже если у вас ток воздуха не заблокирован (например, в частично герметизированном коридоре). Поскольку путь воздуха короткий, требуемая мощность вентилятора ниже, чем в обычном CRAC.

Некоторые IRC используют методы контроля направления движения воздуха вместе с вентиляторами регулируемой скорости для настройки параметров охлаждения в зависимости от уровня тепловыделения. Это минимизирует энергопотребление. Большинство известных методов контроля включает использование датчиков на дверцах шкафов, которые отслеживают температуру входящего воздуха и влажность.

IRC могут работать на охлажденной воде, на хладреагенте, также есть компрессорные установки. Некоторые предусматривают контроль влажности, и им требуются соединения для отвода конденсата, а другие предоставляют лишь охлаждение отводом явного тепла.

Главный недостаток систем IRC – это требуемое для них пространство: они занимают ширину от 12 до 30 дюймов. Хотя они позволяют сэкономить место в зале по причине отсутствия необходимости устанавливать громоздкий CRAC, тем не менее, они разрывают непрерывность ряда шкафов.

Описанные выше устройства охлаждения обычно дополняют традиционный CRAC для прямой доставки холода на стойки высокой плотности. Поскольку эти устройства занимаются лишь отводом явного тепла, CRAC все еще необходим для контроля влажности и для охлаждения обычных низкоплотных систем. Расположенные над шкафами устройства требуют места вверху, а также тщательного планирования для состыковки с прочей инфраструктурой, проходящей над стойками, на этапе проектирования дата-центра.

Этот метод основан на использовании хладагента. Рефрижераторные системы стоят в первых рядах в плане энергоэффективности и не занимают место на полу: каждая установка находится над шкафом или в холодном коридоре между рядами шкафов.

Теплообменники задней двери (RDHxs) заменяют перфорированную заднюю дверь традиционного шкафа. Тепло, выделяемое вычислительным оборудованием, движется через катушки в дверцах и нейтрализуется перед выходом наружу с помощью циркулирующей в катушках холодной воды. Это означает, что температура входящего и исходящего воздуха одинакова. Пассивные RDHxs с низким перепадом давления возглавляют список энергоэффективного охлаждения.

Преимущество устройств RDHxs заключается в том, что они могут работать на относительно теплой воде. Системы охлаждения старых зданий используют воду 45°F (7,22°С), но все более популярными становятся температуры от 55 до 60°F (12,78-18,33°С).  В отличие от большинства систем охлаждения, RDHx могут работать так же эффективно и при более высоких температурах воды.

Установки RDHx также можно разместить в шкафах практически любого размера и от любого производителя с помощью рамок-адаптеров. Они требуют примерно 6 лишних дюймов в глубину и установки водяных труб и кранов в каждом шкафу. Также им нужно пространство для маневра для подсоединения шлангов так, чтобы дверцы могли закрыться. Это непросто в проектах с фальшполом, когда шланги мешают соединениям напольных панелей.

Установки RDHx никогда полностью не герметизируются, поскольку их суть – рециркуляция. Поэтому в проектах, использующих охлаждение RDHx, важно уделять внимание системам резервирования.

Самоохлаждающиеся шкафы могли бы стать решением всех проблем, особенно в случаях, когда провести глобальную модернизацию нет никакой возможности, и у вас в ЦОДе мало стоек высокой плотности. Шкафы полностью герметизированы, и выделяемое оборудованием тепло рассеивается внутри стойки, а воздух нормальной температуры вновь поступает на оборудование.

Эти шкафы могут работать на охлажденной воде или хладреагенте, или даже иметь собственные компрессоры, как большой холодильник. Самоохлаждающиеся шкафы обычно крупнее традиционных и стоят дороже, но это все равно дешевле, чем масштабная модернизация систем охлаждения дата-центра.

Самая большая проблема этих шкафов – это отказ охлаждения. Есть шкафы с резервированием в режиме «горячей» замены охлаждающих компонентов, но в основном проект системы предусматривает автоматическое открывание задней дверцы в случае отказа системы кулинга. Это означает, что оборудование переходит под крыло общих охлаждающих систем серверного зала и может перегреться в считанные минуты.

Иммерсионное охлаждение является более новой технологией. Серверы полностью погружаются в ванну инертной охлаждающей жидкости, которая обволакивает компоненты и рассеивает тепло. При этом для хранилища предпочтительны твердотельные драйверы, хотя обычные тоже можно использовать, предварительно их герметизировав, или подвешивая их над жидкостью. Иммерсионное охлаждение снижает потребление энергии сервером на 10 или 20%, а также устраняет самые болезненные элементы традиционной системы охлаждения, несущие риск отказа.

Температурная инерция жидкости сохраняет серверы в пределах допустимых температур даже в случае отказа энергоснабжения: для охлаждения не потребуется ток. В системе всего три движущихся элемента: циркулярная помпа, помпа для отвода конденсированной воды и вентиляторы охлаждающей камеры. Одна такая система может обеспечить охлаждение оборудования плотностью 25 кВт в течение получаса после отказа механических частей. Системы производятся для мощности 100 кВт и выше и работают в любых климатических условиях без установки системы охлаждения.

В результате - экономия энергии до 50% по сравнению с проектом воздушного кондиционирования и, потенциально, уменьшение общих затрат за счет устранения необходимости устанавливать масштабную систему охлаждения. Иммерсионные емкости занимают около 1 кв. м для стойки U42 и весит от 1,100 до 1,400 кг. Основная проблема этих систем – грязь при работе с масляными жидкостями, сервер покрыт маслом, но на это ранние адепты системы на эти мелкие неприятности ни разу не жаловались.

Прямое жидкостное охлаждение вновь возвращается в сектор высокопроизводительных вычислений. Некоторые эксперты прогнозируют, что оно получит распространение по мере того, как серверы и процессоры предприятий уменьшаются в размере и становятся все более мощными.

Эти системы гоняют охлажденную воду или хладагенте через сервер и отводят тепло прямо от процессора с помощью специального теплопоглотителя. Жидкость поступает во второй жидкостный теплообменник, расположенный в каждом шкафу или, в некоторых проектах, жидкость отводится в центральную систему охлаждения.

Эта технология представляет риск протечек, с которой усердно борются производители путем уменьшения соединительных элементов трубок до минимума. Системы жидкостного охлаждения также требуют грамотного управления разводкой труб в дата-центре наряду с электропроводкой и сетевым кабелем.

Источник: www.searchdatacenter.com

Теги: системы охлаждения, электроэнергия, затраты

Чтобы оставить свой отзыв, вам необходимо авторизоваться или зарегистрироваться

Комментариев: 0

Регистрация
Каталог ЦОД | Инженерия ЦОД | Клиентам ЦОД | Новости рынка ЦОД | Вендоры | Контакты | О проекте | Реклама
©2013-2019 гг. «AllDC.ru - Новости рынка ЦОД, материала по инженерным системам дата-центра(ЦОД), каталог ЦОД России, услуги collocation, dedicated, VPS»
Политика обработки данных | Пользовательское соглашение