Авторизация
Поиск

ГЛОБАЛЬНОЕ ПОТЕПЛЕНИЕ... в аппаратных и вычислительных центрах

ГЛОБАЛЬНОЕ ПОТЕПЛЕНИЕ... в аппаратных и вычислительных центрах


Если вы разделяете убеждение о грядущем глобальном потеплении, то вам остается надеяться, что оно будет не столь значительным по сравнению с тем, что мы уже наблюдаем в аппаратных и вычислительных центрах. Не будет преувеличением сказать, что за последние пять лет температура в этих служебных помещениях взлетела буквально до небес. В этом "повинны" сразу несколько факторов: и растущая плотность электроники на единицу объема помещения, и дополнительно устанавливаемое оборудование, и энергопитание большего количества пользовательских сетевых устройств. Поэтому для таких помещений на первый план выходит проблема кондиционирования воздуха. 
Недостаточная мощность систем кондиционирования приводит к отключению серверов, сбоям в работе компьютеров и, соответственно, сокращению срока службы электроники. При этом снижается общая производительность центров обработки данных. Помимо систем кондиционирования, также потребуют электропитания и, соответственно, дополнительных финансовых расходов, системы охлаждения электроники. Небезынтересно то, что, согласно прогнозам экспертов компании IBM, в 2007 году в сфере бизнеса на одну лишь электроэнергию (собственно электропитание оборудования и расходы энергии на охлаждение) при эксплуатации вычислительных центров будет потрачено больше средств, чем на приобретение IT-оборудования для тех же вычислительных центров. А вы думали, что вычислительная техника стоит дорого? 
Насколько же велики потребности в охлаждении для аппаратных комнат и вычислительных центров? Не так давно еще конструировали стойки для оборудования мощностью 1,5 кВт, что соответствовало плотности энерговыделения в 40-80 Вт на 1 кв. фут (1 кв. фут примерно соответствует 0,09 мІ). А теперь работают с цифрами 3-25 кВт на одну стойку и плотностями энерговыделения в 500-1000 Вт на кв. фут. Появление ячеечных серверов (эта конфигурация позволяет разместить в стандартной стойке гораздо большее число серверов) является лучшей иллюстрацией тех изменений, что происходят сейчас на рынке. Серверы этого типа устанавливаются в так называемые "серверные шасси" (выдвижные рамы). Они "упакованы" до размера материнских плат в виде "лезвий" (не зря в английской литературе они называются blade server, что дословно означает "сервер-лезвие"). Серверы объединяются силовым и информационным интерфейсами. Так в аппаратной, полностью оснащенной ячеечными серверами, может насчитываться до 4-6 тонн вычислительной техники, что требует от вентиляционной системы мощности порядка 57 м. куб. в минуту.
В большинстве вычислительных центров основную проблему представляет неэффективность работы систем кондиционирования воздуха. Промышленная организация по изучению центров обработки данных под названием "Аптайм-институт" (Uptime можно вольно перевести, как "время бесперебойной работы") изучила 19 вычислительных центров общей площадью более 18581 кв. м. По заключению экспертов, в среднем, вычислительный центр, для снятия тепловой нагрузки, оснащен системой кондиционирования воздуха по мощности в 2,7 раза превышающей требуемую. Однако до 60% мощности системы кондиционирования тратится впустую. Несмотря на высокий потенциал системы охлаждения, в вычислительных центрах были обнаружены многочисленные "горячие пятна", а 10% серверных стоек были вообще перегреты.
В наши дни ни одно более-менее крупное здание не обходится без служебных помещений с телекоммуникационным оборудованием, серверных помещений и центров обработки данных. Так как же подходить к оценке требуемых для охлаждения мощностей? Решение этой проблемы кроется в эффективном и точном распределении воздушных потоков, при котором по возможности исключено смешивание подаваемого и забираемого из помещения воздуха, что достигается оптимизацией планировки помещения.
Далее в статье мы приведем основные принципы планировки центров обработки данных, краткий обзор нескольких новых разработок,направленных на решение проблемы кондиционирования помещений вычислительных центров, а также вы узнаете перспективы применения фальшполов.

Основные принципы планировки

При подготовке к работе помещений, определенного функционального значения (в нашем случае IT-направление) следует соблюдать следующие правила:
• Используйте принцип "горячий проход/холодный проход", при котором коридоры выброса горячего и поступления холодного воздуха чередуются. Эта мера отделяет коридоры выбрасываемого воздуха таким образом, что он не смешивается с воздухом из соседних коридоров и позволяет поступающему холодному воздуху более эффективно охлаждать серверы.
• Боритесь с утечками воздуха. Промежутки между стойками, промежутки в самих стойках и кабельные входы/выходы в фальшполе "оттягивают" поток воздуха и снижают эффективность системы кондиционирования.
• Равномерно распределяйте тепловую нагрузку по площади помещения.
• Известно, что при наличии фальшполов (высотой до 45 см) вблизи входов кондиционеров образуется область разряжения. Это означает, что горячий воздух фактически возвращается обратно, смешиваясь с потоком холодного воздуха еще до того, как тот выполнит свою задачу. Так что тщательно продумывайте, как располагать кондиционеры.
Все рекомендации сводятся к тому, чтобы самое "горячее" оборудование размещать как можно дальше от кондиционера или (как вариант) использовать перекрытие с открытыми балками. Если вы хотите использовать фальшполы, то делайте их выше.

Аппаратные решения

В ответ на нарастающую проблему на рынке появляются все новые аппаратные решения, задача которых обеспечивать более точную циркуляцию воздуха при кондиционировании. Они представляют собой дополнительно устанавливаемые в свободные ячейки охлаждающие модули и ограничительные кубы-ширмы для отвода горячего воздуха. Рассмотрим некоторые образцы таких решений.

Компания Liebert

Компания "Liebert" начала выпуск новой линейки продуктов под торговым наименованием XD Adaptive Cooling. В системе прецизионного кондиционирования Liebert XDO потолочный охлаждающий блок размещается над горячим коридором и выполняет задачу рассеивания горячего воздуха.
Для серверных помещений с недостатком места под потолком могут применяться напольные модули XDH, которые устанавливаются между стойками оборудования.
Система охлаждения с замкнутым циклом для стоек с высоким тепловыделением Liebert XDFN включает в себя несколько охлаждающих модулей, объединенных в одну стойку. Эти системы кондиционирования обеспечивают ассимиляцию тепла от 5 до 30 кВт на одну стойку в зависимости от конфигурации.
Компания "Liebert" на коммерческой основе создает и полноценные комплекты аппаратных комнат. Как правило, это небольшие боксы с телекоммуникационным оборудованием. В их состав входят ИБП, модули кондиционирования воздуха, места для подключения проводов питания и запираемые двери.

Компания APC

Компания "American Power Conversion" (APC) предлагает короб InfraSturXure, задача которого ограничить диссипацию горячего воздушного коридора. Два ряда соединенных вместе коробов создают в серверном помещении горячий коридор. Получается замкнутая тепловая система, словно несколько серверных стоек окружены стеной. Короба окружают кондиционерные стойки, чередующиеся с серверными стойками. Таким образом, каждый кондиционер охлаждает следующую за ней серверную стойку. В зависимости от конфигурации модульных кондиционеров система способна снимать тепловую мощность в 20-70 кВт.

Компания Chatsworth

Компания "Chatsworth" предлагает систему пассивного охлаждения TeraFrame, модуль которого в виде короба может обеспечивать мощность по отбору теплоты от 2 до 20 кВт. Это осуществляется управлением потока воздуха через объем короба. Модуль Chatsworth в задней части имеет вертикальный вытяжной канал (напоминающий дымоход), по которому горячий воздух выходит из короба и, по исключающему смешивание воздуха коробу, возвращается обратно. Такая конструкция разделяет горячий и холодный воздух, устраняя отводки и рециркуляцию горячего воздуха. Охлаждающий модуль оборудован воздушными карманами и конструкционными элементами, задача которых направлять поток воздуха, что исключает любые утечки и проблемы с циркуляцией воздуха в объеме серверных стоек. Передняя дверь имеет вентиляционную перфорацию (79% поверхности) с целью максимизировать поступление холодного воздуха. Отсутствие активных компонентов охлаждения снижает не только капитальные, но и эксплуатационные расходы этих систем кондиционирования.
Выпускаются также и другие аппаратные решения, направленные на разрешение задачи прецизионного кондиционирования и точного направления потоков воздуха. Большая часть аппаратных решений предусматривает наличие фальшполов. К числу таких решений относится покрытие пола с увеличенным количеством вентиляционных отверстий, что позволяет создавать мощный поток холодного воздуха. Также предлагаются вентиляторы, которые сделаны под размер напольной плитки, и новые материалы, которые заполняют отверстия в фальшполе.

Фальшпол

Слова "фальшпол" и "центр обработки данных" в настоящее время почти породнились. Вот уже четыре десятилетия стало данностью, что вычислительные центры оборудуются фальшполами. В настоящее время идея применения фальшполов находиться под пристальным вниманием исследователей. И не случайно.
Одной из причин сомнений в рациональности применения фальшполов сейчас состоит в том, что микроклиматические условия в вычислительных центрах (называемых еще центрами обработки данных или серверными) в настоящее время отличаются от тех, что были сорок лет назад. В те времена использовалось огромное количество медного кабеля, который устанавливался стационарно и практически никогда не менялся. В наши дни, наряду с медным кабелем, используется оптическое волокно и к числу требований добавляется наличие свободного доступа к кабельной проводке. Кроме того, некоторые старые модели "мэйнфреймов" (главный компьютер вычислительного центра) имели водяное охлаждение и требовали подводки труб. Так что применение фальшпола было как нельзя кстати. В современных вычислительных центрах это перестало быть актуальным. Если говорить более предметно, то требования по охлаждению прежних, но модернизированных, серверных помещений с тех пор существенно не изменились, чего нельзя сказать про вновь строящиеся центры обработки данных.
Да, можно утверждать, что наличие фальшпола способно обеспечить определенную гибкость в выборе варианта охлаждения за счет размещения вентилируемых напольных плит. Также в пространстве под полом удобно прокладывать силовые кабели. Однако в связи с наличием фальшпола возникает сразу несколько проблем:
• снижается высота потолков;
• снижается допустимая нагрузка на пол;
• затрудняется доступ к кабельному хозяйству (по сравнению с вариантом крепления кабеля под потолком);
• затрудняется очистка от пыли пространства под полом;
• увеличивается стоимость капитальных вложений при организации вычислительных центров;
• растет риск производственной травмы (из-за открытой плитки пола), а также риск сокрытия чего-либо в пространстве под полом;
• затрудняется анализ вычислительного центра на сейсмоустойчивость.
В настоящее время центры обработки данных и серверные помещения являются без преувеличения "нервными центрами" как отдельных зданий, так и целых технологических городков. Расходы на пристройку дополнительных помещений и установку дополнительного оборудования значительны. Аппаратная часть серверных помещений непрерывно совершенствуется, темпы развития новых технологий порой экспоненциальные, поэтому планировку серверных помещений заранее необходимо выполнять с учетом того, чтобы идти в ногу со всеми переменами.

                                                                                                  Джим Синополи (Jim Sinopoli) руководитель "Sinopoli and Associates"



Возврат к списку

© 2017 ООО «ГОЛОВИН Холдинг». Использование любых материалов сайта без письменного разрешения администрации запрещено.
Яндекс.Метрика