КАТЕГОРИИ РАЗДЕЛА

 ПОСЛЕДНЕЕ

Самые резонансные аварии в ЦОД по итогам мая 2023 года

08.08.2023 г. | Раздел: Аварии в ЦОДах, Пожаротушение, Человеческий фактор, Электроснабжение ЦОД

Аварии в ЦОД: новости из Японии, США, Австралии и Китая

24.05.2023 г. | Раздел: Аварии в ЦОДах, Пожаротушение, Человеческий фактор

Аварии в дата-центрах: новости от Vocus, Twitter, Cyxtera и не только

23.03.2023 г. | Раздел: Аварии в ЦОДах, Пожаротушение, Электроснабжение ЦОД

Последствия аварий в ЦОД Lufthansa, Tesla, Oracle, Azure, Twitter

27.02.2023 г. | Раздел: Аварии в ЦОДах, Охлаждение ЦОД, Пожаротушение, Человеческий фактор, Электроснабжение ЦОД

Аварии в ЦОД: новости из Монако, Японии и США

27.01.2023 г. | Раздел: Аварии в ЦОДах, Пожаротушение, Человеческий фактор, Электроснабжение ЦОД

Нормативная документация

Проектирование ЦОД – как не ошибиться с первой попытки

29 января 2016 г. | Категория: Проектирование ЦОД

Корпоративные переезды, быстрое обновление IT-инфраструктуры, инициативы в области виртуализации – эти и другие факторы оказывают серьезное влияние на процесс проектирования дата-центров. Используйте представленные ниже советы по проектированию ЦОД, чтобы он смог выдержать проверку временем. И помните, что невыполнение этих советов практически 100-процентно гарантирует проблемы после ввода дата-центра в эксплуатацию. А устранение недоработок в дата-центре уже после его запуска является сложной задачей, обходится дорого и может привести к снижению надежности ЦОД.

Вот ряд наиболее важных факторов, учитывая которые, вы сможете обеспечить потенциал для роста, необходимый уровень надежности и эффективности при проектировании ЦОДа:

Определение необходимого уровня резервирования вспомогательной инфраструктуры

Все операторы дата-центров рассматривают свои IT-системы и обслуживаемые ими приложения как критически важные. Ведь уход серверов в офлайн может привести к недополученной прибыли и серьезным репутационным потерям.

Чтобы добиться повышения эффективности работ по проектированию ЦОДа, следует подвергать количественной оценке последствия даунтаймов в уже существующих корпоративных дата-центрах, причем делать это на основе временного интервала: пятнадцать минут, полчаса, час, два часа, четыре часа, восемь часов или более.

Полученные данные помогут проектировщикам понять, какой уровень резервирования вспомогательной инфраструктуры необходимого заложить в проект ЦОД, а также помогут организации сравнить затраты на обеспечение требуемого уровня надежности с потенциальным негативным воздействием даунтайма на бизнес.

Слишком часто оператор или владелец ЦОД решает заложить в проект уровень надежности Tier IV по спецификациям Uptime Institute, не осознавая в полной мере, что на самом деле это означает с точки зрения сложности проектирования, капитальных затрат или последующего техобслуживания.

Даже если подобный уровень резервирования на самом деле необходим с целью обеспечения 99,(9)-процентного аптайма определённых бизнес-процессов , вовсе не обязательно делать так, чтобы абсолютна вся вспомогательная инфраструктура нового ЦОД соответствовала требованиям Tier IV.

Для сокращения капитальных расходов и упрощения техобслуживания можно использовать концепцию зонирования: инфраструктуру для обслуживания критически важных бизнес-процессов развертывать с оглядкой на Tier IV, тогда при как развертывании вспомогательных системы для обслуживания менее важных функций – применять Tier III или даже Tier II. К слову, такой подход поможет расставить приоритеты относительно того, каким системам будет уделяться основное внимание в случае необходимости экстренного восстановления после серьезного даунтайма.

Прогнозирование роста

Когда внутри машзалов корпоративного дата-центра заканчивается место, часть дополнительных бизнес-процессов можно перевести в облако или же воспользоваться услугами колокейшн-провайдера. Это позволит избежать необходимости покупки новых серверных стоек для размещения их внутри корпоративного ЦОДа. Но многие организации, руководствуясь соображениями безопасности, по-прежнему предпочитают использовать для обслуживания критически важных бизнес-процессов вычислительные системы, которые находятся под их непосредственным контролем. Как следствие, при проектировании новых ЦОДов им необходимо закладывать серьезный запас для дополнительного расширения и будущем.

Для эффективного прогнозирования роста следует учитывать динамику изменения силовых и тепловых нагрузок, расход полезного пространства, а также требования в области кабель-менеджмента (чем меньше IT-оборудования будет в стойке, темь меньше потребуется кабелей, и тем меньшую площадь они будут занимать).

Чем больше IT-оборудования вы сможете разместить внутри серверной стойки в будущем, тем более высокую производительность вы получите. Но для этого потребуется больше электроэнергии и холодопроизводительности.

Повышение плотности IT-оборудования в стойках также потребует дополнительного места для источников бесперебойного питания, систем распределения питания и оборудования для кондиционирования воздуха (многие подобные устройства в настоящее время устанавливаются в стойку или размещаются внутрирядно). Это необходимо учитывать при проектировании машзалов.

Следует помнить и о наличии весьма полезного инструмента для повышения загрузки серверного оборудования. Речь о технологии виртуализации. Нельзя забывать и о концепции консолидации серверного оборудования с целью более эффективного расходования пространства. Также следует помнить о возможности использования модульных конструкций, которые гарантируют гибкость и масштабируемость инфраструктуры в течение многих лет.

Практика показывает, что рост особенно трудно предсказать в корпорациях, которые периодически проводят сделки по слияниям и поглощениям, а также в научно-исследовательских организациях, которые получают гранты на обновление вычислительных систем от случая к случаю. В подобных ситуациях очень сложно сделать по-настоящему точный прогноз роста более чем на несколько лет вперед. В остальных случаях сложностей гораздо меньше.

Электрические и тепловые нагрузки

После определения фундаментальных моментов, следует установить фактические параметры вроде силовых и тепловых нагрузок. Избегайте устаревших метрик вроде ватта на квадратный метр(фут), ведь в современных дата-центрах пространство используется неравномерно – особенно непосредственно после их ввода в эксплуатацию.

Проектирование с прицелом на усредненные метрики создает предпосылки к тому, что в одних зонах машзала могут образоваться "горячие точки", а в других – "холодные точки" и так далее. Следствием станут ненужные расходы. И это будет продолжаться до того момента, пока весь ЦОД не выйдет на максимальную проектную нагрузку по IT-оборудованию.

Эксперты рекомендуют осуществлять оценку нагрузок на уровне отдельных серверных стоек. Данные для этого можно легко получить с помощью интеллектуальных счетчиков и PDU.

Влияние здания

Здание играет важную роль в процессе проектирования идеального дата-центра. Следует помнить, что даже возводимые "с нуля" здания имеют пределы с точки зрения масштабируемости и заполняемости. А если приходится использовать уже существующие строения, нужно мириться с необходимостью идти на компромиссы и нести дополнительные затраты. Существующие опорные колонны могут мешать эффективной расстановке серверных стоек, что будет вести к неоптимальному использованию доступной площади. Может потребоваться укрепление плиты перекрытия из-за повышения нагрузки, что также усложнит проект и увеличит расходы. Следует помнить, что высота между плитами должна позволять разместить фальшпол и/или кабельные лотки над стройками.

Окна являются серьезной проблемой. В случае размещения дата-центров в существующих зданиях оконные проемы должны быть заложены, что следует отразить в проекте. При этом в случае многоэтажных зданий обязательно необходимо обеспечить доступ к грузовому лифту, поскольку только с его помощью можно безопасно перемещать дорогостоящее оборудования, не рискуя уронить его на лестнице или повредить об острые углы. И, конечно, если существующее здание не имеет достаточно надежной силовой и сетевой инфраструктуры, готовитесь к проблемам.

В дата-центре должно быть пространство для градирен, теплообменников и генераторов. Помните, что эти большие устройства создают серьезное шумовое загрязнение. Поэтому проектировщики должны принять меры, чтобы этот шум не беспокоил людей в здании ЦОД или соседей из строений, расположенных в непосредственной близости от серверной фермы.

Универсальных проектов ЦОД нет. Даже в случае использования контейнерных и модульных решений следует вносить поправки в базовый проект с оглядкой на конкретные потребности бизнеса, особенности площадки для размещения ЦОД и так далее. Но при желании вполне можно создать близкий к идеальному проект. Для этого нужно следовать представленным выше рекомендациям.

Дополнительную  информацию можно получить по адресу: http://searchdatacenter.techtarget.com

Чтобы оставить свой отзыв, вам необходимо авторизоваться или зарегистрироваться

Комментариев: 0

Регистрация
Каталог ЦОД | Инженерия ЦОД | Клиентам ЦОД | Новости рынка ЦОД | Вендоры | Контакты | О проекте | Реклама
©2013-2024 гг. «AllDC.ru - Новости рынка ЦОД, материала по инженерным системам дата-центра(ЦОД), каталог ЦОД России, услуги collocation, dedicated, VPS»
Политика обработки данных | Пользовательское соглашение