КАТЕГОРИИ РАЗДЕЛА

 ПОСЛЕДНЕЕ

Самые резонансные аварии в ЦОД по итогам мая 2023 года

08.08.2023 г. | Раздел: Аварии в ЦОДах, Пожаротушение, Человеческий фактор, Электроснабжение ЦОД

Аварии в ЦОД: новости из Японии, США, Австралии и Китая

24.05.2023 г. | Раздел: Аварии в ЦОДах, Пожаротушение, Человеческий фактор

Аварии в дата-центрах: новости от Vocus, Twitter, Cyxtera и не только

23.03.2023 г. | Раздел: Аварии в ЦОДах, Пожаротушение, Электроснабжение ЦОД

Последствия аварий в ЦОД Lufthansa, Tesla, Oracle, Azure, Twitter

27.02.2023 г. | Раздел: Аварии в ЦОДах, Охлаждение ЦОД, Пожаротушение, Человеческий фактор, Электроснабжение ЦОД

Аварии в ЦОД: новости из Монако, Японии и США

27.01.2023 г. | Раздел: Аварии в ЦОДах, Пожаротушение, Человеческий фактор, Электроснабжение ЦОД

Нормативная документация

Ответы вице-президента NetApp по EMEA Александра Вальнера на вопросы Леонида Черняка (alldc.ru)

28 апреля 2015 г. | Категория: Теория и практика SDDC, Программно-определяемый ЦОД

Леонид Черняк (ЛЧ): Во втором десятилетии XXI появился целый ряд новых понятий, таких как облачный компьютинг, Большие данные, Software Defined, Web-scale и другие, под влиянием которых заметно меняются представления о многих технологиях работы с данными, в первую очередь они влияют на системы хранения. Как вы видите нынешнюю ситуацию? Несколько слов о позиционировании NetApp изменившемся мире.

Александр Вальнер (АВ): Я бы сказал, что ситуация усложнилась, об этом свидетельствует увеличение значимости программного обеспечения, просто сохранить данные и обеспечить к ним доступ, теперь далеко не достаточно, теперь требуется управлять данными, осуществлять то, что стали называть data managment и NetApp ставит своей целью стать лидером, "номером 1" в области data managment.

ЛЧ: Как вы определяете это понятие data managment?

АВ: Термин data managment не нов, он известен с восьмидесятых годов, по определению организации DAMA International, data managment включает в себя все необходимые архитектуры, правила, практики и процедуры, обеспечивающие весь жизненный цикл данных. С тех пор количество данных многократно возросло и комплексный подход к решению проблемы работы с данными вышел на первый план. Для менеджмента данными мы разработали нашу новую корпоративную стратегию Data Fabric (перевод "остов" или "здание" данных, но никак не фабрика данных), она была представлена на традиционной осенней конференции NetApp Insigt, ее можно охарактеризовать как очередной шаг NetApp по пути от скромного поставщика файлеров NAS, так было прежде, что, собственно говоря, зафиксировано в названии Network Appliance, избранном 23 года назад, к нынешнему статусу компании, вошедшей в 2012 году в список Top 500 крупнейших корпораций мира, ныне предлагающей глобальные решения в области менеджмента данными.

Новая стратегия Data Fabric разработана в убеждении в том, что пользователям в современных условия крайне необходимо такое унифицированное представление данных, которое соответствовало всем типам облачных инфраструктур, и во внутренних, и во внешних ЦОДах, которое позволяло бы им сохранять, получать доступ, защищать распределять и архивировать данные единообразным и вполне предсказуемым способом. К тому Data Fabric позволяет надежно переносить данные из одной части облака в другую. Иными словами мы стремимся к созданию гибридных облаков, к тому, чтобы услуги таких глобальных провайдеров как AWS, Microsoft Azure, Google Cloud Platform превратить в совершенно органичное расширение корпоративных ЦОДов.

Мы начинаем с создания автоматизации частных облаков и предоставления пользователю возможности выбора тех ресурсов хранения, которые ему предпочтительнее. Для этого нужно переносить больше интеллекта на программный уровень, теперь это называют Software Defined. Если сравнить задачу, стоящую перед нами, с близкими по общему смыслу задачами создания Software Defined Computing и Software Defined Network, то приходится признать, Software Defined Storage сложнее. Причина более высокой сложности в большом разнообразии нагрузок, из-за сложности у специалистов нет согласованного мнения относительно того, что понимать под Software Defined Storage - полностью виртуализированное хранение или аппартно независимое хранение. Сейчас нам ближе первое, виртуализация позволяет решать задачи управления данными, абстрагируясь от того, кто является производителем, где размещены накопители, в частном или глобальном облаке. Мы понимаем, что виртуализация хранения — это на самом деле подмножество Software Defined Storage, но идем на это сознательно. Когда говорят о полной аппаратной независимости, то часто понимают под этим возможность использования каких угодно белых ящиков (white box, так по традиции называют компьютеры малоизвестных или вообще безымянных производителей в отличие от бежевых или "фирменных" beige box). Это работает неплохо, пока заказчик не сталкивается с необходимостью равномерного масштабирования всей инфраструктуры. Data management — более тонкая задача, где нужно учитывать разные требования к хранению и управлению данными, поэтому, рассуждая о Software Defined Storage, мы говорим именно о корпоративных решениях.

ЛЧ: В чем и как материализована стратегия Data Fabric?

АВ: Для воплощения стратегии Data Fabric специалисты NetApp разработали на основе существующей кластерной операционной системы Data ONTAP облачную ОС Cloud Data ONTAP, получив таким образом программное решение, позволяющее оперировать данными в облаке с той же гибкостью, как виртуальными машинами. Cloud ONTAP позволяет оперировать данными, хранящимися в глобальном облаке точно также, как в локальном. Достоинство такого подхода в том, что персоналу, отвечающему за администрирование нет нужды переучиваться. Об операционной системе Cloud Data ONTAP можно говорить, как об универсальном решении, оно в равной степени подходит как для приложений с малой производительностью, так и для среднемасштабных приложений, администрирование Cloud Data ONTAP осуществляется посредством ПО OnCommand Cloud Manager, работающего на экземпляре виртуальной машины в глобальном облаке. К тому же NetApp предлагает несколько сервисов упрощающих создание гибридных облаков и миграцию данных: Enterprise Transformation Workshop for Cloud, Efficiency and Optimisation Service, Сlustered Data ONTAP Migration Service, RapidData Migration QuickStart Service и другие.

ЛЧ: Говоря о менеджменте данных, вы оставили за скобками одну важную вещь, а именно то, что называют физикой данных. Управлять данными в облаке можно, но для этого их прежде надо туда каким-то образом загрузить, что при больших объемах, что при малых, во внешнем облаке нет нужды, требует затраты средств и времени, пропускная способность каналов ограничена.

АВ: Это действительно серьезная проблема, и наша компания готова предоставить средства для ее решения. Мы рекомендуем потенциальным пользователям услуг гиперскейлеров (AWS, MS Azure, и т.д.) не отдавать свои данные, а размещать свои системы хранения в ЦОДах, принадлежащих местным провайдерам. Такие ЦОДы могут расположены внутри страны, но максимально близко к ЦОДу гиперскейлера. Технология NetApp DataMotion позволяет поддерживать данные в облаке и перемещать их между облаками при необходимости.

ЛЧ: Еще невозможно не затронуть твердотельные устройства, каково место флэш-памяти в производственной программе NetApp ?

АВ: Флэш-память стала важнейшей частью в иерархии корпоративных технологий хранения данных, но она не панацея, ее внедрение должно быть связано с соотношением цена/производительность по сравнению с другими устройствами и хранением в облаке. При оценке перспективности флэш следует учитывать, что данные различаются по допустимому времени отклика и по градациям жизненного цикла. Замечательно, что флэш позволяет создавать массивы с различными потребительскими качествами. NetApp предлагает ряд массивов полностью построенных на твердотельной памяти, самый производительный EF-Series, Flash Ray, All Flash FAS, а также гибридные СХД, сочетающие флэш с традиционными HDD. Одно из преимуществ Data Fabric в возможности оптимальным образом перераспределять данные по разным массивам .

ЛЧ: Гиперконвергентные системы, которые строятся из простых модулей и имеют распределенное управление могут работать с огромными массивами данных не используя серьезны дисковые массивы, их эмблемой стал знак, похожий на "стоянка запрещена", но вместо буквы P на нем перечеркнуты три буквы SAN. Являются ли такие системы угрозой традиционным подходам к системам хранения данных?

АВ: Действительно гиперконвергентные системы доказали свое преимущество в определенных случаях, особенно на площадках сервис-провайдеров и поисковиков, но многообразие корпоративных приложений намного больше, не случайно мы выпускаем массивы с разным временем отклика и разной емкостью. Когда говорят об угрозе со стороны гиперконвергентных, то хочется напомнить известное выражение: "Если у вас в руках молоток, не стоит думать, что вокруг только гвозди". Количество данных растет так стремительно, что места хватит всем. И еще одно важное обстоятельство, гиперконвергентные системы имеют ограниченные возможности масштабирования, поэтому их можно назвать одномерными.

Автор: Леонид Черняк

Теги: data managment, NetApp

Комментариев: 0

Регистрация
Каталог ЦОД | Инженерия ЦОД | Клиентам ЦОД | Новости рынка ЦОД | Вендоры | Контакты | О проекте | Реклама
©2013-2024 гг. «AllDC.ru - Новости рынка ЦОД, материала по инженерным системам дата-центра(ЦОД), каталог ЦОД России, услуги collocation, dedicated, VPS»
Политика обработки данных | Пользовательское соглашение