Загрузка

Posts by enginin

7 инноваций для дата-центров

ЦОДы – они как снежинки: ни один не похож на другой. Конечно, они состоят из похожих элементов, но они скомпонованы по-разному и спроектированы для разных задач. С течением времени этих различий становится все больше.

Потребности в более сложных вычислениях и рост потребления энергии – два основных фактора, заставляющие производителей модернизировать дата-центры. Пока продолжает расти спрос на сами ЦОДы, мы можем наблюдать переход от традиционных решений к дата-центрам будущего. Мы выделили несколько инноваций для дата-центров за последние годы.

Искусственный интеллект

В 2014 году компания Google приобрела DeepMind – британскую компанию-разработчика ИИ – более, чем за 600 миллионов долларов. С тех самых пор все технологии и ресурсы компании были направлены на решение проблемы энергоэффективности современных ЦОДов. Google протестировали финальное решение в этом году на своих дата-центрах. Результаты были внушительные: им удалось сократить потребление электроэнергии на 40%.

Подводные дата-центры

Проект Microsoft Natick – подводный ЦОД – не раз появлялся в СМИ и уже не раз подвергался обсуждению. Он приглянулся потенциальным заказчикам как за свою простоту – конкретно за идею использования холодной воды океана для охлаждения инфраструктуры -, так и за свою абсурдность. Кто мог подумать, что смесь соленой воды, электричества и чувствительных компонентов будет хорошей идеей? Однако все оказалось не так уж и абсурдно, как на первый взгляд: первое поколение Natick было таким успешным, что компания уже разрабатывает второе. Пока известно лишь то, что у модернизированного проекта будут бóльшие габариты.

Программно-определяемые Сети передачи данных

Несмотря на весь ажиотаж вокруг SDN (Software Defined Networking), еще не все коммерческие дата-центры склоняются к этому решению. Однако ситуация может вскоре измениться в связи с активным продвижением этой идей от облачных провайдеров. К примеру, на Западе компании Megaport и Cologix объединили свои усилия: клиенты Cologix google получили расширенный и ранее недоступный спектр облачных услуг благодаря использованию SDN от Megaport.

Фрикулинг

Использование наружного воздуха для охлаждения дата-центра было опробовано уже не раз и совершенно по-разному различными компаниями. Одна из компаний, которая преуспела в использовании техники фрикулинга за последние годы – это Facebook. По сути, их новый европейский ЦОД в Клони, Ирландия, должен использовать океанский бриз для охлаждения своих серверов и сетевой инфраструктуры. Осталось только разработать метод удаления коррозионно-активных солей из внешнего воздуха, чтобы не навредить чувствительной электронике.

МикроЦОДы

В связи с увеличением требований к задержкам и пропускной способности микродата-центры все чаще появляются повсеместно. Их идея заключается в том, чтобы приблизить контент «к конечному потребителю» («closer to the edge»), таким образом общее впечатление от работы системы не будет отличаться, в какой точке планеты вы бы ни оказались.

Cистема замкнутого локального охлаждения

Эта система больше применима для крупных дата-центров, ЦОДов, предоставляющих услугу colocation, и облачных сервисов. Этот способ идеален для эффективного охлаждения плотно укомплектованных стоек, систем хранения и сетевых компонентов. Более мелкие дата-центры зачастую не могут модернизировать свои системы холодоснабжения до этого уровня в связи с затратами и конструктивными ограничениями. Несмотря на это, увеличение расходов на электроэнергию и повышение плотности блейд-серверов заставляют малые и средние ЦОДы копить деньги на более энергоэффективную систему.

Лазеры с прямой модуляцией

Эта техника еще находится на стадии своего развития. Несколько месяцев назад оптоволоконная компания Adva Optical Networks объявила о своем участии в проекте DIMENSION – развитие лазеров с прямой модуляцией на кремниевые чипы. В общем и целом, это означает, что лазеры будут встроены непосредственно в микросхемы с целью повышения скорости обработки и передачи данных. Эта технология также позволит устранить проблему нагревания и расходов на электричество, которое генерируется и потребляется с использованием традиционных чипов.

Источник

Schneider Electric обновила ассортимент прецизионных кондиционеров Uniflair LE

Подразделение IT Division компании Schneider Electric, мирового эксперта в области управления энергией и промышленной автоматизации, представляет обновленную линейку кондиционеров Uniflair LE на охлажденной воде. Новые кондиционеры позволяют получить до 32% большую охлаждающую способность, сократив энергопотребление до 24% при сохранении занимаемой площади по сравнению с моделями предыдущей серии. Модели Uniflair LE быстрее осуществляют повторный запуск после сбоя электропитания и обладают конструкцией, оптимизированной для высоких температур в соответствии с современными стандартами создания ЦОДов.

Доступные в двух номенклатурах: LDCV – с нижней раздачей воздуха, LUCV – с верхней раздачей воздуха – кондиционеры Uniflair LE обладают уникальными характеристиками, обеспечивающими доступное, надежное и высокотехнологичное охлаждение. По сравнению с предыдущей серией кондиционеров Uniflair LE T*CV, линейка L*CV включает в себя как стандартные, так и ранее недоступные (или доступные по запросу) характеристики. К ним относятся 2-ходовой клапан PICCV, счетчик энергопотребления, USB-карта, дисплей с сенсорным экраном. Все перечисленные новшества упрощают процедуру проектирования под заказ, позволяя сократить сроки его реализации, а также эксплуатационные издержки.

«Uniflair LE – это по-настоящему интеллектуальные устройства, идеальные для контроля состояния компонентов и окружающей среды, – отмечает Михаил Каширских, менеджер по развитию направления «Системы охлаждения», подразделение IT Division компании Schneider Electric. – А в сочетании с решениями для изоляции горячих или холодных коридоров кондиционеры семейства Uniflair LE позволяют добиться еще более высокого КПД и уровня энергетической плотности».

Еще одним преимуществом новых кондиционеров Uniflair LE является и конструкция многофункционального микропроцессорного контроллера. В ней предусмотрено наличие удобной навигации с использованием значков для отображения режима работы и условий в помещении, возможности взаимодействия с системами диспетчеризации инженерного оборудования зданий с различными протоколами и автоматический перезапуск блока после сбоя электропитания. Кроме того, новый контроллер позволяет осуществлять резервирование на уровне этажа, подключая до десяти устройств, работающих в группе.

Бесспорным достоинством нового оборудования является легкость в обслуживании. Критически важные компоненты можно заменить или отремонтировать без отключения системы, а остальные – через двери и съемные панели. Все встроенные устройства мониторинга поддерживают возможность профилактического обслуживания и проверки рабочих условий системы без ее отключения.

 

Подробно о решениях Schneider Electric для прецизионного охлаждения можно узнать на сайте.

Источник

WAFL как основа для системы хранения в твердотельных накопителях NetApp

WAFL – удивительное изобретение, сохранявшее свою актуальность на протяжении более чем 20 лет, с него начиналась история NetApp, а сегодня оно оказалось востребованным при создании современных дисковых массивов на флэш-памяти.

В недавней статье NetApp выпустила новое поколение флэш-систем хранения All Flash FAS из-за ограничений по размеру и без должной аргументации было сказано, что та удивляющая простота, с которой NetApp переходит от традиционных массивов, построенных на жестких дисках (HDD), к массивам, построенным на твердотельных дисках, объясняется преимуществами операционной системы Data ONTAP и , в частности, используемой в ней файловой системы WAFL. У заинтересованного читателя возникают естественные вопросы: «А в чем, собственно говоря, состоят эти преимущества?» и «Почему именно NetApp, а не кто-то иной оказалась в таком выигрышном положении при переходе от HDD к SSD? и, в конце-концов, «Что такое WAFL?»

Вот почему в данной статье мы попробуем дать ответы на эти вопросы, сознательно оставляя некоторые аспекты архитектуры СХД NeyApp в стороне. Сосредоточимся исключительно на роли WAFL (Write Anywhere File Layout), что можно перевести как «запись файла с произвольным размещением».

Что такое WAFL?

Прежде всего надо сказать, что WAFL это зарегистрированная двадцать лет назад трейд-марка NetApp и, несмотря на давность, связанное с ней содержание сохраняет актуальность по сей день. В условиях быстроразвивающейся компьютерной отрасли такого рода феномены долголетия встречается, но изредка. Поэтому сказать, что WAFL исключение, будет несправедливо, найдется несколько аналогичных примеров долголетия. У NetApp, как и у некоторых других коммерчески успешной компании, начинавших с инженерного стартапа, годами сохраняются какие-то свои собственные удачные «фишки», WAFL – одна из них. Показательно, в интервью, данном по поводу двадцатилетия созданной им компании, ныне вице-президент NetApp Дэйв Хитц отдельно выделил WAFL, назвав ее главной инновацией за весь период существования компании. Начало отсчета жизни WAFL датируется зимой 1994 года, когда она была впервые представлена на конференции, проведенной ассоциацией USENIX. Есть опубликованный в солидном журнале отчет File System Design for an NFS File Server Appliance, среди трех его авторов Дэйв Хитц. Из названия статьи следует, что авторы-разработчики считали WAFL файловой системой, предназначенной для нового типа, предназначенной для специализированных сетевых накопителей (аppliance) типа NAS, которые известны как NetApp-файлеры.

Спустя годы WAFL не потеряла своей актуальности, более того  в обновленном виде она стала теоретической основой для современных массивов All-Flash Arrays (AFA), построенных исключительно на твердотельных накопителях SDD. Но, как не странно, как раз в это же время возникло серьезное сомнение в том, что такое WAFL? Сомнение было высказано в 2008 году, в, скажем так, эпатажной статье Костадиса Руссоса с провокационным заголовком соответствующим содержанию: «Почему я считаю, что WAFL это не файловая система?» В ней автор утверждает: «WAFL включает в себя средства и методы для построения файловой системы, но при этом она по сути не вовсе файловая система как таковая». Английскую версию этого материала обнаружить не удалось, но на счастье он переведен на русский и размещен по этому адресу. Статья Руссоса завершается следующим утверждением: «Таким образом, WAFL это не файловая система. На самом деле WAFL это некоторая совокупность средств и методов, предоставляющих возможность различным файловым системам и технологиям получать доступ к блокам на диске. Средства и методы WAFL обеспечивают лидирующую в отрасли производительность, но вместе с тем и гибкость использования любых наших элементарных операций с данными (data management primitives), не идя на компромиссы в отношении скорости работы».

Дэйв Хитц, как непосредственно причастный к созданию WAFL, ответил на выраженное Руссосом сомнение в правоте его взглядов короткой записью в своем блоге. Ниже приведен дословный перевод:

«Многие считают, что WAFL это файловая система, я и сам так думал, когда в девяностых написал ее, но есть люди, которые думают иначе, например Костадис Руссос, он утверждает, что я неправ, заметим, при этом будучи сотрудниками NetApp! Разберемся в чем причина этого предубеждения и как на самом деле структурирована WAFL.

Структурно WAFL делится на два уровня частей, верхней и нижней. Верхний (top-half) имеет дело с каталогами файлов, он отслеживает кто и когда создал файл, кто может смотреть и модифицировать его и т.д., что очень похоже на обычные действия файловой системы. Top-half поддерживает различные протоколы файловых систем, мы начали с NFS для UNIX, но предполагали расширение, думали о Novell Netware, но следующим оказался Windows CIFS и к Netware мы больше не возвращались.

На нижнем уровне WAFL (bottom-half) оперирует физическими дисками системы, она собирает диски в отдельно управляемые пулы, отслеживает принадлежность дисков RAID-массивам и организует данные таким образом, чтобы максимальным образом повысить производительность при чтении и записи. Bottom half берет на себя создание снэпшотов, удаленное зеркалирование, клонирование, дедупликацию и другое, словом то, что обычно делает менеджер томов или выполняется на уровне виртуализации блоков. 

Уникальной особенностью WAFL является способ интеграции этих двух уровней. Он допускает введение многих новых функций и оптимизаций в том случае, если их спроектируете их должным образом. Когда мы решили поддерживать iSCSI и Fibre Channel SAN, то оказалось, что WAFL отлично справляется с этой задачей на уровне bottom-half. Осознание этого факта подвигло меня к принятию решения о поддержке блочных систем хранения в решениях NetApp. Именно эта двухуровневая структура объясняет недоразумения, связанные с пониманием того, что представляет собой WAFL. По моему теперешнему представлению WAFL содержит в себе в том числе и файловую систему или даже множество файловых систем, что делает WAFL отличным более простых вещей, которые принято назвать файловыми системами».

Модель WAFL

О полемике пятилетней давности можно было забыть или вообще не знать, если бы не ренессанс интереса к WAFL, вызванный переходом от классических массивов на жестких дисках к гибридным, сочетающим жесткие диски с твердотельными, и накопителям целиком построенным на твердотельных дисках (AFA, All Flash Array). На поверку оказалась, что для многих других, альтернативных NetApp подходов к проектированию СХД, xfcnj более остро заточенных на специфике HDD, этот переход оказался непростым. Дело в том, что с появлением SDD происходит быстрое моральное старение, становятся ненужными хорошо апробированные технологии, которые были призваны компенсировать недостатки и слабые стороны HDD. А далее случилось неожиданное, именно в этот момент многоуровневая модель WAFL хранения с делением на top-half и bottom-half продемонстрировала свои лучше качества, оказалось, что ее гораздо удобнее и проще адаптировать к новым условиям, чем аналоги. NetApp оказалась в выигрышном положении, иэто далеко не случайно.

В общем случае построение сложных систем по многоуровневой модели придает конструкции невероятную живучесть, достаточно вспомнить незаменимую по сей день модель стека сетевых протоколов OSI/ISO. Поскольку природа работы с дисками проще, здесь для долгожительства оказалось достаточно всего двух уровней. Главное преимущество, отличающее многоуровневую модель от монолитной, в ее способности к адаптации к изменениям, достаточно модифицировать требуемый уровень, а вся система за счет прописанных межуровневых в целом сохраняется. В нашем случае при переходе от СХД на жестких дисках к гибридным, а затем и к AFA оказывается достаточным внести изменения в нижний уровень, а верхний остается неизменным. Скрытый потенциал WAFL, о котором писал Хитц, обнаружился при появлении флэш и стало ясно, что WAFL удачно соответствует свойствам флэш как носителя данных и может с успехом использоваться в будущем. В связи с этим стоит возвратиться к устройству WAFL. О том, как WAFL работает с HDD, говорить не будем, есть очень удачное описание этого механизма, лежащего в основе нижней половины (Файловая система WAFL — «фундамент» NetApp). Статья представляет собой популярное изложение отчета «File System Design for an NFS File Server Appliance», поэтому повторяться не стоит.

В целом WAFL отличает наличие двух встроенных механизмов: один обеспечивает способ записи и выбор места для записи на диск, второй – оптимальное распределение записываемых данных по выделенным блокам.

Первый механизм основан технологии работы с записями, которая называется Redirect-on-Write (RoW). Существует альтернативная ей технология Copy-on-Write (CoW). RoW более эффективна с точки зрения использования дискового пространства. RoW-снэпшоты оптимизированы по параметру производительности при записи. Вместо того, чтобы записывать оригинальные данные в зарезервированное для снэпшотов адресное пространство, как это делает CoW, RoW пишет только изменения в новые блоки. Детальное сравнение CoW и RoW можно найти по этому адресу.

Принятая в NetApp архитектура реализации снэпшотов RoW обладает рядом конкурентных преимуществ по сравнению с архитектурой CoW). Технология копирования NetApp Snapshot использует текущие указатели на образы хранимых данных (point-in-time image of storage system data). Сочетание WAFL с технологией виртуализации СХД, являющейся частью NetApp Data ONTAP позволяет создавать копии снэпшотов минимального размера (low-overhead Snapshot copies). В WAFL, как в СУБД используются указатели на конкретные блоки данных, но в отличие от тех же СУБД новые блоки повторно не перезаписываются,  а записываются только изменения в новые блоки и указатели на них. технология NetApp Snapshot манипулирует указателями на блоки, создавая «замороженные», доступные только для чтения представления томов, которые позволяют приложениям получать доступ к старым версиям файлов и каталогов. Создание копий-снэпшотов чрезвычайно эффективно с точки зрения затрат времени и дискового пространства. При использовании NetApp Snapshot на создание копии тома уходит менее секунды независимо от размера тома и степени загруженности СХД. После того, как сделана снэпшот-копия все изменения отражаются в апдейтах к ней, а сама копия остается неизменной.  

Второй из механизмов, о которых речь шла выше, определяет выбор места для записи. Название Write Anywhere File Layout подчеркивает, что для записи файлов место может быть выбрано произвольно. Однако произвольным, не значит любое, WAFL выбирает то место на диске, куда запись наиболее целесообразна, причем целесообразность определяется в первую очередь физической природой дисков, например, HDD критерии много лет были одни, а для SSD принципы места выбора другие.

Для иллюстрации принципа работы WAFL используют образную аналогию с хорошо известной игрой Тетрис. В некоторых документах NetApp применяют даже применяют название tetris для обозначения механизма, осуществляющего распределение блоков дискового пространства. Тетрис стал популярной игрой по двум причинам: на экране очередная фигурка появляется неожиданно и время на ее укладку ограничено. Но представьте себе ситуацию, когда вы можете видеть поток падающих фигурок на много ходов вперед и вас достаточные средства для подбора оптимального варианта. В таком случае вы сможете укладывать фигурки с необходимой плотностью или по каким-то иным правилам, ну разумеется игровой момент в таком случае пропадает. Поток записываемых файлов, состоящих из блоков можно уподобить потоку фигурок, а WAFL, как играющий в Тетрис в раскладывает файлы на дисковом пространстве. Изначально алгоритмы WAFL разрабатывались под особенности HDD как носителя, но с таким же успехом можно перейти на другой носитель, другими свойствами, нужно всего лишь изменить стратегию выбора преимущественного места записи.

WAFL и SSD

Наличие этих двух механизмов обеспечивает бесшовный переходный процесс от HDD к SSD, который начался в 2008 году с работы по проекту Hybrid Aggregates. Цель этого проекта заключалась в адаптации ОС Data ONTAP к требованиям SSD. Тогда, с одной стороны, флэш-память была еще очень дорогой и речь могла идти, как следует из названия проекта, только о гибридных массивах, сочетающих более быстрые, но и более дорогие диски SSD с более медленными, за то дешевыми HDD. С другой, еще недостаточно понимали различие между HDD и SDD, иногда в SDD видели простую более быструю замену HDD и SDD. Поэтому задачи, решаемые в Hybrid Aggregates, сводились к поиску баланса между двум типами накопителя в одном устройстве. Их было три. Первая – научиться передавать в WAFL информацию о составе устройства с тем, чтобы можно было решать задачу о распределении по двум типам носителя. Вторая – модификация существующих механизмов миграции и размещения данных. Третья – выработка правил для миграции данных между HDD и SDD. Все три были успешно решены путем внесения изменений в WAFL. Есть статья Hybrid Aggregates: Combining SSDs and HDDs in a single storage pool, где данная работа детально описана.

При переходе к массивам класса AFA главной проблемой становится учет физических особенностей флэш-памяти, в случае NetApp ее решение относительно несложно, поскольку двухуровневая модель позволяет реализовать преимущества WAFL заложенные в RoW. Выше было сказано, что почти все известные файловые системы ведут свою родословную от Berkeley Fast File System (BFFS), поэтому они реализуют функционал, который является величайшим достоинством с точки зрения HDD, но совершенно и абсолютным рудиментом с точки зрения SSD. Все традиционные системы стремятся обеспечить максимально близкое размещение блоков одного файла (locality) с тем, чтобы можно было так или иначе оптимизировать процедуры чтения. Файловые системы COW, в том числе и RoW, создающие теневые страницы-копии, по определению уступают им в возможности локализовать файл, создаваемые копии будут размещаться где-то в другом месте. Такие системы быстрее выполняют запись на HDD, но медленнее чтение и больше страдают от дефрагментации.

Однако то, что является недостатком в случае HDD, оказывается преимуществом в случае SDD. Когда смотришь на пару RoW в исполнении WAFL и SDD, складывается впечатление, что их не разделяет 20 лет, что они созданы друг для друга. NAND Flash SSD, как носитель, обладает двумя не слишком привлекательными качествами. Во-первых, если вы хотите осуществить запись в желаемый блок, то вы должны прежде стереть его содержимое, а уже затем непосредственно осуществить запись. Во-вторых, локальность противопоказана, чтобы носитель жил как можно дольше, желательно равномерно использовать все пространство хранения, в таком случае не будут выжигаться наиболее часто используемые блоки. И тот, и другой вполне компенсируются средствами WAFL. В статье All-Flash FAS: A Deep Dive, написанной по результатам испытания массивов AFA FAS8000 подчеркивается значение WAFL. «Возможно вам приходилось слышать, что ОС Data ONTAP существовала задолго до появления флэш-памяти, что она не проектировалась с учетом особенностей этого типа памяти. Но практика показала, что благодаря Write Anywhere File Layout (WAFL) обладает свойствами идеально соответствующими требованиям флэш». 

Автор: Леонид Черняк 

Источник

Проблемный ЦОД РЖД в Екатеринбурге

Бюджет с каждым годом увеличивается все больше и больше в геометрической прогрессии, равно как и сроки строительства резервного ЦОДа РЖД в Екатеринбурге. На этот раз новая дата – 31 декабря 2016 года. Смета проекта исчисляется миллиардами, РЖД проводит все новые и новые тендеры на закупку оборудования, а руководство меж тем занимается разработкой стратегии компании по созданию единой цифровой модели инфраструктуры.

Проект дата-центра компании РЖД в Екатеринбурге был заявлен в 2011 году, а куратором объявлен филиал РЖД «Свердловская железная дорога». Изначальной целью проекта являлось обеспечение надежности и бесперебойной работы вычислительных комплексов компании с необходимым развитием магистрального сегмента ее сети передачи данных. ЦОДу был заранее присвоен статус межрегионального, и на него была возложена задача обеспечения работы информационно-управляющих комплексов РЖД от Сахалина до Нижнего Новгорода. Ранее в компании утверждали, что таких крупномасштабных проектов будет три, один из них – на Восточном полигоне сети РЖД, однако до сих пор об этом ничего неизвестно.

Первоначально, согласно изначальным планам РЖД, дата-центр должен был быть завершен к концу 2013 года. Строительство тогда вела компания ООО «Трансбалтстрой». Согласно плану, за 2011 год были выполнены работы по нулевому циклу и было начато возведение монолитного каркаса здания; за 2012 – был закончен монолитный каркас, начаты работы по монтажу фасада и инженерных систем; а за 2013 – указанные работы по монтажу фасада и необходимых для жизнеобеспечения объекта инженерных систем были продолжены.

Однако на целых два года, вплоть до 2015 года, никто больше ничего о ЦОДе РЖД не слышал. В мае 2015 были установлены новые сроки – конец 2016 года. Причины такой задержки до сих пор неизвестны. Возможно это было связано с судебными тяжбами с жителями Екатеринбурга. Еще в сентябре 2011 года в Железнодорожный районный суд Екатеринбурга депутатом Законодательного собрания Свердловской области Андреем Альшевских был подан иск к городской думе, администрации города и РЖД о незаконности проекта. Суть иска состояла в том, что для подготовки стройплощадки для ЦОДа было снесено бывшее здание Дома культуры железнодорожников и вырублены парковые деревья. Изначально суд наложил запрет на строительство дата-центра до окончания разбирательств, однако 4 ноября 2011 года отменил его. Согласно данным информационного агентства Regnum, подобный иск был подан повторно жителями города в 2012 году, но, по всей видимости, тоже безуспешно.

Стоит отдельно отметить, какой бюджет был выделен на этот долгострой. На начальных этапах региональные СМИ (экспертный информационный канал УралПолит.Ru) располагали информацией о 16,4 млрд рублей за весь проект. Позже пресс-служба компании заявляла другие цифры: «В ценах 2011 г. сметная стоимость первого этапа строительства здания резервного ЦОДа составляла 3,53 млрд рублей (без НДС). С учетом текущего уровня цен, стоимость проекта составляет 4 млрд рублей (без НДС)». Архивы сайта компании же утверждают, что в 2011 году было выделено 300 млн рублей, а в 2012 – 1 млрд рублей. Цифры то растут, то падают, а РЖД продолжало закупать оборудование. К примеру, в том же 2015 году, когда снова заговорили о дата-центре в Екатеринбурге, было приобретено оборудование на 329,8 млн рублей: частотные преобразователи, датчики, шкафы автоматики и коммутации, шинопроводы, аккумуляторные батареи, распределительные щиты и др. В номенклатуре фигурирует компания Siemens.

Весной 2016 года в результате второго тендера (первый был отменен) был выбран подрядчик для строительно-монтажных работ ООО «Информсвязь сервис», попросивший за свои услуги 224,4 млн рублей. А совсем недавно, в июне, был заключен контракт с еще одним подрядчиком для поставки силового электрооборудования ООО «Трансбарьер М». Его услуги обойдутся РЖД в 216 млн рублей.

РЖД не останавливаются на достигнутом в расширении сметы: 29 июня этого года было заявлено о торгах на закупку в формате открытого электронного аукциона. Сами торги пройдут 4 августа 2016 года, а поставка должна будет завершиться до 30 ноября. Начальная сумма аукциона – 363 млн рублей. Таким образом, только в текущем году компания РЖД потратит почти полтора миллиарда рублей.

Согласно проекту, описанному в пресс-релизе РЖД еще за 2011 год, на площади 8,63 тысячи квадратных метров будут расположены три двухуровневых машинных зала, а также административные и технологические помещения. Также будут возведены два корпуса блока инженерных систем. Дело осталось за малым: по плану на 2015-2016гг. к декабрю необходимо выполнить работы по вводу в эксплуатацию инженерного оборудования машинных залов, систем кондиционирования и вентиляции, гарантированного, бесперебойного электроснабжения, локальных вычислительных сетей административных помещений и машинных залов, систем автоматики, диспетчеризации, видеонаблюдения, контроля доступа, пожарно-охранной сигнализации, генераторов постоянного тока и многое другое.

Остается главное: закупить оборудование. Согласно сайту госзакупок, список следующий:

  • 23 мультисенсорных извещателя;
  • девять шкафов контроля различного типа для управления и коммутации распределительных сетей;
  • четыре типа шинопроводов;
  • дизель-генераторная установка;
  • три источника бесперебойного питания;
  • две холодильные машины со встроенным теплообменником свободного охлаждения;
  • 78 прецизионных кондиционеров;
  • вспомогательные материалы для системы кондиционирования;
  • кабели обнаружения протечек;
  • первичные часы с усилителем импульсов;
  • 162 стрелочных самоустанавливающихся часовых механизма различного размера;
  • цифровые жидкокристалические 6-сегментные часы;
  • приемник сигналов точного времени GLONASS/GPS;
  • радиостойка для линии сети проводного вещания;
  • абонентский трансформатор с молниезащитой.

Будут ли отодвинуты вновь сроки сдачи в эксплуатацию резервного ЦОДа в Екатеринбурге, пока говорить рано: у компании РЖД есть время до конца года. Однако появляющаяся в СМИ формулировка «срок сдачи намечен на январь 2017» и довольно размытая цифра на стенде перед стройкой не внушают надежды. Остается надеяться, что очередной долгострой скоро будет сдан, а на его фоне запустятся другие проекты подобных резервных ЦОДов компании РЖД.

Источник

РобоЦОД: как роботы смогут управлять всем дата-центром

Компания PayPerHost из Словакии представила миру свой ранний концепт полностью автоматизированных дата-центров. Согласно их идее, ЦОДом будут управлять не «неэффективные люди», а роботы, что должно привести к сокращению расходов и энергоэффективности за счет повторного использования энергии. Компания сейчас находится в поиске инвесторов для своих «RoboNodes» и надеется в ближайшем будущем уже построить прототип.

В PayPerHost обращают особое внимание на проблему постоянного роста использования электроэнергии в дата-центрах, что, по их мнению, влияет на глобальное изменение климата, несмотря на недавние американские исследования, показавшие минимальный рост использования энергии ЦОДами.

Концепт RoboNodes«Если посчитать, то стойка в среднем служит 50 лет – ни один элемент инфраструктуры дата-центра не живет настолько долго», — отмечает CEO компании PayPerHost, Жольт Сабо. «Работа с подобным оборудованием общего назначения всегда болезненна и неэффективна. Наша идея RoboNodes возникла как раз из необходимости развития более эффективной ИТ-инфраструктуры».

Дата-центры RoboNodes будут состоять из настраиваемых стоек и серверов. Воздух, используемый для охлаждения, будет полностью отделен от воздуха в машзале, что позволит зафиксировать и использовать все полученное тепло для отопления здания или повторного использования в самом ЦОДе. Температура горячего воздуха будет регулироваться специальными клапанами, что гарантирует правильное охлаждение серверов.

RoboNodes будут обслуживать роботы на салазках, которые смогут в случае неисправности заменить узлы хранения данных и серверные узлы. Отсюда и название: от английского слова «узел» — «node». Эти заменяющие узлы будут состоять из материнской платы с силовыми и Ethernet портами, интегрированными в один, процессор, восемь слотов для оперативной памяти и шесть SSD-дисков. Благодаря этим роботам, отпадает необходимость в круглосуточной техподдержке и дает больше возможностей для размещения маленьким дата-центрам. ЦОды RoboNodes также могут быть установлены в отдаленных холодных районах и управляться удаленно.

Иллюстрации компонентов RoboNodes:
Компоненты RoboNodes  Компоненты RoboNodes

Источник

Сергей Разумовский выступил с докладом на Консультативном научном совете (КНС) “Сколково”

22 июня 2016 года в Научном центре РАН в Санкт-Петербурге прошло заседание Консультативного научного совета (КНС) Сколково. В заседании приняли участие губернатор города Георгий Полтавченко, председатель президиума Санкт-Петербургского научного центра РАН нобелевский лауреат Жорес Алферов, представители научных кругов России и зарубежных стран. Обсуждались вопросы развития образования в системе Сколковского института науки и технологий во взаимодействии с КНС.

Исполнительный директор Рэйдикс Сергей Разумовский выступил на мероприятии,  представляя проект российского вендора СХД, одного из наиболее успешных участников IT-кластера «Сколково». В своем докладе Сергей рассказал об истории проекта, его научной составляющей, взаимодействии Рэйдикс с ведущими университетами мира и совместной исследовательской деятельности.

Источник

Гипермасштабируемые инфраструктуры: шанс срезать на повороте и догнать

Нередко можно услышать казалось бы вполне обоснованные призывы и обещания заместить те или иные информационные технологии аналогами, чаще всего созданными на основе открытого программного обеспечения. Такие заверения  на первый взгляд выглядят весьма привлекательными, но если  к ним пристально присмотреться, то нетрудно убедиться — за редчайшим исключением они  непродуктивны. Да, не исключено, что доморощенными решениями удастся  залатать отдельные существующие бреши, что же касается серьезной перспективы, то результатом такого рода замещения станет еще большее  технологическое отставание. Если не догнать, но хотя бы приблизиться к идущему далеко впереди сопернику, следуя по его стопам, можно,  лишь в том случае, если бежать намного быстрее него, а коли  скорость ниже, то такая стратегия рано или поздно приведет в тупик.

Бежать след в след бессмысленно, поскольку в технологических гонках, в отличии от спорта, срезать углы на дистанции, то есть переходить на новые принципы, оставляя старые конкурентам, не только допустимо, а наоборот, предпочтительно. Так было всегда, например, в заметном выигрыше остались страны, перешедшие в век электричества, не пытаясь догнать Англию, признанного лидера века пара. В современных ИТ сейчас складываются схожие условия, они благоприятны для выбора маневра на опережение, эти условия  созданы несколькими взаимосвязанными   тенденциями последних лет, за счет них можно выбрать короткий путь с меньшими капиталовложениями, он предполагает закупку имеющегося на свободном рынке недорогого оборудования и сборку из него надежных и производительных систем с опорой на признанные всем  профессиональны миром таланты и оригинальность мышления отечественных программистов.

Разумеется, альтернативные пути не универсальны, они в основном распространяются на то, что называют Третьей платформой (The 3rd Platform). Из этого  названия  следует, что существуют  предшествующие две. С пятидесятых до девяностых годов прошлого века господствовала Первая платформа, это мэйнфреймы с подключенными к нем терминалами. Во всем мире тогда было несколько миллионов пользователей, а количество возможных приложений не превышало нескольких тысяч. Появлению следующей Второй платформы способствовали более многочисленные серверы, работающие под управлением операционной системы Unix и Windows, персональные компьютеры и локальные сети. Двадцать лет господствовали построенные на ней конфигурации клиент-сервер, вместе с которыми число пользователей возросло до сотен миллионов, а разнообразие приложений достигло десятков тысяч. Символами Третьей платформы стали мобильные устройства, социальные сети, облачные вычисления, Большие данные и аналитика. Теперь количество пользователей исчисляется миллиардами, а приложений миллионами. Массовый переход на Третью платформу займет долгие годы, к тому же он не будет тотальным, предшествующие платформы сохранятся там, где они прижились и эффективны, но в будущем инновации в бизнесе будут так или иначе связаны с Третьей платформой. Все три платформы мирно сосуществуют. В России собственных технологий Первой и Второй платформ нет и не будет, с этим следует смириться, но, что касается Третьей, то мы еще не потеряли свой шанс и, перспективно мысля, упор следует делать на нее.  

Занять достойное место среди создателей новой платформы вполне реально, поскольку она поддерживается еще одним трендом — коммодитизация (Commoditization). В общем смысле маркетологи трактуют это явление как «потеря значимых для потребителей различий между продуктами одной категории», что почти точно соответствует компьютерным технологиям. Когда-то во всем мире было менее полусотни компаний, которые могли выпускать сложнейшие по конструкции мэйфреймы, Unix-серверы производило существенно большее, но все же ограниченное число фирм.  Хотя многочисленные производители персональных компьютеров и внесли свою лепту в комодитизацию отрасли, она до сих пор не захватила корпоративный сегмент, где были  и остаются мегавендоры-монополисты, особенно в области систем хранения данных.  Переход на Третью платформу грозит проникновением так называемых белых ящиков (white box), то есть серверов и систем хранения малоизвестных фирм и сюда, что может существенно изменить правила игры. Начал этому направлению положил специализированный поисковый компьютер Google Search Appliance (GSA), известный своей ярко желтой окраской, за что его прозвала «yellow box». Google  сама организовала их производство, отказавшись от дорогих серверов известных брендов. Сегодня, когда насчитывается семь или восемь поколений GSA,  желтые коробки не кажутся чем-то странным, а пятнадцать лет назад трудно было представать, что они могут составить конкуренцию серверам  Sun Microsystems, наиболее популярной в то время платформе для Internet. В результате коммодитизации на рынке уже есть, а в дальнейшем будет еще больше модулей, из которых, как из кирпичиков Лего можно собирать всевозможные конструкции, соответствующие требованиям Третьей платформы.

Наконец третья тенденция. Заставить набор модулей работать как единое целое, собрать их в одну систему, обладающую необходимыми качествами  позволяет  новый тренд   названием для которого служит  Software-Defined Everything (SDE), то есть «программно-определяемое все». Главное достоинство SDE в возможности перенести основную часть интеллекта информационных  систем в программную составляющую и ограничиться использованием менее сложного и следовательно дорогого аппаратного обеспечения.  В общем SDE включает  в себя многое, в том числе программно-определяемые  центры обработки данных (Software-Defined Data Center, SDDC), программно-определяемые (Software-Defined Networking, SDN), программно-определяемые системы хранения, (Software-Defined Storage, SDS), программно-определяемые рабочие места (Software-Defined Workplace, SDW) и многое другое. Одним из наиболее перспективных направлений SDE являются так называемые гипер-конвергетнные инфраструктуры (Hyper-converged Infrastructure), именно они и являются наиболее привлекательными с точки зрения создания собственных производств. 

Итак, используя имеющиеся на рынке доступную номенклатуру модулей, можно собрать необходимую систему, работающую под управление соответствующего программного обеспечения. В справедливости этого утверждения легко убедиться, если посмотреть  компании, собирающих суперкомпьютеры. Хотя здесь лидируют крупнейшие мировые бренды, это они создают уникальные конструкции, но при этом остается место и для существенно меньших,  специализированные, сочетающих собственное ноу-хау с использованием покупных изделий. Среди них вполне достойное место занимают две российские — «Т-платформы» и РСК (Российская Суперкомпьютерная  Компания). На ежегодных выставках в Америке и Европе их  экспозиции ни чуть не уступают стендам конкурентов и присутствие обеих на рынке весьма ощутимо.

Почему же ни в одном ином сегменте  компьютерного рынка мы не обнаружим ничего подобного? Ответ достаточно прост. Компании-лидеры вкладывают в создание своих оригинальных конструкций суммы, измеряемые миллиардами долларов, при том, что близкие формальные показатели производительности, измеряемые в петафлопсах, можно получить за существенно меньшие деньги, вопрос о том, насколько корректно такое сравнение, в стороне.  Высокие результаты без огромных вложений обеспечивает кластерная архитектура Беовульф. Она возникла в университетском сообществе четверть века назад, когда оказалось возможной сборка руками студентов и ученых некоторого количества большого компьютера из дешевых рабочих станций, работающего под управлением свободно распространяемого программного обеспечения.

Первые кластеры были примитивны, на обычные стеллажи устанавливали персональные компьютеры и связывали между собой кабелями. При в сотни раз меньшей стоимости, чем на формально равные по мощности традиционные компьютеры,  они успешно справлялись с поставленными перед ними задачи, разумеется, оставаясь менее универсальными и менее надежными. За прошедшее время производство высокопроизводительных кластеров вышло на профессиональный уровень, но главное достоинство сохранилось, потомков Беовульф по-прежнему можно собирать из имеющихся на рынке готовых компонентов с ограниченной добавленной стоимостью от компаний-интеграторов. Вот почему «Т-платформы», РСК, китайские и другие компании занимают почетные места в известном списке самых мощных суперкомпьютеров.

Ограниченность сферы использования кластеров объясняется их несоответствием требованиям приложений Второй платформы,  они за редким исключением, несмотря на все свои преимущества,  занимали узкую суперкомьютерную нишу. Однако с появлением Третьей платформы ситуация заметно меняется, теперь преемники кластеров, собранные их простых компонентов, имеют прекрасные  шансы занять достойное место и в корпоративном сегменте. Опыт компаний Google, Amazon, Facebook показал, что из простых и массовых компонентов  вполне возможно строить системы, охватывающие весь Web (Web-scale).  Логично, что меньшие по масштабам системы, построенные на тех же принципах, так называемые гипермасштабируемые инфраструктуры  (Hyper-Scale Infrastructure) будут востребованы теми предприятиями, которые начнут переход на Третью платформу. 

История гипермасштабируемых инфраструктур чрезвычайно коротка, примерно 5 лет. Первой была компания Nutanix, разработавшая оригинальную распределенную операционную систему Nutanix Operating System (NOS), позволяющую управлять  масштабируемой сборкой из серверных, сетевых и модулей хранения данных. Готовое решение может быть куплено у нее или через Dell. Но можно ограничиться закупкой NOS и другого программного обеспечения, а в качестве «железа» использовать продукты третьих компаний. По этому пути пошли российские партнера Nutanix ОАО ПМСП «Электрон» и RadiusGroup. В число ведущих производителей гипермасштабируемых инфраструктур вошли компании SimpliVity  с продуктом OmniCube и VMware с продуктом EVO: RAIL.

Теперь для  российских компаний намечается два пути по направлению к Третьей платформе, один компромиссный, он предполагает использовать «белые ящики» и программное обеспечение от Nutanix, SimpliVity, VMware или кого-то еще, но можно попытаться составить им конкуренцию и это захватывающе интересная задача.

Автор: Леонид Черняк 

Источник