Центр высокопроизводительных вычислений

Сотрудники ФГУП НИИР ежедневно выполняют сложнейшие вычислительные операции для анализа электромагнитной совместимости между наземными системами и сетями радиосвязи, анализа эффективности использования частотного ресурса на территории РФ и др. задачи подобной сложности, которые требуют проведения множества параллельных вычислений. На вычислительном комплексе (ВК) обычной конфигурации этот процесс может затянуться на несколько месяцев. Поэтому было принято решение о создании ВК на базе HPC-кластера (High Perfomance Computing) – кластера высокопроизводительных вычислений.

Специалисты компании «Инфосистемы Джет» спроектировали и построили кластер на базе оборудования Sun Microsystems, обеспечили его стабильную работу. Кроме того, они дали рекомендации по перестройке помещения, где планировалось размещение оборудования, построению систем электропитания, кондиционирования, отвода тепла.

Построенный ВК обеспечивает научно-техническую и информационную поддержку решения государственных задач по использованию конверсии радиочастотного спектра. Пиковая производительность кластера – 3 TeraFLOPs. Это первый суперкомпьютер в отрасли связи, на момент запуска он входил в десятку самых мощных суперкомпьютеров РФ.  На базе ВК был открыт единственный в Восточной Европе и первый в России центр компетенций по высокопроизводительным вычислениям компании Sun Microsystems.

Модернизация системы хранения данных и системы резервного копирования

Модернизация системы хранения данных (СХД) и системы резервного копирования (СРК) стала одним из фундаментальных проектов, реализуемых ИТ-службой банка ВТБ для обеспечения решения прикладных и бизнес-задач. В результате проекта была значительно увеличена производительность и расширена емкость систем хранения - суммарная полезная емкость дисковых массивов составила более 15 ТБ, повышена надежность хранения и эффективность управления данными. Банк получил не только модернизированную СХД, но и оптическую высокопроизводительную, масштабируемую сеть передачи данных на основе технологии DWDM. Проект позволит банку в дальнейшем развивать и совершенствовать ИТ-инфраструктуру, подключая новые офисы и Дата-центры, а также повышать уровень предоставления услуг. Проектирование и внедрение решений осуществляли специалисты компании «Инфосистемы Джет». В проекте использованы решения Brocade, Hitachi Data Systems и др.вендоров.

Проектирование и строительство нового ЦОД для банка ВТБ24

Новый отказоустойчивый дата-центр построен с учетом требований стандарта Tier 3 TIA-942 и обладает коэффициентом надежности – 99,982%, что обеспечивает необходимый уровень его отказоустойчивости. ЦОД рассчитан на 82 стойки и соответствует требованиям банка по масштабированию. При наращивании мощностей не требуется остановка работы ЦОДа.

ЦОД построен с нуля на базе офисного помещения, реорганизованного таким образом, чтобы разместить большое количество оборудования на ограниченной территории. Была проделана масштабная работа – от создания специального микроклимата для строительства инженерных подсистем до гидроизоляции крыши. К выполнению строительных и монтажных работ были привлечены более 15 субподрядных организаций. Инфраструктура дата-центра включает 11 инженерных систем жизнеобеспечения.

При построении дата-центра использовались сложные и нестандартные решения, проработанные экспертами «Инфосистемы Джет» совместно с производителями оборудования. Благодаря этому был составлен слаженно работающий мультивендорный ансамбль из передовых технологических решений Chloride, Emerson, SDMO, Panduit, Huber+Suhner, Schneider и многих других (всего более 30).

ЦОД повышенной мощности для ВТБ24

Новый дата-центр суммарной мощностью 1600 кВт объединил четыре действующих ЦОД банка в единый отказоустойчивый узел посредством общей для всех дата-центров структурированной кабельной системы. СКС полностью выполнена на оптических компонентах с применением претерминированных кабельных сборок, она позволяет передавать данные на скорости до 40 Гбит/с. Уровень надежности инженерной инфраструктуры – Tier III. ЦОД позволяет размещать оборудование разного номинала мощности – всего около 100 стоек.

В ходе проекта выполнена строительная подготовка помещений, усиление перекрытий, монтаж фальшпола. Внутри серверного зала построены две гермозоны для размещения высоконагруженных стоек без риска локального перегрева ЦОД. В системе кондиционирования используется технология free cooling. Благодаря эффективному способу размещения трубной проводки и применению компактных, но производительных кондиционеров удалось сэкономить до 20% пространства серверного зала. Все инженерное оборудование нового ЦОД подключено к единой автоматизированной системе диспетчерского управления дата-центров ВТБ24.

Разделение базы данных АБС Росбанка

Разделение базы данных на оперативную и аналитическую части позволило повысить надежность работы АБС. Теперь данные разного жизненного цикла и критичности хранятся и обслуживаются независимо. В 8 раз уменьшилось время восстановления критичных данных в случае сбоя, увеличилась скорость резервного копирования, оптимизировано использование аппаратных ресурсов. С функциональной точки зрения базы продолжают работать и обслуживать запросы в прежнем режиме. 

Консолидация вычислительных мощностей на Иркутском Авиационном заводе

Основным элементом ИТ-инфраструктуры завода является центр обработки данных (ЦОД), который  представлял собой мультивендорное решение, состоящее из серверов младшего и среднего уровня. Анализ работы ЦОД показал, что он не обеспечивает необходимый уровень обслуживания большинства повседневных задач. Это могло привести к срыву сроков производства и, как следствие, к значительным убыткам. Было принято решение о модернизации.

Специалисты Департамента ИТ завода и компании «Инфосистемы Джет» рассматривали два варианта решения задачи: первый подразумевал установку дополнительных серверов среднего уровня, второй – консолидацию вычислительных мощностей на одном сервере hi-end уровня. После тщательно проведенного сравнительного анализа вариантов и предложений вендоров был выбран второй вариант и сервер Hi-End класса Sun Fire 20K. Специалисты интегратора выполнили установку и интеграцию сервера в ИТ-инфраструктуру завода, произвели разделение сервера на аппаратные разделы для работы каждого бизнес-приложения, что позволило с высокой степенью динамичности перераспределять вычислительные мощности в зависимости от нагрузки на приложение.

На сервере Sun Fire 20K выполняются все критически важные приложения предприятия, общее количество пользователей превышает 4,5 тыс. человек. Решение позволило повысить производительность и уровень отказоустойчивости системы, снизить затраты на администрирование и стоимость обслуживания.

Проектирование и внедрение системы многоуровневого хранения данных

Новая многоуровневая СХД позволила снизить операционные затраты на хранение информации и обслуживание системы. Благодаря гибкой политике настройки параметров системы, можно автоматически разделять данные по классам с учетом требований к времени доступа и к частоте их использования. За счет более рационального использования дискового пространства существенно увеличен его полезный объем – теперь его хватит с запасом на 2-3 года вперед, учитывая динамику роста.

Система хранения данных построена в катастрофоустойчивой конфигурации: оборудование разделено между двумя зеркальными площадками, настроена репликация.

Комплексный проект по созданию Центра обработки данных

Новый современный ЦОД в ОАО «Мосэнергосбыт» соответствует уровню Tier II (по классификации Uptime Institute) и построен с «нуля», начиная с планировки и ремонта помещения.  В проекте применен ряд  высокоэффективных технологий. Например, современная система охлаждения (фрикулинг), позволившая значительно снизить энергозатраты; зонированная воздухораздача кондиционирования, благодаря которой минимизируется тепловыделение, а значит, уменьшается нагрузка на кондиционеры и существенно снижаются расходы на систему кондиционирования. Все оборудование расположено на площадке, надежно защищенной от перегрева и негативного влияния внешней среды.

Благодаря оптимально просчитанной инженерной инфраструктуре, ЦОД вмещает в себя 22 высокозагруженных  стойки и имеет возможность  установки негабаритного оборудования класса Hi-end. При этом  он расходует около 60% от собственного резерва в текущей конфигурации и имеет широкие возможности для масштабирования. Планомерно наращивать комплекс, не изменяя его структуры, можно будет в течение 5-7 лет. В случае, если будет происходить частичная замена серверного оборудования или его оптимизация,  сроки увеличатся до 10 лет

Внедрение стратегии обеспечения непрерывности предоставления ИТ-услуг

По масштабу и бюджету — одна из крупнейших в мире программ послеаварийного восстановления и обеспечения непрерывности предоставления ИТ-услуг. Разработаны общая стратегия восстановления ИТ-услуг и высокоуровневый план ее реализации, спроектированы и внедрены технические решения, обеспечивающие реализацию разработанной стратегии восстановления ИТ-услуг:

  • резервный вычислительный центр (РВЦ) для обеспечения непрерывной работы всех критичных для бизнеса систем и приложений;
  • высокоскоростная территориально распределенная сеть между главным вычислительным центром (ГВЦ) и РВЦ на основе технологии DWDM, обеспечивающая синхронную репликацию более 35ТБ данных. Сеть используется также как средство связи ГВЦ и РВЦ посредством SAN-IP-сетей и для дупликации в СРК (система резервного копирования);
  • новая распределенная сеть хранения (SAN) ГВЦ-РВЦ с полным дублированием сетевого оборудования и магистралей (более 2000 портов);
  • распределенная система резервного копирования на более чем 300 серверов, обеспечивающая суммарную емкость хранения в физических и виртуальных ленточных библиотеках более 2,5ПБ данных;
  • более 20 распределенных кластеров для бесперебойного функционирования наиболее критичных бизнес-приложений (биллинговая система, CRM, ERP и др.).

Консолидация сети хранения данных SAN на платформе Brocade

Более чем пятикратный рост абонентской базы оператора за три года и существенное увеличение объема данных потребовали построения новой сети хранения данных (Storage Area Network, SAN). Проект новой SAN был разработан с учетом всех требований по надежности и масштабируемости. Сама инфраструктура состоит из трех частей: SAN главного вычислительного центра (ГВЦ), SAN резервного вычислительного центра (РВЦ) и сети для организации резервного копирования и репликации данных между ГВЦ и РВЦ.

Самым сложным этапом проекта стала замена коммутационного оборудования CNT на оборудование Brocade без остановки серверов и бизнес-приложений. В ГВЦ работы начались в 11 часов вечера, и за одну ночь (7 часов) были переключены более 60 серверов и около десятка дисковых систем; физически заменено крупногабаритное оборудование – старое демонтировано, а новое установлено на его место; перекоммутировано более 250 кабелей. Миграция прошла успешно – все работы проведены в оговоренные сроки, без заметного влияния на функционирование производственных систем.

В результате проекта заказчик получил возможность и дальше предоставлять абонентам услуги высокого качества, а также базу для развития ИТ-инфраструктуры на несколько лет.

Миграция информационных систем «Голден Телеком» в инфраструктуру «ВымпелКом»

63 информационные системы, около 250 серверов на 7 площадках «Голден Телеком» и порядка 200 Тб данных мигрированы на 3 серверные площадки «ВымпелКом» всего за 11 месяцев. При этом обеспечена сохранность данных и минимизированы простои бизнес-критичных сервисов. Вся ИТ-инфраструктура приведена к стандартам «ВымпелКом», устаревшее оборудование выведено из эксплуатации. Все системы теперь обслуживаются единым образом, существенно повысилось качество поддержки и снизились эксплуатационные затраты.

Перенос систем осуществлялся с учетом их взаимосвязи, на случай нештатной ситуации проработаны планы возврата к первоначальному состоянию. В ходе миграции были применены различные технические решения в зависимости от критичности систем, их нагруженности и типа оборудования: переезд «как есть», смена платформы, консолидация на более производительном оборудовании и виртуализация. Для миграции приложений применялись онлайн-переезд либо развертывание из резервной копии. Важной составляющей проекта стали детально прописанные процедуры планирования и осуществления переездов, а также слаженная работа специалистов: от каждой компании была выделена рабочая группа, четко описаны правила взаимодействия и границы ответственности. 

Вычислительный комплекс для программы лояльности потребителей МАЛИНА™

Спроектирован и внедрен вычислительный комплекс, обеспечивающий работу бизнес-приложений программы лояльности потребителей МАЛИНА™. Архитектура решения разработана с учетом дальнейшего роста бизнеса и позволяет легко масштабировать систему при увеличении числа как компаний-участников программы, так и пользователей (покупателей)

Бизнес на турбоскорости. «М.Видео» увеличила оперативность и точность бизнес­аналитики с помощью решения SAP HANA на платформе Hitachi Data Systems

Проект позволил компании «М.Видео»решить ряд технологических проблем, получить новые возможности для бизнеса и реализовать очередной этап в построении BI-стратегии. Перевод аналитической системы SAP BW на платформу SAP HANA на базе вычислительного комплекса HDS в десятки раз увеличил скорость создания аналитической отчетности – в среднем с 12 часов до нескольких минут и даже секунд. Например, более чем в 100 раз быстрее стал работать отчет по товарному балансу, расширились возможности его детализации.

Компания «Инфосистемы Джет» полностью интегрировала SAP HANA в ИТ-ландшафт и комплекс SAP-решений «М.Видео» согласно необходимым требованиям производительности. Все компоненты решения также были интегрированы с корпоративной СРК. Спустя 5 месяцев после старта проект начал приносить ощутимую пользу для бизнеса: годовая финансовая отчетность была подготовлена уже в новой системе.

В рамках развития комплекса его конфигурация была дополнена вычислительными ресурсами, что повысило производительность работы и обеспечило отказоустойчивость. Сегодня аналитическая платформа обеспечивает работу более 200 пользователей. Весь базис SAP-систем «М.Видео» находится на поддержке компании «Инфосистемы Джет»  

ИТ-инфраструктура для интернет-магазина «М.Видео»

Модульная виртуализованная ИТ-инфраструктура обеспечивает работу новой, промышленной программной платформы интернет-магазина «М.Видео». ИТ-комплекс позволяет быстро вносить изменения в функционал, а также оперативно реагировать на всплески трафика в высокие сезоны. Добавление новых вычислительных ресурсов не требует изменений на прикладном уровне и может быть произведено в течение 1,5–2 часов. ИТ-комплекс состоит из нескольких типовых функциональных блоков – такое разделение помогает выявлять и масштабировать только проблемные участки. Все инфраструктурные компоненты зарезервированы, также созданы среды для разработки и тестирования. 

Модернизация ИТ-инфраструктуры с миграцией бизнес-приложений в компании «М.Видео»

Сложный комплексный проект, который включил в себя: построение новой вычислительной инфраструктуры на базе архитектуры x86 (миграция с платформы RISC), межплатформенную миграцию данных и приложений параллельно с внедрением новых функциональных модулей SAP ERP, а также переезд всей инфраструктуры из одного дата-центра в другой. Для соблюдения установленных сроков по запуску новых модулей SAP и минимизации времени простоя был разработан ряд нестандартных решений, которые позволили внедрять новые бизнес-приложения в процессе модернизации инфраструктуры. Кроме того, в ходе проекта была модернизирована система резервного копирования с целью удовлетворения строгих требований к восстановлению данных. В настоящее время  вся инфраструктура – вычислительный комплекс и прикладное ПО (включая бизнес-логику) - находится на аутсорсинге сервисного центра компании «Инфосистемы Джет».