ОАКБ "Агробанк".

advertisement
УТВЕРЖДАЮ
УТВЕРЖДАЮ
Первый заместитель
председателя Правления
ОАКБ «Агробанк»
Джиянов Н.Б._____________
«___» __________ 2014 г.
Руководитель разработчика
Информационной Системы
_____________________
«___» __________ 2014 г.
ТЕХНИЧЕСКОЕ ЗАДАНИЕ
на
Построение центра обработки данных
ОАКБ «Агробанк»
на 70 листах
действует с ________________
СОГЛАСОВАНО
Государственный комитет связи,
информатизации и телекоммуникационных
технологий Республики Узбекистан
_____________________
«____»__________ 2014 г.
Настоящий документ-Техническое задание на построение и ввод в действие Центра
обработки данных (ЦОД) Открытого акционерного коммерческого банка "Агробанк".
Документ определяет назначение ЦОД, цели его построения, характеристики объектов
автоматизации, требования к структуре и функционированию компонентов ЦОД, требования
к видам обеспечения компонентов ЦОД, и описывает в деталях предлагаемое решение.
Содержание
1. Общие сведения. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . .
4
1
1.1 Наименование системы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Заказчик . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Исполнитель . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.4 Основание для разработки системы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.5 Источники финансирования . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
2. Назначение и цели создания ЦОД . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
2.1 Назначение ЦОД . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
2.2 Цели создания ЦОД . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
3. Характеристика объекта автоматизации. Существующая система . . . . .
3.1 Описание основных подразделений существуюшейIT– среды . . .
5
5
4. Требования к системе . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1 Требования к системе в целом . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6
6
4.1.1 Требования к структуре и функционированию системы . . . . . . . .
6
4.1.2.Требования к численности и квалификации персонала системы
и режиму его работы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
4.1.3. Показатели назначения . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
4.1.4. Требования к надежности . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
4.1.5. Требования к безопасности . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
4.1.6. Требования к эргономике и технической эстетике . . . . . . . . . . . . . .
15
4.1.7. Требования к эксплуатации, техническому обслуживанию,
ремонту и хранению компонентов системы . . . . . . . . . . . . . . . . . . . . . .
16
4.1.8. Требования к защите информации от несанкционированногодоступа 16
4.1.9. Требования по сохранности информации при авариях . . . . . . . . . . . . . 17
4.1.10. Требования к патентной чистоте . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
4.1.11. Требования по стандартизации и унификации . . . . . . . . . . . . . . . . . . .. 18
4.1.12. Требования к защите от влияния внешних воздействий . . . . . . . . . . . 18
4,2 Требования к функциям (задачам), выполняемым системой . . . . . . . . . . . . . . . . 19
4.2.1. Распределение ресурсов постоянной памяти . . . . . . . . . . . . . . . . . . . .. 20
4.2.2. Распределение вычислительных ресурсов . . . . . . . . . . . . . . .. . . . . . . . 20
4.2.3. Эффективное резервирование . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2.4. Балансировка запросов . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.2.5. Катастрофоустойчивость . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3. Требования к видам обеспечения . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.3.1. Требования к лингвистическому обеспечению . . . . . . . . . . . . . . . . . . . 22
4.3.2. Требования к программному обеспечению . . . . . . . . . . . . . . . . . . . . . . 22
4.3.3. Требования к информационному обеспечению . . . . . . . . . . . . . . . . . . 23
4.3.4. Требования к техническому обеспечению . . . . . . . . . . . . . . . . . . . . . . . 23
2
4.3.5. Требования к организационному обеспечению . . . . . . . . . . . . . . . . . . 24
5 Состав и содержание работ по созданию системы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.1.Требования к составу и содержанию работ по вводу системы в действие . . . . . 24
6.Порядок контроля и приемки системы . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
6.1.Общие требования к приемке работ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
6.2.Статус приемочной комиссии . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
7.Сводный перечень требований. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
8. Описание комплекса технических средств . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
8.1.Состав комплекса нового ЦОД . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
8.1.1. Сервер HP IntegritySuperdome 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
43
8.1.2. Дисковоехранилище HP 3PAR StoreServ Storage . . . . . . . . . . . . . . . . . 46
8.1.3. Серверная архитектура HP BladeSystem . . . . . . . . . . . . . . . . . . . . . . . . 49
8.1.4. Системы резервного копирования HP StoreOnceBackup (D2D) . . . . .
52
8.1.5. Ленточные библиотеки HP StorEver . . . . . . . . . . . . . . . . . . . . . . . . . . .
53
8.1.6. Активное оборудование для ЛВС . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
9.1.7. Активное оборудование для СХД . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
8.1.8. Источники бесперебойного питания . . . . . . . . . . . . . . . . . . . . . . . . . .
56
8.1.9. Монтажное оборудование . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
56
8.2.Решения HP по обеспечению высокой доступности и катастрофоустойчивости 57
9. Спецификация оборудования . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
10. Требования к документированию . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
68
10.1.Перечень подлежащих разработке комплектов и видов документов . . . . . . . .
68
10.2.Требования к форме представления документации . . . . . . . . . . . . . . . . . . . . . .
68
10.3.ОТребования к документированию комплектующих элементов . . . . . . . . . . . . 68
11. Источники разработки . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.
68
Общие сведения
1.1. Наименование системы
Полное наименование Системы – Центра обработки данных.
Сокращенное наименование Системы – ЦОД.
1.2. Заказчик
Заказчиком на построение и ввод в действие ЦОД является Открытый акционерный
коммерческий банк "Агробанк".
1.3. Исполнитель
Исполнителем является Победитель Тендера на построение и ввод в действие ЦОД.
3
1.4. Основание для разработки системы
Основанием для разработки системы является Постановление Правления ОАКБ «Агробанк»
№34/4 от 24 мая 2014 г.
1.5. Источники финансирования
Источником финансирования проекта являются собственные средства ОАКБ «Агробанк»
2.
Назначение и цели создания ЦОД
2.1. Назначение ЦОД
Центр обработки данных предназначен для автоматизации функций основной деятельности
ОАКБ "Агробанк":
⚪
⚪
⚪
⚪
⚪
Автоматизированная Банковская Система (АБС) "NCI-Bank";
Межфилиальная и межбанковская система Клиринговых расчетов;
Интегрированная Информационно-аналитическая система;
Система электронного документооборота "IS_DocFlow";
Модули предоставления услуг населению и клиентам банка интерактивных
государственных услуг.
ЦОД позволит Заказчику:
⚪ повысить качество выполнения названных функций по сравнению с действующей
ИТ-средой;
⚪ развернуть решения ранее нереализованных задач – интеграция с
автоматизированной банковской системой (АБС) систем международных
денежных переводов, систем международных пластиковых карточек VISA и
MasterCard.
2.2. Цели создания ЦОД
Цель создания ЦОД – замена действующей ИТ-среды с сохранением и улучшением
технических характеристик, характеристик её функционала и возможностью добавления
ранее нереализованных функций.
ЦОД позволит выполнять следующие функции:
⚪ точное и гибкое распределение ресурсов постоянной памяти;
⚪ точное и гибкое распределение вычислительных ресурсов;
⚪ резервное копирование на жёсткие диски с применением эффективных способов
сохранения и защиты информации;
⚪ балансировка пользовательских запросов к центральному вычислительному
комплексу;
⚪ повышение отказо- и катастрофо- устойчивости.
3.
Характеристика объекта автоматизации. Существующая система.
3.1. Описание основных подразделений существующей ИТ-среды
В настоящий момент ядро ИТ-среды ОАКБ "Агробанк" представляет собой два
географически разнесённых вычислительных центра (ВЦ), а именно:
⚪ Основной ВЦ (головной офис ОАКБ «Агробанк»):
▪ центральное дисковое хранилище корпоративного класса HP StorageWorks
EVA6100.Полезное дисковое пространство 8 ТБ;
4
▪
3 (три) сервера HP Integrity rx6600 под управлением операционной системы
(ОС) HP-UX 11.31 и системы управления базами данных (СУБД) Oracle 10g R2
с использованием функционала объединения систем в кластер Oracle Real
Application Cluster (RAC);
▪ комплект серверов приложений;
▪ активное оборудование для локальной вычислительной сети (ЛВС) и сети
хранения данных (СХД);
▪ комплект источников бесперебойного питания;
▪ монтажное оборудование.
⚪ Резервный ВЦ (Чиланзарское подразделение ОАКБ «Агробанк»):
▪ центральное дисковое хранилище корпоративного класса HP StorageWorks
EVA6100. Полезное дисковое пространство 8 ТБ.
▪ 2 (два) сервера HP Integrity rx6600 под управлением ОС HP-UX 11.31 и СУБД
Oracle 10g R2 с использованием функционала объединения систем в кластер
Oracle RAC;
▪ активное оборудование для ЛВС и СХД;
▪ комплект источников бесперебойного питания;
▪ монтажное оборудование.
В настоящее время пользователи (около 3500) информационной системы со всех 183
территориальных подразделений ОАКБ «Агробанк» в режиме реального времени
посредством серверов приложений осуществляют запросы в базу данных Единого баланса
банка (клиент-сервер). Вся финансовая информация ОАКБ «Агробанк» хранится на системе
хранения данных HP StorageWorks EVA6100. Запросы от серверов приложений передаются
на сервера баз данных HP Integrity rx6600. В часы «пик» операционного дня банка нагрузка
на процессоры серверов баз данных составляет 170-180 процентов. В обычном режиме
нагрузка составляет 70-80 процентов. Ядро информационной системы ОАКБ «Агробанк»
работает на пределе допустимого и возможного. При этом, оперативная память каждого из
серверов баз данных составляет 64 GB.
Из полезного дискового пространства 8ТБ в настоящее время неиспользованным остается 1.2
ТБ. Система хранения HP StorageWorks EVA6100 полностью укомплектована жесткими
дисками (8х14=112 на основном и 8х14=112 на резервном ВЦ) и дальнейшее расширение
пространства не представляется возможным.
Резервный ВЦ функционирует в ждущем (Standby) режиме, содержит актуальную копию
главного набора данных и находится в состоянии готовности для решения главных задач
банка. Актуальность данных поддерживается функционалом программного обеспечения
(ПО) Oracle Golden Gate.
В качестве серверов приложений используются системы стандартной архитектуры класса
"лезвие" на инфраструктуре HP BladeSystem c7000.
Распределение клиентских запросов (режим
устанавливается вручную, согласно регламенту.
доступа
к
серверам
приложений)
Связь между ВЦ осуществляется по оптоволоконным каналам, в которых используется
однорежимный кабель. Дистанция: 3,5 км. Количество оптических пар: 4. Две пары
используется для ЛВС, две - для СХД.
В качестве инфраструктуры СХД используются коммутаторы HP серии Brocade.
В качестве ядра ЛВС используются два сопряжённых между собой коммутатора модульного
5
типа HP 10508 в следующей комплектации:
⚪ JC612A HP 10508 Switch Chassis 2 шт.
⚪ JC610A HP 10500 2500W AC Power Supply 6 шт.
⚪ JC753A HP 10508/10508-V 1.04Tbps Typ B Fabric Module 8шт.
⚪ JC614A HP 10500 Main Processing Unit 4 шт.
⚪ JC631A HP 10500 8-port 10GbE SFP+ SE Module 4шт.
⚪ JC618A HP 10500 48-port Gig-T SE Module 2 шт.
Используемые подключения 10G SFP+:
⚪ По два подключения от каждого коммутатора используются для связи с
коммутаторами доступа HP 5120-24G-PoE+ EI Switch.
⚪ По одному подключению от каждого коммутатора используются для связи с
коммутаторами доступа HP 5120-48G-PoE+ EI Switch.
⚪ По два подключения используются для связи коммутаторов между собой.
⚪ По одному подключению используются для связи с резервным ВЦ.
Ядро ЛВС (пара коммутаторов HP 10508) располагается на территории основного ВЦ. На
территории резервного ВЦ используются коммутаторы HP 5120-24G EI, объединённые в
один стек. Основной канал связи ЛВС между ВЦ - 10 Гбит/сек, резервный - 1 Гбит/сек.
В настоящий момент ведутся проектные и организационные работы по части
модернизации связи между основным и резервным ВЦ. Планируется дополнение
существующей (4 пары оптиковолоконных соединений) связи еще 8 парами
оптиковолоконных соединений.
4.
Требования к системе
4.1. Требования к системе в целом
4.1.1. Требования к структуре и функционированию системы
Согласно Концепции, ЦОД должен состоять из следующих функциональных единиц:
⚪ Основной ВЦ (головной офис ОАКБ «Агробанк»):
▪ сервер баз данных;
▪ центральное дисковое хранилище корпоративного класса;
▪ комплект серверов приложений;
▪ система резервного копирования;
▪ комплект активного оборудования для СХД;
▪ комплект активного оборудования для ЛВС;
▪ система балансировки пользовательских запросов;
▪ комплект источников бесперебойного питания;
▪ монтажное оборудование.
⚪ Резервный ВЦ (Чиланзарское подразделение ОАКБ «Агробанк»):
▪ сервер баз данных;
▪ центральное дисковое хранилище корпоративного класса;
▪ комплект серверов приложений;
▪ система резервного копирования;
▪ комплект активного оборудования для СХД;
6
▪ комплект активного оборудования для ЛВС;
▪ система балансировки пользовательских запросов;
▪ комплект источников бесперебойного питания;
▪ монтажное оборудование.
ЦОД, согласно Концепции, должен состоять из двух географически разнесённых идентичных
ВЦ. Каждый из ВЦ, в полном объёме, должен быть укомплектован техническими средствами,
необходимыми для решения всех ключевых задач ОАКБ «Агробанк».
Исходя из изложенного, накопленного опыта эксплуатации вышеназванных систем с
2005 года и учитывая потребность в эффективном решении текущих задач, к
функциональным единицам обновленного ЦОД предъявляются перечисленные ниже
требования.
Сервер баз данных:
Модульность
▪ добавление вычислительных блоков по мере необходимости;
▪ поддержка объединения вычислительных блоков в вычислительную систему;
▪ добавление блоков ввода/вывода по мере необходимости;
▪ назначение отсеков ввода/вывода вычислительным блокам.
Дробление вычислительной системы
▪ возможность создания логических разделов с поддержкой жёсткого назначения
процессоров или процессорных ядер, оперативной памяти и устройств
ввода/вывода и с поддержкой работы самостоятельного экземпляра ОС;
▪ возможность перераспределения ресурсов логического раздела между другими
разделами;
▪ возможность открепления ресурсов логического раздела при работающей ОС;
▪ назначение дополнительных ресурсов логическому разделу при работающей
ОС.
Резервирование
кластер вычислительных систем.
Центральное дисковое хранилище корпоративного класса:
Модульность
▪ добавление дисковых полок по мере необходимости;
▪ добавление интерфейсов по мере необходимости;
Режим работы
▪ все контроллеры активны и равномерно нагружены, т.е. в единицу времени,
имеют доступ на чтение/запись к любому логическому тому, при этом, нагрузка
на контроллеры распределяется равномерно и автоматически (средствами
хранилища);
▪ все внешние интерфейсы активны, т.е. нет простаивающих интерфейсов;
▪ поддержка подключений систем-потребителей через СХД и напрямую;
▪ поддержка внешних интерфейсов FC 8 Гбит/сек., FCoE/iSCSI 10 Гбит/сек;
▪ вычисление контрольных сумм чётности RAID 5 и 6 на уровне
специализированных микросхем без участия центрального процессора
контроллера;
▪ поддержка всех основных ОС: WindowsServer 2012/2008, HP-UX, OracleSolaris,
7
IBM AIX, OracleLinux, RedHatLinux, SUSE Linux, VMWare, Hyper-V,
CitrixXenServer.
Дисковые ресурсы
▪ поддержка разнотипных дисков в одной полке;
▪ поддержка логических томов с различными уровнями RAID на одной группе
дисков;
▪ тонкое распределение дискового пространства (ThinProvisioning);
▪ поддержка логического тома на разнотипных дисках с автоматическим
распределением блоков данных в зависимости от частоты обращения к ним;
▪ возврат освободившихся, неиспользуемых дисковых ресурсов логического тома
в общий дисковый пул;
▪ автоматическое и равномерное распределение нагрузки ввода/вывода на
логический том по всем задействованным однотипным дискам хранилища
средствами дискового массива.
Снимки и копии
▪ поддержка локальных копий логических томов: клонов (физических копий) и
снимков (виртуальных копий);
▪ поддержка целостности локальных копий (клонов и снимков) для приложений:
Oracle, Exchange, MS SQL, Vmware;
▪ создание копий логических томов без необходимости остановки системы;
▪ создание снимков без выделения дискового пространства;
▪ снимки логических томов доступны для чтения и записи;
▪ создание снимков с клонов и других снимков;
▪ создание копий на уровнях RAID отличных от уровней RAID логических
томов;
▪ создание копий на типах дисков отличных от типов дисков логических томов.
Взаимодействие с другими хранилищами
▪ репликация логических томов между аналогичными хранилищами на
аппаратном уровне по встроенным интерфейсам FC или по выделенным
интерфейсам FastEthernet;
▪ поддержка синхронного и асинхронного режимов репликации;
▪ гарантированная целостность реплицируемых логических томов;
▪ использование тонкого распределения (реплицируется только используемое
пространство, а не весь том целиком);
▪ поддержка возобновления репликации после восстановления связи с
применением инкрементальной записи, т.е. только накопившейся разницы;
▪ поддержка различных вариантов репликации: с нескольких хранилищ к
одному; с одного хранилища к нескольким, включая репликацию одного и того
же набора данных одновременно на несколько хранилищ; каждое — ко всем
остальным;
▪ поддержка миграции данных между двумя аналогичными хранилищами;
▪ поддержка федерализации;
▪ поддержка разделения хранилища на логические хранилища с независимыми
дисковыми ресурсами и правилами администрирования;
▪ распределение выделяемой производительности между группами клиентов, как
по количеству запросов ввода/вывода так и по объему потока данных.
8
Управление и автоматика
▪ выделенный интерфейс для удалённого управления;
▪ уведомления о пограничных и аварийных состояниях.
Комплект серверов приложений:
Модульность
▪ единая инфраструктура ("лезвия");
▪ добавление серверов по мере необходимости;
▪ добавление блоков ввода/вывода по мере необходимости.
Универсальность
возможность установки серверов x86 и RISC/EPIC, приводов LTO-6, дисковых массивов
Управление
▪ контроль состояния аппаратуры;
▪ уведомления о пограничных и аварийных состояниях;
▪ доступ к процессорам управления серверов и коммуникационных устройств;
▪ объединение нескольких шасси в одну логическую управляемую единицу;
▪ защищённый доступ через веб-интерфейс и командную строку;
▪ локальная встроенная панель управления.
Устройства связи
▪ объединённый (конвергентный) 10 Гбит/сек.;
▪ привязка аппаратных адресов ЛВС и СХД к отсеку инфраструктуры.
Режим работы
▪ поддержка всех основных ОС: WindowsServer 2012/2008, HP-UX, OracleSolaris,
IBM AIX, OracleLinux, RedHatLinux, SUSE Linux, VMWare, Hyper-V,
CitrixXenServer;
▪ поддержка виртуализации на уровне центрального процессора.
Дисковое хранилище резервного копирования:
Модульность
добавление дисков по мере необходимости
Режим работы
▪ поддержка дедупликации (отслеживание изменений на блочном уровне);
▪ эмуляция ленточных библиотек;
▪ поддержка файлового доступа (NAS);
▪ поддержка нескольких протоколов связи: Ethernet и FC.
Ленточное хранилище резервного копирования:
Тип
роботизированная библиотека
Привод
LTO-6 / FC 8 Гбит/сек.
Управление и автоматика
▪ встроенный сканер штрих-кодов;
▪ выделенный интерфейс для удалённого управления, включая поддержку
графической консоли;
▪ полноценный комплект ПО резервного копирования для ленточных библиотек.
9
Комплект активного оборудования для СХД:
Модульность
добавление интерфейсов по мере необходимости
Управление потоками данных
▪ поддержка зонирования (изоляция сегментов сети);
▪ поддержка функций обеспечения качество обслуживания.
Управление
▪ выделенный интерфейс для удалённого управления;
▪ защищённый доступ через веб-интерфейс и командную строку;
▪ контроль состояния аппаратуры; уведомления о пограничных и аварийных
состояниях
Унификация и совместимость
▪ поддержка функции автоматического определения скорости 4, 8 и 16 Гбит/сек.;
▪ поддержка межкоммутаторного соединения (ISL) с гарантированной скоростью
и качеством обслуживания.
Комплект активного оборудования для ЛВС:



поддержки интегрированных технологий поверх протокола Ethernet (PoE, PoE+,
FCoE и т. п.);
интеграции различных приложений в коммутаторах (в том числе за счет
применения модулей с открытой архитектурой);
встроенных возможностей по безопасности.
Система балансировки пользовательских запросов:
Режим работы
поддержка
работы
приложений
в
режимах
«Действующий/Ждущий»,
«Действующий/Действующий» (Active/Standby, Active/Active)
Алгоритмы балансировки
Round Robin, Ratio, Least Connections, Fastest, Observed, Predictive, Dynamic Ratio, L3 Address
Мониторинг доступности приложений
HTTP/HTTPS, FTP (passive/active), POP3, IMAP, SIP, SMTP, telnet, RADIUS, LDAP (with TLS
or over SSL), SASP, Oracle, MSSQL, SNMP DCA, WMI, RPC and SOAP.
Трансляция адресов
NAT и NAPT
Совместимость со сторонними приложениями
Поддержка SOAP/XML сообщений
Управление сетевым трафиком
▪ поддержка функции DynamicReaping для контроля за состоянием соединений;
▪ поддержка функции ProtocolSanitization для независимого управления
соединениями на стороне сервера и клиента;
▪ возможность создания индивидуальных правил управления трафиком;
▪ расширенный мониторинг действий пользователей с приложением;
▪ поддержка полного преобразования IP и балансировки нагрузки между сетями
IPv4 и IPv6 (шлюз Ipv6);
10
▪ поддержка протокола мобильной связи Mobile Ipv6
Аппаратное сжатие сетевого трафика
deflate, bzip2, или LZO
Средство обеспечения безопасности
встроенный межсетевой экран
Защита от атак
▪ типы: DoS/DDoS, SSL renegotiation, Slow Loris, Slow POST, Botnet, Flood;
▪ протоколы: SYN, ICMP, ACK, UDP, TCP, IP, DNS
Защита от SSL DDoS
ARP, Tear Drop, IP fragment, syn-ack, push-ack, LAnd, fin flood, rst flood, get flood, recursive get
Шифрование
Presharedkey, RSA signature
Алгоритмы хеширования
3DES, AES-128, AES-192, AES-256, AES-GCM-128, AES-GCM-256, SHA-1, AES-GMAC-128,
AES-GMAC-192, AES-GMAC-256
Прочее
▪ обнаружение аномалий в сетевом трафике;
▪ поддержка IPsec site-to-site;
▪ поддержка аутентификации;
▪ поддержка шифрования cookie для предотвращения перехвата сессии cookie,
повреждения cookie, утечки информации cookie
Комплект источников бесперебойного питания (ИБП) и монтажное оборудование:
Состав
по два комплекта управляемых ИБП на каждый ВЦ
Время автономной работы
не менее 30 мин.
4.1.2. Требования к численности и квалификации персонала системы и режиму его
работы
Эффективное функционирование ЦОД подразумевает наличие у Заказчика следующих
специалистов
⚪
⚪
⚪
⚪
⚪
⚪
⚪
⚪
⚪
Продвинутый пользователь UNIX
Продвинутый пользователь Windows
Техник серверов стандартной архитектуры
Техник хранилищ данных корпоративного класса
Администратор хранилищ данных корпоративного класса
Администратор серверов стандартной архитектуры
Администратор СХД
Администратор ЛВС
Администратор системы резервного копирования
4.1.3. Показатели назначения
ЦОД должен отвечать следующим требованиям:
⚪ Функционировать в круглосуточном режиме (24х7х365)
11
⚪ Поддерживать изменения алгоритмов работы. В случае «падения» основного
вычислительного центра, работу без остановки приложений должен продолжить
резервный вычислительный центр. Переход должен осуществляться без остановок
и вмешательства администратора системы
⚪ Поддерживать модернизацию (до пределов, установленных производителем
оборудования) и наращивание системы (исходя из бизнес-требований Заказчика)
4.1.4. Требования к надежности
ЦОД должен безотказно выполнять определенные функции в заданных условиях в течение
заданного периода времени с достаточно большой вероятностью.
В целях обеспечения надёжности программного обеспечения, ЦОД должен обладать
следующими свойствами:
⚪ Иерархическая структура. Иерархия позволяет разбить систему по уровням
понимания (абстракции). Данный подход позволяет понимать, проектировать и
находить ошибки работы в сложных системах.
⚪ Независимость элементов. Элементы системы должны быть максимально
независимы. Такая декомпозиция сводит к минимуму возможность влияния одного
элемента системы на другой, исключая возникновение нежелательных, трудно
диагностируемых симптомов.
⚪ Устойчивость к ошибкам. Достигается отказоустойчивостью аппаратного
обеспечения, повторным выполнением операций, динамическим изменением
конфигурации, обработкой исключительных ситуаций, резервным копированием и
изоляцией ошибок.
⚪ Обнаружение ошибок. Достигается контролем исполнения и регистрацией
ошибок.
Сервер баз данных должен отвечать следующим требованиям надёжности:
⚪
⚪
⚪
⚪
⚪
⚪
⚪
⚪
избыточность блоков питания;
избыточность вентиляторов охлаждения;
избыточность интерфейсов ЛВС и СХД;
избыточность вычислительных блоков;
оперативная память с кодом обнаружения и коррекции ошибок (ECC);
промышленная коммерческая ОС UNIX;
ПО для организации кластеров вычислительных систем;
функция "горячей" замены для блоков питания, вентиляторов охлаждения и
интерфейсов.
Центральное дисковое хранилище корпоративного класса должно отвечать следующим
требованиям надёжности:
⚪
⚪
⚪
⚪
⚪
⚪
⚪
⚪
⚪
избыточность блоков питания;
избыточность вентиляторов охлаждения;
избыточность интерфейсов ЛВС и СХД;
избыточность дисковых полок;
избыточность вычислительных блоков (контроллеров);
избыточность кэш-памяти;
энергонезависимость кэш-памяти;
массивы RAID 1,5 и 6;
гарантированная непрерывность работы при обновлении микропрограммного
12
обеспечения;
⚪ поддержка снимков и копий логических томов;
⚪ поддержка репликации логических томов между аналогичными хранилищами;
⚪ функция "горячей" замены для контроллеров, блоков питания, вентиляторов
охлаждения, жёстких дисков и дисковых полок.
Комплект серверов приложений должен отвечать следующим требованиям надёжности:
⚪
⚪
⚪
⚪
избыточность блоков питания;
избыточность вентиляторов охлаждения;
избыточность интерфейсов ЛВС и СХД;
избыточность вычислительных блоков (серверов) в сочетании с системой
балансировки пользовательских запросов;
⚪ избыточность модулей управления;
⚪ привязка аппаратных адресов ЛВС и СХД к отсеку инфраструктуры;
⚪ функция "горячей" замены для блоков питания, вентиляторов охлаждения,
жёстких дисков и модулей управления.
Дисковое хранилище резервного копирования должно отвечать следующим
требованиям надёжности:
⚪
⚪
⚪
⚪
⚪
избыточность блоков питания;
избыточность вентиляторов охлаждения;
избыточность интерфейсов ЛВС и СХД;
массивы RAID;
функция "горячей" замены для блоков питания, вентиляторов охлаждения и
жёстких дисков.
Ленточное хранилище резервного копирования должно отвечать следующим
требованиям надёжности:
⚪ поддержка дополнительного привода;
Комплект активного оборудования для СХД должен отвечать следующим требованиям
надёжности:
⚪
⚪
⚪
⚪
избыточность блоков питания;
избыточность вентиляторов охлаждения;
дублирование коммутаторов;
функция "горячей" замены для блоков питания, вентиляторов охлаждения и
интерфейсов.
Комплект активного оборудования для ЛВС должен отвечать следующим требованиям
надёжности:
⚪
⚪
⚪
⚪
избыточность блоков питания;
избыточность вентиляторов охлаждения;
дублирование коммутаторов;
функция "горячей" замены для блоков питания, вентиляторов охлаждения и
интерфейсов.
Комплект источников бесперебойного питания (ИБП) и монтажное оборудование
должны отвечать следующим требованиям надёжности:
⚪ дублирование ИБП;
13
⚪ защита от перегрузок (включая короткие замыкания);
⚪ защита от разрушительного разряда батарей.
4.1.5. Требования к безопасности
Требования к безопасности ЦОД направлены на достижение трех основных свойств
информации:
a. Целостность. Информация, на основе которой принимаются решения, должна
быть достоверной и точной, защищенной от возможных непреднамеренных и
злоумышленных искажений.
b. Доступность. Информация и соответствующие автоматизированные службы
должны быть доступны, готовы к работе всегда, когда в них возникает
необходимость.
c. Конфиденциальность. Информация должна быть доступна только тому, кому она
предназначена.
ЦОД должен отвечать следующим уровням безопасности:
⚪ организационной;
⚪ процедурной;
⚪ технической.
На организационном уровне обеспечения информационной безопасности должны решаться
следующие задачи:
⚪ разработка, документирование и распространение официальной политики
безопасности и формальных процедур;
⚪ периодическая оценка рисков, являющихся следствием эксплуатации ЦОД;
⚪ обеспечение надежности лиц, занимающихся сопровождением и поддержкой
работоспособности ЦОД;
⚪ информирование и обучение сотрудников, занимающихся сопровождением и
эксплуатацией ЦОД.
На процедурном уровне обеспечения информационной безопасности должны решаться
следующие задачи:
⚪ поддержка и реализация планов реагирования на аварийные ситуации, резервного
копирования и восстановления после аварий;
⚪ управление конфигурацией;
⚪ создание и поддержка регистрационных журналов для отслеживания, анализа и
расследования фактов незаконной, несанкционированной или ненадлежащей
активности;
На техническом уровне обеспечения информационной безопасности должны решаться
следующие задачи:
⚪ предоставление физического доступа к оборудованию ЦОД только
авторизованному персоналу;
⚪ физическая защита оборудования ЦОД, включая защиту от факторов окружающей
среды;
⚪ контроль условий эксплуатации оборудования ЦОД;
⚪ защищённый, управляемый и многоуровневый доступ к системам ЦОД.
4.1.6. Требования к эргономике и технической эстетике
Взаимодействие пользователей с ЦОД должно осуществляться преимущественно
посредством графического интерфейса. Интерфейс системы должен быть:
14
⚪ понятным;
⚪ удобным;
⚪ не перегружен лишними элементами управления.
Интерфейс пользователя должен обеспечивать быстрое отображение экранных форм.
Навигационные элементы должны быть выполнены в удобной для пользователя форме.
Средства редактирования информации должны удовлетворять принятым соглашениям. Вводвывод данных системы, прием управляющих команд и отображение результатов их
исполнения должны выполняться в интерактивном режиме.
Интерфейс должен соответствовать современным эргономическим требованиям
обеспечивать удобный доступ к основным функциям и операциям системы.
и
Интерфейс должен быть рассчитан на преимущественное использование манипулятора типа
"мышь", то есть управление системой должно осуществляться с помощью набора экранных
меню, кнопок, значков и т. п. элементов. Клавиатурный режим ввода должен использоваться
главным образом при заполнении и/или редактировании текстовых и числовых полей
экранных форм.
Система должна обеспечивать корректную обработку аварийных ситуаций, вызванных
неверными действиями пользователей, неверным форматом или недопустимыми значениями
входных данных. В таких случаях система должна выдавать пользователю соответствующие
сообщения, после чего возвращаться в рабочее состояние, предшествовавшее неверной
(недопустимой) команде или некорректному вводу данных.
Система должна соответствовать требованиям эргономики и профессиональной медицины
при условии комплектования высококачественным оборудованием (ПЭВМ, монитор и прочее
оборудование), имеющим необходимые сертификаты соответствия и безопасности.
4.1.7. Требования к эксплуатации, техническому обслуживанию, ремонту и хранению
компонентов системы
Условия эксплуатации оборудования ЦОД должны обеспечивать использование технических
средств системы с заданными техническими показателями, включающими состояние
окружающей среды, параметры электропитания, периодичность и характер технического
обслуживания, а также иные условия, если это является требованием производителя
оборудования.
Первичными источниками электропитания ЦОД, включая средства представления
информации, являются сети переменного тока напряжением 220В, частотой 50Гц.
В целях обеспечения непрерывной работы технических средств должны использоваться
источники бесперебойного питания.
Обслуживание технических средств ЦОД производится Заказчиком согласно внутренним
регламентам Заказчика.
Объем, трудозатраты и порядок выполнения обслуживания должны соответствовать
техническим условиям на эксплуатацию применяемых программно-технических средств.
4.1.8. Требования к защите информации от несанкционированного доступа
ЦОД должен обеспечивать защиту от несанкционированного доступа и разделение доступа к
функциям и данным в соответствии с ролевой моделью (матрицей доступа, требований ЦБ
РУЗ к серверным комнатам) пользователей, а также защиту от некорректного использования
функций системы и ввода недопустимых данных.
В ходе разработки системы должна быть проведена категоризация обрабатываемой в ней
информации и определены соответствующие требования по защищенности в зависимости от
уровня конфиденциальности в соответствии с действующими требованиями.
15
Должна предусматриваться возможность использования сертифицированных средств
криптографической защиты информации, межсетевых экранов, а также иных программных и
аппаратных средств защиты информации.
В том случае, если предусматривается механизм смены пароля для пользователей, при смене
пароля в обязательном порядке должно запрашиваться его предыдущее значение. При
использовании механизма отсылки по электронной почте забытого пароля должна
осуществляться проверка на соответствие учетной записи и электронного адреса.
Все пароли в системе должны храниться в зашифрованном виде или в виде хэша. Не
допускается хранение паролей в тексте процедур или функций. Система не должна
предоставлять неавторизованным пользователям возможности получать список
идентификационных записей, применяемых в системе.
Система должна обеспечивать журналирование всех прикладных операций, требующих
авторизации, а также успешных попыток аутентификации с регистрацией времени события,
запрошенного компонента и функции, результатов выполнения события.
4.1.9. Требования по сохранности информации при авариях
В ЦОД должна предусматриваться возможность регулярного автоматического резервного
копирования и ручного восстановления обслуживающим персоналом обрабатываемой
информации из резервной копии в следующих аварийных ситуациях:
⚪ ошибочные действия обслуживающего персонала, приведшие к утрате или
искажению данных системы;
⚪ отказ системы, связанный с фатальным нарушением целостности файловой
системы или структуры внутримашинных баз.
Для резервного копирования должны использоваться штатные средства прикладной
программной платформы, причем организация внутримашинных баз данных системы
должна обеспечивать сохранение:
⚪ всей прикладной информации системы, включая информацию о текущих статусах
исполняемых регламентов;
⚪ всех параметров настройки системы, включая учетные записи и персональные
настройки пользователей.
Хранение архивной информации должно осуществляться в технологической архивной
подсистеме. Аварии любого вида и характера на отдельных рабочих местах и прочих
терминальных устройствах системы не должны приводить к утрате и/или повреждению
обрабатываемой системой информации, за исключением утраты данных, непосредственно
вводившихся оператором в момент аварии. Если в момент аварии выполнялась операция
редактирования какой-либо информации, существовавшей в системе, система должна
обеспечивать возврат базы данных к состоянию до редактирования (откат незавершенной
транзакции).
В процедуре должен использоваться двухуровневый метод резервного копирования.
Актуальные и изменяемые данные сохраняются с помощью оперативного (дискового)
хранилища резервного копирования с использованием аппарата дедупликации. Данные на
долговременное хранение должны отправляться на архивное (ленточное) хранилище.
Процедура резервного копирования должна протекать в отведённые графиком окна времени,
но без прекращения доступа к резервируемым данных. Все ключевые вычислительные
системы должны иметь возможность одновременного доступа к ресурсам системы
резервного копирования.
Система резервного копирования должна поддерживать создание загрузочных образов ОС, с
16
помощью которых можно восстановить ОС вычислительной системы без необходимости
переустановки ПО.
Должен быть определён чёткий регламент поведения персонала при авариях, включая
проведение периодических учений по восстановлению данных после аварии.
Центральное дисковое хранилище должно поддерживать создание локальных копий
логических томов: клонов (физических копий) и снимков (виртуальных копий) без
необходимости остановки системы. Снимки логических томов должны быть доступны для
чтения и записи.
Информация об аварийных ситуациях и сбоях должна автоматически протоколироваться
программными или техническими средствами.
4.1.10. Требования к патентной чистоте
Патентная чистота системы и ее частей должна быть обеспечена в отношении патентов,
действующих на территории Узбекистана.
Реализация
технических,
программных,
организационных
и
иных
решений,
предусмотренных проектом системы не должна приводить к нарушению авторских и
смежных прав третьих лиц.
При использовании в системе программ (программных комплексов или компонентов),
разработанных третьими лицами, условия, на которых передается право на использование
(исполнение) этих программ, не должны накладывать ограничений, препятствующих
использованию системы по ее прямому назначению.
4.1.11. Требования по стандартизации и унификации
ЦОД должна использовать стандартные решения, базирующиеся на открытых стандартах,
предусматривающих возможность сопряжения и совместной работы оборудования и
программного обеспечения разных производителей.
4.1.12. Требования к защите от влияния внешних воздействий
К помещению ВЦ предъявляются следующие требования:
⚪ температура воздуха в помещениях должна поддерживаться в диапазоне 18–25 по
Цельсию;
⚪ относительная влажность воздуха должна поддерживаться в диапазоне 60–80%;
⚪ стены помещения должны быть покрыты материалом, обладающим пониженным
пылевыделением и исключающим накопление статического электричества;
⚪ помещение должно быть оснащено подвесным потолком, обеспечивающим
размещение воздуховодов систем кондиционирования, освещения, пожаротушения
и коммуникаций;
⚪ помещение должно иметь полы, выдерживающие нагрузку совокупности
расположенного в нем оборудования, покрытые антистатическими, не
выделяющими и не накапливающими пыль материалами и обладающие высокими
свойствами сопротивления разрушению при перемещении и размещении тяжелого
оборудования;
⚪ окна должны быть оснащены солнцезащитной пленкой и жалюзи,
обеспечивающими затемнение помещения;
⚪ дверной проем должен быть оснащен дверью шириной не менее 850 мм и высотой
не менее 2000 мм; дверь должна быть оснащена пружиной автоматического
закрытия и электромагнитным замком;
⚪ доступ в помещение должен быть возможен только для обслуживающего
персонала; контроль доступа в помещение должен осуществляться электронной
17
⚪
⚪
⚪
⚪
⚪
⚪
⚪
⚪
⚪
⚪
системой аутентификации с использованием корпоративных карт доступа;
потолок помещения должен быть оснащен светильниками; все потолочные
светильники помещения должны быть разбиты на группы, имеющие независимые
выключатели;
трассы обычного и пожарного водоснабжения, отопления и канализации должны
быть вынесены за пределы помещения и не должны находиться над ним на
верхних этажах;
при невозможности выделения отдельного помещения, ВЦ может располагаться в
ином офисном помещении, имеющем площадь, достаточную для размещения и
технического обслуживания оборудования;
при размещении ВЦ в офисных помещениях необходимо учитывать акустический
эффект работы системы вентиляции оборудования; расположение рабочих мест
пользователей вблизи помещения ВЦ не допускается;
запрещено размещать ВЦ рядом с помещениями для хранения огнеопасных или
агрессивных химических материалов, а также вблизи мощных источников
электрических или магнитных полей;
пожарная безопасность помещения должна соответствовать нормативным
документам, утвержденным в установленном порядке;
система кондиционирования - приточно-вытяжная; должна соответствовать
количеству теплоты, выделяемому оборудованием ВЦ;
к монтажным шкафам должно быть подведено электропитание напряжением 220 В
от отдельного автоматического выключателя, установленного в групповом щите
сети электропитания;
все оборудование должно быть подключено к источникам бесперебойного
питания; установленные источники бесперебойного питания должны обеспечивать
работоспособность оборудования при отключении электричества в течение 30
минут; в комплект источников бесперебойного питания должно входить
программное обеспечение, позволяющее корректно завершать работу
подключенного к источнику вычислительного оборудования;
монтажные шкафы и устройства вне шкафов заземляются подключением к шине
заземления здания; все устройства в шкафах заземляются от шины заземления,
расположенной в шкафу;
4.2. Требования к функциям (задачам), выполняемым системой
ЦОД, согласно Концепции, должен состоять из двух географически разнесённых идентичных
ВЦ. Каждый из ВЦ, в полном объёме, комплектуется техническими средствами,
необходимыми для решения всех ключевых задач Заказчика, и имеет возможность
организации работы по следующим видам сценариев:
Сценарий №1 "Все ВЦ - действующие"
В штатном режиме - задачи преимущественно решаются средствами основного ВЦ. Часть
задач решает резервный ВЦ, обеспечивая тем самым, непрерывность доступа к службам
ЦОД. Центральные дисковые хранилища обоих ВЦ находятся в постоянном взаимодействии,
необходимом для обеспечения идентичности изменяемых данных. В момент возникновения
аварии, несовместимой с продолжением работы в штатном режиме, автоматически
запускается процедура полного перехода на резервный ВЦ, и работа ЦОД продолжается без
остановки. По устранению последствий аварии - работа ЦОД возобновляется в штатном
режиме, т.е. происходит возврат главной нагрузки на основной ВЦ.
18
Сценарий №2 "Действующий/Ждущий"
В штатном режиме - задачи решаются средствами основного ВЦ. Резервный ВЦ пребывает в
состоянии готовности. Центральные дисковые хранилища обоих ВЦ находятся в постоянном
взаимодействии, необходимом для обеспечения идентичности изменяемых данных. В момент
возникновения аварии, несовместимой с продолжением работы в штатном режиме,
автоматически запускается процедура перехода на резервный ВЦ, и работа ЦОД
возобновляется с точки останова. По устранению последствий аварии - работа ЦОД
возобновляется в штатном режиме, т.е. происходит возврат на основной ВЦ. При этом
вычислительные системы, находящиеся в состоянии готовности, не должны требовать
дополнительных лицензий на ОС и прикладное ПО, т.е. все необходимые для работы
лицензии также должны, при необходимости, переходить с одного ВЦ на другой.
Комплект серверов приложений и система балансировки пользовательских запросов
взаимодействуют в облачном ресурсе обслуживания многочисленных клиентских операций.
После подключения к клиентскому облаку происходит автоматическое обращение к менее
загруженному или подходящему по алгоритму серверу приложений и, далее, работа ведётся
согласно устоявшимся правилам.
Средства связи для ЛВС и СХД должны обеспечивать надёжную и производительную основу
для взаимодействия всех элементов ЦОД.
Технические средства обоих ВЦ должны обеспечивать выполнение следующих функций:
⚪ точное и гибкое распределение ресурсов постоянной памяти;
⚪ точное и гибкое распределение вычислительных ресурсов;
⚪ резервное копирование на жёсткие диски с применением эффективных способов
сохранения и защиты информации;
⚪ балансировка пользовательских запросов к центральному вычислительному
комплексу;
⚪ повышенные отказо- и катастрофо- устойчивость.
4.2.1. Распределение ресурсов постоянной памяти
Точность и гибкость распределения ресурсов постоянной памяти должна обеспечиваться
применением самых современных технологий отрасли, а именно:
⚪ тонкое/экономное распределение (thinprovisioning);
⚪ возврат освободившихся ресурсов;
⚪ ранжирование данных;
4.2.2. Распределение вычислительных ресурсов
Точность и гибкость распределения вычислительных ресурсов обеспечивается следующими
способами:
⚪ набор требуемой производительности "строительными" (вычислительными)
блоками;
⚪ дробление вычислительной системы на логические разделы;
⚪ перераспределение ресурсов на ходу.
Использование "строительных" блоков
Вычислительный блок может быть использован либо как отдельная вычислительная система,
либо как строительный блок для более мощной вычислительной системы. Этот способ
организации вычислительных ресурсов обеспечивает наращивание производительности
системы по мере необходимости, а также свободу действий по изменению конфигурации
систем и их техническому обслуживанию.
19
Дробление на логические разделы
Вычислительную систему, в том числе собранную из вычислительных блоков, можно
разделить на несколько логических систем с закреплёнными за ними ресурсами ЦП,
оперативной памяти и портами ввода/вывода и запустить на них самостоятельные
экземпляры ОС. Этот способ организации вычислительных ресурсов предоставляет
возможность более точно настраивать требуемые для определённой задачи параметры
системы.
Перераспределение на ходу
Дробление на логические разделы, в сочетании со специализированными возможностями
ОС, позволяют откреплять и прикреплять ресурсы вычислительных систем без остановки
ОС. Администратору такой системы доступен инструмент с помощью которого он может
улучшить показатели по предоставлению услуги без прекращения доступа к ней, т.е. по
требованию в любой нужный момент.
4.2.3. Эффективное резервирование
Эффективность резервного копирования достигается засчет:
⚪
⚪
⚪
⚪
одновременного доступа нескольких систем к ресурсам резервного копирования;
сохранения изменений на уровне блоков (дедупликации);
постоянной готовности загрузочных образов для быстрого восстановления;
наличия снимков и клонов логических томов.
Одновременный доступ
Возможен при использовании дисковых систем резервного копирования, ПО которых
предоставляет сразу несколько приёмников резервного копирования, в отличие от ленточных
накопителей, где количество точек приёма соответствует числу приводов.
Дедупликация
Резервные копии изменяющихся данных должны быть максимально актуальными, а
поддерживать актуальность копий в случае интенсивных изменений данных — задача не из
простых. Выход — использование дисковых систем резервного копирования с технологией
«дедупликации», которая позволяет очень точно (на уровне блоков) сохранять изменения в
наборах данных. В результате — высокий уровень актуальности копий при низком расходе
пространства.
Загрузочные образы
Сохранение эталонного образа ОС с установленным на ней ПО значительно ускорят ход
восстановления ОС вычислительной системы в случае возникновения аварий на
программном уровне.
Снимки и клоны
Являются копиями логического тома. Снимок - практически мгновенно создаваемая
логическая единица хранилища, представляющая собой ссылку на данные логического тома
в момент её создания и, поэтому, не занимающая пространства хранилища. Клон полноценная копия логического тома, которая занимает дисковое пространство и на создание
которой требуется время.
Главным назначением снимков и клонов является использование их в резервном копировании
без остановки систем и создание основы для проведения экспериментов и тестирования. В
целях улучшения эксплуатационных характеристик хранилища снимки должны быть
доступны для записи и для процедуры снятия с них клонов. Такая особенность хранилища
предоставляет администратору системы беспрецедентную безопасность, а, следовательно, и
свободу действий по изменению программных конфигураций систем.
20
4.2.4. Балансировка запросов
Система балансировки пользовательских запросов в сочетании с комплектом серверов
приложений позволяет управлять приложениями более эффективно, чем отдельными
устройствами или объектами. Благодаря этому сочетанию появляется возможность
перехватывать, инспектировать, трансформировать и направлять трафик приложений,
адаптируясь, тем самым, к любой доставке приложений через получившееся облако.
4.2.5. Катастрофоустойчивость
Катастрофоустойчивость достигается дублированием вычислительных центров. Основной
ВЦ в штатном режиме решает ключевые задачи, а резервный ВЦ находится в состоянии
готовности. Система управления вычислительными центрами отслеживает состояние
основного ВЦ и в случае возникновения аварийной ситуации автоматически запускает
процедуру перехода на резервный ВЦ. После устранения последствий аварии - происходит
обратный переход, т.е. возврат на основной ВЦ. Работа такого сценария обеспечивается
сочетанием технологий репликации данных между двумя географически удалёнными
хранилищами и ПО для организации кластеров вычислительных систем.
4.3. Требования к видам обеспечения
4.3.1. Требования к лингвистическому обеспечению
Основными языками взаимодействия пользователей и системы должны быть русский и
английский языки.
4.3.2. Требования к программному обеспечению
ОС и программное обеспечение для организации кластеров вычислительных систем должны
поддерживать СУБД Oracle 10g R2 и технологии Oracle: RealApplicationClusters (RAC) и
AutomaticStorageManagement (ASM).
ОС и вычислительные системы должны поддерживать процедуру загрузки по СХД.
ПОдля резервного копирования должно быть укомплектовано агентами для ОС: UNIX,
Windows и GNU/Linux.
ПОрезервного копирования должно поддерживать работу:
⚪ с дисковым хранилищем (неограниченное число виртуальных ленточных
приводов);
⚪ с ленточной библиотекой.
ПО управления центральным дисковым хранилищем должно отвечать следующим
требованиям:
⚪ единый графический интерфейс для управления несколькими дисковыми
массивами;
⚪ хранилище должно поддерживать локальную и ActiveDirectory аутентификацию
пользователей;
⚪ хранилище должно поддерживать протоколы CIM/SMI-S для интеграции с
системами управления третьих производителей;
⚪ графический интерфейс управления должен функционировать как на Windows, так
и на Linux клиентах;
⚪ возможность сбора и накопления статистики по производительности хранилища и
его отдельных компонентов для последующего анализа и формирование
соответствующих отчётов;
⚪ поддержка автоматического и проактивного уведомления сервисного центра
производителя о возможных проблемах функционирования.
21
ПОдля организации кластеров вычислительных систем должно отвечать следующим
требованиям:
⚪ возможность обновления версий ОС на узлах без остановки кластера;
⚪ поддержка работы географически удалённых систем;
⚪ использование возможностей репликации между дисковыми хранилищами,
использование СХД для передачи потоков данных;
⚪ поддержка работы приложений в режимах «Действующий/Ждущий»,
«Действующий/Действующий» (Active/Standby, Active/Active);
⚪ автоматическая активация требуемых разделов и программных лицензий;
⚪ автоматический запуск ОС и приложений с места остановки;
⚪ автоматический возврат по устранению последствий аварии.
4.3.3. Требования к информационному обеспечению
ЦОД должен обеспечивать хранение:
⚪ всех
действующих
БД
Oracle
на
дисках
под
управлением
OracleAutomaticStorageManagement (ASM);
⚪ рабочих и резервных загрузочных образов ОС на центральном дисковом
хранилище с поддержкой загрузки по СХД;
⚪ копий БД и ОС вычислительных систем на системах резервного копирования
данных.
4.3.4. Требования к техническому обеспечению
В составе ЦОД используются следующие виды технических средств:
⚪ серверы;
⚪ дисковые системы хранения данных;
⚪ системы резервного копирования;
⚪ средства локальной вычислительной сети (ЛВС);
⚪ средства сети хранения данных (СХД);
⚪ средства обеспечения бесперебойного питания.
Серверы, дисковые системы хранения данных и средства ЛВС и СХД должны быть
масштабируемы и
обеспечивать
наращивание показателей
производительности
(производительность, объем оперативной памяти, объем дисковой памяти и др.) в процессе
эксплуатации ЦОД. Для серверов приложений допускается использование виртуальных
вычислительных машин.
4.3.5. Требования к организационному обеспечению
Специалисты предметных областей должны знать и уметь работать с программным и
аппаратным обеспечением, осуществлять необходимые настройки и правильно
эксплуатировать оборудование. Для этого необходимо организовать обучение специалистов
всех уровней.
5.
Состав и содержание работ по созданию системы
5.1. Требования к составу и содержанию работ по вводу системы в действие
Учитывая специфику работы ОАКБ «Агробанк», как основного финансового агента
Правительства Республики Узбекистан по реформированию и развитию аграрного сектора
экономики, работы на стадии "Ввод в действие" должны быть проведены:
⚪ в короткий срок, практически без остановки информационной среды и платежной
системы ОАКБ «Агробанк»;
22
⚪ с полным исключением рисков потери информации;
⚪ с малыми затратами на тестирование;
⚪ с максимально возможным возвратом инвестиций.
Для достижения поставленных целей
необходимо предусмотреть следующую
последовательность работ ;
1. Построение ЦОД и автономная наладка его технических и программных средств
на основном и резервном вычислительных центрах; интеграция ЦОД в
действующую ИТ-среду ОАКБ «Агробанк»
2. Организация процесса миграции информации с действующей системы хранения
(HPStorageWorksEVA6100) на новую. При этом на данном этапе новая система
хранения должна работать как резервная по отношению к действующей
системе. Принять во внимание, что в настоящее время в системе хранения
размещается вся финансовая информация 183 территориальных подразделений
Агробанка:
База данных UBOY+РНВ – 6TB
База данных BLNS – 0.8ТВ
3. Данные должны быть перенесены с сохранением организации виртуальных
дисков, включая данные БД (Oracle 10g R2 / ASM) и загрузочные образы
действующих вычислительных систем (HP Integrity rx6600 / HP-UX 11.31). При
этом действующие системы продолжают решать задачи ОАКБ «Агробанк». Банк
функционирует в штатном режиме.
4. На резервном ВЦ новой системы «поднимается» резервная база данных банка,
ранее поднятая база переводится в режим работы основного ВЦ; отключение из
ИТ-среды Агробанка связки HP Integrity rx6600 / HP-UX 11.31 / Oracle 10g R2 /
ASM.
5. На этом этапе начинаются испытания ЦОД для возможного перевода в режим
промышленной эксплуатации.
6. В случае возникновения внештатной ситуации, должна быть обеспечена
возможность возврата и продолжения работы ОАКБ «Агробанк» на
действующих (HP Integrity rx6600 / HP-UX 11.31 / Oracle 10g R2 / ASM)
системах.
Для осуществления подобного безопасного перехода с действующей системы на новый
ЦОД должна быть обеспечена полная совместимость действующих систем с новыми на
программно-техническом уровне.
После проведения испытаний и запуска ЦОД в режиме промышленной эксплуатации должны
быть проведены
⚪ актуализация ПО всех уровней (ОС и СУБД Oracle);
⚪ реорганизация дискового пространства;
⚪ реорганизация вычислительных ресурсов.
Лицензии на право использования ОС и СУБД действующих серверов, в конечном итоге,
должны быть использованы для нужд нового ЦОД.
Действующее до этого момента оборудование должно использоваться далее до момента
окончательного устаревания (списания).
6.
Порядок контроля и приемки системы
6.1. Общие требования к приемке работ
Испытания ЦОД должны быть проведены на стадии «Ввод в действие» на основании
23
соответствующей программы и методики испытаний, подготовленной Исполнителем и
утвержденной соответствующими структурами ОАКБ «Агробанк».
6.2. Статус приемочной комиссии
Испытания ЦОД осуществляется специально создаваемой Приемочной комиссией, в состав
которой должны входить как представители ОАКБ «Агробанк», так и Исполнителя.
Приемочная комиссия назначается распоряжением по ОАКБ «Агробанк» не позднее, чем за
два дня до проведения испытаний.
7.
Сводный перечень требований
Исходя из п.5 сформирован перечисленный ниже перечень требований к ЦОД от
производителя НР.
№
Параметр
Значение
СЕРВЕР БАЗ ДАННЫХ
Конструкция
Шасси
Стойка (установка в монтажный шкаф)
Модульность
Добавление вычислительных блоков по мере
необходимости;
поддержка
объединения
вычислительных блоков в вычислительную
систему
Добавление блоков ввода/вывода по мере
необходимости; назначение отсеков ввода/вывода
вычислительным блокам
Количество
вычислительных 4/8
блоков
в
одном
шасси
(установлено/максимум)
Количество блоков ввода/вывода 1/8
в
одном
шасси
(установлено/максимум)
Количество/тип
отсеков 12/8x PCI-Express
ввода/вывода в одном блоке
Максимальная конфигурация
До двух объединённых шасси (16 вычислительных
блоков) и до восеми блоков ввода/вывода (96
отсеков 8x PCI-Express)
Вычислительный блок
Архитектура
процессора (ЦП)
Разрядность ЦП
центрального RISC/EPIC
64
24
№
Параметр
Значение
Количество ядер ЦП
8
Тактовая частота ЦП
2,5 ГГц
Кэш-память ЦП
32 МБ
Количество
ЦП/ядер
установленных 2/16
Количество активных ЦП/ядер
2/16
Тип оперативной памяти
DDR3, PC3-10600, ECC
Объём
оперативной
(установлено/максимум)
памяти 64 ГБ/ 512 ГБ
Тип интерфейсов ЛВС
10 Гбит/сек.
Количество интерфейсов ЛВС
4
Вычислительная система
Количество
блоков
вычислительных Любое количество имеющихся вычислительных
блоков может быть объединено в вычислительную
систему
Минимальная
система
вычислительная Один вычислительный блок
Дробление
системы
вычислительной Логический раздел с поддержкой жёсткого
назначения процессоров или процессорных ядер,
оперативной памяти и устройств ввода/вывода и с
поддержкой работы самостоятельного экземпляра
ОС
Максимальное
количество 32
логических разделов
Управление
Количество модулей удалённого 2
управления
Консоль удалённого управления
Графическая; командная строка
Управление
системами
вычислительными Создание/конфигурация
системы;
запуск/остановка системы; доступ к ОС системы
Управление
логическими Создание/конфигурация раздела; запуск/остановка
25
№
Параметр
Значение
разделами
раздела; доступ к ОС раздела
Особенности управления
Возможность
перераспределения
ресурсов
логического раздела между другими разделами
Операционная система
Тип операционной системы (ОС) UNIX, коммерческая
Разрядность ОС
Количество
лицензий
64
пользовательских Неограничено
Поддержка логических разделов
"Открепление ресурсов логического раздела при
работающей ОС; назначение дополнительных
ресурсов логическому разделу при работающей
ОС"
Надёжность
Электропитание
Избыточность блоков питания
Охлаждение
Избыточность вентиляторов охлаждения
Организация
кластеров См. ниже
вычислительных систем
ПО для организации кластеров
вычислительных систем
Максимальное Количество узлов 16
Совместимость
Действующие системы HP Integrity rx6600: ОС HPUX 11.31, СУБД OracleRAC
Унификация
Поддержка ОС на логических разделах
Непрерывность работы
Обновление версий ОС на узлах без остановки
кластера
Катастрофоустойчивость
Поддержка работы географически удалённых
систем
(до
50-ти
км.);
использование
возможностей репликации между дисковыми
хранилищами, использование СХД для передачи
потоков данных; поддержка двунаправленности;
поддержка связей «один к одному», «один ко
многим»
26
№
Параметр
Значение
Штатный режим работы
Поддержка работы приложений в режимах
«Действующий/Ждущий»,
«Действующий/Действующий»
(Active/Standby,
Active/Active)
Режим работы при авариях
Автоматическая активация требуемых разделов и
программных лицензий; автоматический запуск
ОС и приложений с места остановки;
автоматический
возврат
по
устранению
последствий аварии
Прочее
Количество комплектов
1
Гарантия
3 года
ЦЕНТРАЛЬНОЕ
ДИСКОВОЕ
ХРАНИЛИЩЕ
КОРПОРАТИВНОГО КЛАССА
Конструкция
Шасси
Стойка (установка в монтажный шкаф)
Модульность конструкции
Добавление
дисковых
необходимости
полок
по
мере
Добавление интерфейсов по мере необходимости
Суммарная производительность
130000 IOPS
Контроллеры
Количество контроллеров
4
Режим работы контроллеров
Все активны и равномерно нагружены, т.е. все
контроллеры, в единицу времени, имеют доступ на
чтение/запись к любому логическому тому, при
этом, нагрузка на контроллеры распределяется
равномерно
и
автоматически
(средствами
хранилища)
Режим
работы
интерфейсов
внешних Все активны, т. е. все интерфейсы, в единицу
времени, используются; нет простаивающих
интерфейсов
Подключение систем-потребителей через СХД и
напрямую
27
№
Параметр
Значение
Поддержка внешних интерфейсов FC 8 Гбит/сек., FCoE/iSCSI 10 Гбит/сек.
Поддержка уровней RAID
0, 1, 10, 5, 6
Математический аппарат
Вычисление контрольных сумм чётности RAID 5 и
6 на уровне специализированных микросхем; без
участия центрального процессора контроллера
Поддержка
потребителей
ОС
серверов- Всеосновные: Windows Server 2012/2008, HP-UX,
Oracle Solaris, IBM AIX, Oracle Linux, Red Hat
Linux, SUSE Linux, VMWare, Hyper-V, Citrix
XenServer.
Поддержка
создания
кластеров
систем,
работающих под управлением перечисленных ОС
Режим работы кэш-памяти
Используется только для продуктивной работы; не
используется для нужд операционной системы
хранилища
Защита кэш-памяти
Энергонезависимая, с неограниченным временем
хранения данных при долгосрочном отсутствии
электропитания; содержимое кэш-памяти не
утрачивается при отказе контроллера
Объём кэш-памяти контроллера
32 ГБ
Интерфейсы
для
серверами (узлами)
связи
с FC 8 Гбит/сек. / 8 шт.
Объём
общего
дискового 24 ТБ/ 48 ТБ
пространства
(установлено/максимум)
Распределение
дискового "SAS (10K)
80% от 24
20%
от
24
ТБ
SATA
(7.2K)
пространства по дискам разной
ТБ"
степени производительности
Управление
Выделенный
управления
интерфейс
для
удалённого
ПО управления должно обеспечивать единый
графический
интерфейс
для
управления
несколькими дисковыми массивами
Хранилище должно поддерживать локальную и
ActiveDirectory аутентификацию пользователей
Хранилище
CIM/SMI-S
должно поддерживать
для интеграции с
протоколы
системами
28
№
Параметр
Значение
управления третьих производителей
Графический интерфейс управления должен
функционировать как на Windows, так и на Linux
клиентах
Дисковые ресурсы
Поддерживаемые типы дисков
SAS (15K, 10K, 7,2K), SSD (Solid State Drive)
Универсальность
Поддержка разнотипных дисков в одной полке;
поддержка логических томов с различными
уровнями RAID на одной группе дисков
Максимальное количество дисков 480
SAS
Максимальное количество дисков 240
SSD
Максимальный объём «сырого» 1 ПБ
пространства
Размещение данных на носителях Тонкое распределение дискового пространства
(ThinProvisioning)
Поддержка логического тома на разнотипных
дисках с автоматическим распределением блоков
данных в зависимости от частоты обращения к
ним
Возврат
освободившихся,
неиспользуемых
дисковых ресурсов логического тома в общий
дисковый пул
Автоматическое и равномерное распределение
нагрузки ввода/вывода на логический том по всем
задействованным однотипным дискам хранилища
средствами дискового массива
Объём логического тома
от 256 МБ до 16 ТБ
Объём полезного пространства
50 ТБ
480ГБ, SSD, SAS не менее 16 шт., RAID 1
300ГБ, 15 тыс/об, SAS, не менее 32 шт., RAID 1
900ГБ, 10 тыс/об, SAS, не менее 32 шт., RAID 6
29
№
Параметр
Значение
1ТБ, 7,2 тыс/об, SAS, не менее 48 шт., RAID 6
Снимки и копии логических Поддержка локальных копий логических томов:
клонов
(физических
копий)
и
снимков
томов
(виртуальных копий)
Поддержка целостности локальных копий (клонов
и снимков) для приложений: Oracle, Exchange, MS
SQL, Vmware
Создание
копий
логических
необходимости остановки системы
томов
без
Создание снимков без выделения дискового
пространства (до 128 снимков на один логический
том)
Снимки логических томов доступны для чтения и
записи
Создание снимков с клонов и других снимков
Создание копий на уровнях RAID отличных от
уровней RAID логических томов
Создание копий на типах дисков отличных от
типов дисков логических томов
Взаимодействие
хранилищами
с
другими
Репликация логических томов На
аппаратном
уровне;
по
встроенным
между
аналогичными интерфейсам FC или по выделенным интерфейсам
хранилищами
FastEthernet (два порта)
Режимы репликации
Синхронный, и асинхронный; гарантированная
целостность;
использование
тонкого
распределения
(реплицируется
только
используемое пространство, а не весь том
целиком)
Возобновление репликации после Инкрементальное (запись накопившейся разницы)
восстановления связи
Варианты репликации
С нескольких хранилищ к одному; с одного
хранилища к нескольким, включая репликацию
одного и того же набора данных одновременно на
несколько хранилищ; каждое — ко всем
остальным
30
№
Параметр
Значение
Миграция данных
Поддержка миграции данных
аналогичными хранилищами
Объединение хранилищ
Поддержка федерализации
Разделение хранилища
Поддержка разделения хранилища на логические
хранилища с независимыми дисковыми ресурсами
и правилами администрирования
между
двумя
Распределение выделяемой производительности
между группами клиентов, как по количеству
запросов ввода/вывода так и по объему потока
данных
Надёжность
Единая точка отказа
Исключено
Устойчивость к отказам
Дисковые полки, жесткие диски, блоки питания,
вентиляторы охлаждения, контроллеры
Избыточность
Контроллеры, блоки питания, вентиляторы
охлаждения, кэш-память контроллеров, каналы
связи (минимум N+1)
Функция «горячей» замены
Жесткие диски, блоки питания, вентиляторы
охлаждения, контроллеры
Непрерывность работы
Добавление
дисковых
полок,
обновление
микропрограммного
обеспечения
без
необходимости остановки системы и без
прекращения доступа к логическим томам
Миграция логического тома между различными
группами и изменение уровня RAID логического
тома без необходимости остановки системы и без
прекращения доступа к логическим томам
Миграция стандартных логических томов в
«тонкие» и наоборот без необходимости остановки
системы и без прекращения доступа к логическим
томам
Возврат
освободившихся,
неиспользуемых
дисковых ресурсов логического тома в общий
дисковый пул без необходимости остановки
системы и без прекращения доступа к логическим
томам
31
№
Параметр
Значение
Миграция данных между двумя аналогичными
хранилищами без прекращения доступа к
логическим томам
Автоматика
Система анализа и отчётности
Сбор
и
накопление
статистики
по
производительности хранилища и его отдельных
компонентов
для
последующего
анализа;
формирование отчётов
Связь с центром экспертизы
Автоматическое и проактивное уведомление
сервисного центра производителя о возможных
проблемах функционирования
Прочее
Гарантия
36 месяцев, круглосуточно, включая выходные и
праздничные дни, время реакции не более 4 часов
круглосуточно
Установка и ввод в эксплуатацию Все инсталляционные работы и настройка
оборудования
должны
быть
проведены
сертифицированными специалистами компании
производителя.
Количество комплектов
1
КОМПЛЕКТ
ПРИЛОЖЕНИЙ
СЕРВЕРОВ
Инфраструктура
класса "лезвие"
серверов
Конструкция
Шасси
Стойка (установка в монтажный шкаф)
Модульность
Добавление серверов по мере необходимости
Добавление блоков
необходимости
ввода/вывода
по
мере
Количество серверов в одном 8/16
шасси (установлено/максимум)
Количество коммуникационных 2/8
устройств
в
одном
шасси
(установлено/максимум)
32
№
Параметр
Значение
Параметры электропитания
220 В, 50 Гц
Схема электропитания
Резервирование
N+N,
распределение питания
динамическое
Схема охлаждения
Резервирование,
потока воздуха
регулирование
Схема управления
Дублирование модулей удалённого управления
Функция «горячей» замены
Блоки питания, вентиляторы охлаждения, модули
управления, коммуникационные устройства
Универсальность
Возможность
установки
серверов
x86
и
RISC/EPIC, приводов LTO-6, дисковых массивов
Удалённое управление
Контроль состояния аппаратуры; уведомления о
пограничных и аварийных состояниях; доступ к
процессорам
управления
серверов
и
коммуникационных
устройств;
объединение
нескольких шасси в одну логическую управляемую
единицу; защищённый доступ через веб-интерфейс
и командную строку; локальная встроенная панель
управления
динамическое
Устройства связи
Шасси
«Лезвие»
Количество
интерфейсов 16/8
(внутренних/внешних)
Тип внутренних интерфейсов
Количество и
интерфейсов
тип
Количество комплектов
Объединённый (конвергентный) 10 Гбит/сек.
внешних "4 порта 10 Гбит/сек. Ethernet; 4 порта 8 Гбит/сек.
FC"
2
Прочее
Гарантия
36 месяцев, круглосуточно, включая выходные и
праздничные дни, время реакции не более 4 часов
круглосуточно
Установка и ввод в эксплуатацию Все инсталляционные работы и настройка
оборудования
должны
быть
проведены
сертифицированными специалистами компании
производителя.
33
№
Параметр
Значение
Количество комплектов
1
Сервер приложений
HP Blade
Шасси
«Лезвие»
Архитектура
процессора (ЦП)
центрального x86
Разрядность ЦП
64
Количество ядер ЦП
8
Тактовая частота ЦП
2,5 ГГц
Кэш-память ЦП
20 МБ
Количество
ЦП/ядер
установленных 2/16
Тип оперативной памяти
Объём
оперативной
(установлено/максимум)
DDR3, PC3-10600, ECC
памяти 64 ГБ/ 512 ГБ
Тип интерфейсов
Объединённый (конвергентный) 10 Гбит/сек.
Количество интерфейсов
2
Количество отсеков расширения 2
PCI-e
Поддержка операционных систем Microsoft Windows Server, Red Hat Enterprise Linux
(RHEL), SUSE Linux Enterprise Server (SLES),
Canonical Ubuntu, Oracle Solaris
Поддержка виртуализации
Уровень центрального процессора
Управление
Выделенный
интерфейс
для
управления, включая поддержку
консоли и виртуальных приводов
Гарантия
36 месяцев, круглосуточно, включая выходные и
праздничные дни, время реакции не более 4 часов
круглосуточно
удалённого
графической
Установка и ввод в эксплуатацию Все инсталляционные работы и настройка
оборудования
должны
быть
проведены
сертифицированными специалистами компании
34
№
Параметр
Значение
производителя.
Количество комплектов
8
СИСТЕМА
РЕЗЕРВНОГО
КОПИРОВАНИЯ
Дисковое хранилище
Шасси
Стойка (установка в монтажный шкаф)
Модульность
Добавление
жёстких
необходимости
Суммарная производительность
10 ТБ/ч.
дисков
по
мере
Объём
сырого
дискового 24 ТБ/ 48 ТБ
пространства
(установлено/максимум)
Объём
полезного
дискового 16 ТБ/ 32 ТБ
пространства
(установлено/максимум)
Протоколы связи
"Ethernet для файлового (NAS) доступа (CIFS /
NFS); FC для виртуальных ленточных библиотек"
Количество и тип интерфейсов
"2 порта 10 Гбит/сек. Ethernet; 2 порта 8 Гбит/сек.
FC"
Общее Количество возможных 24
приёмников
резервного
копирования
(виртуальные
ленточные библиотеки и NAS)
Математический аппарат
Дедупликация (отслеживание
блочном уровне)
изменений
на
Совместимость
Дисковое (оперативное) хранилище; ленточная
библиотека (см. ниже); серверы СУБД; серверы
приложений
Готовность
Заводская установка оборудования и ПО
Гарантия
36 месяцев, круглосуточно, включая выходные и
праздничные дни, время реакции не более 4 часов
круглосуточно
Установка и ввод в эксплуатацию Все инсталляционные работы и настройка
оборудования
должны
быть
проведены
сертифицированными специалистами компании
35
№
Параметр
Значение
производителя.
Количество комплектов
1
Ленточная библиотека
Тип
Роботизированная библиотека
Шасси
Стойка (установка в монтажный шкаф)
Тип привода
накопителей
для
ленточных LTO-6 / FC 8 Гбит/сек.
Количество
приводов 1 / 2
(установлено/максимум)
Отсеки для накопителей
24
Ленточные
накопители 3 ТБ (без учёта сжатия) / 24
(ёмкость/Количество)
Идентификация накопителей
Встроенный сканер штрих-кодов
Управление
Выделенный
интерфейс
для
удалённого
управления, включая поддержку графической
консоли; полноценный комплект ПО резервного
копирования для ленточных библиотек
Гарантия
36 месяцев
Количество комплектов
1
КОММУТАТОР СХД
Основные требования
Шасси
Стойка (установка в монтажный шкаф)
Протокол СХД
FibreChannel (FC)
Модульность конструкции
добавление интерфейсов по мере необходимости
Суммарная производительность
1500 Гбит/сек.
Тип интерфейсов
FC 8 Гбит/сек.
Количество
интерфейсов 24/48
(установлено/максимум)
36
№
Параметр
Значение
Избыточность
Блоки питания, вентиляторы охлаждения
Управление потоками данных
Зонирование (изоляция сегментов сети), качество
обслуживания
Управление
Выделенный
интерфейс
для
удалённого
управления; защищённый доступ через вебинтерфейс и командную строку; контроль
состояния
аппаратуры;
уведомления
о
пограничных и аварийных состояниях;
Унификация
Поддержка функции автоматического определения
скорости 4, 8 и 16Гб/сек.
Взаимодействие
коммутаторами
с
другими
Магистраль
Межкоммутаторное
соединение
гарантированной
скоростью
и
обслуживания
Тип интерфейсов
FC 16 Гбит/сек.
(ISL)
с
качеством
Количество
интерфейсов 1/8
(установлено/максимум)
Прочее
Подключение
"От
контроллеров
центрального
дискового
хранилища: 8 Гбит/сек. 4х1 (четыре) порта; от
инфраструктуры серверов класса «лезвие»: 8
Гбит/сек. 4 порта; от дискового хранилища
резервного копирования: 8 Гбит/сек. 1 порт; к
коммутатору СХД другого ВЦ: 16 Гбит/сек. 1
порт"
Гарантия
36 месяцев, круглосуточно, включая выходные и
праздничные дни, время реакции не более 4 часов
круглосуточно
Установка и ввод в эксплуатацию Все инсталляционные работы и настройка
оборудования
должны
быть
проведены
сертифицированными специалистами компании
производителя.
Количество комплектов
2
37
№
Параметр
Значение
КОММУТАТОР ЛВС1
Шасси
Стойка (установка в монтажный шкаф) или
«лезвие»
Суммарная производительность
300 млн. пакетов/сек.
Тип интерфейсов
10 Гбит/сек.
Количество интерфейсов
24
Подключение
"От вычислительных блоков сервера БД: 10
Гбит/сек. 4х2 (восемь) портов; от инфраструктуры
серверов класса «лезвие»: 10 Гбит/сек. 2 порта; от
дискового хранилища резервного копирования: 10
Гбит/сек. 1 порт; к действующему коммутатору
уровня ядра: 10 Гбит/сек. 2 порта"
Гарантия
36 месяцев, круглосуточно, включая выходные и
праздничные дни, время реакции не более 4 часов
круглосуточно
Установка и ввод в эксплуатацию Все инсталляционные работы и настройка
оборудования
должны
быть
проведены
сертифицированными специалистами компании
производителя.
Количество комплектов
2
СИСТЕМА БАЛАНСИРОВКИ
ПОЛЬЗОВАТЕЛЬСКИХ
ЗАПРОСОВ
Основные требования
Шасси
Стойка (установка в монтажный шкаф) или
«лезвие»
Исполнение
Программно-аппаратный комплекс
Архитектура
процессора (ЦП)
1
центрального x86
Разрядность ЦП
64
Количество ядер ЦП
8
Предварительные требования
38
№
Параметр
Значение
Тип оперативной памяти
DDR3
Объём оперативной памяти
16 ГБ
Количество и тип интерфейсов
"2 порта 10 Гбит/сек. Ethernet; 8 портов 1 Гбит/сек.
Ethernet"
Режим работы
Поддержка работы приложений в режимах
«Действующий/Ждущий»,
«Действующий/Действующий»
(Active/Standby,
Active/Active)
Алгоритмы балансировки
Round Robin, Ratio, Least Connections, Fastest,
Observed, Predictive, Dynamic Ratio, L3 Address
Мониторинг
приложений
доступности HTTP/HTTPS, FTP (passive/active), POP3, IMAP,
SIP, SMTP, telnet, RADIUS, LDAP (with TLS or over
SSL), SASP, Oracle, MSSQL, SNMP DCA, WMI,
RPC and SOAP.
Трансляция адресов
NAT и NAPT
Совместимость со сторонними Поддержка SOAP/XML сообщений
приложениями
Управление сетевым трафиком
Аппаратное
трафика
сжатие
Другие особенности
Поддержка функции DynamicReaping для контроля
за состоянием соединений; поддержка функции
ProtocolSanitization для независимого управления
соединениями на стороне сервера и клиента;
возможность создания индивидуальных правил
управления трафиком; расширенный мониторинг
действий
пользователей
с
приложением;
поддержка полного преобразования IP и
балансировки нагрузки между сетями IPv4 и IPv6
(шлюз Ipv6); поддержка протокола мобильной
связи Mobile Ipv6
сетевого deflate, bzip2, или LZO
Встроенный оптимизатор траффика; контроллер
полосы пропускания; оптимизация протокола TCP;
поддержка технологии Multipath TCP
Безопасность
Средство
безопасности
обеспечения Встроенный межсетевой экран
39
№
Параметр
Значение
Защита от атак (типы)
DoS/DDoS, SSL renegotiation, Slow Loris, Slow
POST, Botnet, Flood
Защита от атак (протоколы)
SYN, ICMP, ACK, UDP, TCP, IP, DNS
Защита от SSL DDoS
ARP, Tear Drop, IP fragment, syn-ack, push-ack,
LAnd, fin flood, rst flood, get flood, recursive get
Шифрование
Presharedkey, RSA signature
Алгоритмы хеширования
3DES, AES-128, AES-192, AES-256, AES-GCM-128,
AES-GCM-256, SHA-1, AES-GMAC-128, AESGMAC-192, AES-GMAC-256
Прочее
Обнаружение аномалий в сетевом трафике;
поддержка
IPsecsite-to-site;
поддержка
аутентификации; поддержка шифрования cookie
для предотвращения перехвата сессии cookie,
повреждения cookie, утечки информации cookie
Производительность
Пропускная
уровне L4
способность
на Не менее 10 Гбит/c
Пропускная
уровне L7
способность
на Не менее 10 Гбит/c
Количество обрабатываемых L4 Не менее 1,25 млн.
HTTP запросов /секунду
Количество
секунду
L4
соединений
в Не менее 150 000
Максимальное
количество Не менее 10 млн.
одновременных соединений
Пропускная
коммутационной
уровне L2/L3
способность Не менее 56 Гбит/c
матрицы на
Производительность
шифрования с 1К ключом
SSL Не менее 4500 транзакций в секунду
Производительность
шифрования с 2К ключом
SSL Не менее 4500 транзакций в секунду
Полоса пропускания для SSL Не менее 8 Гбит/с
Offload (SSL bulkcrypto)
40
№
Параметр
Значение
Максимальная
пропускная Не менее 10 Гбит/c
способность межсетевого экрана
Количество
проверяемых Не менее 150 000
соединений в секунду
Максимальная
производительность сжатия
Не менее 4 Гбит/c
Прочее
Гарантия
36 месяцев, круглосуточно, включая выходные и
праздничные дни, время реакции не более 4 часов
круглосуточно
Установка и ввод в эксплуатацию Все инсталляционные работы и настройка
оборудования
должны
быть
проведены
сертифицированными специалистами компании
производителя
Количество комплектов
8.
1
Описание комплекса технических средств
8.1. Состав комплекса нового ЦОД
С учётом обозначенных выше требований, для реализации проекта выбрано оборудование
производства компании HP.
⚪ Сервербазданных HP Integrity Superdome 2;
⚪ центральное дисковое хранилище корпоративного класса HP 3PAR
StoreServStorage;
⚪ комплект серверов приложений HP BladeSystem;
⚪ система резервного копирования: дисковое хранилище HP StoreOnceBackup (D2D)
и ленточная библиотека HP StoreEver;
⚪ комплект активного оборудования для СХД: HP коммутаторы B-серии;
⚪ комплект активного оборудования для ЛВС: модульные и фиксированные
коммутаторы HP;
⚪ система балансировки пользовательских запросов HP F5 BIG-IP;
⚪ комплект источников бесперебойного питания HP UPS R5xxx;
⚪ монтажное оборудование HP Rack 10000 G2.
Спецификация технических средств приведена в разделе 9. Спецификация оборудования.
8.1.1. Сервер HP IntegritySuperdome 2
Сервер Superdome 2 в семействе HP Integrity позиционируется как платформа для бизнескритичных приложений, где необходимы высокая масштабируемость, богатый набор средств
виртуализации ресурсов, высокий уровень доступности и надежная защита долгосрочных
инвестиций в ИТ.
41
Superdome 2 объединяет в себе отказоустойчивость и доступность UNIX-сервера уровня
"High-end" и эффективность модульной архитектуры "BladeSystem". В результате, Superdome
2 обладает рядом важных особенностей:
⚪ простота управления окружением ИТ за счет использования единой для всего
спектра серверов НР конвергентной платформы;
⚪ обеспечение непрерывного режима работы критически важных для бизнеса
компании приложений и сервисов за счет использования высоконадежных и
отказоустойчивых компонентов, а также технологии Power-on-once;
⚪ длительный срок эксплуатации и защита инвестиций за счет гарантированной
возможности модернизации сервера компонентами следующих поколений и
полной совместимости ПО, как с прошлым поколением процессоров, так и со
следующими поколениями.
Superdome 2 спроектирован с учетом основных принципов построения конвергентной
инфраструктуры с использованием универсального "блейд-дизайна". С помощью базовых
блоков можно создать конфигурацию, наиболее точно отвечающую требованиям
приложения.
Главным строительным блоком сервера является компьютерное шасси Superdome 2-16s (SD216s), в основе которого лежит конструктив инфраструктуры НР BladeSystem с7000 и
используется ряд общих унифицированных компонентов – таких, как пассивная
объединительная панель (Midplane), коммутаторы ввода/вывода, вентиляторы и блоки
питания.
Вторым базовым модулем является "ячейка-лезвие" (вычислительный блок) с
установленными на ней процессорами, памятью и ресурсами ввода-вывода. Каждая такая
ячейка реализует симметричную многопроцессорную архитектуру (SMP) и может работать
совместно с другими ячейками или быть независимым аппаратным разделом nPar в составе
системы Superdome 2.
Третьим базовым компонентом сервера SD2 является инновационный набор микросхем
sx3000, позволивший поднять надежность и доступность системы на качественно новый
уровень. Набор sx3000 состоит из трех частей: контроллера ячейки (также называемого
Агентом), системного коммутатора (Crossbar) и контроллера ввода-вывода PCIe (называемого
IOH).
Четвёртый базовый компонент – это внешний модуль расширения ввода-вывода с 12 слотами
PCIe x8 Gen 2.
Шасси Superdome 2 высотой 18U поддерживает установку до 8 ячеек-блейдов. В каждой
такой ячейке располагаются два процессора Intel® Itanium® серии 9500 (или 9300), 32
разъема под модули памяти DIMM DDR3, четыре интегрированных порта LAN 10GE, три
встроенных слота PCIeMezzanine, два Агента (контроллеры ячейки) и контроллер шины PCIe
(IOH), являющиеся частью набора chipset sx3000, а также универсальный для серверов НР
процессор управления iLO 3.
Каждый Агент, по сути, является маршрутизатором и перенаправляет трафик от локальных
процессоров, формируя 2 канала QPI для связи обоих процессоров на ячейке, 3 канала – для
связи с системными коммутаторами Crossbar и один канал – для связи с контроллером вводавывода, расположенным в той же ячейке. Помимо этого, Агенты соединены между собой и с
кэшем L4 объемом 64 МБ на процессор.
Для пользователей, которым не хватает расположенных на ячейках ресурсов ввода-вывода,
существует внешний модуль расширения – Superdome 2 I/O ExpansionEnclosure (IOX),
высотой 4U и состоящий их двух аппаратно-независимых отсеков, каждый по 6 слотов PCIe.
42
По четырем независимым каналам модуль IOX подключается к Crossbar-фабрике, что
позволяет увеличить количество слотов ввода-вывода без добавления дополнительных ячеекблейдов. До восьми модулей расширения IOX может быть подключено к фабрике Superdome
2 в максимальной конфигурации.
Фабрика Crossbar выполнена в виде блейд-модулей коммутаторов CrossbarFabricModule
(XFM), с резервированием и возможностью их замены на ходу. Системный коммутатор SD2
формирует фабрику как между самими ячейками, так и для подключения внешних модулей
расширения ввода-вывода IOX. Такая топология увеличивает гибкость конфигурации, т. к.
количество модулей ввода-вывода может меняться независимо от количества ячеек-блейдов.
Более того, такая архитектура повышает и уровень отказоустойчивости сервера, так как
ресурсы ввода-вывода в модулях IOX остаются доступными при выходе из строя любой из
ячеек.
Crossbar-фабрика обладает уникальной «живучестью», максимально приближенной к уровню
Fault-Tolerant. Помимо того, что зарезервированы все логические каналы, каждый такой
канал включает в себя еще и резервные физические проводники. Передача и получение
пакетов данных отслеживается на транспортном уровне на всем протяжении фабрики, вплоть
до слота PCIe, с подтверждением успешного завершения транзакции (end-to-endretry).
Неисправность компонентов Crossbar или кабеля не влияет на работоспособность системы,
транзакции будут перенаправлены по альтернативному резервному пути. Благодаря своей
архитектуре и свойствам chipset sx3000, сервер Superdome 2 стал первым UNIX-сервером в
индустрии, который предоставляет следующие уникальные возможности:
⚪ независимое наращивание вычислительных ресурсов, ресурсов ввода-вывода и
создание оптимально сбалансированной конфигурации для любого вида нагрузки;
⚪ полное резервирование путей передачи данных с подтверждением доставки
пакетов на уровне аппаратного обеспечения, независимо от операционной
системы.
Четыре системных коммутатора Crossbar располагаются в верхней части шасси SD2-16s и,
также как и ячейки-блейды, подсоединены к пассивной электрически изолированной
объединительной панели midplane, формируя единую неблокируемую фабрику для ячеек и
внешних модулей расширения IOX. Таким образом, через верхний внутренний midplane
модули XFM объединяют ячейки-блейды, а внешние порты, по восемь на каждом модуле,
могут быть использованы для подсоединения другого шасси SD2-16s и/или модулей
расширения ввода-вывода IOX.
Для обеспечения высокой производительности и доступности все ячейки, установленные в
шасси, также, как и подключенные к нему модули IOX, подсоединены одновременно ко всем
четырем коммутаторам Crossbar, установленным в том же шасси. Балансировка нагрузки и
отказоустойчивость на уровне каналов осуществляются автоматически.
Интегрированные
установленные в
объединительной
установленным в
BladeSystems.
на ячейках ресурсы ввода-ввода – сетевые порты и адаптеры,
слотах PCIeMezzanine, – через нижнюю часть той же пассивной
панели midplane подсоединены к коммутаторам ввода-вывода,
нижней части шасси, аналогично тому, как это реализовано в c7000
Архитектура сервера Superdome 2 позволяет объединить с помощью специальных кабелей
два компьютерных шасси в единую 32-процессорную SMP систему с 512 модулями памяти
DIMM и 96 адаптерами I/O. Для заказа доступны 3 типа конфигурации: SD2-8s, SD2-16s и
SD2-32s с возможностью последовательной модернизации SD2-8s –> SD2-16s –> SD2-32S.
43
8.1.2. Дисковое хранилище HP 3PAR StoreServ Storage
Системы HP 3PAR улучшают эффективность хранения за счет ряда технологических
инноваций и архитектурных решений, важнейшими из которых являются:
⚪ кластерная архитектура HP 3PAR InSpire, объединяющая до восьми контроллеров,
каждый из которых может обслуживать все логические тома массива. Благодаря
этой архитектуре осуществляется гибкая балансировка нагрузки, высокая
пропускная способность, высокий уровень доступности системы и широкие
возможности масштабирования;
⚪ распараллеливание передачи данных и управляющей информации между
специализированным набором микросхем ASIC и процессором контроллера, что
существенно повышает эффективность управления всеми ресурсами системы;
⚪ виртуализация дискового пространства WideStriping, позволяющая рассматривать
физические диски как общий пул ресурсов и максимально эффективно
использовать имеющиеся накопители;
⚪ динамическое выделение дисковой емкости (ThinProvisioning) из виртуального
пула
и
возврат
неиспользуемой
приложениями
дисковой
емкости
(ThinReclamation) в виртуальный пул;
⚪ динамическое (без прерывания работы приложений) перемещение логических
томов (DynamicOptimization) или отдельных сегментов внутри логического тома
(AdaptiveOptimization) между разными типами дисков и уровнями RAID для
оптимизации уровня сервиса и скорости доступа к данным;
⚪ миграция логических томов между системами хранения без остановки доступа к
данным (HP 3PAR PeerMotion) и без использования какого-либо дополнительного
оборудования.
Кроме того, традиционные для массивов данного класса функции создания локальных и
удаленных копий также имеют ряд особенностей, в числе которых возможность создавать
сотни виртуальных копий (Snapshots), допускающих только чтение или чтение и
редактирование данных, специальные средства поддержки согласованности и быстрого
восстановления данных для выделенных приложений, удаленное копирование между всеми
моделями массивов, репликацию данных между несколькими сайтами и пр.
Архитектура массивов HP 3PAR StoreServ обеспечивает высокий уровень доступности
данных, который гарантирует доступ к данным не только в случае отказа диска или
контроллера, но и в случае недоступности полки дисков целиком. Последнее достигается
благодаря распределению всех логических томов между несколькими полками.
Кластерная архитектура HP 3PAR InSpire объединяет до восьми контроллеров 3PAR по
технологии Mesh-Active с возможностью обслуживания каждым из них всех логических
томов системы. На каждом контроллере выполняется независимая копия операционной
системы Inform OS.
В основе архитектуры лежит технология PersistentCache, благодаря которой в штатном
режиме кэш-память каждого контроллера зеркалируется на другой контроллер данной
контроллерной пары, а в случае выхода контроллера из строя, оставшийся контроллер
реплицирует кэш на другие контроллеры. InSpire обеспечивает гибкую балансировку
нагрузки между контроллерами, высокую пропускную способность, широкие возможности
для масштабирования производительности и призвана обеспечить высокий и предсказуемый
уровень производительности приложений.
Благодаря этой архитектуре в high-end массивах HP 3PAR StoreServ при выходе из строя
контроллера происходит лишь незначительное снижение производительности, что выгодно
отличает HP 3PAR StoreServ от традиционных дисковых массивов.
44
В массивах HP 3PAR StoreServ часть функций контроллеров передана специализированному
набору микросхем (ASIC), благодаря чему осуществляется распараллеливание передачи
данных и управляющей информации между ASIC и процессором контроллера. Кроме того
ASIC отвечает за обмен данными между контроллерами системной платы, что позволяет
динамически распределять рабочую нагрузку между всеми ресурсами системы. Таким
образом, обеспечивается высокая эффективность консолидации на одном массиве
транзакционных (OLTP) и аналитических (OLAP) приложений.
Кроме того ASIC выполняет аппаратную реализацию функции ZeroDetection,
предоставляющую возможность определять в потоке данные, которые были удалены бизнесприложениями. Соответствующие блоки не записываются, что значительно повышает
эффективность использования дискового пространства по сравнению с традиционными
дисковыми массивами.
В дополнение к основному назначению ThinProvisioning — динамическому выделению
приложениям емкости из виртуального пула – реализованы технологии ThinReclamation
(«тонкая переработка») и ThinConversion («тонкое превращение»). Первая служит для
возврата неиспользованной выделенной емкости в виртуальный пул. А вторая – для быстрой
миграции данных с традиционного дискового массива на массив с thinprovisioning с
одновременной «очисткой» выделенной, но неиспользуемой приложениями дисковой
емкости.
Применение этих «тонких» технологий существенно повышает эффективность
использования ресурсов системы хранения, экономит рабочее время администратора и
избавляет от необходимости закупки дополнительных дисков впрок.
Для виртуализации дискового пространства в массивах HP 3PAR StoreServ применяется
трехуровневая структура, содержащая:
⚪ 1024-мегабайтные сегменты, на которые разбиваются физические диски;
⚪ логические тома, в которые группируются сегменты из разных физических дисков,
расположенных на разных дисковых полках массива. Критерий объединения –
требующийся уровень сервиса и защиты данных. Внутри одного логического тома
могут быть сегменты с разными типами дисков (FibreChannel, SATA или SSD),
уровнями RAID и степенью отказоустойчивости;
⚪ виртуальные диски, которые образуют логические тома и «видят» подключенные к
массиву серверы.
Функция DynamicOptimization позволяет перемещать логические тома между разными
типами дисков и уровнями RAID без прерывания работы приложений. Аналогичным образом
функция AdaptiveOptimization осуществляет автоматическую миграцию данных между
разными сегментами внутри логического тома, перемещая наиболее активно используемые
фрагменты данных на самые быстрые диски в самом производительном уровне RAID и
наоборот, редко используемые фрагменты данных – на более медленные диски.
Эти функции помогают существенно оптимизировать скорость доступа к данным и
соотношение между ценностью данных для бизнес-приложений и стоимостью физических
дисков.
Федерация систем хранения и динамическая миграция томов. Функция PeerMotion HP 3PAR
PeerMotion – это первое в индустрии программное обеспечение, объединяющие массивы
одного типа в федеративное хранилище и позволяющее перемещать логические тома между
системами хранения без остановки доступа к данным и без использования какого-либо
дополнительного оборудования.
Благодаря технологии HP 3PAR ThinBuiltIn одновременно с миграцией возможен переход к
45
использованию «тонких» томов с более высоким уровнем утилизации имеющегося дискового
пространства.
ПО HP 3PAR PeerMotion работает с любыми системами хранения HP 3PAR StoreServ,
поддерживающих операционную систему InForm (начиная с версии 3.1.1) от начального до
корпоративного уровня, и использует интеллектуальный механизм слежения за пропускной
способностью каналов для сохранения производительности бизнес-приложений. Таким
образом можно реализовать балансировку нагрузки между массивами 3PAR разных
поколений.
Данная технология также позволяет реализовать миграцию данных с других массивов, в том
числе и с массивов третьих производителей, на массивы HP 3PAR StoreServ без остановки
доступа к данным. На данный момент поддерживается миграция с массивов НР EVA/P6000.
Клоны данных (полные локальные копии), созданные средствами HP 3PAR StoreServ, могут
иметь отличные от оригинала параметры (тип дисков, уровень RAID), использовать
возможности динамического управления емкостью (ThinProvisioning) и установленные
пользователем права доступа.
Виртуальные копии HP 3PAR StoreServ позволяют создавать сотни моментальных снимков
(Snapshots) логических томов, доступных либо только для чтения, либо для чтения и записи,
быстро восстанавливать данные по состоянию на момент каждого снимка, удалять любые
копии без влияния на другие снимки того же тома данных.
Технология удаленной репликации данных, используемая в массивах HP 3PAR StoreServ,
позволяет передавать данные между любыми моделями массива, поддерживает репликацию
на несколько сайтов, выполняется как по IP, так и FibreChannel каналам, обеспечивает
балансировку загрузки каналов передачи данных, поддерживает различные уровни RAID и
типы дисков для исходного тома и копии, обеспечивает управление копированием из единого
окна.
Необходимо также отметить, что для удаленной репликации по IP можно использовать
встроенныеEthernet-порты массива.
При создании копий данных средствами дискового массива без остановки приложений,
работающих с этими данными, имеется риск получить несогласованную копию, т. к. часть
информации может храниться в буферах приложений и/или системы управления базами
данных. Администраторам системы приходится писать специальные скрипты,
обеспечивающие выгрузку данных из памяти сервера на диск и последующее копирование.
Устанавливаемое на сервере ПО HP 3PAR RecoveryManager предназначено для
гарантированного автоматического создания согласованных копий средствами массива 3PAR
для VMwarevSphere, Microsoft® Exchange, Oracle и Microsoft® SQL.
Система виртуальных доменов позволяет нарезать дисковый массив на изолированные
между собой на логическом уровне виртуальные частные массивы. С помощью этой функции
можно построить систему управления HP 3PAR StoreServ, в которой администраторы
системы могут управлять ресурсами массива только в пределах выделенных им доменов.
Эта функция активно используется сервис-провайдерами для того, чтобы на одном дисковом
массиве гарантировать безопасное хранение данных, принадлежащих разным клиентам или
разным подразделениям. Отметим также, что виртуальные домены позволяют избежать
накладных расходов, возникающих при использовании традиционной технологии логических
разделов.
8.1.3. Серверная архитектура HP BladeSystem
Серверная архитектура HP BladeSystem подразумевает использование в качестве блоков для
46
построения инфраструктуры корзин или полок, в которые интегрируются серверы, системы
питания и охлаждения, средства коммуникаций и система управления.
Блейд-архитектура позволяет обеспечить масштабируемость комплекса, компактность,
существенно повысить легкость в обслуживании, кардинально сократить количество
кабельных соединений, снизить нагрузку на системы энергопитания и охлаждения центра
обработки данных, реализовать и интегрировать системы виртуализации серверов, серверных
операционных
систем
и
средства
обеспечения
миграции,
доступности
и
катастрофоустойчивости.
В архитектуре HP BladeSystem c-Class используются технологии для решения задач,
связанных с повышением гибкости, управляемости и эффективности серверной
инфраструктуры:
⚪ Технология VirtualConnect позволяет виртуализировать серверную аппаратную
платформу, включая все идентификаторы сервера: серийные номера, адреса MAC
и WWN, что позволяет заменять, добавлять и переразвертывать серверы без
какого-либо влияния на взаимодействующие с серверной инфраструктурой домены
сетей SAN и LAN.
⚪ Также современные модули VirtualConnect используют технологию Flex-10,
позволяющую гибко распределять пропускную способность встроенных адаптеров
ввода-вывода по виртуальным адаптерам, видимым для операционной системы как
физические.
⚪ Технология оптимизации энергопотребления и тепловыделения — HP
ThermalLogic — основана на использовании возможностей регулирования
энергопотребления
процессоров
и
других
серверных
компонентов,
интеллектуальных систем перераспределения нагрузки на блоки питания и
вентиляторы, с целью снижения нагрузки на обеспечивающие системы центра
обработки данных.
⚪ Расширенный набор средств мониторинга и управления блейд-инфраструктурой
HP InsightControl и InsightDynamics (Matrix OE), обеспечивающие управление
серверной инфраструктурой на всех этапах жизненного цикла.
⚪ Уникальный набор серверных, коммуникационных и дополнительных модулей,
позволяющих реализовывать конфигурации центров обработки данных,
удовлетворяющие самым разнообразным требованиям.
⚪ Экономия затрат на этапе приобретения инфраструктуры достигается за счет
принципов интегрированного дизайна блейд-системы как применительно к
серверам, так и, особенно, с точки зрения стоимости подключений к внешним
сетям (LAN, SAN, InfiniBand, SAS).
Конструктивную основу блейд-систем HP составляют полки с7000 и с3000, обладающие
встроенной инфраструктурой питания, охлаждения и содержащие слоты для серверных и
коммутационных модулей.
В полке c7000 в шасси высотой 10U можно установить 16 стандартных двухпроцессорных
или 32 двухпроцессорных серверов двойной плотности, или 8 четырехпроцессорных
серверов с процессорами x86, или 8 двухпроцессорных или 4 четырехпроцессорных или 2
восьмипроцессорных серверов с процессорами Intel® Itanium®, плюс 8 коммутационных
модулей: коммутаторов SAN, GigabitEthernet, 10GigE, Infiniband, SAS. Полка с7000
спроектирована для установки в стандартную стойку и интеграции с другими компонентами
центров обработки данных, в частности с другими блейд-полками.
Полка c3000 имеет высоту 6U и рассчитана на установку вдвое меньшего количества
серверных и коммутационных модулей. Полка может устанавливаться в стойку или
47
поставляться в комплектации для пьедестального размещения.
Плотность компоновки ничуть не сказывается на характеристиках серверов: типичный
блейд-сервер оснащается двумя самыми современными процессорами от Intel® или AMD,
расширяется вплоть до 512 ГБ оперативной памяти, оснащается 2 дисками SAS с
возможностью горячей замены и поддерживает до 6 дополнительных внешних интерфейсов
для подключения к интегрированным коммутационным модулям.
Для использования в рамках инфраструктуры HP BladeSystem предлагается целый ряд
моделей серверов на базе многоядерных процессоров Intel® Xeon® серий E5 и E7, AMD
OpteronTM серии 6200/6300 и Intel® Itanium® серии 9500. Во всех серверах используются
последние серверные технологии, типичные для всех серверов HP, такие как универсальные
RAID-контроллеры SmartArray, универсальные жесткие диски SAS SFF, процессор
удаленного управления iLO.
В слоты для серверных модулей, помимо собственно серверов, могут устанавливаться
блейды расширения функциональности – такие, как storage-блейды, tape-блейды и PCIexpansion-блейды, а также блейд-рабочие станции. Они предназначены для расширения
объема выделенного дискового или ленточного пространства, напрямую доступного
ближайшему серверу (storage-блейды и tape-блейды) или создания дополнительных PCIслотов
также
для
ближайшего
блейд-сервера
или
для
консолидации
высокопроизводительных графических рабочих станций.
Перечисленные серверные и дополнительные модули могут комбинироваться в полке в
любых сочетаниях. В рамках форм-фактора HP BladeSystem планируется появление новых
продуктов, как серверов на базе новых процессоров и системных архитектур, так и
специализированных storage-блейдов, а также коммуникационных и управляющих модулей.
Для интеграции HP BladeSystem в инфраструктуру центра обработки данных и обеспечения
взаимодействия серверов между собой, задействуются коммутационные модули. В качестве
коммутационных модулей могут выступать как патч-панели, выводящие сигналы от
серверных адаптеров в соотношении «1-к-1», так и интеллектуальные коммутирующие
устройства — коммутаторы GigabitEthernet/10Gigabit Ethernet производства HP Networking,
Cisco или BNT (Nortel), FiberChannel 8 Гб от Brocade или Cisco, Infiniband 4x QDR, а также
модули виртуализации ввода/вывода — VirtualConnectEthernet, FC и FlexFabric.
Использование коммутационных модулей VirtualConnect Flex-10 и сетевых адаптеров,
поддерживающих технологию Flex-10, позволяет разделять доступную полосу пропускания
сетевого адаптера 10GigE на части (до 4 частей), которые представляются операционной
системе как независимый физический сетевой адаптер (т. н. Flex NIC) с заданной
производительностью (от 100 Мбит/с до 10 Гбит/с с шагом 100 Мбит/с). Также Flex-10
позволяет представлять порты Flex NIC операционной системе как аппаратные iSCSI HBA.
Это позволяет обеспечить гибкость и управляемость сетевых подключений, особенно в
виртуализованной серверной среде.
Кроме того, решения HP VirtualConnect позволяют реализовать миграцию серверных
профилей с одного физического сервера на другой вместе с серийными номерами, адресами
MAC и FC WWN, параметрами загрузки операционной системы, что позволяет при
необходимости перенести системное и прикладное программное обеспечение на другой
сервер абсолютно прозрачно для приложений и внешней сетевой инфраструктуры.
Новое поколение модулей HP VirtualConnect – FlexFabric – обеспечивает подключение
серверов к сетям LAN и SAN при помощи конвергентных сетевых адаптеров (CNA), которые
устанавливаются как платы расширения или интегрируются с помощью технологии FlexLOM всех серверов Gen8. Конвергентные адаптеры поддерживают передачу в среде 10GE
данных LAN, пакетов FC (за счет применения протокола FCoE – FibreChanneloverEthernet) и
48
iSCSI.
Использование блейд-инфраструктуры HP BladeSystem подразумевает высокий уровень
избыточности компонентов. Так, питание блейд-системы зарезервировано по схеме «3+3»,
используются избыточные вентиляторы системы охлаждения, все коммутационные модули
устанавливаются парами, все используемые серверные адаптеры ввода-вывода, как минимум,
двухпортовые. Как следствие, для блейд-системы характерен более высокий уровень
доступности серверов и приложений, как правило, за более приемлемую цену по сравнению
с аналогичными решениями для стоечных серверов.
Для эффективного управления HP BladeSystem в состав обеих полок включены средства,
позволяющие визуализировать серверные полки и получить наглядное представление о
состоянии и конфигурации блейд-системы, контролировать параметры окружающей среды,
настраивать подсистемы охлаждения и электропитания.
Для управления блейд-инфраструктурой на всех этапах жизненного цикла рекомендуется
использовать интегрированный пакет программного обеспечения HP InsightControl, в состав
которого входит SystemsInsightManager, а также дополнительные средства управления:
⚪
⚪
⚪
⚪
⚪
⚪
InsightRapidDeployment – автоматизация развертывания;
InsightVulnerabilityandPatchManager – управление обновлениями и уязвимостями;
InsightPerformanceManager – управление производительностью;
InsightPowerManager – управление энергопотреблением;
InsightVirtualMachineManager – управление виртуальными окружениями;
iLOAdvancedforBladeSystem – расширение функциональности контроллера iLO.
8.1.4. Системы резервного копирования HP StoreOnceBackup (D2D)
Дисковые системы резервного копирования HP StoreOnceBackup эмулируют традиционные
ленточные библиотеки и ленточные механизмы и позволяют серверам работать с ними как с
обычными ленточными накопителями с помощью любого программного обеспечения
резервного копирования.
Эмуляция дисковыми системами резервного копирования большого количества ленточных
накопителей позволяет выполнять значительное число процессов резервного копирования
параллельно, что существенно снижает время, необходимое для создания копий. Это
особенно актуально для серверов в сети SAN, которые зачастую не обеспечивают потока
данных, соответствующего производительности современных ленточных накопителей.
Кроме того, поскольку физически данные находятся на дисках, восстановление одиночных
файлов происходит очень быстро.
Рекомендуемыми областями использования виртуальных ленточных библиотек являются
условия резервного копирования, при которых:
⚪ причиной долгого времени резервирования является низкий поток данных от
серверов;
⚪ требуется восстановление одиночных файлов из архива;
⚪ есть необходимость исключить использование лент как носителей информации;
⚪ требуется резервное копирование данных с коротким временем жизни;
⚪ требуется альтернатива технологиям Snapshot и Clone для некритических данных.
HP предлагает два основных семейства виртуальных библиотек: одноконтроллерные
библиотеки StoreOnce 2000 Backup и StoreOnce 4000 Backup и многоконтроллерные
библиотеки StoreOnce B6200 Backup. Одноконтроллерные библиотеки ориентированы на
малые и средние предприятия, многоконтроллерные – на средние и крупные.
49
Виртуальная библиотека StoreOnce B6200 имеет модульную многоконтроллерную
архитектуру. B6200 состоит из нескольких блоков, называемых couplets. Один блок включает
в себя 2 контроллера, объединенных в отказоустойчивый кластер по технологии active/active.
К паре контроллеров по дублированным SAS-интерфейсам подключаются две одинаковые
дисковые подсистемы (массивы HP P2000). Таким образом, в B62000 дублируются все
активные компоненты и все внутренние каналы передачи данных.
B6200 может масштабироваться как наращиванием емкости внутри блоков (couplets), так и
путем увеличения количества блоков (до 4 блоков). Между собой блоки могут
взаимодействовать по внутренней дублированной сети 10Gb Ethernet.
Во всех системах HP StoreOnceBackup для хранения данных используются SATA или MDLSAS-диски. Кроме того, все системы резервного копирования могут параллельно с
эмулированием ленточных устройств поддерживать и NAS-доступ (по протоколам CIFS,
NFS).
Одним из важных преимуществ использования дисковых систем резервного копирования HP
StoreOnceBackup по сравнению с использованием для проведения резервного копирования
обычных дисковых массивов являются поддержка системами HP StoreOnceBackup
дополнительных функциональных возможностей, к которым относятся: дедупликация и
сжатие данных, репликация данных и технология HP StoreOnceCatalyst.
Технология дедупликации позволяет существенно повысить эффективность использования
дисковых ресурсов дисковых систем резервного копирования. Эта технология позволяет
записывать на диски систем HP StoreOnceBackup в несколько десятков раз больше данных,
чем позволяет дисковая емкость этих систем. Достигается это за счет того, что данные
системы могут обнаруживать идентичные блоки данных (сравнивая новые данные с уже
записанными данными) и сохранять на дисках только ссылку на оригинальный блок данных.
При регулярном резервном копировании таких идентичных блоков будет очень много.
Оригинальные блоки данных записываются на диски в сжатом виде.
В
системах
HP
StoreOnceBackup
используется
онлайновая
технология
дедупликацииStoreOnceDeduplication, т. е., обнаружение идентичных блоков производится в
процессе сессии резервного копирования.
Технология репликации по низкоскоростным каналам (LowBandwithReplication) позволяет
автоматически копировать данные между несколькими устройствами HP StoreOnceBackup.
Технология репликации интегрируется с технологией дедупликации, что существенно
сокращает объем данных, передаваемых между дисковыми системами резервного
копирования, это позволяет использовать для репликации данных достаточно медленные IPканалы.
Технология HP StoreOnceCatalyst позволяет переносить часть нагрузки по дедупликации на
медиасерверы приложений резервного копирования, при этом между медиасерверами и
устройствами HP StoreOnceBackup данные будут передаваться в дедуплицированном виде.
Это позволяет разгрузить сеть передачи данных и существенно поднять производительность
резервного копирования.
Такой подход позволяет создавать федеративную (распределенную) систему дедупликации:
дедупликация может выполняться на аппаратных системах HP StoreOnceBackup и на
программных системах (медиасерверы), расположенных там, где это нужно заказчику. В том
числе, можно выполнять резервное копирование на удаленные устройства HP
StoreOnceCatalyst используя для этого обычные IP-каналы связи. Кроме того, технология HP
StoreOnceCatalyst позволяет выполнять репликацию данных между устройствами HP
StoreOnceBackup под управлением приложений резервного копирования. Это позволяет для
целей катастрофоустойчивости создавать несколько удаленных копий резервных данных и
50
приложению резервного копирования будут доступны все эти копии. Для разный копий
можно задавать различные политики хранения.
В настоящее время технологию HP StoreOnceCatalyst поддерживают следующие приложения
резервного копирования: HP DataProtector, SymantecNetBackup и BackupExec. HP
StoreOnceCatalyst также включает поддержку Symantec OST.
8.1.5. Ленточные библиотеки HP StorEver
Ленточные библиотеки предназначены для автоматизированного резервного копирования
данных. Одновременное использование нескольких лентопротяжных механизмов
увеличивает производительность библиотеки и сокращает время, необходимое для записи и
чтения резервных копий.
Программное обеспечение HP DataProtector позволяет сделать резервное копирование
полностью автоматизированной и необслуживаемой процедурой, которая может выполняться
ежедневно и при этом не мешает пользователям, работающим в сети.
Ленточные библиотеки НР оснащены внешними интерфейсами SAS, SCSI или FibreChannel,
обеспечивающими возможность одновременного подключения к нескольким серверам и
интеграцию в сеть хранения SAN.
Ленточные библиотеки HP совместимы с самым широким спектром системного и
прикладного ПО резервного копирования, а также с аппаратным обеспечением (HBA, FCкоммутаторы).
Спектр продуктов для автоматизированного резервного копирования включает устройства
начального уровня: автозагрузчик Autoloader 1/8 G2 и ленточные библиотеки MSL2024 и
MSL4048, ленточные библиотеки среднего уровня MSL8096, MSL 6480 и ленточные
библиотеки корпоративного уровня EML и ESL-G3.
Автозагрузчик поддерживает только один лентопривод с интерфейсом SCSI, SAS или FC и
имеет небольшое количество слотов для лент.
Библиотеки серии MSL (включающей модели: 2024, 4048, 8048, 8096) могут поддерживать
уже несколько лентоприводов (с интерфейсом SCSI, SAS или FC) и имеют существенно
большую емкость благодаря большему количеству слотов.
Модели MSL8048 и MSL8096 имеют полностью одинаковые параметры, за исключением
того, что количество слотов в MSL8048 в 2 раза меньше. При этом количество слотов в
модели MSL8048 можно удвоить с помощью специальной лицензии.
Библиотеки MSL и автозагрузчик Autoloader 1/8 G2 имеют встроенный web-интерфейс — для
обеспечения возможности удаленного мониторинга и управления.
Серия EML-библиотек имеет модульное стоечное исполнение и позволяет наращивать
количество блоков-модулей (корзин с лентами и приводами), объединяя их в единое
логическое устройство объемом до 505 слотов и 16 лентоприводов. Библиотеки EML
поддерживают резервные блоки питания и возможность горячей замены блоков питания и
лентоприводов. Интерфейс библиотек EML – FC 4 Гбит/с или 8 Гбит/с.
8.1.6. Активное оборудование для ЛВС
Модульные коммутаторы НР отличаются широкими возможностями масштабирования и
предназначены для построения бизнес-критичных сетевых инфраструктур, предъявляющих
высокие требования к производительности, функциональности и надежности (доступности).
Продуктовая линейка коммутаторов HP с фиксированным количеством портов расширяет
возможности сетевых решений HP и обеспечивает реализацию стратегии конвергентной
инфраструктуры за счет:
51
⚪ поддержки интегрированных технологий поверх протокола Ethernet (PoE, PoE+,
FCoE и т. п.);
⚪ интеграции различных приложений в коммутаторах (в том числе за счет
применения модулей с открытой архитектурой);
⚪ встроенных возможностей по безопасности.
Коммутаторы, предназначенные для корпоративного сектора, поддерживают технологию
IRF-объединения нескольких коммутаторов в единое логическое устройство («виртуальное
шасси»), реализованную на единой операционной платформе как для модульных
коммутаторов, так и для коммутаторов с фиксированной конфигурацией.
Продуктовая линейка коммутаторов HP включает в себя модели, оптимизированные для
установки в современных ЦОД: блоки питания и вентиляторы с возможностью горячей
замены, возможностью изменения потока воздуха от передней панели к задней или в
обратном направлении, изоляция «горячего» и «холодного» коридоров и низкое
энергопотребление – все это позволяет увеличить полезную мощность и сократить
операционные затраты.
Большинство коммутаторов HP с фиксированным количеством портов имеют пожизненную
гарантию, т. е. гарантийное обслуживание на весь срок эксплуатации продукта с
возможностью гарантийной замены при отказе. Для ряда коммутаторов обновление ПО
включено в базовую гарантию.
8.1.7. Активное оборудование для СХД
Устройства хранения информации HP поддерживают различные архитектуры корпоративных
центров обработки данных, среди которых наиболее традиционным решением для
подключения серверного пула к системам хранения является архитектура SAN
(StorageAreaNetworks — выделенная сеть хранения), обеспечивающая совместный доступ к
данным, независимый от локальной вычислительной сети.
Разнообразные топологии сетей хранения данных замещают шинные соединения «серверустройство хранения» и предоставляют по сравнению с ними большую гибкость,
производительность и надежность. Сеть хранения данных по аналогии с локальными
вычислительными сетями строится на основе коммутаторов и адаптеров, устанавливаемых в
серверы.
Для подключения устройств к портам коммутаторов используются съемные трансиверы
малого форм-фактора (SmallFormFactorPluggable — SFP), обеспечивающие перевод
электрического сигнала в оптический и наоборот и позволяющие достигать большой
плотности портов (до 48 портов 16Gb в 1U). Высокая надежность коммутаторов
обеспечивается возможностью горячей замены дублированных блоков питания и
вентиляторов, а также функцией горячей загрузки кода.
Поддерживается гибкое, без остановки работы приложений, наращивание числа портов
программными ключами. Кроме коммутаторов и адаптеров сеть хранения данных может
включать в себя маршрутизаторы. Они предназначены для связи, без объединения, сетей
хранения данных по протоколам FC и FCIP (FC через InternetProtocol).
Оборудование поставляется со следующим программным обеспечением:
⚪ WebTools — интуитивный графический интерфейс для мониторинга и управления
отдельными коммутаторами и небольшими сетями SAN;
⚪ AdvancedZoning — обеспечивает выделение в физической структуре SAN-зон для
предотвращения несанкционированного доступа устройств, находящихся вне
зоны.
Дополнительное программное обеспечение:
52
⚪ FabricWatch — проактивный мониторинг SAN позволяет контролировать
множество параметров работы коммутатора: от количества отказавших
вентиляторов до количества ошибок определенного типа на порту. При
достижении установленного порогового значения FabricWatch отправляет
сообщения в системный журнал, syslog и по протоколу SNMP;
⚪ ISL Trunking — возможность агрегировать межкоммутаторные соединения,
формируя на аппаратном уровне высокоэффективные «транки», в которых
балансировка нагрузки ведется на уровне пакетов FC, а сбои отдельных
соединений отрабатываются прозрачно и без перестроения фабрики;
⚪ AdvancedPerformanceMonitoring — лицензия для точного мониторинга
производительности, отслеживания максимально нагружающих фабрику
устройств (TopTalkers), объема трафика между любой парой устройств;
⚪ ExtendedFabrics — лицензия, позволяющая выделять дополнительные буферные
кредиты для обеспечения максимальной производительности на расстояниях
больше 10 км;
⚪ AdaptiveNetworking – возможность использовать QoS (QualityofService – качество
услуг) на FC соединениях, а также ограничивать потоки данных оконечных
устройств (функция IngressRateLimiting) для более тонкой настройки
производительности;
8.1.8. Источники бесперебойного питания
Защита центров обработки данных от внезапных перепадов напряжения или отключения
питания является неотъемлемой частью работы по обеспечению работоспособности
компании, непрерывности, а зачастую и сохранения бизнеса. Наличие резервных подстанций
позволяет оперативно перезапустить оборудование, но не гарантирует непрерывности
питания в момент переключения с одного источника на другой, что, в свою очередь,
увеличивает вероятность появления сбоев при нештатном перезапуске комплексных систем.
Этой опасности можно избежать, если защитить питание наиболее важных узлов центра
обработки
данных
при
помощи
источников
бесперебойного
питания
(UninterruptiblePowerSupply — UPS).
UPS HP позволяют защитить критически важные данные от повреждения при
нестабильности и перепадах питания, позволяют продолжать работу при внезапных кратков
ременных отключениях электроэнергии, автоматически сохраняют данные, закрывают
приложения и выполняют штатное отключение, если перерыв в подаче энергии окажется
продолжительным.
В комплект поставки всех UPS HP входит ПО для управления питанием HP PowerProtector,
являющееся составной частью решения HP InsightManager — лидирующей в отрасли
платформы по управлению оборудованием. HP PowerProtector является универсальным,
полностью конфигурируемым инструментом управления, который дает системным
администраторам полное представление о состоянии сети. Он позволяет выполнять
мониторинг состояния системы и параметров питания, устанавливать расписание
отключений всех устройств с сохранением текущих рабочих процессов, настраивать
предупреждающие сообщения, а также легко и быстро выполнять диагностику UPS, включая
уровень нагрузки и отслеживание температуры, ведение подробного журнала событий и
сведений об использовании UPS.
UPS HP рассчитаны на использование батарей горячей замены, что позволяет пользователям
устанавливать новую батарею без отключения подсоединенного оборудования. Функция
усовершенствованного управления аккумулятором (EnhancedBatteryManagement, EBM)
способствует продлению срока службы аккумулятора, оптимизирует время на зарядку для
быстрого восстановления после отключения электропитания и заранее предупреждает об
53
окончании срока службы аккумулятора.
8.1.9. Монтажное оборудование
Семейство стоек промышленного класса HP предназначено для установки любых
аппаратных платформ HP, выполненных в стоечном (rackmount) исполнении. Стойки
поддерживают индустриальный стандарт 19” RETMA, благодаря чему могут быть
использованы и для оборудования других производителей, спроектированного для установки
в 19” стойки.
Модели имеют стандартные сверхпрочные стабилизирующие опоры для размещения блоков,
легкие боковые панели, дверцы специальной конструкции, надежные ручки и задвижки.
Уникальный дизайн рам и направляющих обеспечивает быструю сборку и легкий монтаж,
существенно сокращающий усилия, затрачиваемые на установку оборудования.
Размерные метки в единицах U спереди и по бокам направляющих позволяют легко
компоновать блоки при установке оборудования. Прорези в направляющих облегчают
прокладку кабелей между стойками. Дизайн стоек обеспечивает высокую структурную
целостность, что делает возможными более высокие статические и динамические нагрузки
по сравнению с аналогичными решениями предыдущего поколения.
Перфорированные передние и задние дверцы способствуют эффективной циркуляции
воздуха для конвекционного охлаждения fronttoback, что особенно важно для оборудования
современных горячих и плотных серверов.
8.2. Решения HP по обеспечению высокой доступности и катастрофоустойчивости
Основными технологическими составляющими для реализации решений по обеспечению
высокой доступности/восстановления (другими словами – для построения кластерных
систем) являются:
⚪ высоконадежные аппаратные компоненты (серверы, дисковые массивы,
коммутаторы и др.), поддерживающие встроенные функции высокой доступности,
такие как избыточные источники питания и вентиляторы, жесткие диски, карты
I/O с возможностью горячей замены;
⚪ специализированное программное обеспечение (кластерное ПО), осуществляющее
контроль
за
всеми
компонентами
кластера
и
обеспечивающее
автоматическое/полуавтоматическое восстановление системы в случае сбоя;
⚪ репликация данных, т. е. оперативное копирование данных между хранилищами,
используемыми кластером (в большинстве случаев речь идет о паре дисковых
массивов, разнесенных на некоторое расстояние друг от друга). Различают два
основных метода репликации – host-based (программная, средствами ОС серверов,
входящих в кластер) и array-based (аппаратная, средствами дисковых массивов,
используемых кластером);
⚪ кластерные архитектуры (конфигурации), предусматривающие отсутствие единой
точки отказа (SPOF) для обеспечения обработки того или иного типа сбоев.
В зависимости от типов отказов (сбоев), обрабатываемых ИТ-системой, различают несколько
классов систем: система высокой доступности, система с полным резервированием и
катастрофоустойчивая система.
Система высокой доступности
обеспечивает защиту от аппаратных и программных сбоев и автоматическое восстановление
системы в пределах одного ЦОД. Конфигурацию, чаще всего используемую для построения
такого рода систем, принято называть локальным кластером (localcluster).
В качестве кластерного ПО в подобных конфигурациях для сред HP-UX и RedHat/SUSE
Linux HP рекомендует использовать продукт собственной разработки HP Serviceguard
54
(существует два отдельных продукта:HPServiceguardforLinux и HP Serviceguard – далее будет
использоваться одно название HP Serviceguard). Широкий список моделей серверов HP (как
стандартной архитектуры в случае с Linux так и на базе процессоров Intel® Itanium®, если
говорить про HP-UX) поддерживается этим кластерным ПО.
Система с полным резервированием
помимо защиты от сбоев отдельных узлов комплекса позволяет продолжить работу с
минимальным временем простоя даже в случае выхода из строя целого ЦОД. Для построения
подобных систем, как правило, используется один из двух вариантов конфигураций:
кампусный кластер (Campuscluster или ExtendedDistanceCluster) или метрокластер
(Metrocluster). Разница в конфигурациях заключается в механизмах репликации данных
между основным и резервным ЦОД и максимально допустимом расстоянии между
площадками.
В качестве кластерного ПОдля сред RedHat/SUSE Linux и HP-UX рекомендуется
использовать HP Serviceguard вместе с ПО HP Metrocluster, которое обеспечивает
синхронизацию работы кластера с функциями репликации данных. ПО HP Metrocluster
поддерживает работу со следующими продуктами по репликации данных: HP
ContinuousAccess P9500/XP, HP 3PAR RemoteCopy, HP ContinuousAccess EVA/P6000.
Катастрофоустойчивая система
обеспечивает возможность разнесения узлов кластера и систем хранения на неограниченное
расстояние, что позволяет системе пережить воздействия сокрушительного характера:
землетрясения, наводнения, пожары, глобальные отключения электроэнергии и т. д.
Для построения систем такого класса используется конфигурация, называемая
континентальный кластер (Continentalclusters). Построение подобной конфигурации
поддерживается в средах RedHat/SUSE Linux и HP-UX. При использовании аппаратной
репликации между удаленными системами хранения лицензируются следующие
программные продукты: HP Serviceguard, HP Metrocluster, HP Continentalclusters.
Спецификация оборудования
9.
Исходя из всего изложенного выше ОАКБ «Агробанк» остановился на следующей
спецификации предполагаемого к закупке оборудования.
Q-ty
P/N
Description
Основной ЦОД
SuperDome 2 для основного центра
1
1
1
1
1
1
1
2
2
4
4
4
BW908A
BW908A
001
HA455A1-000
AH337A
AH337A
006
AH337A
0D1
HA455A1-015
AT064A
AT064A
0D1
453154-B21
453154-B21 0D1
AT121A
HP 642 1200mm Shock Intelligent Rack
HP Factory Express Base Racking Service
HP Fctry Express Solution Package 5 SVC
HP Superdome 2 -16s Server
HP SD2 - 3 wire Local Single Phase PDU
Factoryintegrated
HP Factory Express SD2-16s SvrPkg 5 SVC
HP ProCurve 6120XG Blade Switch
Factoryintegrated
HP BLc VC 1G SFP RJ45 Transceiver
Factoryintegrated
HP CB900s i4 Itanium 9560 16c Blade
55
4
8
8
1
8
1
1
4
8
1
1
4
4
4
4
2
2
1
1
1
2
2
2
2
2
2
4
4
1
2
1
1
1
1
1
1
1
1
1
3
1
1
1
1
1
1
AT121A
AT127A
AT127A
T8697EBE
T8697EBE
HA110A3
HA110A3
HA110A3
HA110A3
AH338A
AH338A
AD337A
AD337A
AM225A
AM225A
AH401A
AH401A
AH338A
AH338A
AH338A
AD337A
AD337A
AM225A
AM225A
AH400A
AH400A
AH401A
AH401A
HA110A3
HA110A3
BW932A
BW932A
BW909A
BW909A
BW891A
BW891A
HA134A1
HA134A1
HA243A1
HA244A1
HA293A1
H6J85A
HA124A1
HA124A1
HA124A1
HA124A1
0D1
0D1
474
6Y6
RAU
WYK
0D1
0D1
0D1
0D1
002
0D1
0D1
0D1
0D1
0D1
6Y8
B01
0D1
0D1
001
58Q
58S
58T
Factoryintegrated
HP Active DDR3 32GB Memory Module Power
Factoryintegrated
HP DC-OE w/SG Cluster File Sys A04 E-LTU
PSL HP DCOE+CFS A04 8+16 Skt E-LTU
HP 3y Support Plus 24 SVC
HP Superdome 2 - 16s HW Supp
HP Superdome CB900s i4 Server Blade
HP DC-OE w/ SG CFS Oracle 8 and 16 PSL
HP Superdome 2 IoxEnclosure
Factoryintegrated
HP PCIe 2-port 1000Base-T Card
Factoryintegrated
HP Integrity 10GbE-SR 2p PCIe Adapter
Factoryintegrated
HP PCIe 2-port 8Gb FC SR (Qlogic) HBA
Factoryintegrated
HP Superdome 2 IoxEnclosure
HP SD2 - 5 wire Int'l Single Phase PDU
Factoryintegrated
HP PCIe 2-port 1000Base-T Card
Factoryintegrated
HP Integrity 10GbE-SR 2p PCIe Adapter
Factoryintegrated
HP PCIe 1-port 8Gb FC SR (Qlogic) HBA
Factoryintegrated
HP PCIe 2-port 8Gb FC SR (Qlogic) HBA
Factoryintegrated
HP 3y Support Plus 24 SVC
HP Superdome IOX enclosure HW Supp
HP 600mm Rack Stabilizer Kit
Includewithcompletesystem
HP 42U 1200mm Side Panel Kit
Factoryintegrated
HP RackGroundingKit
Factoryintegrated
OS/PlatformImplementationService
HP-UX Operating System Installation
HP Cluster Consistency Service 2-3 node
HP Cluster Consistency Svc.- addl. node
MC/ServiceGuard Implementation, HP-UX
HP RackHardwareKit
HP Technical Installation Startup SVC
HP Startup Capacity Advisor Service
HP StartupgWLMService
HP Startup vPAR or Virtual Machine SVC
56
1
1
HA124A1
HA124A1
59J
571
HP Implementation Server BootfromSAN SVC
HP StartupSuperdome 2 Service
Система хранения данных для основного центра
1
4
16
24
8
2
1
1
4
2
16
24
8
1
1
96
1
96
1
1
1
96
1
1
1
1
1
1
1
96
96
1
96
1
80
2
4
1
1
1
1
QR485A
QR486A
QR492A
QR496A
E7W54B
QR490A
HA114A1
HA114A1
HA114A1
HA114A1
QR492A
QR496A
E7W54B
QR516B
BC773AAE
BC774AAE
BC781AAE
BC782AAE
BC795AAE
BC799BAE
BD270AAE
BD271AAE
BD370AAE
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA124A1
HA124A1
HA124A1
5TS
5TT
5TV
RDD
RDG
RDQ
RDR
RZ5
S7D
S7H
S7W
S7X
WSF
WUS
WUW
WUX
WUY
5QW
5TK
HP 3PAR StoreServ 7400 4-N Storage Base
HP 3PAR 7000 4-pt 8Gb/s FC Adapter
HP M6710 300GB 6G SAS 15K 2.5in HDD
HP M6710 900GB 6G SAS 10K 2.5in HDD
HP M6710 480GB 6G SAS 2.5in MLC 5yr SSD
HP M6710 2.5in 2U SAS Drive Enclosure
HP Installation and Startup Service
HP Startup 3PAR 7400 4-Nd Strg Base SVC
HP Startup 3PAR 7000 FC Adapter SVC
HP Startup 3PAR 7000 2U SAS Enclosre SVC
HP M6710 300GB 6G SAS 15K 2.5in HDD
HP M6710 900GB 6G SAS 10K 2.5in HDD
HP M6710 480GB 6G SAS 2.5in MLC 5yr SSD
HP 3PAR 7000 ServiceProcessor
HP 3PAR 7400 OS Suite Base E-LTU
HP 3PAR 7400 OS Suite Drive E-LTU
HP 3PAR 7400 Virtual Copy Base E-LTU
HP 3PAR 7400 Virtual Copy Drive E-LTU
HP 3PAR 7400 Reporting Suite E-LTU
HP 3PAR 7400 App Suite Oracle E-LTU
HP 3PAR 7400 Data Opt St v2 Base E-LTU
HP 3PAR 7400 Data Opt St v2 Drive E-LTU
HP 3PAR App Suite for Oracle E-Media
HP 3y Support Plus 24 SVC
HP 3PAR 7400 OS Suite Base LTU Supp
HP 3PAR 7400 Virtual Copy Base LTU Supp
HP 3PAR 7400 Reporting Suite LTU Supp
HP 3PAR 7400 App Suite LTU Supp
HP 3PAR 7000 Service Processor Supp
HP 3PAR 7400 OS Suite Drive LTU Supp
HP 3PAR 7400 Virtual Copy Drive LTU Supp
HP 3PAR 7400 DataOpt St v2 Base LTU Supp
HP 3PAR 7400 Data Opt St v2 Drv LTU Supp
HP 3PAR Internal Entitlement Purpose
HP 3PAR 7000 Drives under 1TB Support
HP 3PAR 7000 Drive Enclosure Support
HP 3PAR 7000 AdapterSupport
HP 3PAR 7400 4-node Storage Base Support
HP Technical Installation Startup SVC
HP Startup 3PAR VrtCpyLvl 1 Tier 1 SVC
HP Startup 3PAR 7000 App Ste Oracle SVC
57
1
1
HA124A1
HA124A1
5TM
5UG
HP Startup 3PAR 7000 Reporting Ste SVC
HP Startup 3PAR 7000 Data Opt Ste v2 SVC
Коммутатор сети передачи данных для основного центра
2
2
46
46
2
2
1
2
1
2
46
1
1
QK753B
QK753B 05Y
AJ716B
AJ716B 0D1
QK725A
QK725A
0D1
H7J34A3
H7J34A3 QAM
HA113A1
HA113A1 5GA
QK735A
HA115A1
HA115A1 53B
HP SN6000B 16Gb 48/24 FC Switch
2.4m Jumper (IEC320 C13/C14, M/F CEE 22)
HP 8Gb Short Wave B-Series SFP+ 1 Pack
Factoryintegrated
HP B-series 16Gb SFP+LW 10km XCVR
Factoryintegrated
HP 3yr Foundation Care 24x7 Service
HP SN6000B 16Gb 48/24 FC Switch JW Supp
HP InstallationService
LowEnd SAN/Edge Switch/HAFM Installation
HP Premier Flex LC/LC OM4 2f 15m Cbl
HP ImplementationService
HP Impl SAN - Level 2 Tier 2 Svc
Сервера приложений для основного центра
1
8
8
8
8
8
64
64
16
16
8
8
2
2
8
8
4
4
1
1
1
1
1
8
1
681844-B21
735151-B21
735151-B21 0D1
718358-L21
718358-B21
718358-B21 0D1
708639-B21
708639-B21 0D1
652605-B21
652605-B21 0D1
700742-B21
690164-B21
571956-B21
571956-B21 0D1
AJ716B
AJ716B 0D1
455883-B21
455883-B21 0D1
517521-B22
677595-B21
517520-B21
HA110A3
HA110A3 7FX
HA110A3 7XE
HA114A1
HP BLc7000 CTO 3 IN LCD Plat Enclosure
HP BL460c Gen8 E5-v2 10Gb FLB CTO Blade
Factoryintegrated
HP BL460c Gen8 E5-2650v2 FIO Kit
HP BL460c Gen8 E5-2650v2 Kit
Factoryintegrated
HP 8GB 2Rx4 PC3-14900R-13 Kit
Factoryintegrated
HP 146GB 6G SAS 15K 2.5in SC ENT HDD
Factoryintegrated
HP FlexFabric 10Gb 2P 534FLB FIO Adptr
HP Smart Array P220i Controller FIO Kit
HP BLc VC FlexFabric 10Gb/24-port Opt
Factoryintegrated
HP 8Gb Short Wave B-Series SFP+ 1 Pack
Factoryintegrated
HP BLc 10G SFP+ SR Transceiver
Factoryintegrated
HP 6X 2400W Plat HtPlg FIO PwrSply Kit
HP BLc 1PH Intelligent Power Mod FIO Opt
HP BLc 6X Active Cool 200 FIO Fan Opt
HP 3y Support Plus 24 SVC
c7000 Enclosure HW Supp
HP BL4xxc SvrBld HW Support
HP Installation and Startup Service
58
1
1
1
1
2
2
HA114A1 5FY
C6N33AAE
HA110A3
HA110A3 4YN
AF525A
TK739A
HP Startup BladeSystem c7000 Infrast SVC
HP Insight Control Encl Bundle 16 E-LTU
HP 3y Support Plus 24 SVC
HP IC BL 16-Svr SW Support
HP Intelligent Mod PDU 32a Intl Core
HP 2.0m 250V 16A C19-C20 3PC IPD JprCrd
Сисмета резервного копирования для основного центра
1
1
1
1
1
1
1
1
1
2
1
1
1
2
BB878A
HA110A3
HA110A3
HA113A1
HA113A1
HA124A1
HA124A1
B6953AAE
B6961BAE
B7038BAE
HM611A3
HM611A3
HM611A3
HM611A3
9LA
5KK
55Q
43B
7RV
7S5
HP StoreOnce 4500 24TB Backup
HP 3y Support Plus 24 SVC
HP StoreOnce 41/4500 Backup System Supp
HP InstallationService
HP StoreOnce Basic Installation SVC
HP Technical Installation Startup SVC
HP Startup StoreOnce Backup System SVC
HP Data Prt drive ext UNIX/NAS/SAN E-LTU
HP Data ProtStater Pack Windows E-LTU
HP DP Advanced Backup to Disk 10TB E-LTU
HP SW Enterprise Basic 3yr Support
HP Software 43B Supp
HP Software 7RV Supp
HP Software 7S5 Supp
Балонсировщик нагрузок для основного центра
1
F5-BIG-LTM-4000S
1
F5-SVC-BIG-PREL1-3
F5-ADD-BIG-AFM4000
F5-SVC-BIG-PREL1-3
F5-UPG-AC-400W
1
1
1
1
BIG-IP 4000s Local Traffic Manager (16 GB Memory, Max
SSL, Max Compression)
Level 1-3 Premium Service for BIG-IP (7x24)
BIG-IP Advanced Firewall Manager Module for 4200v/4000s
LTM
Level 1-3 Premium Service for BIG-IP (7x24)
BIG-IP Single AC Power Supply for 4200v/4000s/2X00s (400
W, Field Upgrade)
transport
Источник бесперебойного питания для основного центра
1
1
2
2
1
2
2
H6J66A
H6J66A
001
AF430A
AF430A
0D1
H1K92A3
H1K92A3 7GW
AF434A
HP 11642 1075mm ShockRack
HP Factory Express Base Racking Service
HP R12000/3 Intl UPS
Factoryintegrated
HP 3Y 4 hr 24x7 Proactive Care SVC
UPS Equal/Greater than 6KVA HW Support
HP R8000/3 R12000/3 All ERM
59
2
1
1
1
1
1
1
1
1
1
1
1
1
1
1
4
4
AF434A
H6J85A
H6J85A
H5M57A
H5M57A
AF576A
AF576A
BW932A
BW932A
BW930A
BW930A
BW906A
BW906A
BW891A
BW891A
AF526A
AF526A
0D1
0D1
0D1
0D1
B01
B01
0D1
0D1
0D1
Factoryintegrated
HP RackHardwareKit
Factoryintegrated
HP 3.6kVA 200-240V 20out WW bPDU
Factoryintegrated
HP 3.6m 16A C19 EU Pwr Cord
Factoryintegrated
HP 600mm Rack Stabilizer Kit
Includewithcompletesystem
HP Air Flow Optimization Kit
Includewithcompletesystem
HP 42U 1075mm Side Panel Kit
Factoryintegrated
HP RackGroundingKit
Factoryintegrated
HP Intelignt Mod PDU 3ph 16a Intl Core
Factoryintegrated
Резервный центр
SuperDome 2 для резервного центра
1
1
1
1
1
1
1
2
2
4
4
4
4
8
8
1
8
1
1
4
8
1
1
BW908A
BW908A
001
HA455A1-000
AH337A
AH337A
006
AH337A
0D1
HA455A1-015
AT064A
AT064A
0D1
453154-B21
453154-B21 0D1
AT121A
AT121A
0D1
AT127A
AT127A
0D1
T8697EBE
T8697EBE 474
HA110A3
HA110A3 6Y6
HA110A3 RAU
HA110A3 WYK
AH338A
AH338A
0D1
HP 642 1200mm Shock Intelligent Rack
HP Factory Express Base Racking Service
HP Fctry Express Solution Package 5 SVC
HP Superdome 2 -16s Server
HP SD2 - 3 wire Local Single Phase PDU
Factoryintegrated
HP Factory Express SD2-16s SvrPkg 5 SVC
HP ProCurve 6120XG Blade Switch
Factoryintegrated
HP BLc VC 1G SFP RJ45 Transceiver
Factoryintegrated
HP CB900s i4 Itanium 9560 16c Blade
Factoryintegrated
HP Active DDR3 32GB Memory Module Power
Factoryintegrated
HP DC-OE w/SG Cluster File Sys A04 E-LTU
PSL HP DCOE+CFS A04 8+16 Skt E-LTU
HP 3y Support Plus 24 SVC
HP Superdome 2 - 16s HW Supp
HP Superdome CB900s i4 Server Blade
HP DC-OE w/ SG CFS Oracle 8 and 16 PSL
HP Superdome 2 IoxEnclosure
Factoryintegrated
60
4
4
4
4
2
2
1
1
1
2
2
2
2
2
2
4
4
1
2
1
1
1
1
1
1
1
1
1
1
1
1
1
AD337A
AD337A
AM225A
AM225A
AH401A
AH401A
AH338A
AH338A
AH338A
AD337A
AD337A
AM225A
AM225A
AH400A
AH400A
AH401A
AH401A
HA110A3
HA110A3
BW932A
BW932A
BW909A
BW909A
BW891A
BW891A
HA134A1
HA134A1
H6J85A
HA124A1
HA124A1
HA124A1
HA124A1
0D1
0D1
0D1
002
0D1
0D1
0D1
0D1
0D1
6Y8
B01
0D1
0D1
001
58T
59J
571
HP PCIe 2-port 1000Base-T Card
Factoryintegrated
HP Integrity 10GbE-SR 2p PCIe Adapter
Factoryintegrated
HP PCIe 2-port 8Gb FC SR (Qlogic) HBA
Factoryintegrated
HP Superdome 2 IoxEnclosure
HP SD2 - 5 wire Int'l Single Phase PDU
Factoryintegrated
HP PCIe 2-port 1000Base-T Card
Factoryintegrated
HP Integrity 10GbE-SR 2p PCIe Adapter
Factoryintegrated
HP PCIe 1-port 8Gb FC SR (Qlogic) HBA
Factoryintegrated
HP PCIe 2-port 8Gb FC SR (Qlogic) HBA
Factoryintegrated
HP 3y Support Plus 24 SVC
HP Superdome IOX enclosure HW Supp
HP 600mm Rack Stabilizer Kit
Includewithcompletesystem
HP 42U 1200mm Side Panel Kit
Factoryintegrated
HP RackGroundingKit
Factoryintegrated
OS/PlatformImplementationService
HP-UX Operating System Installation
HP RackHardwareKit
HP Technical Installation Startup SVC
HP Startup vPAR or Virtual Machine SVC
HP Implementation Server BootfromSAN SVC
HP StartupSuperdome 2 Service
Система хранения данных для резервного центра
1
4
16
24
8
2
1
1
4
2
16
QR485A
QR486A
QR492A
QR496A
E7W54B
QR490A
HA114A1
HA114A1
HA114A1
HA114A1
QR492A
5TS
5TT
5TV
HP 3PAR StoreServ 7400 4-N Storage Base
HP 3PAR 7000 4-pt 8Gb/s FC Adapter
HP M6710 300GB 6G SAS 15K 2.5in HDD
HP M6710 900GB 6G SAS 10K 2.5in HDD
HP M6710 480GB 6G SAS 2.5in MLC 5yr SSD
HP M6710 2.5in 2U SAS Drive Enclosure
HP Installation and Startup Service
HP Startup 3PAR 7400 4-Nd Strg Base SVC
HP Startup 3PAR 7000 FC Adapter SVC
HP Startup 3PAR 7000 2U SAS Enclosre SVC
HP M6710 300GB 6G SAS 15K 2.5in HDD
61
24
8
1
1
96
1
96
1
1
1
96
1
1
1
1
1
1
1
96
96
1
96
1
80
2
4
1
1
1
1
1
1
QR496A
E7W54B
QR516B
BC773AAE
BC774AAE
BC781AAE
BC782AAE
BC795AAE
BC799BAE
BD270AAE
BD271AAE
BD370AAE
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA110A3
HA124A1
HA124A1
HA124A1
HA124A1
HA124A1
RDD
RDG
RDQ
RDR
RZ5
S7D
S7H
S7W
S7X
WSF
WUS
WUW
WUX
WUY
5QW
5TK
5TM
5UG
HP M6710 900GB 6G SAS 10K 2.5in HDD
HP M6710 480GB 6G SAS 2.5in MLC 5yr SSD
HP 3PAR 7000 ServiceProcessor
HP 3PAR 7400 OS Suite Base E-LTU
HP 3PAR 7400 OS Suite Drive E-LTU
HP 3PAR 7400 Virtual Copy Base E-LTU
HP 3PAR 7400 Virtual Copy Drive E-LTU
HP 3PAR 7400 Reporting Suite E-LTU
HP 3PAR 7400 App Suite Oracle E-LTU
HP 3PAR 7400 Data Opt St v2 Base E-LTU
HP 3PAR 7400 Data Opt St v2 Drive E-LTU
HP 3PAR App Suite for Oracle E-Media
HP 3y Support Plus 24 SVC
HP 3PAR 7400 OS Suite Base LTU Supp
HP 3PAR 7400 Virtual Copy Base LTU Supp
HP 3PAR 7400 Reporting Suite LTU Supp
HP 3PAR 7400 App Suite LTU Supp
HP 3PAR 7000 Service Processor Supp
HP 3PAR 7400 OS Suite Drive LTU Supp
HP 3PAR 7400 Virtual Copy Drive LTU Supp
HP 3PAR 7400 DataOpt St v2 Base LTU Supp
HP 3PAR 7400 Data Opt St v2 Drv LTU Supp
HP 3PAR Internal Entitlement Purpose
HP 3PAR 7000 Drives under 1TB Support
HP 3PAR 7000 Drive Enclosure Support
HP 3PAR 7000 AdapterSupport
HP 3PAR 7400 4-node Storage Base Support
HP Technical Installation Startup SVC
HP Startup 3PAR VrtCpyLvl 1 Tier 1 SVC
HP Startup 3PAR 7000 App Ste Oracle SVC
HP Startup 3PAR 7000 Reporting Ste SVC
HP Startup 3PAR 7000 Data Opt Ste v2 SVC
Коммуаторы сети хранения данных для резервного
центра
2
2
46
46
2
2
1
2
1
2
QK753B
QK753B 05Y
AJ716B
AJ716B 0D1
QK725A
QK725A
0D1
H7J34A3
H7J34A3 QAM
HA113A1
HA113A1 5GA
HP SN6000B 16Gb 48/24 FC Switch
2.4m Jumper (IEC320 C13/C14, M/F CEE 22)
HP 8Gb Short Wave B-Series SFP+ 1 Pack
Factoryintegrated
HP B-series 16Gb SFP+LW 10km XCVR
Factoryintegrated
HP 3yr Foundation Care 24x7 Service
HP SN6000B 16Gb 48/24 FC Switch JW Supp
HP InstallationService
LowEnd SAN/Edge Switch/HAFM Installation
62
46
QK735A
HP Premier Flex LC/LC OM4 2f 15m Cbl
Сервера приложений для резервного центра
1
8
8
8
8
8
64
64
16
16
8
8
2
2
8
8
4
4
1
1
1
1
1
8
1
1
1
1
1
2
2
681844-B21
735151-B21
735151-B21 0D1
718358-L21
718358-B21
718358-B21 0D1
708639-B21
708639-B21 0D1
652605-B21
652605-B21 0D1
700742-B21
690164-B21
571956-B21
571956-B21 0D1
AJ716B
AJ716B 0D1
455883-B21
455883-B21 0D1
517521-B22
677595-B21
517520-B21
HA110A3
HA110A3 7FX
HA110A3 7XE
HA114A1
HA114A1 5FY
C6N33AAE
HA110A3
HA110A3 4YN
AF525A
TK739A
HP BLc7000 CTO 3 IN LCD Plat Enclosure
HP BL460c Gen8 E5-v2 10Gb FLB CTO Blade
Factoryintegrated
HP BL460c Gen8 E5-2650v2 FIO Kit
HP BL460c Gen8 E5-2650v2 Kit
Factoryintegrated
HP 8GB 2Rx4 PC3-14900R-13 Kit
Factoryintegrated
HP 146GB 6G SAS 15K 2.5in SC ENT HDD
Factoryintegrated
HP FlexFabric 10Gb 2P 534FLB FIO Adptr
HP Smart Array P220i Controller FIO Kit
HP BLc VC FlexFabric 10Gb/24-port Opt
Factoryintegrated
HP 8Gb Short Wave B-Series SFP+ 1 Pack
Factoryintegrated
HP BLc 10G SFP+ SR Transceiver
Factoryintegrated
HP 6X 2400W Plat HtPlg FIO PwrSply Kit
HP BLc 1PH Intelligent Power Mod FIO Opt
HP BLc 6X Active Cool 200 FIO Fan Opt
HP 3y Support Plus 24 SVC
c7000 Enclosure HW Supp
HP BL4xxc SvrBld HW Support
HP Installation and Startup Service
HP Startup BladeSystem c7000 Infrast SVC
HP Insight Control Encl Bundle 16 E-LTU
HP 3y Support Plus 24 SVC
HP IC BL 16-Svr SW Support
HP Intelligent Mod PDU 32a Intl Core
HP 2.0m 250V 16A C19-C20 3PC IPD JprCrd
Система резервного копирования для резервного центра
1
1
1
1
1
1
1
24
AK379A
HA110A3
HA110A3
HA114A1
HA114A1
C0H28A
C7978A
C7976A
80N
5DS
HP MSL2024 0-Drive Tape Library
HP 3y Support Plus 24 SVC
MSL2024 LibrarySupport
HP Installation and Startup Service
HP Install for 1 MSL5U Lib SVC
HP MSL LTO-6 Ultr 6250 FC Drive Upg Kit
HP Ultrium Universal Cleaning Cartridge
HP LTO-6 Ultrium 6.25TB MP RW Data Tape
63
Балансировщик нагрузок для резервного центра
1
F5-BIG-LTM-4000S
1
F5-SVC-BIG-PREL1-3
F5-ADD-BIG-AFM4000
F5-SVC-BIG-PREL1-3
F5-UPG-AC-400W
1
1
1
BIG-IP 4000s Local Traffic Manager (16 GB Memory, Max
SSL, Max Compression)
Level 1-3 Premium Service for BIG-IP (7x24)
BIG-IP Advanced Firewall Manager Module for 4200v/4000s
LTM
Level 1-3 Premium Service for BIG-IP (7x24)
BIG-IP Single AC Power Supply for 4200v/4000s/2X00s (400
W, Field Upgrade)
Коммутатор для резервного центра
1
3
3
JC612A
JC610A
JC610A
1
4
2
2
6
8
1
1
JC665A
JC753A
JC614A
JC631A
JD092B
JD094B
JC618A
U4D48E
HP 10508 SwitchChassis
HP 10500 2500W AC Power Supply
INCLUDED: HP 10500 2500W AC Power Supply Europe English localization
HP X421 Chassis Universal RckMntg Kit
HP 10508/10508-V 1.04Tbps Typ B Fabric Module
HP 10500 MainProcessingUnit
HP 10500 8-port 10GbE SFP+ SE Module
HP X130 10G SFP+ LC SR Transceiver
HP X130 10G SFP+ LC LR Transceiver
HP 10500 48-port Gig-T SE Module
HP3yNbdExchPlusHP 10508 SwitchSupport [for JC612A]
2
6
8
JC631A
JD092B
JD094B
HP 10500 8-port 10GbE SFP+ SE Module
HP X130 10G SFP+ LC SR Transceiver
HP X130 10G SFP+ LC LR Transceiver
ABB
Источник бесперебойного питания для резервного центра
1
1
2
2
1
2
2
2
1
1
1
1
H6J66A
H6J66A
AF430A
AF430A
H1K92A3
H1K92A3
AF434A
AF434A
H6J85A
H6J85A
H5M57A
H5M57A
001
0D1
7GW
0D1
0D1
0D1
HP 11642 1075mm ShockRack
HP Factory Express Base Racking Service
HP R12000/3 Intl UPS
Factoryintegrated
HP 3Y 4 hr 24x7 Proactive Care SVC
UPS Equal/Greater than 6KVA HW Support
HP R8000/3 R12000/3 All ERM
Factoryintegrated
HP RackHardwareKit
Factoryintegrated
HP 3.6kVA 200-240V 20out WW bPDU
Factoryintegrated
64
1
1
1
1
1
1
1
1
1
1
4
4
AF576A
AF576A
BW932A
BW932A
BW930A
BW930A
BW906A
BW906A
BW891A
BW891A
AF526A
AF526A
0D1
B01
B01
0D1
0D1
0D1
HP 3.6m 16A C19 EU Pwr Cord
Factoryintegrated
HP 600mm Rack Stabilizer Kit
Includewithcompletesystem
HP Air Flow Optimization Kit
Includewithcompletesystem
HP 42U 1075mm Side Panel Kit
Factoryintegrated
HP RackGroundingKit
Factoryintegrated
HP Intelignt Mod PDU 3ph 16a Intl Core
Factoryintegrated
10.Требования к документированию
10.1. Перечень подлежащих разработке комплектов и видов документов
Разработке подлежит комплект документов в соответствии с требованиями O‘z DSt
1985:2010.
10.2. Требования к форме представления документации
Вся разработанная документация должна быть представлена Заказчику на бумажном и на
машинном носителях в согласованном с Заказчиком формате.
10.3. Требования к документированию комплектующих элементов
Общее программное обеспечение и технические средства снабжаются документацией,
входящей в поставляемый производителем комплект.
11. Источники разработки
При разработке ТЗ использовались следующие документы и информационные материалы:
Краткий обзор аппаратных платформ, типовых архитектурных решений и сервисов HP
для корпоративных информационных систем.- HP: HP_Horse_2013-51-0964-92A40413-MOS, 2013.- 92 с. (PDF).
Getting Started with Partitions with Superdome 2. Examples for using Superdome 2 Partitioning
tools. Technical white paper.- HP: 4AA3-0660ENW Rev. 1, 2011.- 39 с. (PDF).
HP Superdome 2 Partitioning Administrator Guide HP-UX 11i v3.- HP: 5900-2540 Rev. 5.0,
2012.- 126 с. (PDF).
HP Integrity Superdome 2 User Service Guide.- HP: AH337-9004H Rev. 8, 2013.- 104 с.
(PDF).
Stay always-on. HP Integrity servers and HP-UX 11i v3. Brochure.- HP: 4AA0-9465ENW Rev.
8, 2014.- 4 с. (PDF).
Overview HP-UX 11i v3. QuickSpecs.- HP: DA-12079 Worldwide Version 20, 2014.- 50 с.
(PDF).
HP-UX 11i v3 operating environments. For workloads vital to the enterprise. Data sheet.- HP:
4AA3-5947ENW Rev. 9, 2014.- 28 с. (PDF).
Building Disaster Recovery Serviceguard Solutions Using Metrocluster with 3PAR Remote
Copy for Linux B.01.00.00.- HP: 719327-001, 2013.- 36 с. (PDF).
HP 3PAR StoreServ Storage best practices guide. A reference and best practices guide for HP
3PAR StoreServ Storage. Technical white paper.- HP: 4AA4-4524ENW Rev. 4, 2014.- 26 с.
(PDF).
65
HP 3PAR StoreServ 7000 Storage. Make storage effortless. Data sheet.- HP: 4AA4-4120ENN
Rev. 2, 2013.- 8 с. (PDF).
HP 3PAR Priority Optimization. Agile quality of service management on HP 3PAR StoreServ
Storage. Technical white paper.- HP: 4AA4-7604ENW Rev. 1, 2014.- 28 с. (PDF).
Application Use Cases for the HP Serviceguard Storage Management Suite.- HP: 4AA03466ENW Rev. 5, 2009.- 28 с. (PDF).
Stay available. HP Serviceguard Solutions. Brochure.- HP: 4AA2-5787ENW Rev. 6, 2014.- 8 с.
(PDF).
HP Serviceguard Solutions. Protect your business with uncompromising resiliency. Family data
sheet.- HP: 4AA2-6268ENW Rev. 8, 2014.- 24 с. (PDF).
Double your existing virtual machine density. HP 3PAR Get Virtual Guarantee. Brochure.- HP:
4AA4-0948ENW 2012.- 4 с. (PDF).
Eliminate compromise. HP 3PAR StoreServ Storage—the only primary storage architecture you
need. Brochure.- HP: 4AA3-2542ENN Rev. 9, 2014.- 12 с. (PDF).
HP Data Protector software’sand Instant Recovery Zero Downtime Backup. Data sheet.- HP:
4AA3-5594ENW, 2011.- 8 с. (PDF).
HP Data Protector software. Guide to virtual server protection. Business white paper.- HP:
4AA3-0867ENW Rev. 4, 2013.- 12 с. (PDF).
Reference Architecture for HP Data Protector and Oracle 11gR2 RAC on Linux. Technical
white paper.- HP: 4AA3-9092ENW, 2012.- 19 с. (PDF).
HP Data Protector 6.0 software Advanced Backup to Disk performance. White paper.- HP:
4AA1-2978ENW, 2007.- 42 с. (PDF).
Disk-assisted backup white paper. Backup to disk and how to implement it with HP Data
Protector software.- HP: 4AA0-7625ENW, 2006.- 30 с. (PDF).
HP Data Protector Software Advanced Backup to Disk Integration with Virtual Tape Libraries.
White paper.- HP: 4AA0-8760ENW Rev. 1, 2008.- 23 с. (PDF).
HP Data Protector software Advanced Backup to Disk. Data sheet.- HP: 4AA2-3694ENW Rev.
4, 2011.- 4 с. (PDF).
66
Лист согласований
Ответственный исполнитель
_______________
Д.К.Амонов
_______________
Р.М.Чжен
_______________
Ж.А.Саипов
Начальник департамента
Информационных технологий
ОАКБ «Агробанк»
Соисполнитель
Начальник управления
информационных технологий
ОАКБ «Агробанк»
Нормоконтроль
Начальник управления
Правовых и договорных отношений
ОАКБ «Агробанк»
67
Download