Серверные МГИМО: что это такое?

26.04.10

Серверные МГИМО: что это такое?

Серверные МГИМО: что это такое?

Дирекция информационных технологий — это одно из крупнейших подразделений Университета, обеспечивающее работу всего технического комплекса МГИМО: начиная IT-инфраструктурой и заканчивая техническими средствами обучения. Предлагаем вашему вниманию серию публикаций о различных направлениях нашей работы. Мы расскажем о телестудии и студии звукозаписи, о том, как работает центральная система звукоусиления и зачем нужно технологическое телевидение, мы познакомим вас с принципами построения компьютерной сети, покажем, что нужно сделать, чтобы подготовить зал №1 к торжественному мероприятию. Надеемся, что, понимая, как работает дирекция, вы сможете полнее использовать наши возможности по техническому обеспечению вашей деятельности. Сегодня мы представляем рассказ начальника отдела системного администрирования к.т.н. Владимира Дагаева об истории создания и развития серверных помещений в МГИМО.

Бурное развитие информатизации в Университета началось с середины 90-х годов. В 1995 году было выделено первое помещение для размещения серверов и коммутаторов, обеспечивающих решение задач учебного процесса и работу жизненно важных подразделений МГИМО. Это была маленькая комнатка на четвертом этаже центрального корпуса. Расположенная точно в центре здания, эта комната более чем на 10 лет стала центральным серверным помещением. За это время количество оборудования существенно увеличилось, и для его охлаждения несколько раз пришлось наращивать мощность системы кондиционирования.

В 2007 году, после победы Университета в конкурсе образовательных учреждений высшего профессионального образования, внедряющих инновационные образовательные программы, встал вопрос о создании второй серверной. Начались поиски нового помещения. Учитывая острую нехватку площадей (а корпус Европейского учебного института тогда только строился), рассматривались варианты размещения оборудования в заэкранных помещениях лекционных залов, киноаппаратных и даже в подвале. Мы понимали, насколько важно не ошибиться с выбором, и установили высокие требования: отсутствие сантехнических коммуникаций и окон, высокий потолок, пол, выдерживающий значительные нагрузки, т.к. масса одной серверной стойки может доходить до нескольких тонн.

Выбор был сделан в пользу комнаты 3157, в которой размещался коммутационной узел, обслуживающий факультет Международной журналистики. Комната производила удручающее впечатление. Это было тесное помещение с батареей центрального отопления во всю стену и очень низким потолком — в комнате был высокий фальшпол. Однако неоспоримым преимуществом было отсутствие окон, отдельный выход в коридор и достаточно прочные межэтажные плиты, позволяющие размещать стойки с оборудованием.

С самого начала было принято решение все делать в соответствии с современными стандартами. Сложность проектирования заключалась в необходимости расчета и внедрения целого ряда различных технических решений. Для построения каждой системы требовались знания и умения высококвалифицированных инженеров, для чего уже на стадии написания технического задания был привлечен ряд экспертов.

Большое внимание было уделено ремонту помещения и его инженерному оснащению: удалили фальшпол и залили его специальным составом, препятствующим накоплению статического электричества (комната стала выше более чем на полметра), удалили трубы и радиаторы центрального отопления, установили стальную входную дверь, смонтировали специализированные системы пожаротушения и кондиционирования, охранной сигнализации.

Возникла задача обеспечить электропитание серверной от двух независимых источников с автоматическим переключением между ними: при пропадании электропитания на основной линии автоматика за доли секунды должна была переключать все оборудование на резервную. Не без труда, но удалось решить и эту проблему. Последние отключения электропитания в Университете показали, что усилия не пропали даром.

Следует отдельно упомянуть о системе кондиционирования. Количество тепла, выделяемое оборудованием (около 40 кВт), достаточно для отопления трех коттеджей в условиях суровой русской зимы. При этом надежность системы должна быть вне всякого сомнения: при неработающей системе охлаждения оборудование может проработать не более пяти минут. Кондиционеры работают круглый год, семь дней в неделю, 24 часа в сутки. Очевидно, что предложения об установке бытовых кондиционеров даже не рассматривались. Было свежо в памяти воспоминание о сгоревшем кондиционере в самый разгар июльской жары, в результате работа приемной комиссии обеспечивалась в авральном режиме. Выбор остановили на специализированных прецизионных кондиционерах. Важным условием было наличие системы автоматического резервирования: при выходе из строя одного из кондиционеров, второй запускается в работу самостоятельно, так как вышедшая из строя ночью или в выходной день система охлаждения неминуемо приведет к перегреву оборудования и его остановке или даже поломке.

После этого началось проектирование новой серверной инфраструктуры. Необходимо отметить, что на выбор технического решения в значительной степени повлияло требование обеспечить стабильную работу вычислительных мощностей университета при минимуме затрат на их развитие.

Выбор был сделан в пользу виртуализации серверов. Другими словами, вместо десятков отдельных физических устройств, было приобретено одно, но высокопроизводительное, построенное по модульному принципу, а на его основе, используя специальное программное обеспечение, были созданы несколько виртуальных серверов. Преимущества такого решения мы наблюдаем уже сейчас: требуется новый сервер — несколько часов работы инженеров, и можно развертывать новое приложение. Виртуальные серверы предоставляют уникальную гибкость в настройке, обеспечении резервирования и перераспределения вычислительных ресурсов. Еще одно неоспоримое преимущество — возможность централизованного управления серверами, что позволяет обходиться меньшим количеством персонала.

Важной составляющей для обеспечения безотказной работы различных информационных служб и приложений является наличие системы архивирования данных. Этот аспект также был учтен при проектировании и реализации новой серверной инфраструктуры: на сегодняшний день резервирование данных осуществляется централизованно, в автоматическом режиме на систему хранения, расположенную в отдельном помещении.

Но вернемся немного назад. В начале 2008 года была начата опытная, а затем и промышленная эксплуатация серверного помещения 3157. Первыми были размещены учебные материалы для кафедр филологического направления. Знаковым событием стал перенос портала Университета — его визитной карточки, одного из важнейших информационных ресурсов, на новую аппаратную платформу. Начался и продолжается по сей день плановый постепенный перевод других служб и приложений с их одновременной модернизацией с устаревших аппаратных платформ на новую.

Приведем цифры: в настоящий момент в новой серверной функционирует более 35 виртуальных серверов, а объем хранимой информации составляет около 30 терабайт, что соответствует 6500 DVD-дисков. Сегодня вычислительные ресурсы имеющегося оборудования использованы не более чем на 30%, что позволит обходиться без существенных вложений на протяжении продолжительного времени, а вот объем дисковой памяти, в связи с быстрым ростом количества новых учебных материалов, вводом в эксплуатацию новых информационных систем, пришлось расширять: в 2009 году он был увеличен вдвое.

Осенью этого года планируется ввод в эксплуатацию нового корпуса Европейского учебного института. На третьем этаже корпуса уже предусмотрено просторное помещение для размещения серверного оборудования. Благодаря тому, что специалисты Дирекции информационных технологий с самого начала принимали участие в проектировании сетевой и серверной инфраструктуры нового корпуса, в процессе строительства были выполнены необходимые работы по инженерному оборудованию помещения: проведены линии электропитания, установлена система охлаждения, а также рассчитаны необходимые мощности для подключения пользователей к локальной вычислительной сети и сети интернет и закуплено требуемое сетевое оборудование. Таким образом, заложена прочная основа для создания в будущем третьего вычислительного центра Университета.

Анализируя полученный опыт проектирования, создания и эксплуатации северных помещений и установленного в них оборудования, можно сказать, что одна из основных составляющих успешной реализации подобных проектов — тесное взаимодействие IT-специалистов Университета со всеми учебными подразделениями МГИМО — основными потребителями информационных услуг, структурными единицами, эксплуатирующими инженерные системы, с привлечением необходимых сторонних экспертов, на всех стадиях: от написания технического задания до ввода в промышленную эксплуатацию. Только подобный подход способен привести к положительному результату с максимальной отдачей от вложения любого рода ресурсов в развитие IT-инфраструктуры Университета.

Владимир ДАГАЕВ,
Дирекция информационных технологий


133
Распечатать страницу