В 2009 г. Гуманитарный факультет Санкт-Петербургского национального исследовательского университета информационных технологий, механики и оптики (ИТМО) переехал. С одной стороны, переезд произошел из двух зданий в одно, что хорошо. Но здание это расположено в центре города, что в нынешних условиях автоматически означает серьезные ограничения по энергопотреблению.
В результате ИТ‑служба оказалась в весьма сложном положении. Использование обычных ПК для обеспечения учебного процесса стало невозможным, поскольку им банально не хватало мощности. Предел по энергопотреблению составлял всего 85 кВА на здание. Ведь речь шла о создании 180 рабочих мест дополнительно к 30 уже имеющимся. При этом использование терминальных решений также оказалось неприемлемым. Целый ряд приложений, используемых в учебном процессе, — мультимедийные, требующие поддержки двунаправленного звука и видео. А это при использовании терминальных решений невозможно.
Кроме того, задачу требовалось решать при прежнем количестве ИТ‑специалистов. Причем необходимо было поддерживать работоспособность уже имеющейся инфраструктуры, которая к тому же заметно осложнилась вследствие переезда. Единственно возможным выходом из этого тупика стало использование технологий виртуализации на тонкие клиенты. Было выбрано решение VmWare View. Как отметил заведующий лабораторией технических средств обучения Гуманитарного факультета СПбГУ ИТМО Алексей Гусев, этот выбор был обусловлен несколькими факторами. Прежде всего, явные технологические преимущества, особенно при большой нагрузке. Кроме того, свою роль сыграло то, что решения VmWare имеют широкое распространение и проще найти специалиста. Решение от Citrix же оказалось существенно сложнее в освоении.
Аппаратной платформой послужило блейд-решение Fujitsu PRIMERGY BX600 S3 с лезвиями BX620 S5. Его выбор Алексей Гусев прокомментировал следующим образом: «Это решение мне понравилось еще пару лет назад, когда, работая в другом месте, я столкнулся с задачей покупки серверов. И цена вопроса оказалась существенным моментом. Не знаю, как сейчас, а на тот момент Fujitsu выигрывала по цене/качеству. Сомнения были еще в отношении SunBlade, но не понравилось конструктивное решение — сетевые/fiber-channel адаптеры нужно устанавливать на каждое лезвие. Так что в этом проекте я просто опирался на знакомое решение». Была использована также система хранения данных СХД EMC CLARiiON AX4-5F. В качестве клиентских устройств были использованы тонкие клиенты компании Fujitsu. Все работы по внедрению проводила компания «Акрополис», которая была подрядчиком в данном проекте. Они заняли в общей сложности около двух месяцев.
Стоимость проекта составила 11 млн руб. Решение на базе ПК обошлось бы приблизительно в четыре раза дешевле, но руководство университета, несмотря на более высокую стоимость, пошло на данный проект. Главным аргументом стало то, что при долговременном использовании затраты многократно окупаются за счет длительных сроков службы и большей надежности тонких клиентов, отсутствия необходимости привлекать дополнительный технический персонал.
Особенности проекта были связаны по большей части со спецификой учреждения с бюджетным финансированием, которое выделяется крайне нерегулярно. Так, например, в таких условиях очень сложно составлять планы развития ИТ. Недостаток средств внес весьма серьезные коррективы в ход проекта. Так, значительную часть работ пришлось проводить самостоятельно, а не силами подрядчика. Приходилось экономить и на дополнительном оборудовании, что также приводило к ряду трудностей. Так, например, не всегда микрофонные гарнитуры корректно определяются в тонком клиенте, что приходится исправлять с помощью скриптов. Тем не менее Алексей Гусев отметил: «Проект прошел на удивление гладко. Конечно, всякие мелкие сложности возникали, это неизбежно, но они быстро решались. Никаких особых сложностей в освоении VmWare, в том числе самостоятельном, я не вижу. Любой грамотный человек с головой и руками за полгода сможет научиться работать так, чтобы полноценно справляться».
Все задачи, стоящие в ходе проекта, были выполнены. Прежде всего, это касается того, чтобы не превысить нормы энергопотребления. Алексей Гусев так оценил результат проекта в этой части: «Созданные нами 180 рабочих мест потребляют 9 кВт, что приблизительно в четыре раза меньше, чем если тот же объем создать на базе ПК. Это для нас очень серьезное достижение. Теперь нам есть куда расти». При этом полностью решены задачи обеспечения учебного процесса. Все используемые приложения полноценно работают в новой среде. Также ИТ-персонал полноценно справляется с поддержкой этих 180 рабочих мест, что при использовании традиционных решений было бы вряд ли возможно. Сократилось как число инцидентов, так и время, необходимое на их устранение. Единственным минусом этого решения стали заметные ограничения, связанные с подбором периферийного оборудования.
Возможные перспективы проекта, по мнению Алексея Гусева, связаны с двумя направлениями. Так, весьма заманчивой видится возможность использования личных компьютеров студентов в качестве клиентских мест. Кроме того, когда все здания университета будут объединены сетью с пропускной способностью 1 Гбит/с, станет возможно создание единой облачной инфраструктуры, что дает целый ряд новых возможностей. Изучается возможность внедрения системы резервного копирования, а также средств антивирусной защиты на уровне гипервизора виртуальных машин.