Слишком сложные. Требующие массы ручного рутинного труда для поддержки. Не позволяющие эффективно использовать инвестиции. Инфраструктурно ненадежные, уязвимые. Не позволяющие определить простые и ясные показатели уровней обслуживания. Не адекватные потребностям пользователей, не вовремя и не полностью удовлетворяющие их запросы. Такими определениями охарактеризовал современные ИТ-системы Вильгельм Карнер, технический директор CA в России, Центральной Европе и Турции. И все эти проблемы будут только усугубляться по мере стремительного роста объема корпоративных данных и систем их хранения, а также повышения требований к их надежности. Карнер полагает, что именно эти недостатки потребуется корректировать в ближайшее время, и именно по пути их устранения уже движется развитие ПО для управления инфраструктурой.
По оценкам Computer Associates, заказчики хотели бы снизить расходы наполовину за счет оптимизации использования активов, снижения операционных расходов и капитальных вложений. Для них важно и снижение рисков до 0,001%, и обеспечение доступности на уровне не хуже, чем 99,999%. "Надежная инфраструктура всегда работает, но никогда не видна" - такой лозунг выдвигает Вильгельм Карнер как труднодостижимую, но реальную цель.
Компания Veritas, откликаясь на те же потребности заказчиков, выдвинула концепцию Utility Computing, название которой переводится как "ресурсные вычисления". Возможно, здесь стоит вспомнить давно знакомое понятие "утилита", обычно подразумевающее программу для сервисного обслуживания, диагностики, оптимизации работы какого-либо устройства. Тогда Utility Computing можно трактовать как концепцию вычислений утилитарных, приносящих прямую практическую выгоду.
На этом пути Veritas предлагает такую последовательность действий: учет существующих ресурсов, затем консолидация не полностью используемых аппаратных средств и приложений. После чего станет возможна стандартизация на основе лучших в своем классе решений и продуктов, объединение их в пулы на основе общих политик и динамическое совместное использование. Все это позволит делать более точные замеры потребления ресурсов и сервисов для учета и распределения расходов.
Стремление перевести ИТ на уровень сервиса, легко доступного, просто потребляемого и поддающегося учету, проходит красной нитью и через выступления представителей других вендоров ПО и оборудования, в том числе IBM и EMC. Все чаще и чаще ИТ сравнивают с водой и электричеством: если в обыденной жизни люди открывают краны, когда им нужна вода, и включают свет, расплачиваясь потом по счетчикам, в бизнес-среде они должны иметь возможность получить все разнообразие информационных услуг и так же просто расплатиться за потребленный объем, не вдаваясь в подробности технологий. Реализация этой красивой идеи потребует еще очень много усилий как от производителей ПО и техники, так и от ИТ-специалистов компаний-заказчиков, но движение уже идет.
Близко соприкасается с идеей ИТ как сервиса концепция управления информацией на протяжении жизненного цикла (ILM - Information Lifesycle Managment). Под ней подразумевают набор управленческих методик, которые определяют, где именно и как будет храниться информация в зависимости от ее ценности для бизнеса. Принципиальным вопросом здесь стало появление общих стандартов хранения данных и обращения с ними. Разработкой этих стандартов занимается ассоциация SNIA (Storage Networking Industry Association), в совет директоров которой входят представители EMC, Qlogic, IBM, Engenio, HP, Microsoft, Computer Associates, Dell, Sun, Hitachi Data Systems, Seagate. Одна из разработок - CASSI (Content Addressable Storage Solutions Initiative) - уже близка к завершению и, возможно, будет принята уже в этом году. Это будет первая спецификация хранения адресуемого контента. Она будет включать метрики, списки категорий продуктов, стандартизированную терминологию, лучшие практики, руководства по внедрению, стандарты соответствия. Основная цель - обеспечить взаимодействие систем хранения, использующих адресуемый контент, и приложений. Идет работа и над множеством других стандартов, в том числе касающихся поиска, работы с RAID-массивами, доступа к хранилищам, созданию бэкапов, работы с неструктурированной информацией. Появление первых ILM решений с реальным взаимодействием ожидается примерно через два-четыре года.
Что же это такое - настоящее ILM-решение? Оно включает многоуровневое хранилище с выбором режима доступа и уровня сервиса, функции интеграции защиты и восстановления, мобильность данных и вычислений, активное управление информацией, как структурированной, так и нет, и, наконец, централизованное управление всей инфраструктурой хранения и обработки данных.
Как его реализовать? Прежде всего надо выделить различные уровни хранения, разделив инфраструктуру на классы, распределив данные каждого вида на подходящее место и наладив автоматическое управление хранением. Затем уже можно приступать к "ограниченному ILM", определяя политики для данных разных видов, для начала - для основных приложений. И потом уже внедрить ILM для всех приложений, наладить полную автоматизацию на основе политик и обеспечить доступность любой информации.
По прогнозам западных аналитиков, эра автоматического ILM начнется не ранее 2006 года и достигнет пика в 2008. Сейчас же, как считают аналитики "The 451 Group", компании США занимаются управлением жизненным циклом данных (DLM - data lifesycle management). Затем нам предстоит период "ручного" ILM с максимумом в 2005 году. Судя по тому, что за последний год в России выполнено 15 проектов по консолидации данных и обеспечению катастрофоустойчивости в 12 коммерческих банках, эти тенденции все больше затрагивают и нашу страну.
До указанных аналитиками высот еще довольно далеко, но уже сейчас становится очевидно, что сервисные утилиты по своему значению в жизни компаний требуют не менее серьезного и комплексного подхода, чем офисное ПО или бизнес-приложения.
По мнению Жана Клода Бройдо, вице-президента и генерального менеджера EMC по региону EMEA, в мире уже изменилось отношение клиентов к архивам. Если раньше их создание и эксплуатация рассматривались как некий отдельный вопрос, то теперь работа с архивами воспринимается как часть общих задач. Пользователи хотят располагать архивами более гибкими, легко изменяемыми, содержащими все типы данных, в том числе электронную почту. Структуризация информации, ее повторное использование, обеспечение целостности и непротиворечивости данных выходят на первый план. Резко растет уровень угроз, и от средств защиты и восстановления информации зависит больше, чем раньше. Совершенствование поисковых технологий тоже остается насущной необходимостью по мнению Бройдо, и он ожидает ощутимой активности разработчиков в этом направлении.
В условиях, когда комплексность решения по управлению данными в глазах заказчиков приобретает все большую ценность, а удельная стоимость систем хранения снижается, крупные вендоры оборудования обращают больше внимания на софт. Прошлогодняя покупка компанией EMC фирмы Documentum и недавнее приобретение ею Legato демонстрируют это. Жан-Клод Бройдо считает, что по тому же пути пойдут и HP, и IBM, тем более что есть и встречное движение. На локальном уровне, среди фирм, разрабатывающих продукты для управления контентом на родном языке и для местного рынка, в европейских странах конкуренция падает, доля их на рынке снижается. Потребности заказчиков слишком сложны, а локальным решениям просто не хватает масштаба. Их преимущество - местный язык - их же и ограничивает. Средние международные компании, такие как Vignette, Open Text, теряют прибыли уже несколько кварталов подряд, и их положение неустойчиво. Слияние равных на этом уровне, считает Бройдо, равносильно самоубийству. Остается лишь искать покупателя среди грандов, которые скорее всего не замедлят этим воспользоваться.
И производители "железа", и независимые разработчики, не выпускающие оборудования, стремительно развивают свои программные средства, покупают более мелкие фирмы и их уже раскрученные и зарекомендовавшие себя продукты, вкладывают значительные средства в интеграцию и объединяют эти утилиты в единые пакеты, стремясь предложить по возможности комплексное решение. Сложность ПО для управления инфраструктурой увеличивается так же резко, как и сложность самих систем, если не быстрее.