Нефть и песок О стали Компрессор - подбор и ошибки Из истории стандартизации резьб Соперник ксерокса - гектограф Новые технологии производства стали Экспорт проволоки из России Прогрессивная технологическая оснастка Цитадель сварки с полувековой историей Упрочнение пружин Способы обогрева Назначение, структура, характеристики анализаторов Промышленные пылесосы Штампованные гайки из пружинной стали Консервация САУ Стандарты и качество Технология производства Водород Выбор материала для крепежных деталей Токарный резец в миниатюре Производство проволоки Адгезия резины к металлокорду Электролитическое фосфатирование проволоки Восстановление корпусных деталей двигателей Новая бескислотная технология производства проката Синие кристаллы Автоклав Нормирование шумов связи Газосварочный аппарат для тугоплавких припоев
Главная страница / Архитектура отрасли

Виртуализация: все реально

Термин «виртуальный» (virtual) применительно к памяти и системам хранения появился уже без малого полвека назад. Так почему же к этой теме все настойчивее обращаются производители именно сейчас, что заставляет потребителей ИТ-технологий отказаться от привычных схем организации инфраструктуры, поверив в необходимость превратить что-то реальное во что-то виртуальное?

Почему так происходит – понятно. Информационные технологии уже давно потеряли свой «суверенитет», они окончательно поставлены на службу бизнеса, и любая технология, не обещающая ощутимых коммерческих преимуществ, воспринимается лишь как своего рода факультативное дополнение к обязательной программе. Обязательным пунктом в стратегии построения современной корпоративной ИТ-инфраструктуры виртуализация стала во многом благодаря все большему распространению концепции предоставления необходимых ресурсов и информации по требованию или, как ее еще называют, по запросу. Причем по каждому запросу или требованию необходимо «отмерить» ровно столько, сколько требуется для эффективного и, конечно, экономичного выполнения поставленной задачи. Сделать это в рамках традиционной схемы – отдельные физические ресурсы для конкретного приложения – достаточно сложно: в данном случае мощности будут регулярно недоиспользованы, а с пиковой нагрузкой не справятся. И если прежде решение такой проблемы зачастую виделось в бесхитростном приобретении дополнительного оборудования, то сегодня архитекторы корпоративных информационных систем делают акцент на более рациональном использовании ресурсов. Тем более что нет недостатка в концепциях, позволяющих выстроить ИТ-среду в соответствии с конкретными бизнес-задачами. Но о чем бы ни заходила речь – Grid-вычислениях, сервисориентированной архитектуре, интеграции компонентов ИТ-системы – без виртуализации дело не обходится.

Виртуализация как подход к решению проблемы максимально эффективного использования ресурсов не знает ограничений: так может быть организовано предоставление процессорных мощностей, ресурсов ввода-вывода и т. д. Но «вотчиной» виртуализации, ее исконной областью можно с уверенностью назвать системы хранения данных.

Все началось еще с мейнфреймов, в которых ресурсы хранения управлялись с помощью менеджеров томов. Оперировать логическими томами с соответствующими логическими номерами (Logical Unit Number, LUN) куда выгоднее. Приложения освобождаются от жесткой привязки к физическим устройствам – дискам, а это уже новая степень свободы для тех, кому приходится конфигурировать систему в зависимости от происходящих изменений. Конечно, сегодня виртуализация подсистемы хранения сервера мейнфреймами не ограничивается: функции виртуализации предлагают и Unix-серверы, и системы с ОС Windows на разных аппаратных платформах.

Однако основные события в области виртуализации корпоративных систем хранения данных происходят не на уровне сервера, а на уровне сети. Преимущества сетей хранения данных (Storage Area Network, SAN) в возможности объединения всех ресурсов хранения в единый пул – это уже решение масштаба предприятия. Причем один логический том может быть распределен по разным физическим устройствам. Кроме того, такие инфраструктуры позволяют создавать достаточно сложные схемы хранения данных в соответствии с их ценностью для бизнеса, актуальностью, предполагаемой частотой обращения к ним, возможностями резервирования ресурсов для определенных типов данных. Это оказывается очень кстати, если таких типов данных много – одни лучше хранить на дисках, другие помещать в архив долговременного хранения на ленте и т. д. Само собой разумеется, сделать все это «руками» просто невозможно, процесс нужно автоматизировать. Здесь помогут средства виртуализации, которые заодно позволят скрыть всю сложность инфраструктуры, что существенно облегчает труд тех, кто все это хозяйство администрирует. Упрощение ИТ-систем сегодня стало одним из самых весомых аргументов в пользу модернизации корпоративных сред, и средства виртуализации играют в этом отношении не последнюю роль.

Как и в случае с сетями хранения SAN инструменты виртуализации доступны и для подключаемых к сети устройств хранения (Network Attached Storage, NAS), и для непосредственно подключаемых устройств (Direct Attached Storage, DAS). Но есть и технологические ограничения: так, каждое DAS-устройство работает со своим сервером, не имея возможности поделиться неиспользуемым пространством хранения с другими. В отличие от SAN эта технология не позволяет создавать тома, охватывающие несколько дисковых массивов.

Не менее востребованы, как показывает практика, и возможности виртуализации вычислительных мощностей. Проблема заключается в том, что такого приложения, которое бы полностью использовало весь потенциал процессора, просто нет. Зато в сложных корпоративных инфраструктурах найдется немало задач, которые удовлетворились бы и половинной мощностью процессора.

Возможность динамически распределять вычислительные ресурсы между различными рабочими средами поддерживаются практически всеми производителями. Например, корпорация Intel предлагает технологию Intel Virtualization Technology (Intel VT), обеспечивающую поддержку виртуализации на аппаратном уровне. На одной платформе могут одновременно и независимо друг от друга исполняться несколько операционных систем или приложений. Программные пакеты работают независимо друг от друга – в своих разделах. Поставку процессоров для серверов и клиентских ПК с этой технологией Intel начала в 2005 г. Следующим шагом стала технология виртуализации Intel Virtualization Technology for Directed I/O (Intel VT-d), обеспечивающая аппаратную поддержку назначения устройств ввода/вывода для виртуальных машин или разделов. Основные плюсы, которые обещает производитель, – повышение производительности и надежности при работе с данными в виртуальной среде.

Извечный конкурент Intel, компания AMD, развивает свою технологию виртуализации под названием Pacifica, которое, вероятно, должно символизировать возможность «мирного сосуществования» различных операционных систем на одном сервере или настольном ПК. По срокам вывода на рынок продуктов, в которых реализована технология виртуализации, AMD пока отстает, однако это не означает, что пальма первенства окончательно передана Intel.

Тем более что AMD – не единственный конкурент. За место в корпоративном центре обработки данных борются и RISC-процессоры. Серверные системы Sun, Hewlett-Packard и IBM активно обороняют свои позиции, в чем им, помимо прочего, помогают и функции виртуализации. Например, серверы на базе процессоров POWER пятого поколения от IBM позволяют организовать совместно используемый пул процессоров, мощности которых делятся между приложениями, и выделить микроразделы, что обеспечивает более эффективное распределение ресурсов между различными программными пакетами. Средства виртуализации дают возможность создать динамические логические разделы, оптимизирующие использование процессоров, памяти и подсистемы ввода/вывода в соответствии с постоянными изменениями вычислительных нагрузок. Важно то, что все это можно выполнить, не останавливая сервер.

Главная страница / Архитектура отрасли