Microsoft azure stack

Azure Stack vs. Azure Stack HCI ^

Many people may initially be confused by the new Azure Stack HCI release. Hasn’t Azure Stack been around since 2017? This is true. The legacy Azure Stack is a ready-to-consume set of appliances, including support, that you can purchase from a certified vendor. It enables you to consume Azure on-premises and offers an experience consistent with operating in the native Microsoft Azure environment. Azure Stack runs the same underlying components as Azure Stack HCI compute, storage, and networking solutions.

Azure Stack HCI is essentially a new designation for the Windows Server Software-Defined (WSSD) program. The WSSD program is a certification program for vendor hardware that runs a configuration that includes Hyper-V and Storage Spaces Direct (S2D). Microsoft has included the Azure designation in Azure Stack HCI due to the services that seamlessly integrate with the new on-premises solution. With Azure Stack HCI, you do not have the Azure Portal on-premises as you do with Azure Stack.

Details about my lab

To write this topic, I use nested virtualization. That means that I created four VMs and I enabled nested virtualization for each of them. Below you can find the configuration of each VM:

  • 4vCPU (nested virtualization enabled)
  • 8GB of memory
  • 1x OS disk with Azure Stack HCI OS installed (you can download it here)
  • 4x Dynamic disks of 127GB for Storage Spaces Direct
  • 3x virtual NICs:
  • 1x for management
  • 2x for storage

Before I start this topic, I have installed Azure Stack HCI OS in each VMs, I set IP addresses and I joined the machine to the domain. In addition, I have installed Hyper-V role offline because there is a bug in Azure Stack HCI OS when Hyper-V role is enabled, and nested virtualization is on. To enable Hyper-V role offline in each VM, I ran the following cmdlet:

Install-WindowsFeature -Vhd ‘path/to/OS/VHDX’ -Name Hyper-V -IncludeManagementTools

You also need a working and running Windows Admin Center 2007 at least.

What’s Azure Stack HCI

Azure Stack HCI is a hyper-converged cluster solution that runs virtualized Windows and Linux workloads in a hybrid on-premises environment. Some of the most popular use cases are datacenter modernization, Remote/Branch office scenarios, SQL Server based virtual applications, Virtual Desktop Infrastructure, and running Kubernetes clusters.

  • Hyperconverged infrastructure stack – The Azure Stack HCI operating system is based on core components from Windows Server, and it is designed and optimized on being the best virtualization host and hyper-converged platform. It is enhanced with software from Azure that includes our latest hypervisor with built-in software-defined storage and networking, that you install on servers you control, on your premises. This provides additional functionally, features and performance.
  • Delivered as an Azure hybrid service – Azure Stack HCI is now delivered as an Azure service with a subscription-based licensing model and hybrid capabilities built-in. You can enhance the cluster with Azure hybrid capabilities such as cloud-based monitoring, site recovery, and backup, as well as a central view of all of your Azure Stack HCI deployments in the Azure portal.
  • Familiar for IT to manage and operate – Runs on your choice of hardware, from your preferred vendor, and continue using the tools and processes your team already knows to manage virtual machines, including Windows Admin Center, System Center, and PowerShell.

This new Azure Stack HCI product takes its name from a program that Microsoft has run for several years with recent versions of Windows Server. That program was very popular, and it’s what inspired this new product.

Azure Stack HCI – Inspired by its popular predecessor

Как часто стоит проводить тестирование на проникновение?

Сфера информационных технологий очень динамична: обновляется софт и железо, подключаются удаленные сервисы, приходят новые сотрудники, меняется структура компании. Результаты тестов на проникновение через какое-то время устаревают, и их нужно проводить заново.

Большинство отраслевых стандартов указывает минимальную частоту выполнения пентестов. Например, PCI DSS регламентирует их проведение каждые полгода. Помимо периодических проверок, тесты на проникновение должны выполняться повторно после любых значимых изменений в ИТ-инфраструктуре. Изменилась топология сети? Перешли на оборудование другого вендора? Мигрировали на новую ОС? Подключили облачные услуги? Всё это – новые потенциальные угрозы, а значит и повод заново пройти тестирование.

Отдельным этапом тестирования на проникновение является контроль уровня осведомленности сотрудников об угрозах в сфере ИБ. Им присылают фишинговые письма, они посещают заражённые сайты или устанавливают программы с троянами на служебный компьютер. Иногда злоумышленникам не обязательно напрямую взламывать админа, чтобы получить контроль над сетью. Точкой входа может стать компьютер секретарши или общий сетевой ресурс персонала. Поэтому обновление кадрового состава – тоже стимул для повторного пентеста.

Каждый новый инцидент в сфере информационной безопасности – это повод провести внеочередной пентест, однако принимать такое решение лучше после тщательного анализа ситуации. Одно дело – вы действительно столкнулись с новым вектором атаки, и другое – сотрудник проявил халатность, проигнорировав внутренние правила. В первом случае нужна новая экспертная оценка уровня защищенности, а во втором достаточно административных мер.

Статистика FireEye за 2018 год свидетельствует о том, что 64% организаций повторно атакуются в течение 19 месяцев после инцидента и комплекса мер по устранению его последствий.

2020

Размещении в Microsoft Azure Stack Hub блокчейн-платформы Waves Enterprise

16 июля 2020 года стало известно о том, что Microsoft в России и технологическая компания Waves Enterprise договорились о стратегическом сотрудничестве в области развития и цифровой трансформации в корпоративном сегменте с применением блокчейн-решений и облачных технологий. Соответствующее соглашение подписали Кристина Тихонова, президент Microsoft в России, и Александр Иванов, генеральный директор компании Веб3 Технологии (разработчик платформы Waves Enterprise).

Как сообщалось, основными направлениями сотрудничества станут:

  • Размещение Waves Enterprise в Microsoft Azure Marketplace. Это сделает решение Waves Enterprise доступным для широкого спектра компаний в России и по всему миру в рамках глобальной облачной экосистемы Microsoft. При этом развертывание из облака позволит существенно ускорить процесс внедрения, не требуя дополнительных затрат на собственную инфраструктуру и настройку.
  • Размещение Waves Enterprise в Microsoft Azure Stack Hub. Подробнее .

Доступ к данным Microsoft Azure для пользователей Fujitsu Primeflex

14 января 2020 года компания Fujitsu объявила о расширении сотрудничества с Microsoft для поддержания внедрения инфраструктур на основе гибридных ИТ для развития цифровой трансформации. Решение предоставит пользователям Fujitsu PRIMEFLEX прямой доступ к их корпоративным данным, хранящимся на платформе Microsoft Azure, что обеспечит бесперебойную работу в рамках различных экосистем и синхронизированный доступ к рабочим файлам за пределами отдельных систем. Подробнее здесь.

Тесты производительности

Теперь перейдем к самому интересному — к нагрузочному тестированию.

Тестируемая конфигурация:

  • два сервера Fujitsu PRIMERGY RX2540, собранные в кластер;
  • в каждом сервере установлено по два модуля storage class memory Intel Optane, используются для расширения кэша на чтение/запись;
  • в каждом сервере по пять дисков SSD, используются как пул хранения первого уровня,
  • данные на дисках защищены по алгоритму erasure coding (аналог RAID-5).

Фактически, это программно-определяемая система хранения данных под управлением Windows Server 2019 Azure Stack HCI.

Запускаем первый тест с 12 виртуальных машин, работающих на обеих нодах. Профиль нагрузки чтение/запись составляет 70:30, block size = 8k. Размер блока выбрали исходя из того, что большинство современных транзакционных баз данных и OLTP-нагрузок используют именно такой размер блока и примерно аналогичное соотношение чтение/запись.

Устоявшаяся производительность кластера составляет 428k IOPS при задержке 0.487 мс. Это действительно достойный результат, который вполне сопоставим с тем, что можно получить на специализированной all-flash СХД от многих производителей.

Независимые тесты с похожим профилем нагрузки приводятся на ресурсе spcresults.org — это тест SPC-1. Разница с нашей конфигурацией заключается только в размере блока — он составляет 4k.

Если существенно упростить методику сравнения результатов, то можно разделить на два полученные там показатели IOPS для all-flash систем хранения и сравнить с полученными нами цифрами при том же времени отклика. Результаты, полученные на нашем кластере из двух серверов среднего уровня, получаются вполне сравнимыми с большинством СХД.

Безусловно, подобное сравнение не очень корректно, т.к. в нашем случае увеличение количества дисков будет влиять на производительность и задержки совсем иначе, чем у специализированной системы хранения

Но, даже принимая во внимание все указанные допущения, можно сказать, что пару лет назад подобные цифры производительности, можно было увидеть только на многоконтроллерной внешней СХД среднего или даже старшего уровня. Сегодня это достижимо на гиперконвергентном решении

Картина производительности существенно меняется при включении дедупликации и замеров при прежнем block size = 8k. Если просто включить дедупликацию на том же профиле нагрузки, то производительность станет менее 300k IOPS.

Если запустить два профиля нагрузки с блоком 8КБ где один профиль 100% чтение, а другой 100% запись, то ниже — наилучшие цифры, которые нам удалось получить:

Видим прекрасные результаты по чтению, особенно если учесть задержку в 12 мкс. Optane здесь действительно прекрасно отрабатывает как кэш на чтение при упреждающих алгоритмах по предиктивному переносу данных в кэш. Да и сам пул хранения, расположенный на SSD, тоже демонстрирует очень неплохие цифры на чтение.

А вот скорость записи отличается очень сильно. Здесь накладываются несколько серьезных факторов:

  • Архитектура решения, когда данные, попадающие в кэш одной ноды, копируются по сети в кэш второй ноды.
  • Работа механизмов дедупликации: она может неплохо помогать при обработке операций чтения — больше вероятность, что требуемый блок окажется в кэше на модуле Optane. Но она же и отрабатывает в оффлайне на обеих нодах.

    В нашем случае это работает эффективно и дает экономию дискового пространства в 45%, но производительность на запись снижается достаточно серьезно по сравнению с предыдущим тестом, где циклов записи было немного — видимо, система успевала отработать такую нагрузку. Здесь же в разы увеличилось время отклика.

  • Скорость чтения на SSD не равна скорости записи данных на SSD — это физическая особенность 3D-NAND технологии, а пул хранения у нас собран полностью на 3D-NAND.

Jest Tutorial: тестовая структура и первый провальный тест

Время создать свой первый тест Jest. Откройте filterByTerm.spec.js и создайте тестовый блок:

describe("Filter function", () => {
  // test stuff
});

Наш первый друг — describe, метод Jest для содержания одного или нескольких связанных тестов. Каждый раз, когда вы начинаете писать новый набор тестов для функциональности, поместите его в блок describe. Как вы можете видеть, он принимает два аргумента: строку для описания набора тестов и функцию обратного вызова для переноса реального теста.

Далее мы встретимся с другой функцией под названием test, которая является фактическим тестовым блоком:

describe("Filter function", () => {
  test("it should filter by a search term (link)", () => {
    // actual test
  });
});

На данный момент мы готовы написать тест. Помните, что тестирование — это вопрос входных данных, функций и ожидаемых результатов. Сначала давайте определим простые входные данные, массив объектов:

describe("Filter function", () => {
  test("it should filter by a search term (link)", () => {
    const input = [
      { id: 1, url: "https://www.url1.dev" },
      { id: 2, url: "https://www.url2.dev" },
      { id: 3, url: "https://www.link3.dev" }
    ];
  });
});

Далее мы собираемся определить ожидаемый результат. Согласно заданию тестируемая функция должна исключать объекты, свойство url которых не соответствует заданному поисковому запросу. Мы можем ожидать, например, массив с одним объектом, с заданной ссылкой в качестве поискового запроса:

describe("Filter function", () => {
  test("it should filter by a search term (link)", () => {
    const input = [
      { id: 1, url: "https://www.url1.dev" },
      { id: 2, url: "https://www.url2.dev" },
      { id: 3, url: "https://www.link3.dev" }
    ];

    const output = [{ id: 3, url: "https://www.link3.dev" }];
  });
});

И теперь мы готовы написать реальный тест. Мы будем использовать функцию expect и Jest matcher для проверки того, что наша фиктивная (пока) функция возвращает ожидаемый результат при вызове. Вот тест:

expect(filterByTerm(input, "link")).toEqual(output);

Там образом мы определили как мы должны вызывать поисковую функцию в своем коде:

filterByTerm(inputArr, "link");

В тесте Jest нужно обернуть вызов функции в expect, которые в сочетании с matcher (функция Jest для проверки выходных данных) выполняет фактические тесты. Вот полный код:

describe("Filter function", () => {
  test("it should filter by a search term (link)", () => {
    const input = [
      { id: 1, url: "https://www.url1.dev" },
      { id: 2, url: "https://www.url2.dev" },
      { id: 3, url: "https://www.link3.dev" }
    ];

    const output = [{ id: 3, url: "https://www.link3.dev" }];

    expect(filterByTerm(input, "link")).toEqual(output);

  });
});

(Чтобы узнать больше о Jest matchers, ознакомьтесь с документацией).

Запустим наш тест:

npm test

Вы увидите что тест не проходит:

 FAIL  __tests__/filterByTerm.spec.js
  Filter function
    ✕ it should filter by a search term (2ms)

  ● Filter function › it should filter by a search term (link)

    ReferenceError: filterByTerm is not defined

       9 |     const output = [{ id: 3, url: "https://www.link3.dev" }];
      10 | 
    > 11 |     expect(filterByTerm(input, "link")).toEqual(output);
         |     ^
      12 |   });
      13 | });
      14 |

«ReferenceError: filterByTerm is not defined. Это хорошая вещь на самом деле. Давайте исправим это в следующем разделе!

TestComplete

TestComplete является эффективным средством автоматизации тестирования мобильных, десктопных и веб-приложений. Он разработан компанией SmartBear и поддерживает VBScript, JavaScript, Python, C ++ Script. Так же, как и в случае с Katalon Studio, посредством TestComplete тестировщики смогут без проблем проводить управляемое данными тестирование, а также применять ключевые слова. Вдобавок ко всему, это средство автоматизации тестирования имеет удобную функцию записи процесса с возможностью последующего воспроизведения.

Если сравнивать TestComplete с UTF, то он схож с функцией распознавания объектов GUI. В результате производится автоматическое обнаружение и обновление элементов пользовательского интерфейса. Всё это позволяет избежать дополнительных забот по поддержанию тестовых скриптов при изменениях AUT. Ещё инструмент может интегрироваться с Jenkins во время CI-процесса.

Тесты производительности

  • два сервера Fujitsu PRIMERGY RX2540, собранные в кластер;
  • в каждом сервере установлено по два модуля storage class memory Intel Optane, используются для расширения кэша на чтение/запись;
  • в каждом сервере по пять дисков SSD, используются как пул хранения первого уровня,
  • данные на дисках защищены по алгоритму erasure coding (аналог RAID-5).
  • Архитектура решения, когда данные, попадающие в кэш одной ноды, копируются по сети в кэш второй ноды.
  • Работа механизмов дедупликации: она может неплохо помогать при обработке операций чтения — больше вероятность, что требуемый блок окажется в кэше на модуле Optane. Но она же и отрабатывает в оффлайне на обеих нодах.
    В нашем случае это работает эффективно и дает экономию дискового пространства в 45%, но производительность на запись снижается достаточно серьезно по сравнению с предыдущим тестом, где циклов записи было немного — видимо, система успевала отработать такую нагрузку. Здесь же в разы увеличилось время отклика.
  • Скорость чтения на SSD не равна скорости записи данных на SSD — это физическая особенность 3D-NAND технологии, а пул хранения у нас собран полностью на 3D-NAND.

Conclusion

After the wizard has finished, the Azure Stack HCI is ready for prime time as you can see below.

Even if the extension creates the cluster automatically, I noticed some settings that are not best practices. A few examples:

  • Block cache size is not set
  • RSS and VMQ are not set
  • Cluster networks are all in “Cluster and Client”. I recommend to set the network for cluster communication to “Cluster Only”
  • The cluster witness is not set
  • Integration in Microsoft Azure

VSAN from StarWind is software-defined storage (SDS) solution created with restricted budgets and maximum output in mind. It pulls close to 100% of IOPS from existing hardware, ensures high uptime and fault tolerance starting with just two nodes. StarWind VSAN is hypervisor and hardware agnostic, allowing you to forget about hardware restrictions and crazy expensive physical shared storage.

Build your infrastructure with off-the-shelf hardware, scale however you like, increase return on investment (ROI) and enjoy Enterprise-grade virtualization features and benefits at SMB price today!

Explore VSAN from StarWind
StarWind VSAN White Paper

  • What’s next in Azure Stack HCI
  • Implement a DRP to Microsoft Azure from Windows Admin Center

Подготовка лаборатории

Тщательно подготовьте лабораторное окружение, следуя этим инструкциям.

Подключение к узлу виртуализации

Подключитесь к физическому серверу, на котором вы создадите лабораторию на основе виртуальных машин. Если вы используете удаленный сервер, подключитесь через удаленный рабочий стол.

Скачивание Azure Stack HCI

Запустите веб-браузер на сервере и посетите страницу продукта Azure Stack HCI. Выберите «Зарегистрировать бесплатную пробную версию» и заполните короткую форму регистрации. Выберите поле, указывающее, что вы согласны с условиями лицензирования и конфиденциальности, а затем нажмите кнопку «Отправить».

Выберите «Скачать Azure Stack HCI», который активирует загрузку ISO.

Скачивание Windows Server

Вам также потребуется копия Windows Server 2022, Windows Server 2019 или Windows Server 2016 для контроллера домена и Windows Admin Center виртуальных машин. Вы можете использовать ознакомительный носитель или, если у вас есть доступ к подписке VL или Visual Studio, их можно использовать. В этом руководстве мы скачим ознакомительную копию.

Создание папки для файлов лаборатории

Создайте папку Lab в корне диска C (или везде, где вы предпочитаете), и используйте проводник для копирования файлов ОС, скачанных в папку C:\Lab\Isos.

Скачивание скриптов MSLab

Скачайте скрипты MSLab с помощью веб-браузера на сервере. Zip-файл wslab_vxx.xx.x.zip должен автоматически скачать на жесткий диск. Скопируйте ZIP-файл в расположение жесткого диска (C:\Lab) и извлеките скрипты.

Изменение скрипта LabConfig

Виртуальные машины MSLab определяются в скрипте PowerShell LabConfig.ps1 как простая хэш-таблица. Вам потребуется настроить скрипт для создания частного леса с виртуальными машинами Azure Stack HCI.

Чтобы изменить скрипт, используйте проводник для перехода к папке C:\Lab\wslab_xxx\ и щелкните правой кнопкой мыши LabConfig.ps1. Выберите «Изменить», чтобы открыть файл с помощью Windows PowerShell ISE.

Совет

Сохраните исходную версию LabConfig.ps1 как Original_LabConfig.ps1, поэтому при необходимости легко начать работу.

Обратите внимание, что большая часть скрипта закомментирована; Вам потребуется выполнить только несколько строк. Выполните следующие действия, чтобы настроить скрипт, чтобы он создает нужные выходные данные

Кроме того, можно просто скопировать блок кода в конце этого раздела и заменить соответствующие строки в LabConfig.

Чтобы настроить скрипт, выполните следующие действия.

  1. Добавьте следующую строку в первую раскомментированную строку LabConfig.ps1 , чтобы сообщить скрипту, где найти isOs, включить интерфейс гостевой службы и включить перенаправление DNS на узле: ServerISOFolder=»C:\lab\isos» ; EnableGuestServiceInterface=$true ; UseHostDnsAsForwarder=$true

  2. При необходимости измените имя администратора и пароль.

  3. Если вы планируете создать несколько лабораторий на одном сервере, измените префикс = MSLab-, чтобы использовать новое имя префикса, например Lab1-. Мы будем придерживаться префикса MSLab по умолчанию для этого руководства.

  4. Закомментируйте строку по умолчанию ForEach-Object для Windows Server и удалите хэштег перед строкой ForEach-Object для Azure Stack HCI, чтобы скрипт создал виртуальные машины Azure Stack HCI вместо виртуальных машин Windows Server для узлов кластера.

  5. По умолчанию скрипт создает кластер с четырьмя узлами. Если вы хотите изменить количество виртуальных машин в кластере, замените 1..4на 1..2 или 1..8, например. Помните, что чем больше виртуальных машин в кластере, тем больше требований к памяти на сервере узла.

  6. Добавление NestedVirt=$true; AdditionalNetworks=$True в команду ForEach-Object и присвойте MemoryStartupBytesзначение 4 ГБ.

  7. Добавьте строку AdditionalNetworksConfig: $LabConfig.AdditionalNetworksConfig += @{ NetName = ‘Конвергентный’; NetAddress=’10.0.1.’; NetVLAN=’0′; Подсеть=’255.255.255.0′}

  8. Добавьте следующую строку, чтобы настроить сервер управления Windows Admin Center под управлением операционной системы Windows Server Core, чтобы добавить вторую сетевую карту, чтобы подключиться к Windows Admin Center извне частной сети: $LabConfig.VMs += @{ VMName = ‘AdminCenter’ ; ParentVHD = ‘Win2019Core_G2.vhdx’; MGMTNICs=2}

  9. Не забудьте сохранить изменения в LabConfig.ps1.

Изменения вLabConfig.ps1 , внесенные в приведенных выше шагах, отражаются в этом блоке кода:

Как выполняется пентест?

Чаще всего пентест проводится сторонней организацией для исключения сговора собственных сотрудников и «игры в поддавки». Процесс тестирования на проникновение имитирует реальную хакерскую атаку и включает в себя несколько этапов:

  • Сбор информации о цели
  • Применение социального инжиниринга
  • Определение точек входа в сеть
  • Обнаружение и использование уязвимостей
  • Повышение привилегий в атакуемой системе
  • Составление отчета и рекомендаций

Обычно тестирование на наличие уязвимостей начинается с внешней сети, а потом тестируются внутренние сервисы.

С одной стороны, пентесты содержат много типовых процедур, которые можно автоматизировать для ускорения. С другой – у любого заказчика есть свои особенности, которые приходится учитывать, проводя ряд проверок вручную.

Автоматизированный метод хорош для поиска типовых проблем: известных уязвимостей, открытых портов, потенциально опасных и вредоносных программ, некорректных настроек доступа и включённых по умолчанию сервисов, которые не задействованы в реальных бизнес-процессах. Словом, для поиска потенциальных векторов атаки.

Порой у руководителей возникает соблазн отказаться от полноценного пентеста и самостоятельно использовать сканеры уязвимостей. Проблема в том, что их настройка требует соответствующей квалификации, а результаты должны проходить верификацию экспертами. Без неё они будут малоинформативны и могут содержать ложные срабатывания. Запуск сканера в дефолтных настройках и вовсе создаст ложное чувство защищённости.

Поэтому на втором этапе проверки обычно применяется ручное тестирование. Оно опирается на профессиональный опыт и позволяет найти реальные проблемы из длинного списка обнаруженных недочётов.

После проведения комплекса тестов составляется подробный отчет с рекомендациями по устранению брешей в безопасности. По договоренности проверяется соответствие различным стандартам и присваивается класс защищенности.

Варианты внедрения

Интегрированные системы Azure Stack

Эти многосерверные системы предназначены для использования в коммерческих целях, и они создавались специально для максимально быстрого развертывания. В зависимости от своих задач, клиенты могут выбрать интегрированные системы, разработанные Dell EMC, HPE или Lenovo (Cisco и Huawei представят свои системы позднее). Теперь можно опробовать сертифицированные аппаратные решения и заказать интегрированные системы у партнеров Microsoft. Эти системы поставляются полностью готовыми к работе, и все разработчики гарантируют последовательную и комплексную клиентскую поддержку. Вначале они будут доступны в 46 странах, представляющих собой ключевые мировые рынки.

Azure Stack Development Kit (ASDK)

Ranorex

Очередной платный инструмент для автоматизации. Характеризуются широкими возможностями, включая:
— распознавание GUI;
— запись и воспроизведения этапов проверки программного обеспечения;
— применение многоразовых тестовых сценариев.

Очередной плюс — возможность создавать тестовые сценарии без написания кода. Платформа станет прекрасным помощником для тех специалистов, которые только начали свой путь в автоматизации, так как для работы не нужно иметь углубленные знания в программировании.

Дополнительно скажем, что поддерживается интеграция с Selenium. Те же результаты тестирований можно группировать, используя сетку Selenium. Для бизнес-клиентов действует система скидок.

Minimum Networking

There are three high bandwidth needs:

  • East-West Traffic: Storage traffic between nodes
  • North-South Traffic: Virtual Machine (VM) networking
  • Live Migration Traffic: Moving VMs between nodes

The first needs a low latency, high bandwidth, network fabric.

For us, that’s a pair of NVIDIA Mellanox 25GbE dual-port network adapters to start with.

Having four available ports gives us the ability to segment to key elements of the above using Switch Embedded Teaming (SET) virtual switch (vSwitch) teams:

  1. East-West Traffic: Dedicated fabric shared with Live Migration (Quality of Service QoS set up for this).
  2. North-South Traffic: VMs and Production management access on virtual network adapters (vNIC).

In both cases we could configure QoS policies to make sure that all traffic on the networks have the necessary bandwidth needed to run efficiently.

Выводы

Для OLTP-нагрузки данное решение подходит достаточно хорошо – при замерах на работе с блоком 8k производительность оказалась на высоте.

Дедупликацию можно включить в любой момент, но она существенно снижает производительность. Эффективность дедупликации в наших тестах составила 45% при падении производительности более чем на 25%.

Это дает вам свободу выбора – либо выше производительность хранилища, либо почти в два раза больше емкость. Также многое будет зависеть от профиля нагрузки и возможности сжатия записываемых данных.

Из-за архитектуры решения при последовательных операциях записи ожидаемо сильно вырастает время отклика.

Не зря Microsoft требует собирать решение только на базе валидированных конфигураций от OEM-партнеров — это позволяет избежать многих проблем как при первичной инсталляции, так и при дальнейшей работе.

Работа с аппаратной частью от Fujitsu, как всегда, оставила только положительные впечатления. Это и толковая документация, и много полезных дополнений от Infrastructure Manager — данный пакет ПО действительно значительно упрощает управление системой

Особенно это важно при увеличении количества нод.

В состав решения PRIMEFLEX от Fujitsu входит набор скриптов, который позволяет ускорить процесс разворачивания решения. Они облегчают запуск и настройку в целом и серверов Fujitsu PRIMERGY в частности

Рейтинг
( Пока оценок нет )
Editor
Editor/ автор статьи

Давно интересуюсь темой. Мне нравится писать о том, в чём разбираюсь.

Понравилась статья? Поделиться с друзьями:
Центр Начало
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: