SAP on Azure – что такое SAP Deployment Automation Framework для развертывания SAP в облаке + 3 подробных демо-видео


Что такое Microsoft SAP Deployment Automation Framework для SAP on Azure?

Три демонстрационные видео, посвященные работе SAP Deployment Automation Framework, смотрите ниже по тексту.

Microsoft SAP on Azure Deployment Automation Framework — это инструмент DevOps с открытым исходным кодом для развертывания, установки и обслуживания сред SAP – фактически, представляет собой набор готовых к использованию скриптов Azure DevOps, Terraform и Ansible, исполнение которых управляется при помощи простых для понимания конфигурационных файлов. С использованием конфигурационных файлов SAP Deployment Automation Framework можно создать полностью готовую инфраструктуру для SAP on Azure, а также развертывать приложения на платформе SAP HANA и NetWeaver с AnyDB. SAP Deployment Automation Framework использует Terraform для создания инфраструктуры SAP on Azure – создает сети/подсети, сетевые хранилища, виртуальные машины, балансировщики нагрузки и прочие объекты инфраструктуры SAP on Azure – и Ansible для конфигурации операционной системы и приложений – создание локальных разделов дисков на основе LVM, монтирование сетевых хранилищ, создание учетных записей пользователей и групп, установка пакетов и обновлений для работы SAP.

Инфраструктуру для SAP можно развернуть с использованием любой версии операционной системы, поддерживаемой SAP, и развернуть в любом регионе Azure. Поддерживается:

  • как “green field” развертывание – т.е. в наличии имеется только подписка Azure, в которой развертываются все требуемые компоненты – ресурсные группы, виртуальные сети и подсети, сетевые балансировщики нагрузки, хранилища данных и секретов, сами виртуальные машины и многое другое
  • так и развертывание в режиме “brown field”, т.е. при наличии в целевой подписке Azure уже частично развернутой инфраструктуры – например, ресурсных групп, сетей, хранилищ и т.п. – путем ссылок на существующие объекты в конфигурационных файлах SAP Deployment Automation Framework.

При этом сама инфраструктура SAP может быть развернута в нескольких сценариях:

  • одноуровневая (когда все необходимые компоненты/уровни приложений SAP расположены на одной виртуальной машине Azure + вспомогательные компоненты типа сетевых хранилищ ANF/AFS),
  • распределенная – со всеми необходимыми уровнями, такими, как DB, APP, SCS/ERS, WebDisp,
  • распределенная с высокой доступностью – в данном случае для требуемых уровней, таких, как DB, SCS/ERS, WebDisp развертываются по несколько виртуальных машин и компоненты высокой доступности, такие, как Azure Load Balancers и кластеры Pacemaker.

С инфраструктурной точки развертывание с SAP Deployment Automation Framework представляет из себя наличие 2х основных компонентов – среды Azure DevOps для хранения репозитория и управления развертыванием и так называемой Control Plane (Панели Управления) – одной или нескольких виртуальных машин в Azure, а также дополнительных компонентов типа Azure Storage Account и Azure KeyVault – виртуальные машины которой регистрируются в Azure DevOps как self-hosted agent и которые, собственно, и выполняют развертывание требуемой инфраструктуры SAP on Azure, подключаясь, с использованием SPN, к необходимой Azure Subscription. При этом основным инструментом инженера, выполняющего развертывание инфраструктур SAP с применением SAP Deployment Automation Framework являются среда разработки Visual Studio Code, которая подключена к соответствующему репозиторию Azure DevOps и которая используется непосредственно для редактирования конфигурационных файлов Terraform, которые и описывают требуемую инфраструктуру SAP для развертывания, и сервис Azure DevOps, который выступает в качестве репозитория и среды управления пайплайнами, которые и запускаются на упомянутых выше виртуальных машинах Панели Управления.

Более подробно процесс конфигурации SAP Deployment Automation Framework, создания конфигурационных файлов для инфраструктуры SAP и непосредственного развертывания инфраструктуры SAP описан ниже и приведен в примерах в трех подробных видео с детальной демонстрацией SAP Deployment Automation Framework, которые вы найдете в статье.


SAP on Azure – обзор SAP deployment automation framework для развертывания SAP + демо, ч.1/3


Какие компоненты/службы Azure поддерживаются и конфигурируются SAP Deployment Automation Framework при развертывании инфраструктуры?

Платформа автоматизации использует или может использовать следующие службы, функции и возможности Azure.

  • Виртуальные машины Azure (VMs)
    • Accelerated Networking
    • Привязка виртуальных машин (Anchor VMs для Azure Pinning)
    • SSH-аутентификация
    • Аутентификация по имени пользователя и паролю
    • SKU configuration
    • Custom images
    • Новые или существующие группы Proximity Placement Group
  • Виртуальная сеть Azure (VNet)
    • Развертывание в сетях, подключенных к вашей сети SAP
    • Указанная клиентом IP-адресация (Static)
    • IP-адресация, предоставляемая Azure (Dynamic)
    • Новые или существующие группы безопасности сети (Network Security Groups)
    • Новые или существующие виртуальные сети
    • Новые или существующие подсети
  • Azure Availability Zones
    • Высокая доступность (HA)
  • Azure Firewall
  • Балансировщик нагрузки Azure
    • Standard load balancers
  • Хранилище Azure
    • Хранилище диагностики загрузки
    • Хранилище установочных носителей SAP
    • Хранилище файлов состояния Terraform
    • Хранилище Cloud Witness для сценариев высокой доступности
  • Azure Key Vault
    • Новые или существующие хранилища ключей
    • Управляемые клиентом ключи для шифрования диска
  • Группы безопасности приложений Azure (ASG)
  • Файлы Azure для NFS
  • Файлы Azure NetApp (ANF)
    • Для общих файлов
    • Для файлов базы данных


Если вам требуется развернуть SAP on Azure – почему стоит рассмотреть использование Microsoft SAP Deployment Automation Framework?

И не только в случае развертывания SAP, но и любых других сложных инфраструктур для многоуровневых решений с многочисленными зависимостями.

Используйте и внедряйте итеративные инновации Azure/гипермасштабирования. Платформа автоматизации учитывает все последние настройки SAP, такие как параметры ОС и т. д.

Собственные инструменты Azure (без внешних инструментов, без привязки к поставщику). Он становится активом, поскольку основан на решении Microsoft с открытым исходным кодом, в котором используются отраслевые стандарты и инструменты.

Сокращение человеческих ошибок. настройка в соответствии со стандартами клиента, которую не предлагает стандартное решение MSFT, например, установка расширений, адаптация к стандартам именования хостов, адаптация к макету файловой системы и т. д.

Идеально подходит для гибкого управления решениями. С некоторыми изменениями он легко может стать ответвлением текущего клиентского пайплайна CI/CD.

Обновления. Microsoft выпускает регулярные обновления, которые можно развернуть с учетом последних технологических изменений в Azure.

Высокие стандарты. Платформа создает виртуальные машины и ландшафт в соответствии с передовыми практиками / рекомендациями, изложенными Microsoft и SAP.

Безопасность. Доступ к виртуальным машинам и уровню ОС ограничивается закрытыми ключами, что исключает совместное использование учетных данных, что обеспечивает высочайшие стандарты безопасности.

Сокращение обслуживания инфраструктуры (автоматизация по сравнению с ручным трудом) за счет автоматизации.

Зрелая модель, принятая для глобального развертывания корпоративными клиентами. Это решение уже поставлено нескольким клиентам по всему миру и развивается каждый день.


Каковы основные шаги по внедрению Microsoft SAP Deployment Automation Framework в организации?

Шаг 1. Разверните новый проект в Azure DevOps или используйте существующую среду.

Шаг 2. Клонируйте платформу автоматизации развертывания Microsoft SAP в Azure DevOps. Этот код является открытым исходным кодом и может быть изменен как структура решения для обеспечения необходимого уровня настройки.

Шаг 3. Создайте учетную запись участника-службы Azure (SPN) для развертывания.

Шаг 4. Настройте подписку (подписки) — разрешения для учетной записи SPN.

Шаг 5. Создайте консоль управления (Deployer VMs) — стандартный пайплайн 1 в фреймворке на основе конфигурационного файла Terraform.

Шаг 6. Настройте агенты Azure DevOps, библиотеку.

Шаг 7. Создайте конфигурации в SAP на платформе Azure для SAP.

Шаг 8. Создайте столько сред, сколько вам нужно, с помощью пайплайнов предлагаемого SAP фреймворка.

Шаг 9. Используйте интегрированные инструменты SAP фреймворка для массовой проверки конфигурации.

Шаг 10. Повторите шаги 7-9.

Какие встроенные существующие процедуры (pipelines) используются в Azure DevOps для работы с SAP Deployment Automation Framework?

Условно назовем существующие процедуры/пайплайны развертывания по номерам-префиксам в названиях файлов в библиотеке фреймворка, например – 01 (файл 01-deploy-control-plane.yaml в папке /deploy/pipelines библиотеки фрейворка) – будет использована только для развертывания виртуальных машин-агентов DevOps (Control Plane или Deployer VMs), 02 (файл 02-sap-workload-zone.yaml ) – и есть упоминаемая ниже пайплайн 2 и т.д.

● Старт — 3 обязательных пайплайна + 1 необязательный пайплайн как часть среды автоматизации развертывания SAP

Пайплайн 2 (TF) – построить новую инфраструктуру или дополнить уже существующую инфраструктуру (сети/подсети, хранилища (BLOBs, ANF, AFS и т.п.), Key Vaults и т.п.)

Пайплайн 3 (TF) – создание виртуальных машин и связанных с ними объектов (например, балансировщики нагрузки в составе кластеров) + их настройка на уровне Azure.

Пайплайн 4 опционально – загрузить инсталляционные файлы и подготовить спецификацию SAP (Bill of Material)

Пайплайн 5 (Ansible) – настроить службы ОС, преднастройки SAP, iSCSI SDB серверы и клиенты, кластеры Pacemaker, установить SAP (в случае пайплайн 4)


Пример выполнения Pipeline 2: Landscape – построение окружения для инфраструктуры SAP.

Пример работы с данным шагом смотрите в видео выше – после описания самого SAP Deployment Automation Framework.

● Данный шаг базируется на основе хорошо отформатированного легко читаемого/изменяемого текстового файла конфигурации (Terraform .tfvars).

● Все параметры/опции хорошо задокументированы в инструменте автодокументации SAP фреймворк.

● На данном шагу создаются/настраиваются существующие объекты и опции:

  • Resource Group’s placement
  • iSCSI SBD server
  • VNET/subnets config
  • NSGs config
  • NFS: AFS, NFS, ANF config
  • ANF volumes structure and subfolders (deeply modified)
  • Key Vault & identity config (all credentials and ssh keys are stored in KV, could be used for integration with other DevOps processes)
  • Client’s extensions (ARM templates & shell scripts, deeply modified)



SAP on Azure – обзор SAP deployment automation framework для развертывания SAP + демо, ч.2/3


Пример выполнения Pipeline 3: System – создание виртуальных машин для SAP и дополнительных компонентов, например, высокой доступности.

● На основе хорошо отформатированного легко читаемого/изменяемого текстового файла конфигурации (Terraform .tfvars) и т.п.

● Создавайте виртуальные машины SAP на основе четкого и легкого определения каждого уровня:

  • DB – type of DB (HANA, ASE, ORACLE, DB2, SQL), sizing, HA, DB SID, instance#, OS image, storage mounting
  • SCS/ERS – count, HA, sizing, instance#, storage mounting, OS image
  • APP – count, sizing, OS image
  • WEB – count, sizing, OS

● Создает конфигурационные файлы Ansible для следующего шага: пайплайн 5

● Дополнительные/общие настройки:

  • PPG, AvSet, AvZones, Pinning (deeply modified)
  • Backup, client’s extensions, monitoring and diagnostic (deeply modified)
  • Local users (for ALL or by tier – name, uid, gid, groups etc., deeply modified)
  • File system permissions (deeply modified)
  • Additional packages (deeply modified)
  • Global network mounts (Azure Files, Azure Storage blobs as NFS, deeply modified)


SAP on Azure – обзор SAP deployment automation framework для развертывания SAP + демо, ч.3/3

Пример выполнения Pipeline 5: SAP – конфигурирование операционных систем, дисков и сетевых томов, создание пользователей, назначение прав, установка пакетов и обновлений и настройка требований SAP, конфигурирование кластеров и ролей в них, установка SAP (если создан BoM каталог и загружены бинарные файлы SAP)

● На основе автоматически сгенерированных, хорошо отформатированных, легко читаемых/изменяемых текстовых файлов конфигурации (Ansible .yaml)

● НЕ требует каких-либо изменений в файлах конфигурации по умолчанию — может запускаться сразу после создания виртуальных машин с помощью пайплайн 3.

● Операции:

  • Basic OS config – kernel optimization for SAP, packages, services, networking, accounts, permissions, disks etc. (deeply modified)
  • Basic SAP config – SAP permissions, SAP exports, SAP users, GRUB etc
  • iSCSI server config (for SBD) (deeply modified)
  • iSCSI clients config (for SBD) (deeply modified)
  • Pacemaker baseline config (SCS/ERS, DB) (deeply modified)
  • If optional pipeline 4 done – SAP roles software installation & configuration (based on BoM catalog)


Другие мои семинары по Azure вы найдете тут:

демо лабораторных работ с этого семинара, которые вы можете видеть здесь:

  • настройка Azure Migrate, обнаружение, анализ возможностей миграции в Azure и зависимостей виртуальных машин на виртуальном сервере – https://youtu.be/8hjDG11oH84
  • настройка Azure Migrate, Data Migration Assistant для анализа возможностей миграции баз данных и использование Azure Data Migration Service для миграции базы данных в Azure – https://youtu.be/X3B–uKLT7E
  • конфигурация репликации и непосредственная миграция виртуальных машин с локального сервера Hyper-V в Azure, окончательная настройка рабочего решения в Azure – https://youtu.be/LWco5RPbKfQ


И еще – смотрите замечательную серию – ИТ-карьера, сезон 2022-23 – открытое собеседование на позицию Azure Admin – что нужно знать

Гаджеты: ONEXPLAYER 2 – достаем из коробки конкурента Steam Deсk на ADM R7 6800U и съемными стиками


Итак, новая портативная игровая консоль на достаточной мощной для AAA игр платформе AMD Ryzen7 6800U с интегрированной графикой AMD Radeon 680M – ONEXPLAYER 2. Чем она отличается от других подобных консолей на таком же (или почти таком же железе), которые появились в последнее время во множестве – GPD Win 4, AYANEO 2, AYN Loki Max (кстати, в этот список можно внести и GPD Win MAX 2 – который на той же платформе AMD R7 6800U, но представлен в виду мини-ноутбука, хотя и с джойстиками для игры)?

Портативная игровая консоль ONEXPLAYER 2 – это первый в данном формфакторе (портативной игровой консоли) трансформер, который реализует идеи Nintendo Switch со снимающимися боковыми джойстиками – легким движением руки довольно толстенький параллелепипед-кирпичик системного блока ONEXPLAYER 2, который с присоединенной клавиатурой-чехлом представляет из себя достаточно мощный 8.4 дюйма планшет а-ля Microsoft Surface Pro, превращается в игровую консоль путем присоединения к нему по бокам джойстиков. Нажимаем кнопки освобождения защелок джойстиков – и опять, легким движением руки превращаем игровую консоль в «кирпичик» планшета – все, как у Nintendo Switch. За исключением того, что у Nintendo Switch есть в комплекте «внешняя панель-серединка», к которой можно подключить оставшиеся в руках джойстики и собрать из них один «большой внешний» геймпад – например, для игры с дивана, когда сама консоль через кредл подключена к телевизору или монитору. К сожалению, в варианте ONEXPLAYER 2 – они просчитались с эргономикой данной «серединки» и в базовом комплекте, который рассылался, она была заявлена, но ее не прислали – обещают прислать к лету. Вот тогда можно будет в полную силу насладиться возможностями трансформации у ONEXPLAYER 2 – тем более, что подключаться к телевизору или монитору можно и без кредла – если «экран» поддерживает USB Type-C соединение (например, мой новенький 43 дюймовый монитор PHILIPS 436M6VBPAB из таких – https://youtu.be/53iKsVHNcNE) – или же используя любой USB Type-C хаб с портом HDMI – у меня, например, есть такой дешевый UBS хаб-кредл, который я купил для Steam Deck и который выступает также и подставкой для устройства. И ONEXPLAYER 2 отлично вписался по габаритам в данную подставку – как будто китайцы что-то знали – и отлично подключается к внешнему монитору. А пока компания будет делать внешнюю панель для «большого» геймпада для боковых джойстиков ONEXPLAYER 2 – можно использовать для игры с дивана геймпад от того же XBOX, подключенный по Bluetooth.


Гаджеты: ONEXPLAYER 2 – достаем из коробки конкурента Steam Deсk на ADM R7 6800U и съемными стиками


Собственно, эта опция – трансформер – и есть основная выигрышная черта ONEXPLAYER 2, из-за которой я предпочел именно его другим, ранее упомянутым, платформам – GPD Win 4, AYANEO 2, AYN Loki Max (хотя еще и заказал себе по предзаказным ценам маленький AYN Loki Mini Pro на Intel i3 1215u – так, чтобы посмотреть и на то, на что способна конкурирующая и более дешевая платформа). Кстати, у AYN Loki есть и более дешевый вариант на AMD 6600U – кто хотел игровую мобильную платформу за 650у.е. – может побыстрее заглянуть по линку https://www.ayntec.com/products/loki-512-reservation – там открыт предзаказ…

Что же касается «базовой» платформы Steam Deck, от которой сейчас «пляшут» все китайские производители подобных игровых приставок – то, учитывая собственный печальный опыт эксплуатации Steam Deck, могу сказать, что новое поколение «китайцев» типа ONEXPLAYER 2 и ему подобных на платформе AMD 6800U с графикой 680M существенно превосходит Steam Deck в эксплуатации. И дело здесь не в более производительном «железе», а в том, что тот же ONEXPLAYER 2 получается универсальным устройством, которое можно использовать и как мобильное рабочее место (с теми же 32ГБ ОЗУ на борту, а главное – с универсальной Windows 11 – можно запросто «закрыть бэклог на выезде»), и как универсальная игровая платформа для того же Steam (как приложения), которая запускает ВСЕ доступные в библиотеке игры. Несовместимость игр из библиотеки Steam с Steam Deck, кстати, является основной проблемой использования Steam Deck, так, например, из моих 170 игр в моей библиотеке Steam совместимыми со Steam Deck оказалось только 30, т.е. около 20% от общего числа, причем вылетели именно старые добрые «ламповые» игрушки, в которые и хочется поиграть в дороге и на ходу. Так что ONEXPLAYER 2 дает 100500 очков форы Steam Deck в отношении универсальности работы и игры. «Залоченный» Steam Deck стоит 700 евро, тогда как универсальный вариант (да еще и трансформер, который превращается при необходимости в обычный таблет а-ля Microsoft Surface Pro) с в два раза большим объемом ОЗУ и SSD и новым поколением процессора/графики, в виде представленного ONEXPLAYER 2 стоит 1200 евро – и если это дорого для вас – тогда посмотрите в сторону того же упомянутого выше AYN – при тех же ОЗУ/памяти Loki c AMD 6600U стоит 650у.е., а Loki MAX c AMD 6800U – стоит 775у.е.

Так что да – портативная игровая консоль-трансформер ONEXPLAYER 2 пока что лучшая в своем классе, но есть некоторые НО – про это уже в подробном обзоре…

Установка Windows 11 на ПК без TPM/со старым CPU: тестируем хак с отключением TPM/CPU при установке Win11 на неподдерживаемое железо




Итак, Windows 11 официально доступна с 5 октября 2021 года и, как и обещала Microsoft, устанавливается только на ограниченный набор достаточно новых ПК – с процессорами Intel Core 7 поколения и выше и с обязательным наличием включенного модуля TPM (Trusted Platform Module) при установке ПК. Но, как всегда это бывает – данную проверку в процессе установки уже успели обойти, и сторонняя бесплатная утилита Media Creation Tool (MCT) теперь имеет дополнительные модули, которые позволяют выключить в создаваемом образе Windows 11 все “неправильные” проверки и таки установить Windows 11 на неподдерживаемое железо. В этом видео я постарался не только рассказать про сам процесс использования утилиты Media Creation Tool, но и провести небольшое исследование насчет того, что ожидает тех, кто рискнет установить Windows 11 на “кривое железо” и каких сюрпризов можно будет ожидать потом.


Windows 11: тестируем хак с отключением TPM/CPU при установке Win11 на неподдерживаемое железо



Итак, начнем с установки Windows 11 с обходом TPM – для этого вам нужно всего ничего:



* забираем саму утилиту Media Creation Tool c GitHubhttps://gist.github.com/AveYo/c74dc774a8fb81a332b5d65613187b15 – кликаем на кнопку Download ZIP в верхнем правом углу страницы и получаем архив со всеми нужными .bat файлами



* из архива на диск, где есть свободных 6ГБ места распаковываем файл MediaCreationTool.bat . Скрипт написан так, что он использует имя файла, как параметры, и у меня в примере он называется ‘iso 11 Pro MediaCreationTool.bat’ – если вы переименуете свой файл таким образом, то он будет сразу, без вопросов, создавать iso файл с Windows 11 Pro.



* запускаем полученный bat файл и выбираем версию ОС (11) и тип создаваемой установки – в идеале – USB – тула сразу для вас запишет USB флешку, или, как вариант в видео – ISO – для установки в виртуалку. При этом полученный установочный образ будет сразу иметь отключенную проверку TPM.



* используем полученный образ для “чистой, с нуля” установки Windows 11 на неподдерживаемое “железо” (без того же TPM).



* для ОБНОВЛЕНИЯ уже существующей ОС Windows 10 до Windows 11 на неподдерживаемом железе кроме уже упомянутого образа Windows 11 требуется и модификация текущего экземпляра ОС – в том же архиве с GitHub найдете два bat файла – Skip_TPM_Check_on_Dynamic_Update_v1.cmd и Skip_TPM_Check_on_Dynamic_Update_v2.cmd – распаковываем их на тот ПК, который будем обновлять.



* Прямо на ОС, которую планируем обновить до Windows 11, запускаем первый, V1 и пробуем запустить setup.exe из подготовленного ранее установочного образа (либо с подключенной флешки, либо с примонтированного ISO образа) – программа обновления Windows 11 проверит железо на совместимость и продолжит или ругнется на TPM/CPU



* если программа обновления ругается на “железо” – говорим остановить обновление и запускаем версию V2 скрипта – Skip_TPM_Check_on_Dynamic_Update_v2.cmd – и снова запускаем setup.exe из образа, который снова начнет процесс обновления.



* ВАЖНО! При обновлении утилита все равно обнаружит, что ваше железо не соответствует требованиям, НО предложит принять условия, что за сбои в работе Windows 11, ее полный слёт и потерю данных Microsoft ответственности не несет – просто соглашайтесь и обновление продолжится успешно.



Что дальше?! как показали эксперименты – все эти шаманские пляски с отключением проверки TPM при установке/обновлении – до одного места, Microsoft все равно в курсе про несовместимое железо и все следующие крупные обновления – типа следующей сборки – опять начинают все это дело с начала – т.е. снова происходит проверка совместимости железа и крупные обновления требуют “взлома TPM” для установки. Кроме того, пример Raspberry Pi 4 с установленной на ней Windows 11 Insider Preview четко показал, что инструмент полного отключения обновлений на “нежелательном железе” у Microsoft есть – заставить обойти ограничения на Raspberry Pi у меня так и не получилось, но пока – сборка работает (в режиме теста). И, как показывает опыт – этот режим самый опасный – через какое-то время ОС просто перестает грузиться и лечится все только полной переустановкой, даже установка поверх не помогает.



Так что хочу сразу предупредить – шаманские пляски с обходом проверки требований Windows 11 на несовместимых ПК могут в недалеком будущем закончиться плачевно – в какой-то момент система перейдет в режим тестовой работы (и как бы ни старались – МС знает, на каком железе идет работа) и после какого-то периода – полное выключение ОС с потерей возможности откатиться назад, сохранив настройки. А пока – я буду экспериментировать с Windows 11 Insider Preview на несовместимых ПК – посмотрим на поведение в будущем.


Другие видео по Windows, облачным и серверным технологиям у меня на канале:

  • * Windows 11 – конвертируем BIOS загрузчик старых Windows в загрузчик UEFI/Secure Boot для Windows 11 https://youtu.be/F-kmvcglLOI
  • * СРОЧНО В НОМЕР! – Windows 11 – в Сеть утекла Store-ссылка на установку Windows Subsystem for Android https://youtu.be/KbLPMqjow5I
  • * Windows 11 – включаем и тестируем “Режим Бога” (God Mode) в Windows 11 – такой же,как и в Windows 10 https://youtu.be/bV79x-DvMGE
  • * Запускаем Windows 11 на Raspberry Pi 4 – как настроить RPi 4, создать и установить Win11, скоростьhttps://youtu.be/fH35VgyDpZk
  • * Вот это – круто! не то,что Windows 11 – Microsoft запустил облачный сервис XBOX Cloud – играют все! https://youtu.be/AWqxDymYSMY
  • * Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”?https://youtu.be/MG3zscrFvpE
  • * Срочно в номер! – обзор Windows 11 – что нового в утёкшей ранней сборке 21996, как установить в ВМhttps://youtu.be/mbLfpI5S4TQ
  • * Windows 10 c ядром Linux (WSL2) “научилась” запускать графические GUI приложения Linux – демо WSLghttps://youtu.be/7Yz3fPuQH6k
  • * Azure AZ-900-онлайн семинар MUK-Azure Infrastructure as Code IaC, ARM templates, BICEP, Azure DevOpshttps://youtu.be/UOEmloeetfY
  • * Azure AZ-900 – онлайн-семинар MUK – обзор Azure Automation, Monitor, Log Analytics, Logic Appshttps://youtu.be/a6VGeDUNYt4
  • * Azure – онлайн-семинар MUK – планирование миграции в Azure с Azure Migrate,построение гибридой инфраhttps://youtu.be/vnQOSPrunKc
  • * Что такое облачные технологии и подготовка к экзамену Microsoft AZ-900 Azure Fundamentalshttp://bit.ly/Exam-Az-900

Azure: автоматизация назначения Azure Policy для настройки Log Analytics скриптами Azure PowerShell



Обещанные «очень технические» видео по теме Azure на канале – пришло время поделиться некоторыми из личных скриптов и заложенных в них идеях и особенностях реализации той или иной функциональности Azure. В этом видео/посте – поговорим про реализацию автоматического назначения некоторых Azure Policy для конфигурации отправки различными объектами диагностики в Azure Log Analytics при помощи скриптов Azure PowerShell.


Azure: автоматизация назначения Azure Policy для настройки Log Analytics скриптами Azure PowerShell

Почему не с применением ARM Template? – да потому, что «заморочек» в работе с политиками через ARM Template, особенно если говорить о назначении имеющихся политик, да еще и в режиме «исправления» Remediation. Это и огромные нечитаемые «простыни» самого ARM Template вероятными ошибками при копи-пасте и «заморочками» при редактировании, и масса вопросов по описанию в том же (или отдельном) шаблоне всех необходимых учетных записей managed identity (principal) с раздачей им необходимых ролей в том же шаблоне, и процесс поиска и прописывания массы параметров вручную и прочие моменты типа «ручного участия» даже в назначении имен в том же шаблоне… Потому – скрипт, который управляет назначением выбранных политик – является куда меньшим «злом» с точки зрения процесса и более универсальным в работе, чем шаблоны, которые нужно потом очень внимательно править.

И напомню про пару  других моих детальных видео об автоматизации Azure с применением скриптов (с детальным разбором данных скриптов):

  • · Azure – подробный обзор универсального PowerShell скрипта для работы с Azure Log Analytics API – https://youtu.be/2AB-bIQl_4Q
  • · Закон Мерфи для кода или автоматическое копирование файлов между Azure Storage с Azure Logic Apps – https://youtu.be/jvWX6V92aCQ

Но вернемся к представленному Azure PowerShell скрипту, в задачу которого входит назначение политик (стандартных, встроенных в Azure) настройки мониторинга Azure Log Analytics для всех типов сервисов Azure, которые поддерживают данные настройки, на уровне выбранной подписки Azure (хотя в качестве области назначения политик может быть и ресурсная группа, и Management Group). В качестве политики используются встроенные политики Azure Policy, которые соответствуют шаблону имени ‘*diagnostic settings*Log Analytics*’, которые развертываются в режиме Remediation (effect = DeployIfNotExists) для своего типа сервисов.

Какие важные блоки в данном скрипте, на что обратить внимание при работе с назначением политик и использованием их в режиме Remediation (исправления) в коде Azure PowerShell:

  • · Простые операции получения списка нужных политик (или инициатив – набора политик) при помощи команды
    $mons = Get-AzPolicyDefinition | Where-Object { $_.Properties.DisplayName -like ‘*diagnostic settings*Log Analytics*’ }
    и работы с данным списком в цикле для каждого элемента.
  • · Проверка параметров для политики – напомню, что у политики есть свои параметры – большинство из которых – например, тот же режим работы политики – параметр Effect – является установленным по умолчанию в рекомендуемое значение, но вот для данного случая существует еще и параметр logAnalytics (которым назначается конкретное хранилище Log Analytics Workspace, куда направляются все логи) и который может иметь различные модификации имен. Потому – в скрипте проводится проверка точного имени параметра по шалону ‘logAnalytics*’ и формирование параметра на основе полученного имени.

    # get right name of policy’s parameter (typicaly named as logAnalytics or logAnalytics_1 or logAnalytics_param ) to setup required Log Analytics as destination storage
    $obj = $mon.Properties.Parameters
    $prop = Get-Member -InputObject $obj -MemberType NoteProperty -Name logAnalytics*
    # build parameter object
    if($prop)
    {
    $asparam = @{$($prop[0].Name)=$($logan.ResourceId)}
    }

  • · Формирование имени для назначения конкретной политики на основе строки описания политики, из которой по шаблонам извлекается название сервиса (описания для всех политик по управлению настройками диагностики стандартные и позволяют достаточно просто получить имя сервиса, для которого политика предназначена), для которого назначается политика, и после, используя полученное название – создается имя типа $name = “{0}-monitoring-assigned-byScript” -f $aname

    # Build the name of assignment based on substring with Azure service type in Policy’s description
    $aname = $mon.Properties.Description.Split(‘ for ‘)[1].Split(‘ to stream ‘)[0]
    $aname = $aname.Replace(‘ ‘, ”)
    # Workaround for some non-standard descriptions 🙂
    if($aname.Length -gt 32)
    {
    $aname = $mon.Properties.Description.Split(‘ for ‘)[1].Split(‘ and stream the logs to ‘)[0]
    $aname = $aname.Replace(‘ ‘, ”)
    }
    $name = “{0}-monitoring-assigned-byScript” -f $aname

  • · Назначение политики в режиме Remediation – обязательное указание параметров локации (параметр команды -Location) и привязки managed identity (-AssignIdentity) – $assignment = New-AzPolicyAssignment -Name $name -PolicyDefinition $mon -Scope $subsId -PolicyParameterObject $asparam -Location westeurope -AssignIdentity
  • · Ожидание создания учетной записи, привязанной к назначенной политики – требуется время, чтобы вновь созданная учетная запись была реплицирована внутри Azure AD и была доступна – поскольку без этого нельзя назначать требуемые роли на следующем шагу.

    # Assignment have to create Service Principal account and we need to check was account created before continue.
    # The new managed identity must complete replication through Azure Active Directory before it can be granted the needed roles.
    $prid = $assignment.Identity.PrincipalId
    $principal = Get-AzADServicePrincipal -ObjectId $prid
    while(!$principal -and $null -eq $principal)
    {
    Start-Sleep -s 10
    $principal = Get-AzADServicePrincipal -ObjectId $prid
    }

  • · Самая важная часть скрипта – при назначении политик через портал Azure выполняет операции по конфигурированию связанной учетной записи – назначение ролей – на фоне в автоматическом режиме, но когда используется PowerShell – команда New-AzPolicyAssignment только создает учетную запись, но не назначает для нее роли, которые потом требуются для выполнения политикой операций по исправлению конфигураций. Потому скрипт берет данные о ролях из описания политик (внутри каждой политики есть описание требуемых ролей (ID) для операций Remediation) и назначает роли для вновь созданных учетных записей. В случае, если речь идет не просто о политике, а об инициативе (наборе политик) – то тут скрипт просматривает еще и набор политик внутри каждой инициативы и уже из описания политики извлекает ID требуемых ролей (об этом вы найдете в конце видео, когда идет сравнение двух скриптов – для назначения политик и инициатив)

    # WARNING!!! workaround for assignment of the policy that requires remediation
    <#

When creating an assignment using the portal, Azure Policy both generates the managed identity and grants it the roles defined in roleDefinitionIds.

In the following conditions, steps to create the managed identity and assign it permissions must be done manually:

While using the SDK (such as Azure PowerShell)

When a resource outside the assignment scope is modified by the template

When a resource outside the assignment scope is read by the template

The following code iterates the policy definition in $policyDef for the roleDefinitionIds and uses New-AzRoleAssignment to grant the new managed identity the roles.

#>

# Get all policy’s definitions inside each policy in Initiative

$polDefs = $mon.policyDefinitionId

foreach( $polDef in $polDefs)

{

$policyDef = Get-AzPolicyDefinition -Id $polDef

# Use the $policyDef to get to the roleDefinitionIds array

$roleDefinitionIds = $policyDef.Properties.policyRule.then.details.roleDefinitionIds

if ($roleDefinitionIds.Count -gt 0)

{

$roleDefinitionIds | ForEach-Object {

$roleDefId = $_.Split(“/”) | Select-Object -Last 1

New-AzRoleAssignment -Scope $subsId -ObjectId $assignment.Identity.PrincipalId -RoleDefinitionId $roleDefId

}

}

}

  • · И, в заключение – назначение задачи по сканированию конфигурации существующих экземпляров сервисов на соответствие политике и исправлению (Remediation), если данное исправление требуется. Так же, как и в предыдущем случае, при назначении политики через интерфейс портала Azure – данная операция назначается в мастере назначения, а в случае использования скриптов – операция Remediation должна быть назначена отдельной командой явно. Кроме того, чтобы следить за ходом выполнения сканирования и исправления – скрипт выводит на экран текст команды с требуемым ID задачи.

    # Create a remediation for a specific assignment


$name = “Remediation_{0}-monitoring-assigned-byScript” -f $aname

$remtask = Start-AzPolicyRemediation -Name $name -PolicyAssignmentId $assignment.ResourceId -ResourceDiscoveryMode ReEvaluateCompliance

Start-Sleep -s 30

Get-AzPolicyRemediation -Id $remtask.Id

Write-Host “`r`nRemediation task $($remtask.Id) was configured!`r`n`t>>> Check state (ProvisioningState property) by >>> ‘Get-AzPolicyRemediation -Id $($remtask.Id)’ command`r`n”

Как я уже упоминал и в тексте, и в видео – при разработке собственных скриптов на базе данного примера рекомендую обратить внимание на то, как в скрипте автоматически генерируются имена для назначений – шаблоны будут отличаться, как формируется переменная с параметрами, которые используются для передачи политики (они, естественно, отличаются от политики к политике) и, конечно же, какие различия между скриптом, который назначает политики и тем, который назначает инициативы – там тоже есть свои нюансы.

Полный исходный код обоих скриптов, рассмотренных в видео – найдете в аттачменте к данном посту.


Другие доклады по облачным и серверным технологиям у меня на канале:

  • · ИТ-карьера – “ОТКРЫТОЕ СОБЕСЕДОВАНИЕ” – начинаем новый сезон 2021 – приглашаются все желающие – https://youtu.be/h0hk03xX_Z0
  • · Azure AZ-900 – онлайн семинар MUK – построение гибридной инфры с Azure Arc и Windows Admin Center – https://youtu.be/vJhuo7bc-Pg
  • · Azure AZ-900 – онлайн семинар MUK – Azure Security Center – обзор возможностей и конфигурирование – https://youtu.be/1Z3Z6XqJZsM
  • · Azure AZ-900-онлайн семинар MUK-Azure Infrastructure as Code IaC, ARM templates, BICEP, Azure DevOps – https://youtu.be/UOEmloeetfY
  • · Azure AZ-900 – онлайн семинар MUK – Microsoft Power Virtual Agents – создание эффективных чат-ботов – https://youtu.be/mez50o_m0oE
  • · Azure SALES – онлайн-семинар MUK – продажа сервисов Azure для различных сценариев кибербезопасности – https://youtu.be/YF7yKgCVLAA
  • · Azure AZ-900 – онлайн-семинар MUK – обзор Azure Automation, Monitor, Log Analytics, Logic Apps – https://youtu.be/a6VGeDUNYt4
  • · Azure SALES – онлайн-семинар MUK – что такое PaaS службы баз данных Azure SQL и Azure Data Platform – https://youtu.be/38Y-TxFFqT4
  • · Azure SALES – онлайн-семинар MUK – планирование миграции в Azure, стоимость и службы гибридой инфра – https://youtu.be/j_LqwHeLDPY
  • · Azure – онлайн-семинар MUK – планирование миграции в Azure с Azure Migrate, построение гибридой инфра – https://youtu.be/vnQOSPrunKc
  • · Закон Мерфи для кода или автоматическое копирование файлов между Azure Storage с Azure Logic Apps – https://youtu.be/jvWX6V92aCQ
  • · Azure Global AI Bootcamp (UAE) – рус.версия по Cognitive services с PowerShell, Functions, Logic Apps – https://youtu.be/7J4veWZqtpY
  • · Azure – онлайн-семинар MUK – использование сервисов Azure (Logic Apps, Functions, Cognitive) для RPA – https://youtu.be/YQiCfiivpBc
  • · Azure – онлайн-семинар MUK – основы Power Platform создание решений на Power Apps, Flows, Chatbots – https://youtu.be/DECMirInQ2I
  • · Что такое облачные технологии и подготовка к экзамену Microsoft AZ-900 Azure Fundamentals – http://bit.ly/Exam-Az-900

СРОЧНО В НОМЕР! – Windows 11 – в Сеть утекла Store-ссылка на установку Windows Subsystem for Android




Итак, про возможность запуска приложений Android на Windows 11 с использованием движка Windows Subsystem for Android (аналогично другому сервису Windows Subsystem for Linux, о котором я рассказывал ранее – https://youtu.be/7Yz3fPuQH6k) было заявлено на официальной презентации Windows 11 в июне – и даже показали красивое демо про установку Android-приложения из магазина Amazon, интегрированного с Microsoft Store, и как красиво все работает потом. И “потом”, в августе, Microsoft заявила, что Windows 11 выйдет в октябре 2021 без этой фичи, которая, кстати, была одной из немногих, что отличала Windows 11 от Windows 10 (ну, кроме “морды лица”). А вот сегодня по Сети прошло сообщение, что, как обычно – где-то утекла ссылка на отдельную установку Windows Subsystem for Android прямо из нового Microsoft Store – https://www.microsoft.com/en-us/p/windows-subsystem-for-android/9p3395vx91nr?activetab=pivot:overviewtab.


СРОЧНО В НОМЕР! – Windows 11 – в Сеть утекла Store-ссылка на установку Windows Subsystem for Android


Причем из интересного там – требования к системам, где указана Windows 10 22000 (текущая сборка Windows 11 уже 22449.100) И XBOX ONE!(!!!). НО! Не торопитесь воспользоваться данной ссылкой и устанавливать себе Windows Subsystem for Android в надежде запустить Android приложения на Windows. К сожалению – это “пустое” приложение – судя по размеру в 500КБ – всего лишь расширение движка облегченной виртуализации, без какого-либо Android окружения – скорее всего – для внутреннего использования с дальнейшей установкой сборок Android, как среды выполнения – как это сделано и в WSL. Напомню, что в аналогичной Windows Subsystem for Linux установка самой WSL ничего не дает, вы поверх должны скачать сначала специальный образ интересующего вас дистрибутива Linux из Microsoft Store и только после этого получаете возможность запускать приложения. Скорее всего, так будет и с WSA – вы сначала качаете специальный “обкусанный” образ Android от Microsoft под WSA с магазина, а дальше уже – система автоматом устанавливает в него нужные приложения из Amazon. Отсюда и такие минимальные требования к приложению WSA – 8ГБ ОЗУ – как раз для того, чтобы в облегченной виртуализации рядом с ядром Windows поднялось ядро Android и после – было еще пару гиг ОЗУ на запуск приложений. Такое наблюдается и при запуске Linux приложений в Windows через WSL – резкий прыжок потребления памяти до 4-6ГБ при старте первого приложения Linux и дальше уже – по потребностям приложений. И еще – такой вариант разработки – как отдельного приложения в магазине – говорит о том, что у нас есть шансы увидеть Windows Subsystem for Android намного быстрее, чем через полгода – после выхода следующей сборки обновленной Windows 11 – глядишь, и к Новому, 2022 году, доточат продукт.

Но особый интерес, если это не просто “разгильдяйство” при оформлении приложения в магазине, вызывает вариант с Subsystem for Android на XBOX. Если такое случится – то, получается, XBOX ONE станет самой универсальной игровой платформой, которая будет поддерживать и всю линейку своих игр (XBOX ONE/XBOX 360), и стриминг игр из облака xCloud (что такое облачный гейминг от Microsoft я уже рассказывал в одном из видео – https://youtu.be/AWqxDymYSMY ), и запуск оригинальных игрушек Android. Согласитесь, такая всеядность делает платформу куда более интересной и расширяет сценарии игр – не надо будет дома, чтобы погонять незаконченную в метро миссию, пялиться в крохотный 6″ экран, когда рядом стоит большой 60″ экран и есть удобный джойстик 😉 Но, как говорится, будем посмотреть. Ждем уже официальных релизов Windows Subsystem for Android на Windows и XBOX.



АГА! И совсем к плохим новостям – Microsoft, как и обещала, отключила раздачу новых Windows Insider сборок для несовместимых ПК и я пока никаких рецептов, как это исправить – не нашел. Так что слухи о том, что Microsoft “передумает и разрешит запускать Windows 11 на любых ПК” – пока только слухи. Факты говорят о другом – и моя Raspberry Pi 4 на Windows 11 уже не получает обновления. 😦



Другие видео по Windows, облачным и серверным технологиям у меня на канале:

  • Запускаем Windows 11 на Raspberry Pi 4 – как настроить RPi 4, создать и установить Win11, скорость – https://youtu.be/fH35VgyDpZk
  • * Вот это – круто! не то,что Windows 11 – Microsoft запустил облачный сервис XBOX Cloud – играют все! – https://youtu.be/AWqxDymYSMY
  • Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”? – https://youtu.be/MG3zscrFvpE
  • Windows 11 – конвертируем BIOS загрузчик старых Windows в загрузчик UEFI/Secure Boot для Windows 11 – https://youtu.be/F-kmvcglLOI

Windows 11 – вышел первый официальный билд Insider Preview 22000.51 – только изменения интерфейса + что пообещала Microsoft нового в Windows 11 на презентации 24 июня 2021 года



Итак, в рамках программы Windows 11 Insider Preview стала доступна первая ОФИЦИАЛЬНАЯ публичная сборка Windows 11 за номером 22000.51 – и, конечно же, я тут же обновил две своих тестовые машинки на эту сборку. Причем провел сразу два теста:


  • первая машина – это физический ноут с Windows 10 Insider Preview, которую вы видели в предыдущем видео про конвертацию “обычного” BIOS загрузчика в UEFI Secure Boot –
    https://youtu.be/F-kmvcglLOI – и переход с Windows 10 на Windows 11 Insider Preview прошел без проблем, хотя эта тестовая машинка довольно таки “загажена” всякими экспериментами и много чего на нее навешано – типа виртуализации, бета WSL2g, “песочницы” (кто не видел такую фичу в Windows 10 – рекомендую посмотреть – https://youtu.be/0XNo35PGdNY) и разных сторонних приложений, тех же X-сов и прочего. И все после такого апгрейда – прекрасно работает, что лишний раз подтверждает слова о том, что 11ка – это всего лишь 10ка с красивой мордой.
  • вторая машина – это виртуалка с установленной в ней “левой сборкой” Windows 11 21996, которая гуляла по Сети еще до анонса и которую вы могли видеть здесь – https://youtu.be/mbLfpI5S4TQ – в первом моем обзоре Windows 11. Идея в том, что я включил в ней тоже режим Insider Preview и она также вполне успешно проапгрейдилась на следующий билд 22000 – что очень даже хорошо, и все, кто установил сборку 21996 – смогут также включить себе режим Insider Preview и получить свежую Windows 11 уже сейчас.



Главный вопрос тут – а нужно ли?! Я про это уже писал и говорил – Windows 11 – это, фактически, Windows 10 c новой мордой лица. Местами – красивой, местами – не очень, где-то –  с удобными нововведениями, а где-то – с непонятками.


Windows 11 – вышел первый официальный билд Insider Preview 22000.51 – только изменения интерфейса 😦



Новая сборка Windows 11 отличается от уже показанной ранее пиратской сборки – https://youtu.be/mbLfpI5S4TQ – только переделанными эксплорером (который проводник/менеджер файлов) и менюшками Настроек (Settings). И если с настройками в принципе все ОК, сделали красивее, перенесли разделы, добавили некоторую функциональность типа истории заряда батареи (не может быть, после минимум 20 лет активного использования на ноутах!), убрали вообще раздел безопасности – наверное, будет свой Security Center – но в принципе, все изменения к лучшему, то вот с Проводником – вообще жесть. Так надругаться над уже ставшей привычной утилитой – это еще надо было придумать. Реально – красивые иконки при ухудшенном интерфейсе. Дизайнеров, а их там наверняка целая шобла, я бы сразу уволил за такое. Что с Проводником не так – да все не так, если смотреть с точки зрения улучшения процессов пользователей – про мой личный пример я рассказываю в видео.



Кроме того, Microsoft опубликовал новые комбинации клавиш, в том числе и для управления размещением окон – теперь это Win+Z – но зачем мне эта всплывающая менюшка с выбором схем размещения там же в углу – что мне мешает доехать мышкой, если и так придется? Почему нельзя показать такое меню “на месте”, сразу рядом с мышкой, чтобы мне потом не елозить ею в угол? Где логика? Да, и это тоже вопрос к “дизайнерам” нового продвинутого интерфейса.



Кстати, интерфейс еще и получил кучу ограничений того же taskbar’а – теперь он зафиксирован только внизу! и потерял массу полезных опций в контекстном меню – теперь оно доступно только по правому клику на иконку Пуск. В общем – сплошное разочарование интерфейсом.



Чего еще нет в Windows 11 из обещанного на презентации 24 июня – https://youtu.be/MG3zscrFvpE – это возможности запуска Android приложений и самого магазина для таких приложений от Amazon. Обещают доточить и добавить в следующих сборках. В любом случае, WSLg – запуск Linux приложений с графикой абсолютно нормально работает и сейчас в Win10 – https://youtu.be/7Yz3fPuQH6k – и уже проверил в Win11 – https://youtu.be/mbLfpI5S4TQ – потому не думаю, что будут какие-то накладки и с Android.



Ах да – еще заработала, после 22х лет обещаний (я про книгу Бизнес со скоростью мысли, где Билли говорил о том, что в скором времени компьютеры получат речевой ввод) – наконец-то в Windows 11 можно надиктовывать текст по-русски и оно довольно прилично его распознает. Правда, осталось разобраться с командными фразами – их списка так найти и не смог. Официальная документация отрицает возможность русскоязычного ввода 😉



В принципе – это и все из хорошего, что появилось в Windows 11 – и это печально… Конечно, буду дальше продолжать юзать Win11 – тем более что у меня ноут специально под Insider Preview выделен и от нее я никуда не денусь, но, думаю, каких-то специальных обзоров до появления модуля запуска Android про Win11 уже не будет…

Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”?

24 июня 2021г, Microsoft провел официальную презентацию “новых возможностей” новой ОС Windows 11, которая, как было сказано – “определит будущее операционных систем для ПК на следующее десятилетие”… И если смотреть на презентацию – то это будущее не совсем уж радостное и уж куда ниже планки ожиданий к современной настольной ОС.

Да-да, вы сейчас увидите на других ресурсах хвалебные отзывы о новой Windows 11 в стиле – “вау, какие окошки, вау, какая бирюличка” – но в реальности, это всего лишь перелицовка экрана, а вот насколько новая ОС Windows 11 способна удовлетворить потребности современного пользователя – это, на мой взгляд, большой вопрос… Потому – давайте по порядку – чего же такого показал Microsoft в своей презентации, что действительно будет удовлетворять потребностям пользователей в течение следующей декады и, что само главное – что не показал Microsoft и куда было бы логично развивать решения для настольных ОС, учитывая развитие гаджетов и “облаков”:


Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”?

Из показанного:

  • перелицовка интерфейса – красиво и, как по мне – совершенно вторично в отношении того, чтобы говорить о том, что это “новая уникальная ОС будущего”
  • Из изменений в интерфейсе стоит отметить действительно удобные вещи типа управления расположением окон, новые настраиваемые независимо рабочие столы с запоминанием “своих” приложений, фишка “умного” разворота содержимого окон при повороте экрана планшета и наиболее интересная фича, которую можно было бы сделать уже давно и для этого не требовалось “создавать” “новую ОС” – это запоминание состояния окон на разных мониторах и при отключении/подключении монитора – рабочий стол теперь не превращается в набор непонятно где находящихся окошек, а все “становится, как было”. И ВСЕ! ЭТО И ВСЕ “УЛУЧШЕНИЯ” именно функциональности оконного интерфейса в Windows 11.
  • Другие функциональные изменения в Windows 11, показанные в презентации, тоже можно пересчитать на пальцах:
    • виджеты – которые планируются, как интерфейсы для сторонних сетевых/облачных сервисов и приложений/сайтов. Microsoft считает, что это поможет многим локальным бизнесам, новостям, сообществам лучше взаимодействовать со своими пользователями. Распространяться будут через магазин, что говорит о будущей модерации контента – т.е. если вы создадите “антипрививочный” портал или портал против “псевдопандемии” и захотите таким образом распространять ленту новостей для своих подписчиков – вас просто удалят из магазина.
    • auto HDR – очень классная штука, если говорить о том, что это аналог XBOX Series X – действительно, игры выглядят куда лучше и применяется к любым играм, даже если игра изначально не разрабатывалась с HDR. Остается только вопрос насчет “железа” – какие требования будут к видеокарте и монитору и насколько это будет влиять на общий fps игр.
    • приложения Android – это было, в принципе, ожидаемо после WSL2g – запуск графических приложений Linux под Windows 10, что не мешает запустить и ядро Android с соответствующими приложениями. Да и подобные работы Microsoft вела еще в ходе разработки Windows 10 Mobile.

А теперь поговорим о том, что ОБЯЗАНА уметь ОС нового поколения, чтобы соответствовать “требованиям новой декады”:

  • запуск приложений на одном ПК с отображением окна на другом. Все компоненты для этого есть и в Windows 10 – фактически, так работает WSL2g – сценарий прост – у вас дома стоит мощный лэптоп, но вы не хотите “таскать” его из комнаты в комнату и хотите с большим комфортом поработать с теми же данными или приложениями с планшета, сидя на диване – вы видите доступные приложения “там” и запускаете то, которое вам нужно – или просто продолжаете работать с уже запущенным на ПК. Масса других приложений – типа того же Steam и любая Unix-система такое умеет уже 35 лет, а вот современный Windows не будет уметь и в 202х годах.
  • миграция приложений – похожий с описанным выше сценарий – только уже запущенные приложения переносятся в текущем состоянии между работающими ПК, как это сделано для тех же виртуальных машин. Сценарий прост – вы работаете с приложение на своем ПК в офисе и уходя домой – “мигрируете” запущенные приложения “как есть” на лэптоп или планшет и продолжаете работать в дороге или мигрируете далее на домашний ПК.
  • Windows 11 on ARM для Raspberry Pi – вообще ничего не сказано насчет поддержки ARM платформ и энтузиастов на Raspberry Pi, хотя много бла-бла-бла про поддержку креативных людей и сообществ – но главные сообщества, которые делают платформу популярной на следующие 10 лет – молодых ИТ-энтузиастов – Microsoft старательно проигнорировала. А ведь им ничего не стоило создать официальную ARM сборку Windows 11 для Raspberry Pi 4 в формате поддержки, например, Insider Preview – кастомные сборки Windows 10 on ARM для Raspberry Pi ходят по интернету в больших количествах и вполне себе работают. Такая вот поддержка увлеченных людей – только на словах.

Другие мои видео по Windows, облачным и серверным технологиям у меня на канале:

  • Windows 11 – как проверить, будет ли работать Windows 11 на вашем ПК – TPM 2.0, UEFI и Secure Boot – https://youtu.be/Ee8aTEE9ULU
  • Windows 11 – конвертируем BIOS загрузчик старых Windows в загрузчик UEFI/Secure Boot для Windows 11 – https://youtu.be/F-kmvcglLOI
  • Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”? – https://youtu.be/MG3zscrFvpE
  • Срочно в номер! – обзор Windows 11 – что нового в утёкшей ранней сборке 21996, как установить в ВМ – https://youtu.be/mbLfpI5S4TQ
  • Windows 10 c ядром Linux (WSL2) “научилась” запускать графические GUI приложения Linux – демо WSLg – https://youtu.be/7Yz3fPuQH6k
  • Azure AZ-900-онлайн семинар MUK-Azure Infrastructure as Code IaC, ARM templates, BICEP, Azure DevOps – https://youtu.be/UOEmloeetfY
  • Azure AZ-900 – онлайн-семинар MUK – обзор Azure Automation, Monitor, Log Analytics, Logic Apps – https://youtu.be/a6VGeDUNYt4
  • Azure – онлайн-семинар MUK – планирование миграции в Azure с Azure Migrate,построение гибридой инфра – https://youtu.be/vnQOSPrunKc
  • Что такое облачные технологии и подготовка к экзамену Microsoft AZ-900 Azure Fundamentals – http://bit.ly/Exam-Az-900

Windows 10 c ядром Linux (WSL2) "научилась" запускать графические GUI приложения Linux–демо, как WSLg запускает WSL Linux приложения типа Quake, Chrome, WPS, Steam, Kodi в Windows 10 без проблем



Я обещал больше технических видео про новинки софта на своем канале по возвращению – я делаю 😉 И отдельное спасибо Microsoft за новые оригинальные “фичи”, которые появляются в Windows 10, и, в частности, в WSL (Windows Subsystem for Linux). Про сам WSL 2 и его возможности по “родному” запуску приложений Linux прямо из Windows 10 я уже рассказывал здесь – https://youtu.be/cUM4UVum_Ck – и здесь – https://youtu.be/P88GPegg7x0 – но предыдущие сборки Windows Subsystem for Linux v2 работали по умолчанию только с консольными версиями Linux приложений и чтобы запустить графические GUI приложения от Linux – требовалось существенно пошаманить, иногда – без гарантии ожидаемого результата работы графики. Для шаманства, чтобы заставить работать WSL2 с графикой, использовались различные X-серверы для Windows типа Xming, но заботало оно кривовато.



И вот – в новой сборке Windows 10 Insider Preview 21364 появилась новая версия ядра WSL, которое теперь работает с графическими приложениями из коробки и не требует специальных плясок с бубнами – WSLg. Т.е. теперь практически любое GUI приложение Linux будет работать “в графике” в WSL2 сразу из коробки и рядом с “окошками Windows 10” c их традиционным оформлением вы будете видеть и окна в стиле X запущенных линуксовских приложение. Кстати, работает это все очень просто в ядре системы – специальный драйвер в WSLg выдает RDP Windows за X-сервер для запускаемых графических Linux приложений. Т.е. фактически – каждое окно Linux-приложения – это всего лишь сессия RDP к ядру самого хоста, в которую отправляет картинку WSLg. Решение простое и эффективное для базовых GUI приложений, Microsoft эффективно использует его уже много лет для публикации не всего рабочего стола, а отдельных приложений на RDS серверах и теперь еще и на Azure WVD, но есть одно НО… И это НО – производительность работы RDP сессии при активно меняющейся картинке, например, видео или игр. В принципе – оно тепримо, но особо видео не посмотришь и в игры с высокими FPS на таком Linux не поиграешь. Хотя Quake я таки запустил для демонстрации.



Windows 10 c ядром Linux (WSL2) “научилась” запускать графические GUI приложения Linux – демо WSLg




И о демонстрации в данном видео и “на попробовать самому” – как я уже говорил, особых действий после установки новой сборки Windows 10 Insider Preview 21364 (или новее) не требуется. Если WSL2 уже установлен – требуется обновить его ядро, если WSL2 еще не установлен – установить само ядро Linux WSL2 в Windows 10 и установить какую-то из сборок Linux с поддержкой WSL2. Как это делается – описано в документации –
https://github.com/microsoft/wslg#welcome-to-wslg – буквально одна команда – или wsl –update , или wsl –install -d Ubintu (или другой дистрибутив из списка на выбор wls –list –online). Кстати, где-то в траблешутинге встречал упоминания о том, что пока нормально работают с графикой сборки только Ubuntu 18/20 (и просто Ubuntu – это ссылка на последнюю стабильную версию) – так что установить Ubuntu для теста WSLg рекомендуется. А дальше – следуем рекомендациям в той же доке https://github.com/microsoft/wslg#install-and-run-gui-apps – и устанавливаем различные тестовые GUI приложения Linux, типа gedit, chrome, edge и прочих. Кстати, я поступил по другому – я просто из примера сделал шеловский скриптик и запустил его. Кроме того, чтобы было более интересно – я также установил Quake (.pak файлы взял скопировал в WSL через nautilus из оригинального Quake, который есть у меня в Steam), различные офисные пакеты типа WPS и LibreOffice, Kodi для Linux и, конечно же, сам агент Steam.



Результаты тестов вы можете видеть в самом видео – все работает без каких-либо проблем, достаточно шустро, особенно, если учитывать, что для записи я подключался к ноуту, на котором у меня стоит Windows 10 Insider Preview, через RDP, а, как я уже говорил выше, WSLg само по себе тоже RDP сессия – так что о том, что бывает с графикой, когда запускаешь видео в RDP, которое уже в RDP – думаю, вы знаете не по наслышке. НО, не смотря на то, что в Steam у меня нет приложений для Linux – очень порадовал режим стриминга игр на Linux агента Steam в WSLg (причем, с того же компа, на котором я вел запись) – удивительно хорошо шла картинка и никаких неудобств в игре я не чувствовал. Конечно, практического применения такая работа Steam не имеет, но как демонстрация возможностей WSLg – очень даже.


Хочу также обратить внимание, что все запущенные Linux GUI-приложения отображаются не только как сессии RDP, но и появляются в виде значков в строке задач Windows 10:

image

Кроме того, все установленные в WPS сборки Linux приложения автоматически добавляются в виде иконок/ссылок в меню Старт Windows 10 – так что в реальности – не обязательно даже будет заглядывать в консоль WPS и запускать приложения оттуда – Windows 10 по клику на иконку сама запустит нужную сборку и сессию для приложения в ней. А в меню Старт установленные Linux-приложения выглядят примерно так:

imageimage

и запросто находятся тем же поиском Windows 10 в панеле задач, чтобы меньше кликать и скролить:

image

А каковы перспективы практического применения WSLg – смотрите в видео, думаю, с таким подходом скоро и Android Apps “поедут” на Windows 10. Но, если серьезно, особых перспектив массового использования WSLg и графических приложений Linux в Windows 10 конечными пользователями не ожидается. Это, скорее, удобный инструмент для разработчиков и ИТ-специалистов, который теперь позволяет иметь на рабочем столе Windows 10 инструменты с любой платформы без всяких там виртуальных машин и делает Windows 10 вполне такой действительно универсальной платформой.

Предыдущие видео про Windows Subsystem for Linux:

  • “Microsoft выпустил Windows 10 с ядром Linux” или как работает WSL2 в новой Insider сборке – https://youtu.be/cUM4UVum_Ck
  • СофТы: тестирование производительности Linux в Windows Subsystem for Linux vs Hyper-V – https://youtu.be/P88GPegg7x0
  • Windows 10: установка и настройка хакерского Kali Linux в Windows 10, как приложения WSL – https://youtu.be/RKFSJRSnLBw

Автоматическое развертывание Windows Failover кластеров в Azure и еще один пример неработающего публичного кода и поддержки от Microsoft


Смотри на действование Microsoft: ибо кто может выпрямить то, что Он сделал кривым? (Екк. 7:13)

Верить в наше время нельзя никому, порой даже самому себе. Мне — можно. (Старина Мюллер)

Северный пушной зверек подкрался незаметно, откуда его никто не ждал… (Работа)

Начало этой истории (которая по странному стечению обстоятельств практически совпала с другой историй про Microsoft support, о которой я писал ранее и с еще более печальной историей про бан моего курса по экзамену AZ-900 со стороны Microsoft) было драматичным… Заказчик присылает на развертывание дизайн ресурсной группы в Azure, в котором кроме всего прочего – еще и 6 Windows Failover Clusters по 2 сервака в каждом и с обычными сроками «на завтра». В принципе, все есть – ARM templates много раз деланы-переделаны, отдельные ARM template/DSC для кластеров официально опубликованы Microsoft на GitHub – https://github.com/Azure/azure-quickstart-templates/tree/master/301-storage-spaces-direct . Звоню заказчику, торгуюсь по срокам, договариваемся «на послезавтра, иншааллах». В моем отделе не принято «сетапить ручками» или сдавать заказчику непроверенные пакет ARM/DSC/PowerShell скриптов – потому день будет на тестирование «на всякий случай», хотя скрипты уже множество раз протестированы и отлажены на предыдущих деплойментах, в том числе и для этого заказчика буквально месяц назад – в общем, на 100% уверены и тестовое развертывание – это «чистая формальность»…

Ага! «Формальность»! Как же! До того момента, как следом за Microsoft с его комплектом ARM/DSC/PowerShell для развертывания кластера на GitHub не подкрался тот самый северный пушной зверек. Народ сразу взялся за дело и … смотрит на меня слегка офигевшими от прихода зверька глазами. Microsoft’овский скрипт для развертывания кластера выдает при тестовом прогоне ошибку:

“DSC Configuration \u0027ConfigS2D\u0027 completed with error(s). Following are the first few: PowerShell DSC resource MicrosoftAzure_xCluster failed to execute Set-TargetResource functionality with error message: The running command stopped because the preference variable “ErrorActionPreference” or common parameter is set to Stop: The network path was not found.\r\n The SendConfigurationApply function did not succeed. LCM failed to start desired state configuration manually.”

и деплоймент всего ARM шаблона обваливается 😦 Понятно, что «на послезавтра» сделать кластеры можно, но «ручками», а это не наш стиль – все инфраструктуры клиентов у нас хранятся в ARM/DSC/PowerShell и даже если нет полной копии сайта в Azure Site Recovery, а только бекапы – восстановление/развертывание копии инфраструктуры заказчика с наличием таких скриптов занимает от минут до нескольких часов.

И вот тут до меня начинает доходить весь круг тех проблем, которые очертил своими лапками пушной зверек, вызванный нежеланием Microsoft сопровождать и тестировать свои скрипты после очередных апдейтов (типа, мы вам их «кинули» 3 года назад и чего это вы еще недовольны?). А проблема в том, что примерно в 1/3 от всех развернутых клиентских инфраструктур у нас присутствуют кластеры и это означает, что случись сейчас что или клиенты захотят «дубликаты» – то у нас нет рабочих скриптов «быстро все повторить». В общем, «зверек» разгулялся по полной…

Быстрое изучение вопроса и поиск решения показало только то, что проблема не только у нас, но есть еще люди на просторах Интернета и даже успели опубликовать проблему в репозитории – https://github.com/Azure/azure-quickstart-templates/issues/6932 – но самое главное в данной ситуации, что никому в Microsoft проблема со скриптом на GitHub для развертывания кластера в Azure не интересна – запрос висит уже месяц и только дополнился еще одним пострадавшим… Ну не работает у людей инфраструктура в Azure – проблемы индейцев пользователей шерифа Microsoft не волнуют, Azure не требует поддержки для пользователей по мнению самого Microsoft. Кстати, и запрос к техническому специалисту в Microsoft, который привязан к конкретному заказчику «пошуршать по продуктовой команде и найти тех, кто выправит то, что сделалось кривым» – так и ушел «вникуда»… Периодически пингую «специалиста» последнюю неделю без какого-либо успеха… А что, Рождество же, Azure и проблемы могут и подождать, «ручками развернете и сконфигурите кластеры»…

Заранее предполагая такую проблему с тем, что в Microsoft об восстановлении скрипта никто и «не почешится», решил сделать запасной вариант развертывания кластеров в Azure, интегрированный в ARM template и использующий «чистый» PowerShell – разбираться, что пошло не так со сценарием DSC в «оригинальном» решении Microsoft, времени и желания не было.

Потому, пока Microsoft не пофиксит (может быть) «главный скрипт», вот вам основная идея, как автоматически развертывать кластеры в Azure через ARM с zero-touch. Да, получилось не так универсально, как в оригинале, но оно простое и понятное для всех, легко модифицируется и, главное, работает 😉

Итак, основные технические нюансы и сам код:

Первое – в Azure можно поднять только Windows Failover Cluster в режиме Storage Spaces Direct на 3 узла максимум. Кроме того, не все нагрузки поддерживаются в таком режиме в Azure, и, самое главное – цена вопроса, поскольку требуются производительные премиумные SSD диски для работы дисковой системы в режиме репликации Storage Spaces Direct в таком кластере.

Второе – чтобы развернуть кластер, необходимо, чтобы виртуальные машины, в нем участвующие, как узлы, имели частные статические IP в виртуальной сети Azure и были добавлены в единый Availability Set. ОС внутри этих ВМ должны быть добавлены в домен (кстати, если нужно только добавить ВМ в домен, то это можно сделать и непосредственно в ARM через расширение JsonADDomainExtension), на них установлены необходимые роли и службы. Это не проблема, такую работу выполняет простой PowerShell скрипт:

[CmdletBinding()]

param (

    [Parameter()]

    [string]

$domainname,

    [string]

$biosname,

    [string]

$adminname,

    [string]

$adminpwd

)

#Online the cluster’s disks

Get-Disk |  Where-Object IsOffline -eq $true | Set-Disk -IsOffline $false

#install failover clustering services and tools

Install-WindowsFeature Failover-Clustering -IncludeAllSubFeature -IncludeManagementTools

Start-Sleep -Seconds 5

Install-WindowsFeature FS-FileServer

Start-Sleep -Seconds 5

# generate domain admin’s credentials for domain join

$adminusername = “$biosname\$adminname”

$password = ConvertTo-SecureString -String $adminpwd -AsPlainText -Force

$cred = new-object -typename System.Management.Automation.PSCredential -argumentlist $adminusername, $password

Add-Computer -DomainName $domainname -Credential $cred -Restart -Force

Скрипт помещается в виде файла в какой-то Azure BLOB Storage (не забудьте разрешить анонимный доступ к объектам внутри контейнеров, хотя можно и заморочиться с атрибутам ресурса и указанием ключа доступа к этому BLOB) и запускается такой скрипт внутри VM из ARM template, как ресурс для создаваемой виртуальной машины с использованием extentions типа CustomScriptExtention, с указанием правильного пути к скрипту, который вы только что скопировали в BLOB (атрибут fileUris) и генерацией правильной командной строки (атрибут commandToExecute). Вот пример фрагмента кода именно ресурса (должен быть пристыкован к BМ) для ARM template:

“resources”: [

            {

“type”: “extensions”,

“name”: “CustomScriptExtension”,

“apiVersion”: “2017-03-30”,

“location”: “[parameters(‘location’)]”,

“dependsOn”: [

“[concat(‘Microsoft.Compute/virtualMachines/’, parameters(‘vmname1av1’))]”,

“[concat(‘Microsoft.Compute/virtualMachines/’, parameters(‘vmname2av1’))]”

              ],

“properties”: {

“publisher”: “Microsoft.Compute”,

“type”: “CustomScriptExtension”,

“typeHandlerVersion”: “1.8”,

“autoUpgradeMinorVersion”: true,

“settings”: {

“fileUris”: [

https://mystorage.blob.core.windows.net/CL/pre-setupVM.ps1&#8221;

                  ],

“commandToExecute”: “[concat(‘powershell -ExecutionPolicy Unrestricted -File pre-setupVM.ps1 -domainname ‘, parameters(‘domainname’), ‘ -biosname ‘, parameters(‘netbiosname’), ‘ -adminname ‘, parameters(‘adminUsername’), ‘ -adminpwd ‘, parameters(‘adminPassword’))]”

}

}

}

]

Еще хочу обратить внимание на формирование строки для выполнения пользовательского скрипта – начинается она с вызова powershell с правильными параметрами -ExecutionPolicy Unrestricted и указанием имени файла вашего скрипта в параметре -File.

Данный скрип будет запущен после развертывания самой виртуальной машины ARM шаблоном и сконфигурирует диски, установит нужные роли и службы в виртуальную машину, добавит ее в домен и перезагрузит.

Третье – и вот тут, после выполнения скрипта и перезагрузки каждой машины начинаются проблемы. ARM считает свою работу по запуску скриптов выполненной и, самое главное, в описание каждой из виртуальной машины в ARM template вы можете добавить только один ресурс типа extensions/CustomScriptExtension. А после перезагрузки нам нужно запустить на одном из узлов будущего кластера еще один скрипт, который сформирует кластер. Сделать это в ARM template нельзя – второй скрипт не указывается, и объяснить ARM, что после перезагрузки на машине стартует еще один скрипт и окончания его работы тоже нужно дождаться – тоже не получится… Потому – занимаемся «лайфхакингом». Если нельзя сделать внутри ARM template, это можно сделать в скрипте PowerShell, который запускает развертывание ARM template. Схематически такой скрипт выглядит следующим образом:

  1. Запускаем команду PowerShell на развертывание ARM – New-AzResourceGroupDeployment с указанием файла «большого» ARM, который развернет всю требуемую инфраструктуру и запустит на требуемых виртуалках скрипт конфигурации машины (выше);
  2. А теперь «хак» – для каждой из виртуальных машин, где уже был выполнен скрипт, запускаем команду по удалению расширения, что позволит выполнить еще одно развертывание ARM со вторым скриптом, который и сконфигурирует кластер – Remove-AzAMCustomScriptExtention . Единственное НО тут – это то, что данная команда для каждой из ВМ выполняется достаточно долго – 3-5 минут.
  3. Снова запускаем New-AzResourceGroupDeployment – на этот раз для развертывания второго шаблона ARM, в котором для каждой второй виртуальной машины (одной из пары узлов кластера) выполняется другой скрипт, как extensions/CustomScriptExtension.

Четвертое – для работы кластера требуется кворум, который для нашего варианта в Azure реализуется с использованием Cloud Witness. Для этого требуется создать Azure BLOB Storage, получить Access Key этого хранилища и использовать ключ для конфигурирования кворума кластера в режиме Cloud Witness. Потому в логике скрипта выше появляется еще один пункт 2а, где после создания инфраструктуры и сервисов (в том числе и хранилища для Cloud Witness) и удаления первых расширений, мы получаем ключи доступа для созданных хранилищ и на следующем шаге передаем их как параметр в новый ARM template – и дальше уже внутри ARM они будут переданы в вызываемый через extensions/CustomScriptExtension скрипт PowerShell для создания непосредственно кластера.

Итого, общий код PowerShell скрипта, который будет выполнять развертывание двух ARM template, с переключением extensions/CustomScriptExtension и получением ключей хранилища:

# deploy basic infrastructure from main ARM template (defined in $templateFilePath)

New-AzResourceGroupDeployment -ResourceGroupName $resourceGroupName -Mode Incremental -TemplateFile $templateFilePath -TemplateParameterObject $Params | Out-Null

# delete CustomScriptExtension from deployed VMs (names should be defined in $deployedVMs array)

foreach($vmname in $deployedvms){

Remove-AZVMCustomScriptExtension -ResourceGroupName $ResourceGroupName -VMName $vmname -Name “CustomScriptExtension” -Force | Out-Null

}

# get storage account’s key for Cluster quorum Cloud Witness and set values in $Params object for next ARM deployment

$keys = Get-AzStorageAccountKey -ResourceGroupName $ResourceGroupName -Name $Params[‘storagename1’]

$Params[‘key1’] = $keys[0].Value

# deploy second CustomScriptExtension (build the cluster) from second ARM template (defined in $templateFilePath2)

New-AzResourceGroupDeployment -ResourceGroupName $resourceGroupName -Mode Incremental -TemplateFile $templateFilePath2 -TemplateParameterObject $Params | Out-Null

Теперь дело за малым – за созданием кластера.

Сам код вызова extensions/CustomScriptExtension во втором ARM template выглядит аналогично первой части (второй скрипт тоже не забудьте поместить в правильный контейнер, как и в первом случае), единственно – в параметрах скрипта передается 2 имени узлов будущего кластера и другие его параметры:

“resources”: [

        {

“type”: “Microsoft.Compute/virtualMachines/extensions”,

“name”: “[concat(parameters(‘vmName2av1′),’/customscript’)]”,

“apiVersion”: “2015-06-15”,

“location”: “[parameters(‘location’)]”,

“properties”: {

“publisher”: “Microsoft.Compute”,

“type”: “CustomScriptExtension”,

“typeHandlerVersion”: “1.4”,

“settings”: {

“fileUris”: [

https://mystorage.blob.core.windows.net/CL/setupCluster.ps1&#8221;

                    ],

“commandToExecute”: “[concat(‘powershell -ExecutionPolicy Unrestricted -File setupCluster.ps1 -domainname ‘, parameters(‘domainname’), ‘ -biosname ‘, parameters(‘netbiosname’), ‘ -adminname ‘, parameters(‘adminUsername’), ‘ -adminpwd ‘, parameters(‘adminPassword’), ‘ -vmnames \”‘, parameters(‘vmname1av1′),’,’,parameters(‘vmname2av1’),’\” -clustername ‘, parameters(‘availabilitysetname1’), ‘ -clusterip ‘, variables(‘cluster1’), ‘ -storageaccount ‘, parameters(‘storagename1’), ‘ -storageacckey ‘, parameters(‘key1’))]”

                }

            }

        }

]

Пятое – чтобы развернуть кластер, скрипт должен выполняться с правами администратора домена, а вот CustomScriptExtension исполняет скрипт с правами ОС внутри виртуальной машины. Но скрипт PowerShell нельзя имперсонализировать в самом скрипте, но, как вариант, можно выполнить команду с правами администратора на удаленном компьютере через Invoke-Command. Т.е. запускаем скрипт через ARM template, передаем логин/пароль админа в скрипт, который создает идентити админа и вызывает команду через Invoke-Command с правами администратора.

Шестое – Windows Failover Cluster НЕЛЬЗЯ развернуть удаленно через Invoke-Command даже с правами администратора. НО, можно сконфигурировать удаленное исполнение команд Invoke-Command через аутентификацию CredSSP, которую предварительно надо настроить на обоих узлах с использованием пары перекрестных команд Enable-WSManCredSSP:

  • Для каждого из узлов включаем режим сервера Enable-WSManCredSSP Server -Force
  • Для каждого из узлов включаем доверие Enable-WSManCredSSP Client -DelegateComputer <имя второго узла> -Force

После конфигурации CredSSP для каждого узла появляется возможность использования Invoke-Command для создания кластера.

Таким образом второй скрипт PowerShell, который создает кластер, будет выглядеть следующим образом:

[CmdletBinding()]

param (

    [Parameter()]

    [string]

$domainname,

    [string]

$biosname,

    [string]

$adminname,

    [string]

$adminpwd,

    [string]

$vmnames,

    [string]

$clustername,

    [string]

$clusterip,

    [string]

$storageaccount,

    [string]

$storageacckey

)

# create domain admin credential’s object

$adminusername = “$biosname\$adminname”

$password = ConvertTo-SecureString -String $adminpwd -AsPlainText -Force

$cred = new-object -typename System.Management.Automation.PSCredential -argumentlist $adminusername, $password

#get nodes name from parameter string like “node1,node2”

$nodesArr = $vmnames -split “,”

$n1 = $nodesArr[0]

$n2 = $nodesArr[1]

#enable CredSSP authentication for admin impersonation by remote calls

#set both nodes as CredSSP’s servers

Invoke-Command $nodesArr -Credential $cred {Enable-WSManCredSSP Server -Force}

#set current node CredSSP’s client that trusts other node

Enable-WSManCredSSP Client -DelegateComputer $n1 -Force

#set other node CredSSP’s client that trusts current node

Invoke-Command $n1 -Credential $cred {Enable-WSManCredSSP Client -DelegateComputer $Using:n2 -Force}

Start-Sleep -Seconds 5

# create cluster as domain admin with one node by remote call over CredSSP

Invoke-Command $n1 -Credential $cred {New-Cluster -Name $Using:clustername -Node $Using:n1 -NoStorage -AdministrativeAccessPoint ActiveDirectoryAndDns -StaticAddress $Using:clusterip -Force} -Authentication Credssp

Start-Sleep -Seconds 30

Invoke-Command $n1 -Credential $cred {Get-Cluster $Using:clustername} -Authentication Credssp

Start-Sleep -Seconds 5

# add second node to the cluster as domain admin by remote call over CredSSP

Invoke-Command $n1 -Credential $cred {Get-Cluster -Name $Using:clustername | Add-ClusterNode -Name $Using:n2 -NoStorage} -Authentication Credssp

Start-Sleep -Seconds 30

Invoke-Command $n1 -Credential $cred {Get-Cluster $Using:clustername} -Authentication Credssp

Start-Sleep -Seconds 5

# configure cluster’s Storage Spaces Direct as domain admin by remote call over CredSSP

Invoke-Command $n1 -Credential $cred {Enable-ClusterStorageSpacesDirect -Confirm:$false} -Authentication Credssp

Start-Sleep -Seconds 30

# configure cluster’s cloud witness as domain admin by remote call over CredSSP

Invoke-Command $n1 -Credential $cred {Get-Cluster -Name $Using:clustername | Set-ClusterQuorum -CloudWitness -AccountName $Using:storageaccount -AccessKey $Using:storageacckey} -Authentication Credssp

Start-Sleep -Seconds 5

# configure cluster’s cloud witness as domain admin by remote call over CredSSP

Invoke-Command $n1 -Credential $cred {Get-StoragePool S2D* | New-Volume -FriendlyName Data -FileSystem CSVFS_ReFS -UseMaximumSize} -Authentication Credssp

Вот и все готово… Получилось, как я уже писал выше – куда более лаконично, нежели нагромождение кода DSC у Microsoft (который и обвалился в результате), более понятно и читаемо (хотя да, есть некоторые «странности», но это опять таки – вопросы к МС с его Invoke-Command и ограничениями для extensions/CustomScriptExtension) и, главное – оно работает, в отличие от «элитарного» кода Microsoft.

Сейчас держим про запас 2 набора файлов IaC для наших заказчиков с кластерами в Azure – один с «классическим» и нерабочим сейчас кодом Microsoft для создания кластеров через ARM/DSC – в надежде, что Microsoft таки читает запросы на разрешение проблем и хоть как-то сопровождает свой код, и второй – вот данный момент рабочий и приведенный выше.

Я уже писал про компетенцию и поддержку своих продуктов со стороны Microsoft – этот случай из той же оперы, причем тут Microsoft явно забил на свой публично опубликованный код (типа, а вот сопровождать не обещали). Так что, как сказано в предисловии к посту – верить никому нельзя и мы таки попытались выправить то, что Microsoft сделал кривым.

И да, если Microsoft не в состоянии поддерживать документацию, код и вообще – оказывать качественный саппорт – может, им стоит прислушаться к тому совету, который мне написали в комментариях к предыдущему моему посту (хотя Microsoft пошел простым путем – находит тех, кто делает это бесплатно за непонятные и совершенно эфимерные плюшки статуса MVP, который еще и довольно таки “подозрителен”, как я уже писал ранее):

Игорь, привет. По поводу твоего свежего поста – совет: предложить им сделать аналог Bug Bounty/Marketplace: за чужой хороший код и документацию платить премии.

Друге посты и видео по теме Azure и ИТ-карьеры:

Microsoft Azure Functions на PowerShell–включение аутентификации пользователя для HTTP Trigger, получаем информацию об аутентификации пользователя в коде функции на PowerShell и про “поддержку” Microsoft.


Начнем с технической части повествования – чтобы народу было интересно и полезно почитать, а уже потом перейдем к «политическо-ИТшной» – это уже по желанию, но как по мне так смешно, что аж печально… 😉

Итак, в некоем решении используются Azure Functions, написанные на PowerShell Core (потому что все мои админы знакомы и легко могут модифицировать, развивать решение при необходимости) и в качестве безопасности (аутентификации пользователей) работающие со стандартной идентификацией от Azure AD при вызове того, что называется Http Trigger, т.е. функции, имеющей свой персональный URL, по которому ее и можно запустить, передав требуемые параметры.

Требуется – при развитии решения появилась потребность не только аутентифицировать пользователей, но и иметь некие аналоги аудита (кто какие функции вызывает) и ролевой модели (запрет некоторым людям вызывать функции или использовать глобальные параметры).

Аутентификация на базе Azure AD для Azure Functions включается в пару кликов и не требует какого-либо изменения кода самой Azure Functions – для функции вся аутентификация работает при описанном ниже сценарии «прозрачно», всю работу по аутентификации на себя берет «движок» Azure. Не путать, кстати, с опцией Identity, которая позволяет имперсонализировать сам исполняемый экземпляр Azure Functions в Azure и выполнять код под определенным аккаунтом в Azure, которому можно предоставлять разные права – чем, собственно, мы и пользуемся – используя Azure Functions для выполнения различных задач обслуживания, предоставляя толпе из L1 для выполнения базовых операций не доступ к порталу Azure и клиентским подпискам, а только к функциям, которые уже все сделают «как нужно и правильно»…

Но вернемся к аутентификации пользователей при вызове Azure Functions. Итак:

Заходим на основную страницу требуемой Azure Functions, переключаемся в закладку Platform Features, и там кликаем на опцию Authentication / Authorization

clip_image002

На открывшейся странице устанавливаем переключатель App Service Authentication в положение On и в появившемся ниже выпадающем списке Action to take when request is not authenticated выбираем опцию Log in with Azure Active Directory, а в следующем списке Authentication Providers кликаем на пункт Azure Active Directory / Not Configured

clip_image004

Откроется новое окно настроек – создания экземпляра приложения для аутентификации в Azure AD, где в Managed Mode выбираем опцию Express и далее, в появившихся ниже опциях, выбираем правильный каталог Azure AD (если в вашем профиле их несколько зарегистрировано), Managed Mode оставляем, как есть – Create New AD App – и оставляем имя по умолчанию.

clip_image006

Кликаем Ok в данном диалоге, ждем окончания процесса создания объекта, и в форме Authentication / Authorization, куда вас вернет портал, кликаем вверху на иконку Save. Опять таки – ждем окончания операции и получаем сконфигурированное приложение с аутентификацией от Azure AD. Теперь, при обращении к Azure Functions, которые зарегистрированы, как Http Trigger, Azure будет запрашивать у вызывающего пройти аутентификацию и предъявить аккаунт пользователя из указанной выше Azure Active Directory. Так что анонимные пользователи такую функцию теперь не вызовут.

НО! Такой сценарий достаточен только для «отсечения» анонимных пользователей, а вот если требуется какое-либо подобие RBAC внутри самих Azure Functions – например, пользователь аутентифицируется, но при этом часть параметров функции ему недоступна или доступ к данным внутри самой функции должен быть ограничен – здесь, увы, такая аутентификация не поможет. Да и вообще, у Azure нет толкового RBAC для Functions.

Т.е. после вызова функции вызов перенаправляется на аутентификацию в Azure AD и если все ок – управление передается на Azure Functions и нам надо теперь внутри исполняемой функции получить клейм пользователя и все атрибуты его учетной записи – ID в аутентифицирующей системе, имя, саму систему и прочие токены. При этом все это еще требуется получить в PowerShell.

И тут начинается самое интересное – хотя Microsoft со всех трибун кричит про внедрение Serverless решений, рассказывает про использование Azure Functions вместе с PowerShell для процессов автоматизации – в реальности никакой официальной документации от Microsoft, особенно фундаментальной, по теме Functions/PowerShell вы не найдете. В Интернете ее тоже нет, даже на любимом всеми StackOverflow – просто никто не использует решение, не смотря на громкие заявления Microsoft.

Нашел пару документов про работу с идентити/информацией аутентификации в Functions/Web Apps применительно к C#, но это нагромождение классов и вызовов было явно не релевантно для кода PowerShell. Чтобы понять всю глубину проблемы, стоит сказать, что ни я, ни моя команда – ни разу не девелоперы – только PowerShell скрипты для автоматизации процессов заказчиков и auto-healing, только хардкор, как, например, скриптик PowerShell на 1000 строк для правильного «развертывания всего» с соответствующими внутренностями VM. Для нас вообще удивительно, кстати, почему работа с тем же Azure Storage Queues в PowerShell пишется в 3 строки, а в C# сначала надо создать десяток классов при неочевидном выигрыше в производительности самой Functions. Но это уже лирика, а вывод простой – для людей, которые занимаются автоматизацией процессов на PowerShell, документации по разработке на сайте Microsoft совершенно недостаточно, приходится собирать по крупицам с разных источников, работать «методом тыка» или открыть тикет в саппорте. На том и порешили – продолжаем «копать» и обращаемся в саппорт.

Методом логического анализа кода («методом тыка») на C# обнаружилось, что чтобы работать cо всей информацией по аутентификации пользователя, вызывающего Functions с аутентификацией в Azure AD (как настроено выше) в PowerShell коде можно через Headers одной командой:

$Request.Headers

Ниже – представленный в JSON объект заголовка вызова Http Trigger в Azure Functions (тот самый $Request.Headers). Все поля, как на ладони и далее работаем с ними, как с обычным hashtable в PowerShell, т.е. получаем нужное значение по имени ключа (которым являются поля заголовка ниже).

clip_image008

Т.е., чтобы получить имя пользователя, его ID, его Access Token и т.п. в коде PowerShell – требуется максимум 1-2 команды:

$headersObj = $Request.Headers # get call’s headers

$username = $headersObj[“x-ms-client-principal-name”]   # get user account name

$userid = $headersObj[“x-ms-client-principal-id”]       # get user AAD ID

$userip = $headersObj[“x-forwarded-for”]                # get user IP

И все, далее используем переменные или обращаемся к нужному элементу по имени ключа. Все, тема закрыта, используем нужную информацию для журналирования и внутренних проверок.


И тут начинается вторая часть истории – которая смешная и печальная, особенно в разрезе предыдущей моей истории про то, как Microsoft Ukraine заблокировала и удалила мои видео по курсу для сертификации AZ-900 по Azureпродолжения истории c Microsoft Ukraine после).

Итак, открыл я кейс в Microsoft support по данной проблеме и вот выдержка переписки:

1. Я описываю проблему

clip_image010

2. И получаю от Microsoft Support ответ, что в моем сценарии (option 1, процесс конфигурирования которого и описан выше) такую информацию получить нельзя:

clip_image012

3. Причем, получив такой ответ – я уже 100% уверен в возможности получения этих данных, просто еще не имею на руках конкретного кода. И я отправляю письмо типа – «точно нельзя с опцией 1? Уверены?» и получаю от Microsoft support еще один отрицательный ответ – нет, вы не можете получить такую информацию (причем, происходит это через 5 дней, три из которых – рабочие):

clip_image014

4. И в ответ на это дело я уже пишу, что нашел сценарий, код из 2х строк работает и можно закрывать кейс.

И вот тут начинается самое интересное и «смешное». Мне сразу же перезванивает (буквально в течение 15 минут, до этого отвечал только по почте и то – через сутки) сотрудник службы поддержки Microsoft, который просит поделиться с ними решением проблемы и кодом!!! Т.е. Microsoft, который до этого активно удалял мои технические видео про Azure из принадлежащей мне группы в Facebook, а потом и удалил мой аккаунт из админов – про это читайте тут и тут – теперь вдруг другой рукой просит поделиться информацией со своей поддержкой?! Серьезно?! Я должен бесплатно делать за сотрудников Microsoft их работу? Той информацией, которую Microsoft в качестве базовой просто обязан опубликовать в документации, поскольку и продукт – платный, и везде, со всяких трибун, Microsoft кричит о важности безопасности вообще и правильного кода – в частности. И уж точно этой информацией должна владеть служба поддержки Microsoft…

Чтобы вам было еще смешнее – я и сейчас продолжаю получать письма с просьбами отдать код, последнее пришло уже сегодня, 25 декабря, через 9 дней после того, как я сообщил, что задача имеет решение. Вот реально?! За 9 дней внутри Microsoft собственный отдел поддержки не смог найти техническое решение и продолжает ждать у моря погоды – поделюсь ли я кодом?!

clip_image016

И самое смешное – Microsoft за последние 3-5 лет сократил практически весь высококвалифицированный технический персонал из своих локальных офисов ввиду того, что Azure поддержки не требует, его надо только продавать, а технической поддержкой пусть занимаются партнеры «за деньги». Azure, как показывает опыт, просто за бла-бла-бла девочек из маркетинга Microsoft не продается (про это я говорю тоже в первой серии курса AZ-900), а партнеры, при таких отношении, «экспертизе», «документации» и «поддержке» от Microsoft – точно не будут вкладываться в «прибыльный и простой бизнес Azure» и не будут развивать компетенции Azure, как и клиенты не горят желанием платить деньги «каким-то партнерам», один раз столкнувшись с подобным невежеством поддержки «самого Microsoft». И, особенно, партнерам не интересно это делать, если развитие компетенций не интересно самому Microsoft и даже поддержка Microsoft не в состоянии дать ответ на простой, как оказалось, вопрос.

И если объективно смотреть на ситуацию c поддержкой Azure, то можно смело сказать, исходя из своего опыта работы С Microsoft последние пару лет, что никакой реальной поддержки и технической компетенции «на местах» у Microsoft сейчас просто нет. Выгребайте сами. И иметь у себя классного специалиста по Azure в штате – это будет даже лучше и безопаснее, чем вам пришлют какого-то «технического консультанта» от Microsoft, который в реальности окажется «не пойми кто», как я уже писал во второй части большого поста про Microsoft.

Но и это еще не все про Microsoft и поддержку Azure… Читайте в следующем посте про развертывание Windows кластеров в Azure и про официальные скрипты от Microsoft.

Друге видео то теме Azure и ИТ-карьеры:

Microsoft Exam AZ-900 Azure Fundamentals–бесплатная подготовка к сертификационному экзамену, часть.02: экономика облачных технологий, вопросы по CapEx и OpEx в Azure


Продолжаю серию видео – http://bit.ly/Exam-Az-900 – по подготовке к сертификационному экзамену Microsoft AZ-900 Azure Fundamentals. В этой серии – сразу несколько небольших (вопросов на 4-5), но достаточно неприятных для ИТ-специалистов тем экзамена – Модель Shared Economy в облачных технологиях для снижения стоимости и главная экономическая фишка, под которой продаются любые “облака” – CapEx/OpEx в ИТ. Да-да, в AZ-900 есть такие вопросы, потому я в обзорном видео к экзамену AZ-900 – https://youtu.be/_2-txkA3Daw – и говорил, что для “простого” технического специалиста некоторые вопросы могут быть весьма “далекими” и совершенно непрактичными. Хотя, в реальности – оно так и есть – Microsoft предлагает “правильные ответы” согласно своей маркетинговой идеологии… Так что смотрите и запоминайте, не забудьте пройтись и по линкам.

Подписаться на канал ►►► http://bit.ly/iwalker2000_subs
Мой LinkedIn ►►► https://www.linkedin.com/in/iwalker2000/
Подготовка к AZ-900 ►►► http://bit.ly/Exam-Az-900
Как стать системным администратором ►►► http://bit.ly/ITProSysAdmin
ИТ карьера – что для этого нужно ►►► http://bit.ly/ITcarriera_
Обзор GPD P2 Max ►►►
https://youtu.be/HZfN_geAvQI
Все обзоры Windows 10 ►►► http://bit.ly/Windows10_review
Про производительность дисков ►►► http://bit.ly/Disk_perf_p01


Exam AZ-900 Azure Fundamentals – подготовка к экзамену, ч.02: CapEx и OpEx, экономические вопросы

Предыдущие видео данной серии про экзамен AZ-900 смотрите здесь – http://bit.ly/Exam-Az-900 :

  • Exam AZ-900 Azure Fundamentals – подготовка к экзамену, ч.01: общий обзор экзамена и как готовиться – https://youtu.be/_2-txkA3Daw

Azure и совместное потребление

  • Microsoft покупает много серверов сразу по цене, которая значительно ниже розничной (в реальности – Microsoft заказывает блоки у компаний типа QCT и собирает в стойки по своей архитектуре – Open Compute Project (OCP) – https://azure.microsoft.com/en-us/global-infrastructure/hardware-innovation/ ).
  • Microsoft собирает их облако, которое позволяет максимально плотно заполнить нагрузкой каждый физический сервер – 80% нагрузки на сервер в сравнении с 30% «обычной» нагрузки на сервер в организациях.
  • Аналогично – для хранилищ и сетевой инфраструктуры.
  • Microsoft перепродает «плотно упакованные» серверы по частям – в виде виртуальных машин и прочих сервисов.
  • Суммарная стоимость виртуальных машин, запущенных клиентами на таких серверах – выше стоимости всех серверов. Профит!
  • Чем больше клиентов и плотнее упаковка и выше нагрузка на серверы – тем выше профит… Есть возможность снижать цены или предоставлять доп.сервисы дешевле.
  • Про экономику облачных датацентров – http://cloudscaling.com/blog/cloud-computing/understanding-cloud-datacenter-economies-of-scale/
  • Клиент арендует по принципу «заплатил только за использование» и не нуждается:
    • В приобретении серверов и начальных крупных затратах
    • Помещении для хранения, средств энергопитания
    • Не нуждается в обслуживании физических серверов
    • Клиент быстро может нарастить мощности своих вычислений без дополнительных затрат


СapEx & OpEx в ИТ и облаках:

  • CapEx – разовые крупные покупка любого «железа», «софт», оплата проектов по строительство ЦОД (серверных комнат), разработка программного обеспечения и т.п.
  • OpEx – регулярные выплаты по потребностям – зарплата ИТ-специалистам, связь и коммуникации от провайдеров, электричество, обслуживание и комплектующие материалы, подписка на ПО и сервисы.
  • Облачные провайдеры сдают в аренду готовые сервисы (виртуальные машины или программные комплексы – например, Office 365 – это почта, взаимодействие в команде, хранилища и т.п.) с помесячной оплатой за услуги – по размеру ресурса или количеству пользователей и берут на себя все затраты по аппаратному и программному обеспечению, строительству и обслуживанию сервисов.
  • Таким образом – облако переводит для конечного пользователя CapEx в OpEx – пользователю не нужно тратить деньги на начальные инвестиции (CapEx) и он просто арендует те ресурсы, которые ему требуются, выплачивая помесячно стоимость только потребленных ресурсов (OpEx).
  • OpEx в облаках – фактически, рассрочка выплаты тех же денег, которые потратила бы компания на покупку железа и т.п. в течение 5 лет (обычно).
  • Эффективность переноса решения в облако Azure позволяет посчитать Total Cost Ownership (TCO) Calculator на сайте Azure.

В следующем видео – разбор вопросов AZ-900 по теме характеристики облака – эластичность, масштабируемость, высокая доступность, отказоустойчивость, аварийное восстановление.

Друге видео то теме Azure и ИТ-карьеры:

  • Доклады по серверным технологиям Microsoft Windows Server – http://bit.ly/WindowsServer_overview
  • ИТ-карьера: как стать ИТ-специалистом, основные шаги для успешной карьеры в ИТ – http://bit.ly/ITcarriera_

СофТы: как в Windows 10 вернуть планы управления питанием Ultimate Performance, High Performance


Тут в видео про мой новый ультрабук GPD P2 Max и его тест батарейки некоторые очень внимательные личности разглядели, что у меня больше различных опций настройки планов управления энергопотреблением Windows 10, чем у них 😉 У меня есть такие планы, как Ultimate Performance, High Persormance и даже Power Saver к стандартному Balance Performance в новых сборках Windows 10. Как так? И как включить все эти планы себе?

Подписаться на мой канал iWalker2000 ►►► http://bit.ly/iwalker2000_subs |
Купить GPD P2 Max ►►►
http://bit.ly/2ktSUZ0 |
Магазин GPD – проверено покупками ►►►
http://bit.ly/2PrZPke |
Мой LinkedIn ►►►
https://www.linkedin.com/in/iwalker2000/ |
Обзор Acer Predator Helios 300 ►►►
https://youtu.be/P-YFuA6ZmyY |
Все обзоры Windows 10 и полезных системных утилит ►►►
http://bit.ly/Windows10_review |
Azure для сисадминов ►►►
http://bit.ly/Azure_IaaS_p04 |
Про производительность дисков – как оценить скорость диска и как разогнать ваш ПК ►►►
http://bit.ly/Disk_perf_p01 |
Как стать системным администратором ►►►
http://bit.ly/ITProSysAdmin

В действительности – примерно 2 года назад, с очередной осенней сборки Windows 10, Microsoft решил, что выбор плана управления энергопотреблением для лептопов под Windows 10 – слишком сложная вещь для понимания простым пользователем и поэтому – скрыл для доступа все привычные планы, оставив для совместимости только Balanced Performance и добавив в диалоговое окно управления питанием (то, что вы видите при клике на иконку батарейки в панеле таскбара) переключение режимом от Best battery life до Best Performance – но при этом Windows 10 будет балансировать работу в пределах достаточно зажатого по производительности Balanced Performance. Но для многих – ручной выбор планов энергопотребления остается актуальным – хотя бы потому, что они знают, что это такое и им все равно, как долго проживет батарейка, особенно, когда ноут больше 70% времени проводит на зарядке, зато хочется получить чуть больше производительности – и переключение на High Performance и Ultimate Performance планы очень даже поможет.


СофТы: как в Windows 10 вернуть планы управления питанием Ultimate Performance, High Performance


Так вот, Microsoft пока не отключил полностью в Windows 10 все эти планы, а только “припрятал” их и восстановить их видимость в списке – не проблема, нужно только запустить командную строку (или PowerShell) и выполнить следующие команды, которые создают “правильные” дубликаты нужных планов в вашей Windows 10:


Для включения Power saver
powercfg -duplicatescheme a1841308-3541-4fab-bc81-f71556f20b4a


Для включения High Performance

  powercfg -duplicatescheme 8c5e7fda-e8bf-4a96-9a85-a6e23a8c635c

Для включения Ultimate Performance
powercfg -duplicatescheme e9a42b02-d5df-448d-aa00-03f14749eb61


После дубликации можете убедиться в том, что все планы на месте, использовав команду powercfg /L и включив нужный план прямо из командной строки, скопировав его ID из списка и использовав в команде powercfg /S {Plan ID} , чтобы потом не лазить по настройкам.


И еще пару слов насчет батареи в ноуте, который постоянно стоит на зарядке – недавно на моем корпоративном ноуте Lenovo Thinkpan T480, который 80% времени проводит на зарядке, отрубилась внутренняя батарея. И на этот счет Lenovo на своем сайте саппорта рекомендует установить приложение Lenovo Vantage и в нем настроить Battery Charge Threshold с ограничением по максимальной зарядке в 90-95% – это позволяет сохранить батареи ноута “вечно молодыми”…

И обзоры других гаджетов у меня на канале iWalker2000:


"Microsoft выпустил Windows 10 с ядром Linux"–что это такое, будет ли Windows 10 бесплатным, как установить ядро Linux в Windows и как работают приложения Linux на Windows


Сегодня я пришел к вам с благой вестью! Нет, доллар не будет по 5-8-10, коммуналка не подешевеет… Просто я получил за вчера и уже сегодня несколько сообщений, у которых общий смысл и вопрос – «Игорь, а правда, что Microsoft запустил Windows 10 на Linux и теперь Windows – это клон Lunix?». И да – это правда!

Особенно для тех, кто не в курсе технических тонкостей – в новой Windows 10 (которая сборка 18917 и доступна по Windows Insider Preview) есть свое ядро Linux (изначально написанное Microsoft для различных своих целей). Но в реальности все как раз наоборот – теперь приложения Linux (ELF64) могут без проблем запускаться из-под Window 10, т.е. это Linux работает на Windows 10. Ядро Linux, анонсированное в Windows 10 – это новая версия – вторая – службы Windows Subsystem for Linux 2 (WSL2), первая версия которой присутствует в Windows 10 уже 2 года и о работе с которой я рассказывал в недавнем видео на канале – Windows 10: установка и настройка хакерского Kali Linux в Windows 10, как приложения WSL –   рекомендую посмотреть для ознакомления с самой идеей работы Linux на Windows 10.


“Microsoft выпустил Windows 10 с ядром Linux” или как работает WSL2 в новой Insider сборке

Так а что же тогда запустил Microsoft и почему все говорят о «ядре Linux в Windows 10?». Microsoft просто продолжил развитие идеи WSL и во второй версии вместо сервиса трансляции системных запросов Linux-приложений в запросы Windows (как это делает первая версия WSL) «подсунул» таким приложениям свое собственное полноценное ядро Linux, которое работает в режиме «тонкой виртуализации» – т.е. это не виртуальная машина в полном смысле этого слова – со своим объемом памяти, отдельными эмулируемыми устройствами и т.п., а всего лишь изоляция процесса – в данном случае ядра того самого Linux – от других процессов, чтобы не мешали и не ломали друг друга. Зачем и почему – для совместимости с системными вызовами Linux – обещают, что новое ядро Linux в Windows 10 будет полностью совместимо с основными дистрибутивами и приложениями Linux. А пользователи Windows получат возможность запускать нужные им приложения прямо из Windows одновременно с «родными» приложениями. Microsoft идет правильной дорогой, товарищи…


Эта дорога уже много раз проверена и использована Microsoft – на примере тех же Windows Services for Novell (кто сейчас еще помнит тот Novell, который Microsoft успешно выдавила из корпоративных сетей такой вот совместимостью) и через какое-то время уже будет звучать странно предложение «установить Linux», если все нужные Linux-приложения успешно работают и в Windows. А дальше там пойдет Modern OS – подчищенное и оптимизированное ядро Windows с такими вот подсистемами для запуска Linux, Android, MacOS, iOS приложений – или вы думаете, у Microsoft не хватит денег, сил и влияния заточить такие же микроядра для поддержки API, которые есть в разных платформах? Не зря же новую версию WSL2 в списке сервисов для установки назвали не ядром Linux или чем-то похожим, а очень скромно – Virtual Machine Platform, как бы намекая, что одним Linux дело точно не закончится. 😉


А что касается самой установки и настройки Windows Subsystem for Linux 2 – то про это все смотрите в видео, я постарался рассказать как можно более подробно весь процесс установки, конфигурации и самого сервиса WSL, и конфигурации под него дистрибутивов различных Linux. А с пользовательской точки – работы в дистрибутивах – в WSL2 ничего не поменялось – для вас WSL2 работает прозрачно. И даже лучше, чем в WSL1 – простой тест на работоспособность nmap (который в WSL1 не работал) показал куда лучшую совместимость WSL2 с дистрибутивами Linux. И да, пока (июнь 2019) работать с WSL2 можно только в тестовой сборке Windows 10 Insider Preview, начиная с 18912 – что не очень удобно для многих – мало кто согласен “портить” рабочую ОС ради удовольствия, устанавливая поверх нее тестовую Insider Preview (которая лично у меня – подвзглюкивает). Поэтому я записал еще одно видео –
Как установить Windows 10 Insider Preview “с ядром Linux” второй системой и ничего не сломать – которое поможет всем желающим легко и быстро установить Windows 10 Insider Preview второй системой на комп, “не ломая” и не меняя ни основную Windows, ни разделы диска. 

При работе непосредственно с движком WSL2 главное знать, что в WSL2 поменялись некоторые команды, которые позволяют теперь управлять, в каком окружении – WSL или WSL2 – будет работать тот или иной дистрибутив Linux. Теперь утилита командной строки wsl.exe (запускайте из CMD/PowerShell с правами админа) дает пользователю возможность управлять версионностью каждого из пакетов Linux на компьютере, переключая их между работой в WSL и WLS2:

  • wsl -l -v  –  отображает список дистрибутивов Linux с версиями WSL (1|2), под которыми эти дистрибутивы запускаются
  • wsl –set-version <имя_дистрибутива> 2  – переключает указанный дистрибутив на работу с WSL2. Выполнение команды может занять значительное время, поскольку производится конвертация (копирование) файлов дистрибутива из файловой системы Windows (где их хранит WSL) в виртуальный VHDX диск с ext4 (в котором хранит данные WSL2)
  • wsl –set-default-version 2  –  устанавливает для всех новых дистрибутивов используемую версию WSL2 по умолчанию.    

И, конечно же, чтобы понимать принципы работы Windows Subsystem for Linux – рекомендую посмотреть предыдущее видео про WSL – Windows 10: установка и настройка хакерского Kali Linux в Windows 10, как приложения WSL


А к теме безопасности вообще и настройке и использованию Kali Linux по назначению – я вернусь в следующих видео и, наверное, даже оформлю их, как прямые трансляции –
http://bit.ly/iLive2000 и подписывайтесь на канал – http://bit.ly/iwalker2000_subs . Там же будет и про ИТ-карьеру – что и как развивать, чтобы стать востребованным ИТ-специалистом – продолжение темы серии видео – http://bit.ly/ITcarriera_


И другие видео на моем
канале iWalker2000 по теме ИТ :

Мастер-Класс: Как быстро и легко сделать классное яркое фото для Instagram, Facebook и т.п. на любом мобильном


По просьбе некоторых сектантов, которые утверждали, что только на iPhone можно снять красивые фото, а потом удивлялись, что оригинал никаким образом не выглядит, как готовый результат – так вот, следуя этому мастер-классу – красивые фото можно получить на любом среднем телефоне – было бы время и желание 😉 “Про секту”, кстати, отлично показали в новой части Железного Неба 2 (Iron Sky II), а сам фильм тот еще сатирический трешак, хотя первая часть Железного Неба (Iron Sky) зашкаливает по пародированию всяких “политкорректных” хреней современного общества – так что рекомендую посмотреть этот трешак. 

Мой Instagram iwalker2018 ►►► ‬ | Мой LinkedIn Igor Shastitko – заглядывайте сюда за ИТ новостями ►►► | Подписаться на мой YouTube-канал iwalker2000 ►►► | Всё мои прямые трансляции, на которых вы можете задавать свои вопросы на разные темы ►►► | Специальный сериал Первый День Сезона ►►► ‬ | Путевые Заметки из разных стран и городов мира ►►►

И да, с самого начала хочу всех разочаровать – ВСЕ ВРУТ! – красивые фото в Инсте и прочих – это 30% самой фотки (из которой еще 50% – это умение самого фотографа сделать правильную фотку) и 70% обработки (и вкуса того, кто обрабатывает) – и лично меня радует, что сейчас с этим делом обработки стало попроще (ввиду того, что у телефонов теперь дури, как у среднего ноута) и я могу спокойно заниматься обработкой фото на телефоне или планшете в метро по дороге на работе – типа, вот так выглядит моя дорога на работу – https://youtu.be/ePMsbHA3sEs – только вместо видео я читаю доки, публикую новые видео на канал или работаю с фотками. Какая реально разница между оригиналом на телефоне (кстати, снято на сектантский iPhone XS Max) и тем, что получается на выходе – можете посмотреть на примере данной фото – да-да, жизнь – боль и Деда Мороза/Санта Клауса нет!:

file-15 file1-1

А теперь непосредственно к теме получения красивых фоточек из правильного полуфабриката и как получить этот полуфабрикат тоже! Смотрите еще одно видео из серии “полезных советов” – получился целый мастер-класс о том, что нужно, чтобы на телефоне сделать “крутую” фоточку для Instagram, Facebook и прочих социальных сетей.

На самом деле для получения классной фотки с телефона требуется не “самый крутой телефон с самой крутой камерой”, а следование простым шагам: во-первый – это фотографирование не “на автомате” и не встроенным приложением, а использование приложения, которое делает хорошие HDR снимки и позволяет вам как минимум выбрать отдельно фокус и экспозицию (для компенсации всяких пересветов), а во-вторых – правильно и со вкусом отредактировать полученное фото – и это не применение простых фильтров, это действительно послойное разделение фото на фрагменты с дальнейшим редактированием каждого слоя. Именно такой подход позволит получить действительно яркую эффектную запоминающуюся картинку для того же Instagram и при этом выделить то, что было потеряно даже при использовании HDR.


Мастер-Класс: Как быстро и легко сделать классное яркое фото для Instagram, Facebook и т.п. на любом мобильном


Да, я знаю – в этом своем видео я ссылаюсь на платные приложения – те же камеры для iOS – ProCamera и для Android – A Better Camera и, конечно же – Adobe Lightroom для мобильных – а в основном у нас любители бесплатного всего. Но, поверьте, цена этих приложений составляет 5-10долларов (я про платные камеры) – и это не такая большая цена по сравнению с тем же “новым более крутым телефоном с новой камерой” каждый год-два. В реальности – современные камеры даже телефонов среднего класса – очень и очень на уровне и при правильном подходе – о котором и рассказано в видео – можно получать отличные фотки на любом 2-3хлетнем телефоне с ценой от 150уе. Собственно, в этом – еще одна идея данного видео – рассказать и показать, как на любом приличном телефоне можно сделать классное фото, довести его до кондиции и получить много лайков и привлечь побольше подписчиков.

Хотя, если честно, как показывает мой многолетний опыт работы с Youtube – кол-во подписчиков – это или активное вложение денег в продвижение канала/профиля, или результат многолетних последовательных усилий по созданию контента (как в моем случае), когда даже не знаешь, какое именно видео выстрелит и принесет трафик и подписчиков, или вопрос удачи и случая. В любом, пользуясь данной инструкцией по созданию яркого интересного фото – каждый сможет “оживить и расцветить” свой аккаунт, а дальше – добавляя что-то интересное, яркое и разнообразное день за днем – можно будет говорить и о постепенном росте подписчиков. Ведь интересное содержимое контента того же Instagram является таким же обязательным условием развития, как и яркость и привлекательность этого самого контента – которую вы уже сможете существенно улучшить, я надеюсь, при помощи этого моего “мастер-класса” о создании красивых и ярких фото для социальных сетей.

А если у вас появились вопросы – пишите в комментариях – постараюсь ответить или же подписывайтесь на канал – http://bit.ly/iwalker2000_subs – подключайтесь к следующим моим прямым трансляциям – http://bit.ly/iLive2000 – сможете задать вопросы “вживую” и сразу получить ответ 😉

Для тех, кто интересуется советами про ИТ-карьеру – хочу порекомендовать посмотреть эту серию видео про то, как стать хорошим ИТ специалистом – http://bit.ly/ITcarriera_

И другие “полезные советы” разной тематики у меня на канале:

SysAdmin vs DevOps–что разного и что общего–будущее системных администраторов на примере автоматизации развертывания и конфигурирования VM в Azure–Infrastructure as Code и инструменты DevOps, которыми сисадмин должен будет владеть в ближайшем будущем


DevOps – одно из модных сейчас «поветрий» (наряду с «data scientist» и прочими «IoT» и «AI»), адепты которого активно продвигают мысль, что «все ИТ будет devops» – в прогрессивной ИТ-среде не останется системных (и прочих) администраторов, их таки заменят DevOps. НО, самое интересное, что даже внутри крупных ИТ корпораций, которым тренд «DevOps» приносит большие прибыли, нет единого мнения о судьбе в современных ИТ-инфраструктурах тех позиций, которые в общем называли «ИТ-профессионалы» («ТЫЖПРОГРАММИСТ!» – «нет, я администратор сети и безопасности») и которые в реальности к «Dev» вообще не прикасаются, а управляемые ими инфраструктуры настолько статичны, что их «Ops» не меняются годами и выполняются рутинно (я это называю «ребята нашли свой карман безделья»).

NoDevOpsПотому, в данной презентации со Стального Бубна 2018 во Львове, посвященной концепции Infrastructure as Code (IaC) для системных администраторов и архитекторов ИТ-инфраструктуры, я попытался (как оказалось, даже 1,5 часа очень и очень мало, чтобы рассказать и показать самые базовые концепции) сравнить те задачи, которые решают DevOps и SysAdmin, что у них отличного и, главное, что есть общего в работе и DevOps, и SysAdmin – какие современные тенденции на рынке управления ИТ-инфраструктурами позволяют использовать общий инструментарий и общие подходы в работе SysAdmin и DevOps. И все это, конечно же, на примере облачных технологий, связанных с Microsoft Azure.

Начнем, пожалуй, с того момента, что важность и потребность в позиции «DevOps» достаточно сильно «культивирована» теми компаниями, которые, собственно, продают инструменты для работы DevOps или компаниями-аутсорсерами, где DevOps – производственная необходимость в рабочем процессе с постоянным «выкатыванием» новых сборок ввиду забажености кода, производимого гребцами галер. Да и, собственно, сейчас какие только позиции и обязанности не называют красивым именем «DevOps». В реальности ситуация с DevOps примерно такая же, как с той картинкой про айсберг – DevOps сейчас – одна из самых «видимых» позиция в ИТ-индустрии, не считая девелоперов (потому что их раньше не было, точнее – не придумали еще такое слово, и технологии были «пожиже», а теперь они срочно нужны каждому уважающему себя аутсорсеру), а основное управление ИТ-инфраструктурой «обычных» компаний по прежнему лежит на плечах обычных таких системных администраторов, которые работают себе с этой самой инфраструктурой «по старинке». Я лично, и моя компания как раз оказывает услуги таким вот «обычным» компаниям и сейчас в тренде – это миграция части ИТ инфраструктуры в облака с последующим обновлением (читай – rebuild до архитектуры, близкой к требованиям PaaS) некоторых LoB решений компании или же – использование облачных сервисов типа Azure Backup или Azure Site Recovery для реализации более эффективного резервного копирования или защиты от сбоев. И у меня накопилась достаточно большая и релевантная статистика отношения руководителей (CIO, CEO) к концепции DevOps для работы с их ИТ-инфраструктурой.

Но перед тем, как продолжить тему Infrastructure as Codeрекомендую познакомиться с моим докладом на предыдущем Стальном Бубне, который подробно рассказывает, что бывает, когда DevOps используют (или они берутся сами за работу) не по прямому назначению – как архитекторы и администраторы ИТ-инфраструктуры обычной компании с ее обычными сервисами + немного облаков.


Steel Drum/Стальной Бубен – доклад по реализации проектов Azure Site Recovery или DevOps vs SysAdmin

Также смотрите и читайте другие материалы для ИТ-профессионалов у меня на канале iWalker2000 и блоге:

 

Итак, вернемся к отзывам обычных компаний про место DevOps и соответствующих процессов в их ИТ-инфраструктуре (комментарии собирательные, но некоторой – очень близко к тексту):

  • У нас нет разработки, у нас стабильная инфраструктура, которая нуждается в базовых рутинных операциях.
  • Мы планируем перенос инфраструктуры в облако, верно, но это будут реплики наших виртуальных машин или базовые сервисы.
  • Скрипты? Извините, но мои люди получают заплату за то, чтобы работали сервисы.
  • У нас рутинные операции, если надо – есть RDP/TeamViewer и прочие инструменты админа.
  • DevOps – это какие-то аутсорсеры, которых мы наняли для написания приложений, они работают в своей песочнице и инфраструктуры это не касается.

Как мы видим, с точки зрения руководителей ИТ в компаниях, которые «просто эксплуатируют ИТ, как часть производственного процесса» – места для DevOps в таких компаниях нет, а позиции системных администраторов прочны, как никогда. И таких компаний, для которых ПК или мобильные устройства всего лишь средство обработки производственной информации – большинство. Так что, стоит ли сисадминам почивать на лаврах?

Текущие тенденции в экономике и бизнесе – говорят, что нет… Хотя бы потому, что все идет, как обычно – нужно дешевле, быстрее и на вчера. В том числе – и в управлении ИТ-инфраструктурой. Быстрее развертывать новые сервисы, восстанавливать старые, подключать быстрее и больше пользователей и выдавать им данные на их запрос как можно оперативнее, а лучше всего – дать пользователю кнопку «сделать весь отчет/презентацию/работу за меня» 😉 И да! – Еще и параноидальная безопасность во всем + новое красивое слово GDPR (под которое можно подвести любые требования).

И, самое главное – компаниям упорно продают облака… Мировые гиганты в ИТ вкладывают в этот сегмент громадные деньги, в том числе и на маркетинг, что приводит к тому, что любой CIO задумывается над вопросом «а зачем мне облака?» и даже если не задумывается – ему обязательно напомнит его CEO вопросом типа «а что у нас там с облаками? Мне тут рассказали, что это на 30% эффективнее нашей текущей системы». Нет, я ничего против облаков не имею, и даже сам придумаю 10-15-20 причин, почему облака лучше локальной инфраструктуры – я просто озвучиваю тенденции и текущий момент раздумий CIO.

В результате сейчас сложилась ситуация, которая довольно патовая и для руководства ИТ-инфраструктур, и для сисадминов, и даже для тех самых корпораций, которые «пропихивают» массы в облака. Почему? Да потому что сейчас как бы существует 2 мира ИТ-инфраструктур, в одном из которых есть серверы с их консолями, традиционные системы и процедуры управления (от тех самых компаний, которые и «за облака»), а во втором – есть облака с совершенно другой концепцией управления, вроде как изначально заточенной под девелоперов и DevOps (что не принимается CIO/сисадминами – смотри выше) и в которые надо поместить путем «взяли и переставили» существующие серверы с нестыкующейся моделью управления внутри. И основные проблемы тут:

  • Традиционные модели управления устаревают ввиду новых облачных технологий и требований,
  • Очень много ручной работы и модификаций + еще один уровень абстракции в виде облака,
  • Ручное тестирование современной инфраструктуры требует больших затрат в целом и слушком затратно по времени,
  • Административные привилегии предоставляются без детализации задачи, ограничений по времени,
  • Операционные команды не накапливают опыт в виде готовой документации и повторяемых конфигураций – метод next-next-next этого не позволяет 😉

Потому общую тенденцию в изменении требований к управлению «обычной» ИТ-инфраструктуры «обычными» системными администраторами можно озвучить, как:

НОВЫЕ ПОДХОДЫ К УПРАВЛЕНИЮ ИТ ИНФРАСТРУКТУРОЙ ТРЕБУЕТ БОЛЕЕ ТОЧНЫХ, АВТОМАТИЗИРОВАНЫХ ПРОЦЕССОВ С ОБШИРНЫМИ ВОЗМОЖНОСТЯМИ ПО ДЕКЛАРАТИВНОМ ОПИСАНИЮ, ПОВТОРЕНИЮ И МАСШТАБИРОВАНИЮ, НЕЖЕЛИ СЕЙЧАС.

Как будут выглядеть ИТ-инфраструктуры будущего даже в «обычных» компаниях, которые соответствуют указанным требованиям и какой будет работа системного администратора, управляющего такой ИТ-инфраструктурой? – Правильно, как уже знакомое для DevOps понятие Infrastructure as Code со всеми вытекающими отсюда свойствами и возможностями:

  • Инфраструктура определяется как набор декларативных описаний объектов…
  • Которые сохраняются в конфигурационных файлах…
  • Точно описывающих установку отдельного сервера или всего окружения…
  • С «идемпотентностью» (вот же слово придумали) …
  • С автоматизацией конфигурирования и рутинных операций…
  • С сохранением ИТ администраторских навыков и инструментов…
  • + внедрения процедур, применяемых в разработке ПО – Source/Build/Test/Release

Что изменится в результате распространения концепции Infrastructure as Code для системных администраторов не только в облачных ИТ-инфраструктурах, но и в их локальных сетях и любимых продуктах, а также в самих процедурах работы с ИТ-инфраструктурой в средних и крупных компаниях?

  • Распространение концепции декларативной Infrastructure as Code на локальные инфраструктуры (например, с распространением Azure Stack),
  • Перенос большинства сервисов управления и мониторинга в облака (уже сейчас активно развиваются облачные Microsoft Intune и Operations Management Suite) с применением к ним возможностей управления через конфигурацию,
  • Автоматизация работы облачных, гибридных и локальных с использованием облачных сервисов типа Azure Automation и гибридных runbook,
  • Постепенный дрифт AD в сторону Azure AD + Desire State Configuration (DSC), который придет на замену привычных групповых политик (учим DSC уже сейчас),
  • Повышение требований Business Continuity / Disaster Recovery и, как результат, более активное использование в компаниях таких средств, как Azure Backup и Azure Site Recovery – готовой песочницы для того, чтобы при крупной катастрофе локальной инфраструктуры компания «рывком» оказалась в облаках (и вы даже не представляете, какая будет паника у ИТ после этого!),
  • Иметь 2-3 параллельные идентичные инфраструктуры будет нормой – что позволит быстро вводить в эксплуатацию новые решения или реагировать на катастрофы,
  • И да, концепт на то, что в нынешних условиях дешевле все с нуля пересобрать, развернуть или переключить несколько слотов развертывания с использованием декларативных шаблонов, описанных выше – чтобы быстро обеспечить бизнесу работу служб – а после искать ошибки, которые привели к сбоям или остановке предыдущей,
  • Изменяются процедуры и сам стиль работы ИТ отделов – «админ» поправил файл конфигурации, собрал, затестил, зарелизил в автоматизированной системе (даже, возможно, с тестовым развертыванием в свободный слот) – и шеф нажал кнопку деплоймента в продакшен. Все это – с версионностью, трекингом изменений конфигураций, мониторингом событий и возможностью повторить операцию бесконечное количество раз даже на уже работающей инфраструктуре без потери ее работоспособности (та самая «идемпотентность»).

Итак, перспективы развития облачных, гибридных и даже локальных ИТ-инфраструктур и подходов управления ими в ближайшие годы понятны. Что делать системному администратору, который осознал, что его умение создать, настроить виртуальную машину и установить внутрь нее ОС с настройкой ролей этой ОС и даже детальных отдельных сервисов, типа вебсайта – скоро окажется невостребованным по причине замены этих навыков новыми инструментами? Есть много ответов на этот вопрос, например – «уйти из ИТ», или «переквалифицироваться в DevOps», или «в бьюти-/тревел-блогеры» (ага, это троллинг самого себя, у автора достаточно большое количество видео, посвященных путешествиям – «Путевые Заметки Игоря Шаститко» – http://bit.ly/iwalker2000_travels1 ), или «просто развиваться и постараться взглянуть на способы администрирования ИТ-инфраструктур под другим углом». И изучать новые технологии и инструменты управления, которые уже есть на рынке, и которые используют те же DevOps (так что, если хотите в DevOps – учиться придется еще больше и тому же). А именно:

  • Шаблоны описания конфигураций – Azure Resource Manager templates (ARM, доступен и в локальных облаках Azure Stack),
  • Средства развертывания инфраструктур из шаблонов и просто скриптами – портал Azure, Azure PowerShell, Azure CLI, VS, GitHub,
  • Средства контроля конфигураций – Desire State Configuration (DSC) – и не только в базовых сценариях, но и в сочетании с теми же шаблонами ARM,
  • Облачные средства автоматизации и мониторинга – такие, как Azure Automation, Hybrid Runbook Workers, Operations Management Suite и прочие реакции на события и т.п.,
  • Средства управления исходным кодом шаблонов, скриптов развертывания, runbook, DSC, с интеграцией Azure с GitHub и прочими решениями,
  • Средства управления процессом разработки ИТ-инфраструктуры с подходом Infrastructure as Code – Source/Build/Test/Release – с применением тех же облачных сервисов Visual Studio Team Services и т.п.

И, после такой вводной части – рекомендую все же посмотреть полную запись моего выступления на конференции «Стальной Бубен» во Львове в мае 2018 – «Автоматизация развертывания и конфигурирования VM в IaaS Azure – взгляд со стороны админа, а не DevOps» – кроме, собственно, слайдов системные администраторы найдут в этом видео примеры использования всех перечисленных технологий и инструментов. Да, как я уже писал, я немного просчитался со временем, к сожалению, опыт показал, что для подобной презентации с демо потребуется минимум в 3 раза больше времени, потому я планирую включить все эти демо в запланированную на своем канале серию, посвященную работе системного администратора с Microsoft Azure, а уже опубликованные серии, где рассматривается применение Azure со стороны системных администраторов, найдете здесь – https://youtu.be/MEjC_GityKc


Steel Drum/Стальной Бубен – Infrastructure as Code – автоматизация развертывания VM в Azure 

Выводы? Для системных администраторов – они не утешительные – «учиться, учиться и еще раз учиться» – вас ждет «большая ломка» – методов, инструментов, и собственно, того, чем вы будете управлять. Потому – всех действительно заинтересованных ожидает очень интересная дорога вперед, перед которой вы должны понять несколько простых истин из будущего (которые я вкратце постарался осветить в данном видео):

  • Все «артефакты» Infrastructure as Сode, описывающие даже самые сложные инфраструктуры компаний – простые текстовые файлы, как и исходный код у девелоперов!
  • «Админы инфраструктуры» медленно переползают в «разработчиков инфраструктуры» (писателей ARM шаблонов и скриптов runbook на PowerShell)…
  • «Админы рабочих мест/серверов» в «разработчиков конфигураций» (писателей DSC и, снова же – скриптов PowerShell)…
  • Инфраструктурный и конфигурационный код может быть сохранен, версионизирован, протестирован и распространен, как и программный код – у вашей инфраструктуры вскоре появятся свои сборки, свои релизы, и свои тестовые и разрабатываемые копии в отдельных «слотах».
  • И да поможет вам <тут фрагмент политкорректности> в вашем постижении новой мудрости и желании перерасти свой консерватизм с RDP и кликами next-next-next!!!

Это не единственный семинар, который я читал в Украине, в ближайшее время еще одно интересное мероприятие для сисадминов пройдет в Харькове, 13 июня 2018 всех интересующихся приглашаю сюда – SysAdmin Day.Kharkiv 2018 – https://www.facebook.com/SysAdminDayUA/ (предварительная регистрация обязательна). И, конечно же, следите за выпусками технических видео на канале – http://bit.ly/WindowsServer_overview .

 

Первые серии нового курса по использованию Azure IaaS и обо всем том, где будет рассмотрено подробно все то, о чем я говорил в данной презентации:

 

Видео об ИТ-карьере – как стать ИТ-специалистом и заработать много денег:

Немного ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

И смотрите другие видео для ИТ-специалистов у меня на канале:

Видео про новые возможности дисков и дисковых массивов:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

СофТы: что делать, если "тормозит" комп–пошаговая инструкция по измерению, тестированию и оптимизации производительности дисковой подсистемы ПК/сервера для “разгона” компа…


Выполняя пожелания посетителей моего канала iWalker2000, нашел время таки упорядочить серии видео (особенно технических видео и Путевых Заметок) в виде законченных постов на блоге, содержащих все связанные между собой и релевантные видео. И первой под раздачу попала серия про то, как проверить, что именно у вас тормозит в ПК или сервере и если проблемы с дисковой подсистемой – как оптимизировать работу дисков или выбрать правильный диск, чтобы “ускорить” ПК или сервер.

  • Обзоры Gemini PDA 4G – смартфона с полноценной QWERTY-клавиатурой для работы ►►► http://bit.ly/GeminiPDA_reviews
  • Еще про диски – что такое NVMe, новые быстрые NVMe диски ►►► http://bit.ly/Entry_NVMe 
  • Все обзоры серверного “железа” от компании Entry ►►► http://bit.ly/Entry_servers_review
  • ИТ-карьера, как стать системным администратором ►►► http://bit.ly/ITProSysAdmin
  • Как восстановить “сдохшую” microSD, SD или USB флешку, которая не форматируется или не читается ►►► https://youtu.be/3BcisASmAe0
  • Почему сдыхают флешки/microSD ►►► http://bit.ly/why_microsd_died
  • IT-эмиграция, ИТшники рассказывают о том, как им живется и работается “за бугром” ►►► http://bit.ly/ITemig
  • Как эмигрировать из СНГ, как получить вид на жительства в Евросоюзе ►►► http://j.mp/slovgo

Если ваш ПК или сервер тормозит, то, скорее всего, причина медленной работы системы в целом или отдельной службы/приложения кроется в проблемах дисковой подсистемы. Как показывает личный опыт, именно медленный или очень нагруженный диск является причиной “тормозов” в 80% случаев. Так что данное видео позволяет вам понять, каким образом производительность вашего компьютера под управлением Windows зависит от диска, насколько диск нагружен сейчас, как провести тестирование максимальных возможностей диска и, самое главное – в данной серии видео подробно рассказано про все этапы анализа производительности ПК и выполнения процедур по оптимизации скорости работы дисков, планирования новых дисков и их массивов, и, как результат – укорения работы всего ПК в целом. Так что воспринимайте эту серию, как очень подробный учебный курс по производительности дисков, который вы можете прослушать бесплатно. Кстати, даже в платных учебных центрах Microsoft – вы не найдете такого обширного и детального курса по теме планирования, мониторинга, оптимизации и ускорения дисковой подсистемы Windows. Так что не забывайте благодарить автора, ставить лайки к видео, делиться ссылкой на эту статью и видео в социальных сетях и т.п. И, конечно же – подписывайтесь на мой канал iWalker2000.

Как и чем измерять текущую нагрузку/производительность диска

Итак, по многочисленным просьбам – давно обещанное техническое видео, посвященное управлению производительностью компьютеров – особенно – серверов. Данное видео – первое из серии видео, посвященных производительности дисковой подсистемы в компьютерах под управлением Windows (и не только).

В этой части смотрите про то, что является основным показателем производительности и загруженности диска и как определить, “тупит” ваш диск или нет. И, конечно же, как померять текущую нагрузку на диск и какие утилиты позволяют это сделать быстро и просто.

А также – как зажурналировать всю производительность вашего диска за определенно время, чтобы потом спокойно разобраться с тем, что же на самом деле у вас не так (с диском и по жизни 😉


СофТы: что делать, если “тормозит” комп – как и чем померять производительность диска, ч.01 

В следующих частях – смотрите про тестирование дисков – как оценить максимальные параметры производительности диска под разными задачами/нагрузками и, далее, конечно же – тюнинг производительности диска и дисковой подсистемы в целом.

 

Нагрузочное тестирование и измерение производительность диска с iometer, ч.02

Продолжаем тему измерения производительности дисков и ускорения работы сервера/ПК путем оптимизации и тюнинга дисковой подсистемы. В первой части я рассказал, что и как мерять, а в этой части смотрите, как генерировать тестовую нагрузку при помощи утилиты iometer.

Скачать утилиту iometer можете здесь – http://www.iometer.org/doc/downloads.html , а файл с шаблонами для iometer, в котором вы найдете в том числе и эмуляцию нагрузки файлового сервера (что позволяет понять, например, как будет вести дисковая подсистема при высокой нагрузке в виде виртуальных машин), можете забрать с моего OneDrive – https://1drv.ms/u/s!AM7EfLavPWLMq9cR . Также хочу напомнить, что если у вас сервер планируется под специфическую нагрузку – типа SQL Server или Exchange Server (или другие серверы, работающие именно с БД) – вы должны четко понимать, какими блоками данных оперирует при работе с диском – например, SQL Server оперирует блоками 64КБ при чтении/записи на диск.


СофТы: что делать, если “тормозит” комп – меряем производительность диска с iometer, ч.02 

Надеюсь, процедура тестирования производительности дисковой подсистемы при помощи iometer разжевана достаточно подробно и вы сможете прогнать свои диски на предмет “правильной” нагрузки и увидеть, что вы будете получать на выходе. И хочу напомнить пять вещей про тестирование дисков с iometer в реальной жизни под реальную задачу:

  • вы должны примерно понимать текущую нагрузку на систему – кол-во обращений, отношение чтения и записи, какими блоками данных оперируют приложения, которые будут работать с дисками;
  • есть большая разница между операциями непосредственно с “голым” диском и операциями с файловой системой, поэтому выбор и тестирование файловой системы и размера кластера на ней – может быть критичен для производительности;
  • правильно подбирайте длительность выполнения теста (особенно для тестов с файловой системой, где надо дождаться заполнения кеша и прочих “слоев” – т.е. 3-5 часов теста для реальной большой дисковой системы – это нормально), размер тестового файла (желательно – на размер планируемых данных), количество тестовых процессов Worker (например, каждый тестовый процесс может соответствовать виртуальной машине, которая будет работать с дисковой подсистемой), кол-во генерируемых ими IOPS и микшируйте несколько нагрузок/дисков в одном тесте, чтобы убедиться, что вы нагружаете и меряете не один диск, а реальную нагрузку на дисковую подсистему.
  • подбирайте и тестируйте нагрузку так, чтобы она дошла до критических показателей (основным из которых, как вы знаете из предыдущего видео про измерение производительности диска – является время отклика диска – желательно, чтобы показатель был ниже 30мс, а 20мс – это идеально) и фиксируйте именно этот полученный результат по основным показателям. Это и будет правильная производительность.
  • и, наконец, не верьте только iometer и его показателям – оценивайте производительность дисковой подсистемы “в целом”, по другим важным показателям, которые дает возможность собрать тот же Performance Monitor в режиме логирования (про это тоже смотрите в предыдущем видео про основные показатели/счетчики производительности дисков). При тестировании дисковых подсистем следует обратить внимание и на потребление памяти, и на нагрузку на процессор. Также – очень полезно использовать iometer в сетевом режиме тестирования, чтобы оценить не только скорость работы дисков, а и сетевого интерфейса.

Так что тестируем дисковую систему во всевозможных режимах и комбинациях нагрузки, особенно – перед покупкой. Обязательно попросите своего поставщика дать возможность прогнать аналогичную систему на тестовом стенде. Например, компания Entry – которая является многолетним поставщиком оборудования для тех же семинаров Microsoft, которые я провожу в Украине – предоставляет заказчикам такую возможность и даже поможет спроетировать “железо” для дисковой подсистемы.

 

Как выбрать оптимальный тип диска – SSD, NVMe SSD, SSHD, HDD – под конкретную задачу и имеющийся бюджет?

Продолжаем тему измерения производительности дисков и ускорения работы сервера/ПК путем оптимизации и тюнинга дисковой подсистемы. В первой части я рассказал, что и как мерять на компе, чтобы определить, что проблема низкой скорости работы ПК/сервера – в загруженности дисковой подсистемы или физически медленных жестких дисках, во второй части смотрите, как генерировать тестовую нагрузку при помощи утилиты iometer , а в этой части – смотрите немного теории о том, как и для каких задач выбирать диски в ПК. Сразу скажу, что это видео записано больше как ответ на многочисленные вопросы от посетителей (чаще всего – обычных пользователей) о том, что же им делать, чтобы разогнать систему (особенно старую) и какой новый диск купить на смену сдохшего “старичка”

В этом видео рассматриваются основные сценарии использования дисков в ПК – работа ОС, активные приложения, пишущие и читающие много и часто, горячие/теплые данные и холодные данные – и какие варианты дисков подходят для каждого из этих сценариев.


СофТы: что делать, если “тормозит” комп – как правильно и под какие задачи выбирать диск, ч.03 

И, конечно же, в этом видео – сравнение всех вариантов существующих на рынке хранилищ (будем все же называть их по традиции дисками):

  • преимущества и основные сценарии использования SSD (Solid State Drive)
  • что такое NVMe SSD и почему они не нужны обычным пользователям
  • сценарии использования гибридных дисков SSHD (Solid State Hybrid Drive) – HDD с дополнительным кешем на флешке (2-8ГБ) и как они работают под нагрузкой в разных сценариях
  • и, конечно же, HDD – меня очень часто спрашивают – что какой брать – HDD 5400 или 7200 оборотов и всегда упирают на цену.

И да, хочу сказать, что деньги тут в выборе – самое главное, поскольку современные ОС активно используют диск, особенно при малом объеме ОЗУ (до 4ГБ) – потому жесткие диски HDD даже с 7200 оборотами – не лучшее место для размещения на них ОС. Поэтому – для ОС SSD 128ГБ или SSHD (на худой конец и маленький бюджет) + обычный HDD 7200 на теплые и холодные данные (фильмы, музыку, всякое разное). И для подобных коллекций подойдет и HDD 5400 – можете сэкономить 10 баксов.

 

Оптимизация производительности файловой системы – отключение неиспользуемых атрибутов файлов, правильный размер кластера при форматировании и т.п.

Решил долго не затягивать с темой оптимизации производительности дисков и второй частью видео про то, как правильно выбирать и настраивать диски – потому быстренько записал обещанное продолжение, в котором вы узнаете, как оптимизировать файловую систему (особенно, если речь идет о нагруженных серверах или рабочих станциях).


СофТы: что делать, если “тормозит” комп – оптимизация производительности файловой системы, ч.03B 

В этом видео вы узнаете:

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Использование RAID для ускорения дисковой подсистемы – что такое RAID и рекомендации по применению аппаратных RAID на ПК

И снова видео про диски – для тех самых – любопытствующих и интересующихся – как “разогнать” свой ПК, почему именно диски являются основной проблемой производительности ОС и как ускорить работу дисковой подсистемы. В этом видео – немного теории о том, какие RAID бывают и что означают все это RAID 0, RAID 1, RAID 5, RAID 10 и прочие страйпы, зеркала и коды… Кроме того – пара практических рекомендаций по применению именно аппаратных RAID – особенно, учитывая наличие аппаратных RAID пользовательских материнских платах.


СофТы: что делать, если “тормозит” комп – что такое массивы дисков RAID и их использование на ПК, ч.04

И, традиционно – более детально в этом видео смотрите про:

 

Ускорение, оптимизация и защита от сбоев данных с использованием встроенного программного RAID в Windows

И снова видео про диски – для тех самых – любопытствующих и интересующихся – как “разогнать” свой ПК, почему именно диски являются основной проблемой производительности ОС и как ускорить работу дисковой подсистемы. В этом видео – практическое применение программного RAID в клиентской Windows. Напомню, что про сами RAID и их уровни вы можете посмотреть в предыдущем видео.

В клиентской Windows (начиная с Windows NT Workstation и далее – в Windows 2000 Professional, Windows XP и т.д.) есть встроенный программный RAID (не путать с более новой службой Storage Spaces, которая относится больше к SDS решениям, чем к локальным RAID), который позволяет достаточно эффективно работать с RAID для отдельных разделов, создавая RAID 0, RAID 1 конфигурации.

Кроме того, данный встроенный вариант программного RAID Windows позволяет защищать загрузочные и системные разделы Windows, используя зеркалирование RAID 1 для того же раздела с Windows. Так что кроме “разгона” ОС вы получите еще и некоторую надежность…

Почему некоторую? потому что зеркалирование будет применяться только к разделу с Windows, но в случае с современными системами с UEFI – надо будет зазеркалировать и тот же раздел UEFI, и раздел восстановления с “оригинального” диска – чтобы в случае полного выхода из строя основного диска – можно было бы стартовать с зеркала не только ОС, но и загрузчики UEFI и т.п.


СофТы: что делать, если “тормозит” комп – использование программного RAID в Windows для ускорения работы дисков и Windows, ч.05

И, традиционно – более детально в этом видео смотрите про:

 

Ускорение, оптимизация и защита от сбоев данных с использованием новой службы программно-определяемых хранилищ (ПОХ, оно же SDS) в Windows – Storage Spaces

УРА! Заключительная часть серии про то, как “разогнать” свой ПК, почему именно диски являются основной проблемой производительности ОС и как ускорить работу дисковой подсистемы. В этом видео – практическое применение новой службы управления дисковыми массивами Storage Spaces в клиентской Windows. Напомню, что про сами RAID и их уровни вы можете посмотреть в предыдущем видео, а про использование “родных” программных RAID в Windows смотрите здесь.

В клиентской Windows (начиная с Windows 8) кроме службы “обычных” RAID , о которых я рассказывал в прошлом видео, есть также служба Storage Spaces, которая предлагает не просто организацию RAID для отдельных разделов дисков, а подное управления программно-определяемым хранилищем (ПОХ), а прилично оно звучит на языке оригинала – Software Defined Storage (SDS).

Такое хранилище имеет массу преимуществ перед имеющимися встроенными RAID, как, например, работу с USB дисками, кеширования данных  на чтение и запись, создание слоев хранения данных на разных типах данных и т.п.

Минусом использования Storage Spaces в домашних условиях можно назвать необходимость выделения дисков (полностью) под Storage Pool – основной объект Storage Spaces, который объединяет все нужные физические диск в едуный объект хранения и управления, из которого уже “нарезаются” все необходимые виртуальные диски RAID, их слои и кеши. НО, учитывая возможность использования тех же дисков USB для Storage Pool – вы можете запросто не только расширить свое дисковое пространство за счет внешних USB, но и разогнать их производительность за счет RAID в Storage Space.


СофТы: что делать, если “тормозит” комп – использование Storage Spaces в Windows 10 для ускорения работы дисков и Windows, ч.06

Все этапы работы с Storage Spaces показаны в данном видео и здесь привожу примеры команд PowerShell:

  • Создание Storage Pool под именем SP1 из всех доступных физических дисков:
    • $PhysicalDisks = (Get-PhysicalDisk -CanPool $True)
    • New-StoragePool -FriendlyName SP1 -StorageSubsystemFriendlyName “Windows Storage*” -PhysicalDisks $PhysicalDisks -ResiliencySettingNameDefault Simple -ProvisioningTypeDefault Fixed -LogicalSectorSizeDefault 512 -Verbose

Напомню, что данная команда создает пул дисков с фиксированными размерами по умолчанию (для повышения их дальнейшей производительности) и с размером сектора 512 байт (если вы используете современные диски, ОС и приложения, можете смело поменять 512 на 4096 в команде).

  • Создание RAID0New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName “RAID0” -Size 12GB -Verbose – диск после создание потребуется проинициализировать, создать на нем раздел и отформатировать стандартными средствами Windows
  • Создание RAID1 (зеркала) с двумя копиями данных и дальнейшим автоматическим созданием раздела и форматированием на полученном диске – New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName “RAID1” -Size 8GB -ResiliencySettingName Mirror |Initialize-Disk -PassThru |New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem NTFS -FileSystemLabel “RAID1” -Verbose
  • Создание специального RAID1 с тремя копиями данных, напомню, что для создания такого тройного зеркала требуется минимум 5 дисков – New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName “RAID1-3” -Size 12GB -ResiliencySettingName Mirror -NumberOfDataCopies 3 |Initialize-Disk -PassThru |New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem NTFS -FileSystemLabel “RAID1-3” -Verbose
  • Создание RAID5 – RAID0 с четностьюNew-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName “RAID5” -Size 12GB -ResiliencySettingName Parity |Initialize-Disk -PassThru |New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem NTFS -FileSystemLabel “RAID5”

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

Видео об ИТ-карьере – как стать ИТ-специалистом и заработать много денег:

Немного ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

И смотрите другие видео для ИТ-специалистов у меня на канале:

Видео про новые возможности дисков и дисковых массивов:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Отказоустойчивые кластеры Windows Server 2016 Failover Clustering–инструкция по базовому развертыванию, настройке ролей, а также–созданию гостевого кластера и кластера без подключения к Active Directory


Еще немного технических видео на канале… Нет, это видео не про Petya – про защиту от Petya смотрите здесь и читайте статьи здесь на блоге, и не про мониторинг производительность дисков (но обещанное продолжение про производительность тоже следует). Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

image

Меня тут уговорили сделать “краткую” инструкцию по развертыванию отказоустойчивого кластера Windows Server 2016 Failover Clustering – как развертывается, какие проблемы могут быть и почему не работает.

Хотя это видео про развертывание кластера Windows Server 2016 и получилось слегка длинным – но, на мой взгляд – удачным – тут и использование тиминга (NIC Teaming) сетевых интерфейсов для ускорения дисковых операций, и подключение к сетевым дискам iSCSI для общего хранилища кластера, и проблемы с правильным определением кластеров “нужных” сетевых интерфейсов с дальнейшим исправлением, и, конечно же – создание собственно отказоустойчивых ролей в кластере – таких, как высокопроизводительный отказоустойчивый файловый сервер Scale-out File Server и роль виртуальной машины Hyper-V, и вложенная/наследуемая виртуализация (nested virtualization) в Hyper-V, используемая для лабы.

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Надеюсь, это видео про основные шаги при развертывании отказоустойчивого кластера Windows Server 2016 Failover Cluster будет полезным для тех, кому “вот прямо срочно” требуется развернуть кластер на Windows Server 2016 и запустить в нем те или иные роли.


СофТы: как развернуть и настроить кластер Windows Server 2016 Failover Clustering, ч.01

Но я пообещал более подробно (кроме собственно, развертывания кластера) раскрыть эту тему – поэтому в следующем “длинном” видео смотрите более подробно про настройки параметров ролей в кластере, а также – о создании гостевого кластера (кластера внутри кластера) для еще более бесперебойной работы и высокой доступности приложений.

И немного о вирусе Petya и украинской “эпидемии”

Продолжение темы про отказоустойчивые кластеры Windows Server 2016 – на этот раз про настройки собственно отказоустойчивости и высокой доступности. А предыдущее видео – про установку и начальную настройку самого кластера Windows Server 2016 Failover Clustering – смотрите тут.

В этом видео про настройку ролей в отказоустойчивом кластере Windows Server 2016 Failover Clustering вы найдете:

  • как работает отказоустойчивость и высокая доступность в кластере Windows для “обычного” приложение – настройка количества сбоев, перезапуск/”переползание” приложения между узлами кластера, остановка приложения.
  • работа приложений, поддерживающих распределенный режим работы и позволяющий им работать на всех (нескольких) узлах кластера одновременно – на примере Scale-Out File Server.
  • Работа отказоустойчивой виртуальной машины Hyper-V в кластере.
  • Настройка параметров восстановления роли кластера в случае сбоя одного из узлов кластера – возврат роли на оригинальны узел после восстановления работоспособности роли, настройка общих приоритетов работы роли и преференций по работе роли на разных узлах кластера Windows Server 2016.
  • Настройка мониторинга отдельного сервиса внутри роли виртуальной машины кластера Hyper-V для мониторинга состояния отдельных процессов ВМ и ее общего здоровья, запущенной в кластере.
  • И, конечно же, демонстрация “падения” одно из узлов кластера Windows Server 2016 и реакция на это событие разных типов ролей – подолжение процесса копирования файлов на Scale-out File Server, старт общей роли на втором узле кластера, и перезапуск виртуальной машины, которая “обрушилась” при падении узла кластера.

Смотрим, учимся, разбираемся и планируем отказоустойчивую работу и высокую доступность необходимых приложений под управлением Windows Server 2016 Failover Clustering.


СофТы: настройка отказоустойчивых ролей в кластере Windows Server 2016 Failover Clustering, ч.02

В продолжение темы про отказоустойчивые кластеры Windows Server 2016 – в следующем видео смотрите про создание гостевого кластера из виртуальных машин Hyper-V внутри основного (физического) кластера Windows Server 2016. Зачем? чтобы гарантировать еще более высокую доступность и надежность приложения, запущенного на виртуальной машине в кластере (которое будет тоже в кластере). Так что улучшается доступность чуть ли не на порядок 😉

Видео об ИТ-карьере – как стать ИТ-специалистом и заработать много денег:

Заключительное видео в серии по теме отказоустойчивого кластера Windows Server 2016создание гостевого кластера из виртуальных машин внутри основного кластера – такая себе фукурума 😉

Особенностью данного видео и основным отличием от первого видео – просто развертывания кластера Windows Server 2016 – в том, что гостевой кластер создается не просто так, а в режиме “Active Directory-Detached Cluster” – отключенного от Active Directory кластера Windows.


СофТы: установка гостевого Hyper-V кластера Windows Server 2016 без Active Directory, ч.03

Подробную инструкцию по развертыванию гостевого кластера Windows Server 2016 без Active Directory вы найдете в этом видео, а основные шаги по развертыванию такого отключенного от AD кластера Windows приводятся ниже:

  • все узлы кластера должны быть зарегистрированы в каком-то из доменов (зон) DNS – для этого необходимо, чтобы DNS сервер поддерживал динамические обновления, суффиксы требуемого домена были прописаны в настройках серверов, а в настройках сетевых интерфейсов – стояли опции обязательной регистрации имени. Или вам потребуется создавать все записи в DNS зоне для узлов кластера, самого кластера и его ролей ручками.
  • настройки firewall должны разрешать обращаться всем узлам друг к другу.
  • на каждом из узлов будущего кластера должна существовать учетная запись-локальный администратор с общими одинаковым именем и паролем. Также, должен быть отключен сетевой фильтеринг в UAC – тот самый ключ в реестре – New-ItemProperty -Path HKLM:\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System -Name LocalAccountTokenFilterPolicy -Value 1
    ВНИМАНИЕ! Помните, что такой кластер представляет собой потенциальную жертву для атак типа pth/ptt – которые использует тот же Petya и другие вирусы (и просто хакеры). Поэтому
    смотрите видео про защиту от подобных атак Pass-the-Hash/Pass-the-ticket и, конечно же, читайте статью, посвященную стратегии защиты ИТ-инфраструктуры Defense-in-Depth на примере защиты от Petya.

А поскольку мы развертываем гостевой кластер из виртуальных машин и ему требуется также общие диски для своей работы – смотрите в данном видео сценарии, каким образом вы можете создать и где разместить такие диски в виде специальны общих виртуальных дисков Hyper-V (Shared Disk – VHDX или VHD Set). И, пожалуйста, не монтируйте диски гостевого кластера на те же LUN SAN/iSCSI, которые уже используются “большим” основным кластером – это приведет к катастрофическим последствиям для обеих систем.

Думаю, что все 3 инструкции по кластерам Windows Server 2016 помогут вам освоиться с базовыми аспектами работы с отказоустойчивыми кластерами Windows Server 2016 и их вариациями – гостевым кластером из виртуальных машин Hyper-V и кластером Windows без использования Активного Каталога.

Поэтому данную тему будем пока считать закрытой… Хотя есть масса нюансов в обслуживании повседневном кластеров и, конечно же, есть команды PowerShell, которые позволят намного быстрее и гибче развертывать и управлять кластерами Windows… Но это тема уже другой серии видео про кластеры Windows Server 2016.

А в продолжении технических видео на канале – все та же производительность дисков – измерение скорости работы и ускорение дисковой системы.

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Немного ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

И смотрите другие видео для ИТ-специалистов у меня на канале:

Видео про новые возможности дисков и дисковых массивов:

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Вирус Petya и правильная комплексная защита от него и подобных следующих вирусов, которая должна была быть в каждой ИТ-инфраструктуре–то, что не сделали вовремя украинские CIO


А теперь послушайте страшную историю о том, что вы действительно должны были сделать, дорогие мои CIO – так сказать, «техническое алаверды» тому потоку негатива от обиженных CIO и “патриотов”, который последовал за публикацией предыдущего поста «про Petya» в ФБТрагедия и фарс–украинские CIO и 150долларовые админы,российский след и “атака ФСБ”,тотальный факап Microsoft Ukraine–все, что вам надо знать о причинах вчерашней вирусной атаки в Украине

Особенно «возбудились» почему-то некоторые «патриотические» деятели с дежурной фразой – «ты не живешь в Украине, какое право ты имеешь об этом писать!» – спасибо, повеселили, значит, мой «толстый» троллинг зацепил за живое…

Ладно, оставим лирику – все равно я всякое разное в ФБ комментах покилял, а самых ярых – заблокировал.

А мы посмотрим пошагово, чего же такого «провтыкали» CIO, что могло бы предотвратить эпидемию в украинских компаниях «на корню», что есть в базовых рекомендациях Defense-in-Depth https://msdn.microsoft.com/en-us/library/cc767969.aspx и реализовать которые не является большой проблемой. Напомню, требования Defense-in-Depth (DiD) достаточно простые и предусматривают реализацию тех или иных сервисов защиты на всех уровнях ИТ-инфраструктуры.

Уровень

Технологии

Данных

ACL/шифрование/классификация данных с RMS

Приложений

SDL, антивирусы, «бронирование» приложений и сервисов, App/Device Guard

Хостов

«Бронирование» ОС, аутентификация, управление обновлениями, FW, защита от вторжения (IDS), VBS, Device Guard

LAN

Сегментирование и изоляция (VLAN), шифрование (IPSec), защита от вторжения (NIDS)

Периметр

FW, контроль доступа, App FW, NAP

Физическая безопасность

Охрана, ограничение доступа, аппаратный контроль и аудит доступа, отслеживание устройств, камеры наблюдения

Люди, политики, процедуры

Документирование, тренинги, предупреждения и уведомления, наказания…

Есть и более «продвинутые» методы защиты, которые обеспечивают высокий уровень защиты от современных типов атак, которые в том числе, использовались и в Petya – Securing Privileged Access – http://aka.ms/privsec

Итак, начнем с первичного заражения. В данной эпидемии рассматривается 2 основных сценария – проникновение через почтовые сообщения в виде вложения к письму и через систему обновлений MEDoc, так называемую атаку «software supply chain attacks», когда взламывается поставщик ПО. Подробно, кто еще не прочитал – «разбор полетов» можете посмотреть здесь – https://blogs.technet.microsoft.com/mmpc/2017/06/27/new-ransomware-old-techniques-petya-adds-worm-capabilities/

При этом в первом сценарии запущенный пользователем из почты исполнимый файл атакует ОС через уязвимости SMBv1 (EternalBlue/EternalRomance) и получает все требуемые права, чтобы выполнить свои процессы – шифрование и распространение.

Какие методы противодействия Defense-in-Depth помогут от подобной атаки:

  • Периметр – сервис фильтрации почтовых сообщений (например, в Microsoft Exchange) – просто удаляющий все файлы, кроме разрешенных типов, антивирусная система для электронной почты, если нет чего-то подобного – аренда аналогичных облачных сервисов, например – Exchange Online Protection, «знания» которого не зависят от «расторопности» админов (время внедрения – 30 мин + обновление доменного имени).
  • Приложения – антивирусы, которые ловили Petya.A с самого начала эпидемии. Надо обновлять сигнатуры – нет, не слышали?
  • Хост – бронирование ОС – накатить готовые политики с рекомендованными настройками безопасности от Microsoft Security Compliance Manager или доточить их под рекомендации – например, отключить SMB v1 как класс и прочие ненужные устаревшие сервисы – плевое дело, управление обновлениями (совсем не сложно, особенно, если Windows не пиратская), с IDS сложнее, но даже тут – всего лишь подписка на Defender Advanced Thread Protection, который, как показала практика, ловит атаки подобного типа на корню.
  • ЛПП – обучение не открывать файлы, предупреждение об возможных атаках и наказание – вплоть до увольнения и судебных исков против запустивших вирус (ах, да – страна такая, законы не работают – тогда просто переломайте запустившему вирус ноги).

Так что в данном случае – сам факт заражения существенно снижается…

Сценарий второй – вирус «прилетел» через обновление той или иной LoB-системы и здесь пока почти без шансов – скорее всего компьютер будет заражен, поскольку код выполняется от прав системы.

Но не будем расстраиваться. Мы потеряли один компьютер и далее все зависит исключительно от устойчивости ИТ-инфраструктуры в целом.

Дальнейший сценарий распространения вируса Petya проходит по нескольким направлениям:

  • Механизм, использующий уязвимость SMBv1 (EternalBlue/EternalRomance) на находящихся в одной подсети с зараженным ПК компьютерах,
  • Или механизм pass-the-hash/pass-the-ticket, используя имеющиеся на зараженном ПК сеансы пользователей.

Первый вариант распространения вируса на соседние ПК блокируется очень просто с Defense-in-Depth:

  • LAN – сегментирование и изоляция (VLAN) – совсем просто, особенно учитывая кол-во накупленных в компаниях Cisco и прочего оборудования, надо только сесть и чуть подумать, какой же трафик куда должен ходить между сегментам пользовательских ПК (многочисленных и разнесенных тоже) и серверами приложений (тоже сегментированных между собой по типам приложений и требуемого сетевого доступа). Мы не говорим даже об NDIS – даже без обнаружения вторжения (хотя если Cisco – так чего бы не активировать?) – сегменты сетей стали бы непреодолимым барьером для проникновения вируса вне группы ПК.
  • Хост – с его firewall, который, как ни странно, сейчас включается в Windows по умолчанию и только дурацкий ответ на вопрос – «хотите ли вы расшарить свои файлы в сети» – «да, хочу!» – портит всю картину. Ну вот зачем, зачем пользовательскому ПК вообще что-то публиковать в сети? Зачем все админы так любят отключать firewall? Легче работать? А не легче ли написать правила в групповых политиках… И все, даже в рамках одного сегмента сети – такие ПК c firewall будут защищены от посягательств зараженного ПК. А что насчет контроллеров домена и прочих файловых помоек – читай выше, обязательных обновлений и «бронирования» и тут никто не отменял.
  • ЛПП – и да, не забываем о персональной ответственности админов и сетевиков за каждый следующий поломаный по сети комп.

Второй вариант распространения вируса чуть сложнее – Petya использует для атаки на другие ПК в сети наличие открытых пользовательских сеансов/кэшей паролей на зараженном ПК, а учитывая парадигму того, что многие админы на ПК используют один и тот же пароль локального администратора или учетную запись администратора домена для работы на любом ПК компании – здесь для Petya широкое поле деятельности с использованием механизмов атак pth/ptt. Имея на руках администраторские пароли и открытые «всем ветрам» порты соседних ПК – Petya успешно копирует себя через административные шары (Admin$) и запускает удаленно свой код на атакуемой машине.

НО, если обратиться к Defense-in-Depth, то можно обнаружить, что:

  • Хост – рекомендовано использование технологий VBS и Device Guard для защиты от кражи идентити подобными способами. Но – VBS есть только в Windows 10 – Ok, но никто не мешает познакомиться с рекомендациями по защите хостов от Pass-the-hash/pass-the-ticket атак для Windows 7 и т.д. – ничего сложного, кроме опять же – использования рекомендованных шаблонов безопасности (их же можно использовать и для Windows 10 без VBS/DG) – http://aka.ms/pth – начиная с отключения кеширования идентити при входе и т.п.
  • Хост – простейшая гигиена аутентификации, связанная с использованием уникальных администраторских паролей на каждой рабочей станции/сервере – утилита Local Administrator Password Solution (LAPS) – http://aka.ms/laps – избавит от головной боли «по запоминанию» каждого пароля, а далее – более сложные процедуры гигиены для администраторов, которые говорят, что для выполнения определенных действий на ПК должны быть использованы определенные учетные записи, не обладающие полнотой прав на уровне всей сети – https://docs.microsoft.com/en-us/windows-server/identity/securing-privileged-access/securing-privileged-access-reference-material (а что, никто не в курсе, что с доменным админом ходить по рабочим станциям категорически запрещено?).
  • Плюс – уже упомянутые выше механизмы обнаружения вторжения – тот же Defender ATP или Microsoft ATA («заточенный» как раз на обнаружение атак pth/ptt) и, безусловно – firewall и сегментирование сетей для того, чтобы завладевший теми или иными учетными записями вирус не смог подключиться к соседям.
  • ЛПП – а здесь уже может “прилететь” и админу компании в целом, если окажется, что его учетная запись “гуляет” почему-то по рабочим местам пользователей или используется на ПК совместно с такими гуляющими админами.

ВСЕ! Было «охренеть как сложно», мы потратили от силы 3 рабочих дня (24 часов и 24х75=1800евро денег высококвалифицированного специалиста) из предоставленных 43 дней с предыдущей атаки для того, чтобы защититься от разрушительного действия вируса типа Petya.

UPD 1: По просьбам комментаторов и просто друзей в Facebook и прочих социальных сетях – записал практическое видео с примером реальной лабы по заражению домена Petya.C с правильно настроенными политиками безопасности согласно требованиям Defense-in-Depth для защиты от современных типов угроз (типа того же Pass-the-Hash/Pass-tht-Ticket, которые использовал Petya.C) – при явном заражении одного ПК – влияние вируса на остальную лабу – нулевое:


СофТы: закрываем уязвимости ИТ-инфраструктуры от современных атак (типа Petya – pth/ptt)

Да, тут некоторые коллеги в комментах дискутировали насчет того, что «нельзя так просто взять и поделить сеть на подсети пользователей и банкоматов – есть моменты администрирования и удобства работы» – но, в любом случае, у CIO было еще минимуму 3-5 дней на подумать, а потом решить, что удобство работы перед угрозой полномасштабной вирусной атаки – отходит на второй план. В общем – даже не думали и не сделали НИЧЕГО.

Наши потери от Petya после принятых общих мер – мы потеряли, скорее всего, все машины, которые заразились путем приезда «обновления от MEDoc» (хотя, при использовании IDS типа Defender ATP – и эти потери могут быть сведены к минимуму), мы потеряли 10% от тех машин, которые получили «письма счастья», а компания – потеряла работавших на них сотрудников. ВСЕ! Никакой эпидемии, никаких отключившихся касс и банкоматов (!!!), никаких тысяч часов на восстановление ИТ-инфраструктуры. Осталось восстановить требуемые данные из бекапов (или вообще ничего не восстанавливать, кроме ОС на ПК – если ИТ-инфраструктура сделана правильно и все хранится и бекапится централизованно, к тому же – в облако).

Так что это было, добродии?! Почему Petya гулял по украинским сетям, вынося всех и вся (и не надо рассказывать, что «в Европе/России тоже пострадали», «это была спланированная атака на Украину») – как не лень, некомпетентность и пофигизм CIO попавших под раздачу организаций и полный пофигизм Microsoft Ukraine по отношению к наземной угрозе?!

Ах да, Microsoft и «облака наше все»… Сейчас пойдут разговоры о том, что если бы «все было в Azure», то ничего бы не было. Было бы – с тем же результатом – ваши виртуальные машины в Azure были бы в той же ситуации – локальная сеть, открытые порты и т.п. – потому что в гибридной инфраструктуре облачная часть IaaS по безопасности ну никак не отличается от наземной по необходимости настроек.

Таким же образом, через обновления, Petya успешно бы пролез и на виртуалки в Azure, дальше бы пошел гулять по виртуальным сетям Azure (которые вы бы не поделили на сегменты, не изолировали, не использовали firewall на каждой), а потом и через Site-to-Site VPN залез бы и на наземные ПК пользователей… Или наоборот – с тем же результатом в такой незащищенной от угрозы изнутри “обланой” инфраструктуре.

А то было бы и хуже – учитывая умение Petya считывать учетные записи админов и зная безалаберность этих админов – Petya.Cloud (с модулем работы в облаке – дописать в код пару строчек) давно бы уже имел административные права на ваши подписки в облаках и делал бы там все, что заблагорассудится, кидая вас еще и на деньги – например – поднимал бы виртуалки для майнинга или ботсетей в вашей облачной подписке, за которые вы бы потом платили по 100К-300К уе/мес.

И даже использование облачного Microsoft Office 365, который вроде как SaaS и его инфраструктура защищается Microsoft – при такой дырявой инфраструктуре на местах – не спасет – с тем же успехом вирус добирается до админского аккаунта O365, используя воровство учетных записей – и дальше подписка O365 уже «не ваша».

Вам об этом не сказали Microsoft, Google, Amazon – все, кто продает «облака»? Так это, им же продать надо, а не решать ваши проблемы – а все проблемы облаков – находятся «на местах», а туда особо уже и не продашь – значит, и инвестировать в наземные части заказчиков не стоит ни копейки – даже тренингами и семинарами… 

И всем – приготовиться – это была только следующая волна, ждем следующей, как только ребята найдут следующий механизм “заброски” и инфильтрации вируса в корпоративные сети. И этот вирус также не будет обнаруживаться антивирусами по сигнатурам и будет эксплуатировать свежие уязвимости сетей и незакрытые механизмы типа Pass-the-hash/Pass-the-ticket. И вот просто “перенести все в облака” вам не поможет, а подписка на облачные Microsoft ATA/Defender ATP в дополнение к описаным выше мерам – вполне.

И небольшой ликбез для тех, кому интересно (некоторые доклады – почти годичной давности):


Webcast: как противостоять современным информационным атакам при помощи Microsoft Advanced Threat Analytics – про Pass-the-hash/pass-the-ticket атаки 


О безопасности гибридной/облачной ИТ-инфраструктуры в Azure IaaS

 

И немного ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

И еще – немного ссылок про ИТ-карьеру и тренинги/обучающие материалы для ИТ-профессионалов и Системных Администраторов:

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

СофТы: обзор утилиты Nano Server Image Builder для визуального конфигурирования, создания образов и сценариев установки Nano Server


Одной из опций установки нового Windows Server 2016 является опция Nano Server, которая позволяет установить только ядро Windows Server 2016 с одной или несколькими требуемыми функциями. Тем самым достигается минимизация накладных расходов на работу «основной ОС» и выделяется больше ресурсов для поддержки непосредственно функций, которые будет выполнять сервер с Nano Server в ИТ-инфраструктуре.

Обратите внимание, что Nano Server – это не редакция, а именно опция установки – с вытекающими отсюда правилами лицензирования согласно используемой при сборке редакции Windows Server 2016.

Подписаться на мой YouTube-канал iWalker2000 ►►►

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

 


СофТы:обзор Nano Server Image Builder для визуального конфигурирования и создания образов Nano Server

 

Концептуально – Windows Server 2016 Nano Server является эволюционным развитием идеи «базовой» установки Windows Server – Server Core с соответствующими ей задачами – уменьшение места на диске и используемых ресурсов, повышение безопасности и т.п. Технологически – в отличие от установки Server Core, при которой устанавливается практически полная ОС Windows Server со множеством подсистем и служб (кроме полного графического интерфейса), в варианте с Nano Server – устанавливается только ядро ОС Windows Server 2016, с минимумом подсистем и без графического интерфейса, к которому по выбору администратора устанавливаются базовые службы, подсистемы и утилиты для выполнения узконаправленной задачи. В Nano Server предусмотрено «встраивание» следующих компонентов (пакетов):

  • Роль серверной виртуализации Hyper-V
  • Отказоустойчивая кластеризация
  • Файловый сервер и компоненты управления хранилищами (SDS)
  • DNS сервер
  • IIS веб сервер (ограниченная конфигурация)
  • Контейнеры
  • Комплект драйверов оборудования от Core Server
  • Комплект драйверов и гостевых сервисов для работы в виде виртуальной машины в среде Hyper-V
  • Антивирус Windows Defender
  • Агенты SCVMM и SCOM
  • Поддержка PowerShell Desired State Configuration
  • Поддержка BitLocker, криптографических провайдеров и т.п.
  • Поддержка шифрованных виртуальных машин Shielded VMs
  • Network Performance Diagnostics Service (NPDS)
  • Data Center Bridging

Такой сценарий установки требуемых сервисов при помощи Nano Server позволяет получить существенные преимущества перед полной установкой Windows Server 2016 или Core Server, если в задачу входит применение экземпляров Windows Server 2016 для выполнения конкретной роли в инфраструктуре. Среди преимуществ применения установки Nano Server перед другими вариантами можно назвать:

  • Повышенная безопасность благодаря уменьшенной поверхности атак – Nano Server не содержит лишних сервисов и компонентов кода, только базовое ядро и код требуемой подсистемы/службы
  • Минимизация перезагрузок и простоев (ввиду меньшего кода, см.выше)
  • Меньшие потребности в аппаратном обеспечении для установки и накладные затраты на работу ядра ОС – больше ресурсов для выполняемой роли
  • Быстрый старт ОС

 

Практически же, чтобы реализовать такой сценарий установки Windows Server 2016 с требуемой ролью, как Nano Server, в образе установки Windows Server 2016 присутствует минимизированный образ ядра Windows Server для работы в режиме Nano Server и дополнительные пакеты (.cab) для каждой из ролей/сервисов/утилит, которые могут быть установлены вместе с Nano Server.

Далее, системный администратор собирает из имеющегося ядра и пакетов ролей рабочий образ Nano Server для установки на требуемое оборудование или в виртуальную машину, используя команды модуля PowerShell по управлению образом Nano Server, который прилагается вместе с образом Nano Server в пакете установки Windows Server 2016. Команды по «сборке» нужного образа являются довольно громоздкими и процесс сборки превращается в довольно-таки рутинную и времязатратную операцию. При этом стоит учесть также тот момент, что для успешного развертывания образа Nano Server требуется также понимание аппаратного обеспечения физического сервера, на котором будет работать образ – администратор должен «вшить» в образ все требуемые драйверы (или весь комплект от Core Server, хотя, обычно, только его недостаточно), а также – указать правильные индексы сетевых адаптеров – т.е. требуется какой-либо инструментарий для предварительного анализа аппаратного обеспечения платформы для будущего «готового» Nano Server.

И на этапе установки Nano Server – требуется инструментарий, чтобы эффективно развертывать полученные .wim/.vhd/.vhdx файлы на «железо» и в виде виртуальных машин. Если процедура установки ОС по сети автоматизирована хотя бы средствами Windows Deployment Services (WDS) – тогда нет проблем, а если ее нет и планируется «штучная» установка Nano Server на «железо» – тогда администратору требуется дополнительный инструментарий или выполнять пошаговое ручное развертывание Nano Server.

Все эти сложности и масса ручной работы негативно влияли на инсталляционную базу Nano Server. Действительно, когда тебе необходимо развернуть 2-4 сервера Hyper-V в кластере и ты можешь это сделать за 30 минут в режиме Server Core – нет никакого желания «заморачиваться» с командной строкой сборщика Nano Server и потом еще выяснять, как это все заставить «взлететь», учитывая те же вопросы с драйверами.

   

 

Потому Microsoft не долго думала, и уже в конце октября 2016, буквально вместе с глобальной доступностью Windows Server 2016 предложила бесплатную утилиту Nano Server Image Builder, которая предоставляет администраторам мастер с удобным графическим интерфейсом, которые позволяет играючи собрать требуемый образ Nano Server. В общем, у Nano Server Image Builder три основные функции:

  • Собственно, сборка образа Nano Server для «железа» или виртуальных машин
  • Создания установочной USB-флешки на базе выбранного образа, которая обеспечит автоматический процесс установки с созданием требуемых разделов на целевом сервере
  • Создание специальной загрузочной USB-флешки, которая позволяет провести инвентаризацию аппаратного обеспечения целевого сервера на предмет требуемых драйверов и параметров сетевых адаптеров.

Для установки Nano Server Image Builder на рабочем месте системного администратора требуется несколько вещей:

Создание образа Nano Server с использованием Nano Server Image Builder очень просто. В ходе прохождения мастера создания образа в Nano Server Image Builder вам будет необходимо указать место хранения исходных файлов Windows Server 2016 (если у вас .ISO файл – смонтируйте и скопируйте его содержимое в какую-то папку), выбрать назначение создаваемого образа (виртуальная машина или физический сервер), путь хранения и типа файла образа (.vhd/.vhdx/.wim, последний доступен только для варианта с физическим сервером).

Если указать создание образа для физического сервера, то перед собственно работой с образом Nano Server Image Builder предложит создать загрузочную USB-флешку с утилитой анализа и инвентаризации «железа» целевого сервера и определения требуемых драйверов.

Далее мастер Nano Server Image Builder проанализирует указанный образ Windows Server 2016 и предложит выбрать необходимые роли, сервисы и утилиты, которые необходимо добавить в сервис. Кроме ролей на следующих этапах Nano Server Image Builder можно добавить необходимые драйверы (в случае с аппаратным сервером, как раз те, о которых позволяет выяснить анализатор Nano Server Image Builder), определить имя будущего Nano Server и пароль его администраторского аккаунта, присоединить создаваемый образ к существующему домену, включить режим удаленного управления с использованием WinRM и указать параметры сетевых адаптеров.

Вот тут с двумя последними шагами стоит быть внимательным. Во-первых, присоединение к домену выполняется по умолчанию «на лету» – т.е. указав имя домена мастеру Nano Server Image Builder, тот при создании образа будет пытаться обратиться к этому домену, создать в нем под вашими правами учетную запись компьютера и эту информацию прописать в образ. Если такая процедура невозможна – тогда можно добавить компьютер в домен, указав мастеру Nano Server Image Builder специальный файл, содержащий результат оффлайнового добавления компьютера к домену через утилиту DJOIN (подробнее про создание такого файла смотрите здесь – Offline domain join process and Djoin.exe syntax – https://technet.microsoft.com/en-us/library/offline-domain-join-djoin-step-by-step(v=ws.10).aspx ).

Во-вторых – указывая статические IP-адреса для сетевых адаптеров в образе Nano Server – вы должны знать индексы сетевых адаптеров, каким образом их видит Windows Server. Для получения такого индекса, если целевой сервер «голый», и используется загрузочная USB-флешка, которую создает Nano Server Image Builder на одном из предыдущих этапов. Если сервер «рабочий», то получить индексы всех сетевых адаптеров можно командой PowerShell Get-NetAdapter.

И, наконец, расширенные параметры сборки образа Nano Server в мастере Nano Server Image Builder позволяют добавить в образ дополнительные пакеты, скрипты установки и настройки, папки или файлы, которые могут потребоваться ролям/службам для работы и включить опции отладки и удаленного доступа к терминальной консоли Emergency Management Services и отладочной информации.

 

И после сбора всей необходимой информации Nano Server Image Builder собирает требуемый вам образ Nano Server, используя все те же команды PowerShell, которые вы не захотели учить.

 

После сборки образа вы можете использовать еще одну возможность Nano Server Image Builder – создание инсталляционной USB-флешки с имеющимся образом Nano Server. Мастер Nano Server Image Builder использует для такой флешки WinPE собственно для загрузки и запуска скриптов установки, которые автоматически разметят диск целевого сервера, скопируют или распакуют (в зависимости от типа файла) образ Nano Server на диск сервера и зарегистрируют Nano Server в загрузчике. При этом мастер Nano Server Image Builder запросит у вас данные о том, каким образом и под какой загрузчик (BIOS/UEFI) вы хотите разметить диск целевого сервера.

 

Windows 10 RTM: как создать загрузочную USB флешку для установки Windows 10

Windows 10 RTM: как установить Windows 10 или Windows Server “начисто” для тестов второй системой и ничего не сломать

Как обновиться до Windows 10 Anniversary Update с Media Creation Tool, сделать установочный ISO или загрузочную USB-флешку

 

Собственно – вот и все, утилита Nano Server Image Builder крайне проста (важнее понимать, что вообще позволяет делать Nano Server) и избавляет системных администраторов от необходимости писать «зубодробительные» команды с длиннющими параметрами, чтобы «побыстрячку» собрать образ Nano Server для пары серваков/виртуалок под конкретную задачу.

И еще раз напомню, что мои обзоры Windows Server 2016 – что там нового и как это работает (в том числе и о Nano Server) – можно найти здесь – https://www.youtube.com/playlist?list=PLB5YmwQw0Jl_qktq5bwNaEUlMbzwl863l

А тема управления и применения Windows Server 2016 в режиме Nano Server будет рассмотрена одной из ближайших серий видео про ИТ-карьеру и самообразование для системного администратора – http://bit.ly/ITProSysAdmin – вместе с другими сценариями установки, например Core Server или Hyper-V Server.

 

Предыдущие части про ИТ-карьеру – смотрите здесь:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

И еще – немного ссылок про ИТ-карьеру и тренинги/обучающие материалы для ИТ-профессионалов/Системных Администраторов:

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

ИТ-карьера (III часть в 3х сериях): как стать Системным Администратором–практические шаги по установке, управлению Active Directory Domain Services, а также общим концепциям безопасности групповым политикам, делегации полномочий с использованием Active Directory


“Первый сезон” этого сериала – о том, кто такой ИТ-специалист, чем отличается от разработчика/программиста, кто такие системный администратор, ИТ-дженерались/эникейщик и какие обшие навыки, умения, черты характера и знания потребуются, чтобы стать хорошо оплачиваемым ИТ-профессионалом – смотрите в предыдущих 5 сериях.

4я часть практических рекомендаций для тех, кто решил таки стать Системным Администратором, не смотря на то, что я отговаривал всех от такого неразумного шага в предыдущих видео про ИТ-карьеру 😉 А предыдущие практические части – здесь: 

Подписаться на мой YouTube-канал iWalker2000 ►►►

В этой части – переходим от подготовки рабочего места к изучению конкретных технологий и служб, которые необходимо внедрять в ИТ-инфраструктуру мало-мальской организации (от 15-20 ПК и выше).

Краеугольным камнем любой ИТ-инфраструктуры является (если принимать во внимание правильную модель оптимизации ИТ-инфраструктуры, на которую я постоянно ссылаюсь ) служба единой аутентификации и авторизации пользователей и управления их правами и разрешениями.

Такой службой в инфраструктуре, которая обеспечивается сервисами Microsoft, является Microsoft Active Directory (а если быть точным – то конкретная служба Microsoft Active Directory Domain Services).

 


ИТ-карьера:как стать Системным Администратором-самоучитель,ч.04-что такое Active Directory,установка

 

Поэтому – изучение базовых основ Active Directory является первой же обязательной и неотъемлимой частью обучения будущего Системного Администратора. И даже если вы решили стать Системным Администратором на другой стороне – различных систем Linux и т.п. – концепцию каталога для единой аутентификации вам все равно придется учить – она таки краеугольная, не зависимо от используемых технологий – и, таки и саму Active Directory – очень часто в инфраструктурах мне приходилось встречать те самые Linuxвые серверы, приложения которых использовали для своей работы аутентификацию Active Directory – как лучшего решения в своем классе 😉

Это видео – первая часть из 3х видео, посвященных общим концепциям, установке, управлению Active Directory Domain Services, а также общим концепциям безопасности групповым политикам, делегации полномочий с использованием Active Directory.

Смотрите обзор возможностей и пошаговую инструкцию по работе с AD DS, в которой:

  • Базовые концепции управления учетными записями, аутентификацией и правами доступа
  • Установка роли AD DS на первый контроллер домена
  • Базовые концепции Active Directory Domain Services
  • Управление и настройка Active Directory Domain Services
  • Добавление серверов и рабочих станций в домен AD
  • Управление учетными записями и группами безопасности
  • Контейнеры/Organizational Unit  в AD DS
  • Кратко о групповых политиках

Да, я знаю, получилось длинно, но если вы действительно стремитесь получить те знания, которые необходимы Системному Администратору – думаю, просмотрите это видео внимательно и повторите у своей лаборатории 😉

И, как я уже говорил – это видео – первое из трех, которое будет посвящено изучению Active Directory – в следующих смотрите про групповые политики, делегацию полномочий и управление доменами и службами Active Directory Domain Services.

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

 

5я часть практических рекомендаций для тех, кто решил таки стать Системным Администратором, не смотря на то, что я отговаривал всех от такого неразумного шага в предыдущих видео про ИТ-карьеру 😉

В этой части – продолжаем тему изучения конкретных технологий и служб, которые необходимо внедрять в ИТ-инфраструктуру мало-мальской организации (от 15-20 ПК и выше). После развертывания домена Active Directory Domain Services и настройки единой аутентификации пользователей (в предыдущем видео) – разбираемся с тем, что называется AD Group Policy и как с помощью политик настраивать рабочие места в домене и с тем, что такое делегирование полномочий на работу с ADDS – создание пользователей, групп, добавление пользователей в группы и т.п.

Это видео – вторая часть из 3х видео, посвященных общим концепциям, установке, управлению Active Directory Domain Services, а также общим концепциям безопасности групповым политикам, делегации полномочий с использованием Active Directory.

 


ИТ-карьера:как стать Системным Администратором-самоучитель,ч.05 – AD Group Policy и делегирование

 

Смотрите про управление AD DS и делегацию полномочий, а также про использование групповых политик в которой:

  • Базовые концепции управления доступом к базе Acrive Directory
  • Делегирование полномочий на контейнеры/объекты в AD
  • Создание админов для поддержки пользователей AD DS
  • Базовые концепции групповых политик в AD DS
  • Создание и применение групповых политик
  • Управление объектами групповых политик
  • Фильтрация и избирательное применение групповых политик
  • Анализ действия групповых политик

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

 

6я часть практических рекомендаций для тех, кто решил таки стать Системным Администратором, не смотря на то, что я отговаривал всех от такого неразумного шага в предыдущих видео про ИТ-карьеру 😉

Это видео – третья, заключительная часть из 3х видео, посвященных общим концепциям, установке, управлению Active Directory Domain Services, а также общим концепциям безопасности групповым политикам, делегации полномочий с использованием Active Directory – смотрите про управление инфраструктурой, доменами и службами Active Directory Domain Services.

 


ИТ-карьера:как стать Системным Администратором-самоучитель,ч.06-управление инфраструктурой ADDS

 

Смотрите про основные концепции управления инфраструктурой доменов, деревьев, лесов Active Directory Domain Services, базовые понятия и операции:

  • Базовые концепции физической и логической структуры AD DS
  • Добавление компьютеров в домен
  • Немного об управлении облегченным вариантом установки Windows Server Core Installation
  • Добавление дополнительных контроллеров домена в AD DS
  • Создание сайтов AD DS в домене/лесу
  • Понятие репликаций AD DS и управление ими
  • Добавление нового домена в лес AD DS
  • Резервное копирование контроллеров домена AD DS

Продолжение данных учебных материалов – следует. Смотрите подробнее про возможности установки и управления варинтами установки Windows Server 2016 – Core Installation и Nano Server, а также – далее – управление сетевыми службами в Windows Server 2016.

 

Предыдущие части этого сериала – первые шаги по созданию тестового рабочего места:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

И еще – немного ссылок про ИТ-карьеру и тренинги/обучающие материалы для ИТ-профессионалов/Системных Администраторов:

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

ИТ-карьера (II часть в 3х сериях): как стать Системным Администратором–практические шаги по подготовке тестовой лаборатории для дальнейшего самообразования (очень длинные видео ;) )…


“Первый сезон” этого сериала – о том, кто такой ИТ-специалист, чем отличается от разработчика/программиста, кто такие системный администратор, ИТ-дженерались/эникейщик и какие обшие навыки, умения, черты характера и знания потребуются, чтобы стать хорошо оплачиваемым ИТ-профессионалом – смотрите в предыдущих 5 сериях.

Это видео – первая часть практических рекомендаций для тех, кто решил таки стать Системным Администратором, не смотря на то, что я отговаривал всех от такого неразумного шага в предыдущих видео про ИТ-карьеру и обязаности системного администратора.

Подписаться на мой YouTube-канал iWalker2000 ►►►

Если вы уже практикующий системный администратор – то можете смело промотать это видео – оно больше направлено на тех молодых и не очень людей, кто от продвинутого юзера или эникейщика решил перейти на следующему уровню – стать таки системным администратором.

В этом видео – практические рекомендации и выработанные годами практики по организации рабочего места для самообучения и различных тестовых лаб 😉


ИТ-карьера:как стать Системным Администратором-практические шаги,часть 01-готовим рабочее место 

Как ни странно, но все же Windows 10 является “правильным” рабочим местом системного администратора, с которого он может удаленно управлять и серверами, и использовать встроенную в Windows 10 службу вирутализации Hyper-V для развертывания тестовых виртуальных машин и экспериментов на них. А если мы говорим о домашнем компьютере, который используется и для игр, и для обучения – то тут, однозначно, и альтернативы нет Winking smile

Еще раз обращу внимание на минимальные требования к такому рабочему месту, чтобы на нем имелась возможность нормально работать с виртуальными машинами под Windows 10 Hyper-V, следующие:

  • Intel CPU x64 + аппаратная поддержка виртуализации (Intel VT, DEP, XD, SLAT/EPT и т.п.)
  • ОЗУ: не менее 8ГБ
  • Диск: самая главная часть – очень и очень нужен достаточно объемный SSD (от 256ГБ и более, желательно – отдельный) или аппаратный RAID с быстрыми HDD

А далее, в видео – пошаговая инструкция, как подготовить рабочее место для дальнейших лабораторных работ/тренировок с различными ОС и сервисами, без знания которых нельзя назвать себя “Системным Администратором”, которые будут показаны в этом видео и результаты которых будут использованы в следующих видео:

  • Установка роли/службы Hyper-V в Windows 10
  • Настройка службы Hyper-V, понятие виртуального сетевого коммутатора
  • Как скачать бесплатно Windows Server 2016 и Windows 10 Enterprise
  • Как установить Windows Server 2016/Win10 в виртуальные машины
  • Как создать клонируемый образ (шаблон) установленной и настроенной виртуальной машины с Windows Server/Windows 10 для быстрого развертывания нескольких ВМ
  • Как развертывать виртуальные машины из шаблонов
  • а также – подготовить флешку для установки отдельного сервера Windows Server 2016 на отдельное железо для следующей части…

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

 

Это видео – вторая часть практических рекомендаций для тех, кто решил таки стать Системным Администратором, не смотря на то, что я отговаривал всех от такого неразумного шага в предыдущих видео про ИТ-карьеру и позицию Системного Администратора. Первую часть – практические шаги по подготовке для себя тестового рабочего места на Windows 10 – смотрите здесь.

В этом видео – практические рекомендации и выработанные годами практики по организации небольшой тестовой инфраструктуры с использование “основного” рабочего места и “условного” сервера виртуализации для самообучения и различных тестовых лаб.

 
ИТ-карьера:как стать Системным Администратором-практические шаги,часть 02-готовим тестовый сервер

В отличие от предыдущего видео, где речь шла о рабочем месте на базе Windows 10, на котором вы можете одновременно и работать, и играть, и изучать новые продукты в виртуальных машинах – это видео посвящено более правильному подходу к созданию тестовой лаборатории – с использованием отдельного физического хоста под управлением Windows Server 2016 и вирутальных машин на нем. Плюс – такой сценарий – отдельное рабочее место и отдельный сервер – будет приучать вас к правильному подходу к административной безопасности – к тому, что нельзя работать в консоли сервера, используя ее, как основное рабочее место.

Еще раз обращу внимание на минимальные требования к такому рабочему месту, чтобы на нем имелась возможность нормально работать с виртуальными машинами под Windows Server 2016 Hyper-V, следующие:

  • Intel CPU x64 + аппаратная поддержка виртуализации (Intel VT, DEP, XD, SLAT/EPT и т.п.)
  • ОЗУ: не менее 8ГБ
  • Диск: самая главная часть – очень и очень нужен достаточно объемный SSD (от 256ГБ и более, желательно – отдельный) или аппаратный RAID с быстрыми HDD
  • Тестовая версия Windows Server 2016

А далее, в видео – пошаговая инструкция, как подготовить инфраструктуру из сервера виртуальных машин и отдельные нюансы, связанные с настройкой административного доступа, если машины не находятся в общем домене:

  • Установка Windows Server 2016
  • Установка и настройка роли виртуализации Hyper-V
  • обзор и выбор различных сценариев удаленного управления сервером
  • выбор разных типов дисков/дисковых массивов для работы виртуальных машин
  • развертывание виртуальных машин из шаблонов, которые мы приготовили в прошлом видео 😉

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

 

Третья часть практических рекомендаций для тех, кто решил таки стать Системным Администратором, не смотря на то, что я отговаривал всех от такого неразумного шага в предыдущих видео про ИТ-карьеру и работу Системного Администратора  Winking smile 

1ю частьпрактические шаги по подготовке для себя тестового рабочего места на Windows 10 – смотрите здесь,
2ю частьподготовка тестовой инфраструктуры c Windows Server 2016 для запуска лабораторных работ,
Записи тренинга для системных администраторов по работе облачной инфраструктурой – Microsoft Azure Infrastructure Camp, май 2015.

Если вы уже практикующий системный администратор – то можете смело промотать это видео – оно больше направлено на тех молодых и не очень людей, кто от продвинутого юзера или эникейщика решил перейти на следующему уровню – стать таки системным администратором.

ХОТЯ! Если вы уже практикующий администратор и еще не перешли на белую и пушистую сторону облаков – это видео также для вас – вы сможете познакомиться с возможностями инфраструктуры Azure IaaS. И, конечно же, рекомендую познакомиться с возможностями Azure IaaS более подробно в этих видео.

В отличие от предыдущих видео – часть 1 и часть 2 – где речь шла о рабочем месте с использованием имеющихся достаточно мощных физических компьютеров – в этом видео мы используем облачные ресурсы Microsoft Azure – https://azure.microsoft.com/ – где мы берем в аренду требуемые ресурсы. Первый, тестовый, месяц вы можете использовать бесплатно 200 долларов и создавать/запускать на них виртуальные машины, чтобы потестировать или поучиться какой либо возможности различных ОС.

 
ИТ-карьера:как стать Системным Администратором-практические шаги,часть 03-использование Azure IaaS

А далее, в видео – пошаговая инструкция, как использовать инфраструктуру Microsoft Azure IaaS для создания своих виртуальных машин и изучения тех или иных функций Windows Server 2016 в облачной виртуальной машине:

  • Как получить временную подписку на Azure
  • Базовые концепции Azure IaaS
  • Обзор доступных решений в Магазине Azure и цен на Azure IaaS
  • Создание виртуальных машин в Azure IaaS
  • Удаленное подключение к облачной виртуальной машине и работа с ней
  • Мониторинг состояния виртуальных машин и состояния счета подписки

И этой серией мы заканчиваем вступительную часть практического руководства о том, как стать Системным Администратором – о подготовке тестовой лаборатории 😉

В следующих частях – смотрите более подробно про различные роли и функции Windows Server 2016, которые обязательно должны быть знакомы Системному Администратору и, конечно же, рекомендации, как их изучать более подробно Winking smile

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

И еще – немного ссылок про ИТ-карьеру и тренинги/обучающие материалы для ИТ-профессионалов/Системных Администраторов:

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):


 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Про ИТ-карьеру–длинная инструкция на тему, как стать успешным ИТ-специалистом/системным администратором и заработать много денег (часть первая в 6ти сериях)


Не прошло и 2х лет, как я закончил первую – теоретическую – часть цикла видео про ИТ-карьеру из пяти частей. Специально для тех, кто планирует посвятить свою жизнь такой неблагодарной специальности, как ИТ специалист (или IT Professional – ITPro – как говорят у «буржуев», и не стоит путать с разработчиками).

 

В первой серии про развитие ИТ-карьеры – смотрите о 3х основных составляющих успешной карьеры как для ИТ-специалиста (системного администратора), так и, во многом, разработчика:

image
ИТ-карьера: как стать ИТ-специалистом, основные шаги для успешной карьеры в ИТ, часть 1

  • Подтвержденные знания о продуктах и технологиях – с обязательной сдачей экзаменов по выбранным продуктам и получением сертификации. Для тех, кто планирует работать с продуктами Microsoft, как системный администратор, и получить сертификации по технологиям Microsoft – рекомендуется к изучению следующая ссылка – https://www.microsoft.com/learning/en-us/default.aspx . Одна из возможностей самостоятельного знакомства и обучения продуктам Microsoft – это видеокурсы на портале http://www.microsoftvirtualacademy.com/ . Кроме того, есть сайт-хаб http://mvaclub.ru , который обеспечивает вам быстрый поиск нужных бесплатных учебных онлайн-курсов на том же http://www.microsoftvirtualacademy.com/ . И, конечно же, заглядывайте в плейлист на моем канале, который посвящен техническим видео по Windows Server. Собственно, именно про эту часть карьеры – получение знаний – и идет разговор в данном видео.
  • Потдвержденный практический опыт работы с продуктами и задачами – это еще одна очень важная составляющая успешной ИТ-карьеры. Можно “обвешаться” сертификатами и не уметь применять полученные знания на практике, решая реальные технические и бизнес-задачи с использованием ИТ, выполняя реальные проекты для заказчиков разных размеров. Про то, как приобретать практический опыт, особенно – без наличия требуемого дорогого и мощного оборудования – мы поговорим в одном из следующих видео, посвященных развитию ИТ-карьеры.
  • Умение говорить с людьми, и, особенно, с бизнесом – поскольку ИТ, особенно то, где работают системные администраторы – является не самостоятельной организацией, а сервисным подразделением предприятия. И задача любого ИТ-специалиста – обеспечить эффективное решение бизнес-задач предприятия с применением тех или иных технологий. И умение трансформировать технологические фичи продуктов в работу бизнеса – одно из основных требований успешной карьеры ИТ-специалиста, особенно того, кто хочет зарабатывать “ну очень много”, а такое возможно только на позициях руководителей ИТ-департаментов или как ИТ-консультанта, решающего, например, задачи развития ИТ-инфраструктуры крупного предприятия. Чтобы понимать всю прорву задач в этом направлении – я рекомендую посмотреть этот плейлист – Модель Оптимизации ИТ-инфраструктуры.

 

Во втором видео-презентации – «с чего начать ИТ карьеру» – я постарался еще больше разложить “по полочкам” эти направления, в которых стоит развиваться ИТ-специалисту для успешной карьеры, и то, как приобрести этот самый опыт и знания и как говорить с людьми и, особенно, бизнесом Winking smile

Собственно, я постарался выделить все те личностные качества, навыки и действия, которые являются наиболее критичными для достижения успеха в ИТ карьере для системного администратора (и не только), и с развития и совершенствования которых у «себя любимого» стоит начать развитие своей карьеры.

image
ИТ-карьера: как стать ИТ-специалистом, основные шаги для успешной карьеры в ИТ, часть 2

Итак, основополагающими личностными качествами и умениями успешного ИТ специалиста являются:

  • Ежедневная работа – над собой, с технологиями, постоянная учеба, «надо себя заставлять», если хотите оставаться востребованным в ИТ
  • Умение быть заметным в сообществе и компании
  • Умение общаться, особенно с бизнесом
  • Концентрация на бизнес-сценариях применения ИТ служб в организации
  • Знание иностранных языков (в первую очередь – английского), особенно полезно для расширения своей «заметности» на глобальном ИТ рынке
  • Международная сертификация по требуемым в работе технологиям
  • Навыки собеседований и переговоров
  • Умение постановки перед собой целей, которые необходимо достигнуть, «создание кумира»
  • Применение профессиональных знаний и навыков не только на работе, но и в повседневной жизни

А подробнее по всем этим пунктам успешной ИТ-карьеры – смотрите в видео Winking smile

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

 

Третье видео – наконец-то, о конкретных делах и должности – первом шаге в ИТ карьере для ИТ специалистов – кто такой IT Generalist, он же «эникейшик», он же (частично) «специалист службы поддержки», он же «куда пошлют». При всем, казалось бы, несколько унизительном определении данной позиции – эта ИТ позиция важна и как для дальнейшей карьеры начинающего ИТшника, так и для компаний.

image
ИТ-карьера: как стать ИТ-специалистом, основные шаги для успешной карьеры в ИТ, часть 3 – кто такой IT Generalist/”эникейщик”

Почему IT Generalist является важной ступенькой в карьере? Потому что без практического опыта, «приложения рук» к практическим вещам, понимания потребностей и запросов пользователей и бизнеса – «нельзя вот так просто взять и стать системным администратором». Сначала надо 2-3 года минимум поработать на подхвате, изучая на практике все глюки и багофичи, с которыми потом придется встретиться уже будучи системным администратором, у которого зона ответственности куда шире – и не только в технологиях, но и в работоспособности самого бизнеса.

Какими навыками должен обладать IT Generalist, что является его основными задачами и зонами ответственности, какие основные инструменты работы у эникейщика – все это в данном видео.

 

Четвертое видео посвящено системным администраторам – непризнанным гениям и бойцам невидимого фронта – управления ИТ-инфраструктурой организаций Winking smile

Смотрите в видео – кто такой системный администратор, чем он занимается, какие задачи стоят перед системным администратором, что он должен уметь и знать, с какими проблемами сталкивается системный администратор в ходе своей работы.

image
ИТ-карьера: как стать ИТ-специалистом, часть 5 – кто такой системный администратор и как им стать

И, главное, сколько зарабатывает системный администратор и что надо знать и уметь для того, чтобы, будучи системным администратором, зарабатывать по максимуму. И какие есть возможности развития карьеры у системного администратора.

Можно долго спорить о том, что должен или не должен делать системный администратор, в конце концов – должностные обязанности позиции с громким названием “системный администратор” определяет работодатель (а в странах с колониальной экономикой они могут быть и типа “раб-системный администратор обязан менять резину на Порше шефа”) – в данном случае в этом видео о работе системного администратора автор высказывает свое личное мнение, сформировавшееся за 22 года работа в индустрии ИТ, в основном – системным администратором или консультантом, и, большую часть этого времени – на крупные западные фирмы Winking smile Да-да такая вот длинная история, и это только подтвержденные 22 года работы в ИТ, о которых официально “говорит” моя “трудовая книжка”, а вообще, моя “дружба” с компьютерами началась в далеком 1986 году с Atari – но это уже совсем другая история и про ее начало и Atari – здесь.

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

 

И два небольших видеобонуса к этой серии про ИТ карьеру.

В первом бонусном видео – подробно рассказывается о том, как сделать читабельное резюме для ИТ-специалиста и какие типичные ошибки допускают в резюме ИТшники (особенно, начинающие).

image
ИТ-карьера, часть 4 – как правильно писать ИТ – резюме, частые ошибки в резюме ИТшника

Итак, основные ошибки в резюме ИТшника, которые стоит избегать:

  • резюме должно быть правильной структуры (структурированный шаблон резюме есть в шаблонах Microsoft Word)
  • резюме – это ваша визитная карточка, она должна быть лаконичной, с четко выраженными мыслями, доступными контактами и не более 2-3х страниц текста
  • Указывайте только необходимую личную и контактную информацию – в адресе достаточно только города и страны, email и телефона. Скайп – по желанию. И посмотрите внимательно, чтобы ваш email выглядел прилично – без всяких “васьОк” и т.п.
  • Используйте буллеты для выделения всей важной информации – будь то ваш опыт работы в начале резюме, или должностные обязанности и достижения на разных позициях
  • в опыте постарайтесь конкретизировать и лаконично представить все свои знания и умения, выделив при этом те, которые больше всего подходят для новой позиции. Опыт работы – это компиляция и лаконизация всех ваших должностных обязанностей и достижений, указанных ниже. И не забудьте в начале указать общий опыт работы в ИТ-индустрии в ГОДАХ (а не с такого-то года!!!)
  • в знаниях технологий – не надо перечня аббревиатур-названий продуктов и технологий – требуются четкие обозначения сервисов (с полным названием продукта) и указанием опыта работы с продуктом – это внедрение, администрирование, поддержка и т.п. Про сервисы – очень рекомендую посмотреть видео о Модели Оптимизации ИТ-инфраструктуры
  • также избегайте перечисления устаревших версий, которые вы в реальности уже в глаза не видели (например, лично я сейчас вижу Windows Server 2003 только в процессе миграции, потому какие-то нюансы администрирования и его функций могу и не помнить) – при указании таких продуктов следует четко писать, что вы сейчас реально делаете на старых платформах
  • и еще – избегайте заявлений типа “‘эксперт по Windows”, “знаю DHCP, DNS”. Вы уверены, что вы “эксперт”? – экспертом по Windows я могу назвать только одного человека – Марка Руссиновича 😉 Вы хотя бы можете рассказать на базовом уровне про внутреннюю архитектуру Windows? А про процедуры автоматического развертывания? А про работу систем безопасности? Аналогично – упоминание DHCP – что DHCP? Вы знаете протокол? Или сервер DHCP? На какой платформе, в каких инфраструктурах? Можете спанировать DHCP для организации с 10000ПК в 20 локациях?

И многое другое о том, как правильно написать ИТшное резюме в этом видео

 

Второе бонусное видео – мой коллега из офиса Microsoft Украина Сергей Поплавский https://www.facebook.com/sergey.poplavskiy.35  воспользовался случаем (когда я хотел записать просто обзор Starter Pack for Windows 10 IoT Core on Raspberry Pi 2), чтобы рассказать о тех перспективах в заработке и карьере, которые открывает перед специалистами, которые хотят что-то делать своими руками, направление Internet of Things (IoT).

И о своей лаборатории Microsoft Ukraine IoTLab – www.iotlab.in.ua – которая поддерживает начинающие стартапы, предоставляя место, оборудование, тренинги (не только технические, но и бизнесовые) для тех, кто растит и лилеет свой проект в направлении IoT на технологиях Microsoft.

image
ИТ-карьера:как заработать миллион с Microsoft IoTLab и Microsoft Starter Pack for Windows IoT

Так что если у вас есть идеи о том, какое интересное устройство можно реализовать, вам не нравится “работать на дядю” и “получать зарплату” и вы хотите реализовать себя, как успешного разработчика уникального решения – вам как раз в Microsoft Ukraine IoTLab.

Кстати, Сергей в видео подробно рассказывает, в каких направлениях www.IoTLab.in.ua сейчас отбирает проекты на следующую интерацию (это сентябрь 2016 года) и какие критерии отбора 😉

Так что у вас есть еще немного времени для того, чтобы сделать свой первый шаг в ИТ-карьере успешного разработчика программно-аппаратных решений и заработать свой первый миллион. Придумываем идею, покупаем Starter Pack for Windows 10 IoT Core on Raspberry Pi 2, различные датчики и элементы на китайских сайтах, паяльник и измерительные приборы, качаем весь нужный софт отсюда https://developer.microsoft.com/en-us/windows/iot , внимательно изучаем примеры и демо там же – и с паяльником и клавиатурой в руках – к мировой известности благодаря своему новому суперинтересному гаджету или системе контроля/упраления чем-то Winking smile

А я может найду время между своими проектами, поездками и хобби – и все же мы решим с Сергеем длительный спор насчет того, “может ли Админ стать разработчиком” (про то, может ли разработчик быть админом – мы уже узнали – нет, не может, разработчик всегда пытается изобрести велосипед и пишет какие-то “костыли”, которые еще и криво работают – вместо того, чтобы почитать документацию на то, что сделано уже до него). Так что, глядишь, я еще и сам напишу что-то для управления своей ЖД с использованием Raspberry Pi и IoT.

 

И еще – немного ссылок про карьеру:

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):


 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Как удалить папку Windows.old после обновления до Windows 10 Anniversary Update и очистить С:


Участвуйте в розыгрыше ценных призов на моем канале – простые условия, интересные призы Winking smile

Подписаться на мой YouTube-канал iWalker2000 ►►►

Новые возможности и обзоры сборок Windows 10 – смотрите здесь:

Обзоры и тестирование Microsoft Lumia 950 XL и Windows 10 Mobile – смотрите здесь

Итак, после установки новой Windows 10 Anniversary Update у вас на диске С: стало на 7-10-15ГБ меньше места, при этом появилась папка Windows.old, которая имеет примерно такой же объем и обычным Delete удаляться отказывается. Смотрите в данном видео подробную инструкцию о том, как удалить папку Windows.old и ничего не поломать Winking smile

Инструкция, как удалить папку Windows.old после обновления до Windows 10 Anniversary Update
Как удалить папку Windows.old после обновления до Windows 10 Anniversary Update и очистить диск С:

На самом деле, процедура удаления папки Windows.Old проста и я о ней уже рассказывал в видео, посвященном первой версии Windows 10 год назад – но уже в комментариях к новой версии Windows 10 Anniversary Update пишут аналогичные вопросы – “Как удалить папку Windows.old?“, “что делать с Windows.old, она не удаляется?” и т.п. – поэтому я решил повторить видео про процедуру удаления Windows.old после установки Windows 10 Anniversary Update (тем более, что интерфейс в Windows 10 Anniversary Update немного поменялся).

Для удаления папки Windows.old зайдите в Параметры и далее – в раздел Система.

  • В левой колонке настроек Системы выберите пункт Хранилище и в открывшемся окне справа – из списка дисков выберите диск С:
    Инструкция, как удалить папку Windows.old после обновления до Windows 10 Anniversary Update
  • Откроется новое окно с размерами занятых областей диска С:. Дождитесь, когда система все занятое просканирует и посчитает.
  • Выберите в списке из типов хранимых данных раздел “Временные файлы”
    Инструкция, как удалить папку Windows.old после обновления до Windows 10 Anniversary Update
  • и в новом окне выберите пункт “Предыдущая версия Windows” (по желанию можете очистить и другие папки, например – “Временные файлы” или “Корзина”)  и нажмите ниже кнопку “Удалить файлы”….
    Инструкция, как удалить папку Windows.old после обновления до Windows 10 Anniversary Update
  • И остается только дождаться полного удаления Windows.Old системой – о чем сигнализирует вращающийся возле кнопки “Удалить файлы” индикатор. При этом вы можете продолжать работать с другими приложениями/задачами в Windows.

Кроме предложенного в этом видео способа удаления Windows.Old есть также вариант удаления папки Windows.Old через свойства диска С: и запуска там макстера очистки диска, в котором надо выбрать очистку системных фалов и там в списке – удаление предыдущей версии. Про это и другие способы очистки диска С: от разного “мусора” – смотрите подробно в видео “Как правильно очистить место на системном диске Windows (C:) и ничего не сломать (от Игоря Шаститко) “.

Инструкция, как удалить папку Windows.old после обновления до Windows 10 Anniversary Update
Инструкция, как удалить папку Windows.old после обновления до Windows 10 Anniversary Update

Также хочу напомнить, что папка Windows.old в Windows 10 хранит в себе предыдущую версию Windows или сборку Windows 10 в течение 30 дней и предназначена для “отката” в случае каких-либо проблем. Как откатиться назад на предыдущую сборку Windows 10 – я рассказывал в конце вот этого видео. Поэтому, удаляя папку Windows.Old сразу – вы лишаете себя возможности вернуться к предыдущей сбоке/версии в случае каких-то проблем.

 

Продолжение обзоров новинок в Windows 10 Anniversary Update – новое в безопасности, Cortana, Microsoft Edge, настройках управления, командой строке Bash, контейнерах – смотрите в следующих видео у меня на YouTube-канале iWalker2000 в ближайшее время.

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

Также, по просьбам подписчиков – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Смотрите обзоры новых возможностей Windows 10:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

Другие обзоры на моем канале – Windows 10 Mobile, Microsoft Lumia 950 XL и Windows-смартфонов:

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Анонс семинара–25/26.04.2016 в Киеве–отказоустойчивая гибридная ИТ-инфраструктура с Microsoft & Veeam


Microsoft Украина и Veeam 25-26 апреля 2016 года проводят в Киеве 2хдневных технический семинар, посвященный новым средствам обеспечения надежной отказоустойчивой локальной и гибридной ИТ-инфраструктуры, в частности – решениям гибридного резервного копирования Microsoft и Veeam на базе Microsoft Azure, а также – новым возможностям дисковых подсистем в Windows Server 2016, на котором докладчиком буду в том числе и я Winking smile 

Семинары включают в себя как теоретические, так и практические доклады по программным и аппаратным технологиям и будут интересны как руководителям ИТ подразделений организаций среднего и большого размера, так и практикующим ИТ-специалистам – системным администраторам, специалистам службы поддержки и т.д.

Семинары будут проходить 25-26 апреля 2016 года с 9:30 до 17:30 в конференц-зале Microsoft Украина по адресу г.Киев, ул.Жилянская 75.

Расписание докладов и ссылки на регистрации следующие:

Первый день, 25 апреля 2016г. – переход на облачные средства резервного копирования – Microsoft Azure Backup & Veeam

9:30-10:00

Регистрация участников

10:00-11:00

Обзор возможностей Microsoft Operations Management Suite (OMS) – мониторинг и резервное копирование для гибридных инфраструктур + лицензирование (доклад Microsoft)

11:00-11:15

Перерыв

11:15-12:15

Возможности средств резервного копирования Veeam для гибридных инфраструктур + лицензирование (доклад Veeam)

12:15-13:00

Обед

13:00-14:15

Демонстрация внедрения гибридного резервного копирования Microsoft Azure Backup/Azure Site Recovery, входящих в пакет OMS (доклад Microsoft)

14:15-14:30

Перерыв

14:30-15:45

Демонстрация решений гибридного резервного копирования Veeam Cloud Connect (доклад Veeam)

15:45-16:00

Перерыв

16:00-17:00

Отказоустойчивые дисковые массивы на основании Microsoft Storage Spaces для среднего и крупного бизнеса – опыт успешной реализации проектов в Украине за 3 года. (доклад Entry)

17:00-17:30

Вопросы и ответы (все докладчики)

 

Второй день, 26 апреля 2016г. – новая надежная ИТ-инфраструктура с Windows Server 2016 & Veeam

9:30-10:00

Регистрация участников

10:00-11:00

Обзор новых функций Windows Server 2016 TP4 – новая серверная ОС для гибридных инфраструктур (доклад Microsoft)

11:00-11:15

Перерыв

11:15-12:15

Новые возможности и развитие средств резервного копирования Veeam (доклад Veeam)

12:15-13:00

Обед

13:00-14:15

Повышение отказоустойчивости ИТ-инфраструктуры: новые возможности отказоустойчивого кластера в Windows Server 2016, геораспределенные кластеры (доклад Microsoft)

14:15-14:30

Перерыв

14:30-15:45

Обновленные средства управления инфраструктурой хранения данных в Windows Server 2016 – Software Defined Storage – Storage Replica, Storage Space Direct (доклад Microsoft)

15:45-16:00

Перерыв

16:00-17:00

Как правильно подбирать серверное оборудование под конкретные задачи бизнеса, и чем поможет штатная утилита Microsoft PerfMon. (доклад Entry)

17:00-17:30

Вопросы и ответы (все докладчики)

Увидимся на семинарах уже в будущий понедельник!

А кто пропустил предыдущие вебкасты и различные тренинги и семинары, посвященные администрированию Microsoft Windows Server, Microsoft Azure, Microsoft Windows 10, которые я проводил онлайн и оффлайн (в Украине) – рекомендую посмотреть в записи вот здесь у меня на YouTube-канале iWalker2000:

image[5]
Записи тренинга Microsoft Azure Infrastructure Camp, май 2015

image[10]
Семинары Windows Server 2016 Jump Start – что нового в серверных решениях Microsoft, Киев, ноябрь 2015

image[19]
Технические доклады с Microsoft TechDays’осень 2015 по Windows 10 в Украине

Анонс вебкастов–смотрите серию из 5 вебкастов 20 апреля–25 мая 2016–о программных и аппаратных решениях для создания сетевых хранилищ на базе Microsoft Software Defined Storage


Не пропустите! Чтобы потом не жаловались «а я не знал», «а почему лично не пригласили» и т.п. – начиная со среды, 20 апреля 2016 года, я вместе с Юрой Жуковским (который аналитик по информационным системам и серверным решениям компании Entry www.entry.ua ) проведем 5 совместных вебкастов онлайн, посвященных программным и аппаратным решениям по построению ИТ-инфраструктуры организаций, особенно той части, которая касается высокопроизводительных высокодоступных сетевых хранилищ на основе технологий Microsoft Software Defined Storage.

webcast

А кто пропустил предыдущие вебкасты и различные тренинги и семинары, посвященные администрированию Microsoft Windows Server, Microsoft Azure, Microsoft Windows 10, которые я проводил онлайн и оффлайн (в Украине) – рекомендую посмотреть в записи вот здесь у меня на YouTube-канале iWalker2000:

image
Записи тренинга Microsoft Azure Infrastructure Camp, май 2015

image
Семинары Windows Server 2016 Jump Start – что нового в серверных решениях Microsoft, Киев, ноябрь 2015

image
Технические доклады с Microsoft TechDays’осень 2015 по Windows 10 в Украине

 

А еще, 3 года назад мы с Юрой уже записали серию видео (не путать с вебкастами), посвященных серверному «железу», в том числе и тому, которое предлагает компания Entry – именно «железу», про софт в них меньше. Winking smile

Что же касается будущих 5 вебкастов – это будет новый формат вебкастов, которые помогут вам не только познакомится с программными решениями Microsoft, но и понять, по каким критериям следует подбирать аппаратное обеспечение для конкретной задачи и роли сервера в ИТ-инфраструктуре. Про новые программные технологии Microsoft Windows Server 2016 для работы с инфраструктурой хранения данных расскажу я, а про соответствующие аппаратные серверные технологии и компоненты (особенно – систем хранения данных) расскажет Юрий Жуковский. Именно из этих вебкастов вы сможете подробно узнать о различных нюансах современного серверного «железа» и тонкостях взаимодействия софта и железа (и почему современные серверы не только быстрее «физически», но и «программно»).

На вебкасты приглашаются все ИТ специалисты, которые интересуются развитием направления ИТ-инфраструктуры и принимают участие в проектировании, развертывании, администрировании и поддержке ее программных и аппаратных составляющих, а также студенты ИТ-специальностей и просто – интересующиеся серверным «железом» люди. А если вы интересуетесь тем, как сделать карьеру в ИТ и стать высокооплачиваемым ИТ-специалистом (не путать с разработчиками-кодерами и прочими “программистами”) – тогда загляните еще и в этот плейлист Winking smile

И обязательно приймите участие в “живом” онлайн вебкасте (а не ждите записи) – одна из основных задач любого вебкаста (а этих – особенно) – это дать возможность всем участникам задать вопросы по интересующим их моментам. Не упустите свой шанс «вживую» пообщаться с одним из лучших специалистов по серверному «железу» в Украине Юрием Жуковским. Winking smile

Расписание, время и темы будущей серии “программно-аппаратных” вебкастов следующие:

20.04.2016, 16:30-17:30:  «Общий подход в Windows Server 2016 к Software Defined Storage». Общая схема программной реализации SDS в Microsoft Windows Server 2016, технологии Storage Spaces,  SoFS, SMB3.0, серверные/сетевые аппаратные компоненты, как основа реализации SDS, сети SAS SAN как альтернатива FC SAN, SAS Switch, масштабируемость и производительность.

27.04.2016, 16:30-17:30: «Построение производительных серверных решений под конкретную задачу пользователя». Использование утилиты Microsoft Performance Monitor для оценки требований к аппаратному обеспечению, как по этим показателям + расчётная нагрузка на сервер проектировать сервер, в том числе под Exchange, MS SQL, RA и т.д., какие RAID для чего оптимальны и чего не нужно делать.

11.05.2016, 16:30-17:30:  «Отказоустойчивые хранилища Microsoft Scale-Out File Servers». Технология Microsoft Scale-Out File Server – обзор и применение, обзор базового аппаратного серверного комплекта из 2-х серверов + SAS JBOD, варианты физической реализации, масштабируемость, отказоустойчивость и т.д.

18.05.2016, 16:30-17:30:  «Storage Spaces – продвинутые возможности». Возможности Storage Spaces в Windows Server 2016 – тиринг, дедубликация, кеширование и т.д., аппаратная поддержка таких решений, проектирование аппаратных дисковых массивов, выбор дисков, сетей подключения нескольких JBOD к серверу, экономические аспекты, т.д.

25.05.2016, 16:30-17:30: «Storage Replica & Storage Space Direct – технологии репликации». Реализация отказоустойчивых дисковых хранилищ с использованием Storage Replica и S2D, требования к аппаратному обеспечению, аппаратные составляющие и компоненты для решений такого уровня – сетевая инфраструктура хранилищ, новые типы дисков NVMe, реализация аппаратного кеширования и т.п.

А для тех, кто не знаком с компанией Entry – www.entry.ua – это ведущий украинский производитель серверного оборудования. Мы работаем на рынке информационных технологий с 1996 года. Наша специализация – высокопроизводительные системы обслуживания ресурсоемких приложений: серверы, кластерные решения, системы хранения данных, рабочие станции видеомонтажа и проектирования. Основной подход компании в работе с заказчиками – это анализ требований и нагрузок конкретных приложений и сервисов клиента, лабораторное планирование и тестирование ожидаемых нагрузок и подбор оптимального аппаратного и программного обеспечения в рамках бюджета под конкретную задачу. Компания Entry активно сотрудничает с компаниями Microsoft Украина и Intel Украина при реализации аппаратных составляющих проектов ИТ-инфраструктуры.

Увидимся на вебкастах! Smile

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. Подробности процесса получения ВНЖ/ПМЖ/гражданства в Евросоюзе – www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе! ПОТОРОПИТЕСЬ, пока еще Европа принимает граждан СНГ и дает возможность получить ВНЖ, ПМЖ и гражданство ЕС!!!

WINDOWS 10/8.1: как сделать снимок экрана на планшете с Windows без клавиатуры и другие комбинации кнопок


Подписаться на канал iWalker2000 ►►►

Купить дешевый китайский Windows-планшет TECLAST X80 Plus на новом процессоре Intel Atom X5 Z8300 в интернет-магазине TinyDeal.com

Не забывайте лайкать это видео – напоминаю (кто не дослушал до конца) – что в случае, если это видео до середины февраля 2016 года наберет 150 лайков – в марте организую розыгрыш своего старого китайского проектора, тоже, кстати, год назад купленного в магазине TinyDeal.

И по просьбам некоторых комментаторов и подписчиков – в этом видео отвечаю на вопросы о том, как сделать снимок экрана/скриншот на планшетах с Windows 10 или Windows 8.1.

image

Итак, смотрите:

Надеюсь, данное видео поможет всем интересующимся в вопросе “как сделать снимок экрана на планшете с Windows?“.

А для тех, кто лучше хочет освоить работу с Windows 10 – рекомендую пройтись по этому списку видео, в которых детально рассмотрены те или иные новые функции и возможности Windows 10:

А дальше, как я и обещал – продолжу по будням обзоры и тестирование новых китайских планшетов на Intel Atom X5 Z8300 – TECLAST X80 Plus – и на Intel Atom X7 Z8700 – TECLAST X16 Power – смотрите. И по выходным, напоминаю, на канале Путевые Заметки – про мои поездки по Европе и миру, на блоге же – читайте подробную инструкцию для СНГшных водителей, как ездить по дорогам Европы – сколько это стоит, за что штрафуют, где заправляться и т.п. в 2х частях.

А для тех, кто планирует подарок (отличный такой подарок себе, любимому) на праздники и просто так – планшеты нового поколения на Intel Atom X5 от других производителей на TinyDeal.com смотрите/покупайте здесь (поторопитесь, некоторые из них сейчас с ограниченной по времени или количеству скидкой Winking smile ):