Azure: автоматизация назначения Azure Policy для настройки Log Analytics скриптами Azure PowerShell



Обещанные «очень технические» видео по теме Azure на канале – пришло время поделиться некоторыми из личных скриптов и заложенных в них идеях и особенностях реализации той или иной функциональности Azure. В этом видео/посте – поговорим про реализацию автоматического назначения некоторых Azure Policy для конфигурации отправки различными объектами диагностики в Azure Log Analytics при помощи скриптов Azure PowerShell.


Azure: автоматизация назначения Azure Policy для настройки Log Analytics скриптами Azure PowerShell

Почему не с применением ARM Template? – да потому, что «заморочек» в работе с политиками через ARM Template, особенно если говорить о назначении имеющихся политик, да еще и в режиме «исправления» Remediation. Это и огромные нечитаемые «простыни» самого ARM Template вероятными ошибками при копи-пасте и «заморочками» при редактировании, и масса вопросов по описанию в том же (или отдельном) шаблоне всех необходимых учетных записей managed identity (principal) с раздачей им необходимых ролей в том же шаблоне, и процесс поиска и прописывания массы параметров вручную и прочие моменты типа «ручного участия» даже в назначении имен в том же шаблоне… Потому – скрипт, который управляет назначением выбранных политик – является куда меньшим «злом» с точки зрения процесса и более универсальным в работе, чем шаблоны, которые нужно потом очень внимательно править.

И напомню про пару  других моих детальных видео об автоматизации Azure с применением скриптов (с детальным разбором данных скриптов):

  • · Azure – подробный обзор универсального PowerShell скрипта для работы с Azure Log Analytics API – https://youtu.be/2AB-bIQl_4Q
  • · Закон Мерфи для кода или автоматическое копирование файлов между Azure Storage с Azure Logic Apps – https://youtu.be/jvWX6V92aCQ

Но вернемся к представленному Azure PowerShell скрипту, в задачу которого входит назначение политик (стандартных, встроенных в Azure) настройки мониторинга Azure Log Analytics для всех типов сервисов Azure, которые поддерживают данные настройки, на уровне выбранной подписки Azure (хотя в качестве области назначения политик может быть и ресурсная группа, и Management Group). В качестве политики используются встроенные политики Azure Policy, которые соответствуют шаблону имени ‘*diagnostic settings*Log Analytics*’, которые развертываются в режиме Remediation (effect = DeployIfNotExists) для своего типа сервисов.

Какие важные блоки в данном скрипте, на что обратить внимание при работе с назначением политик и использованием их в режиме Remediation (исправления) в коде Azure PowerShell:

  • · Простые операции получения списка нужных политик (или инициатив – набора политик) при помощи команды
    $mons = Get-AzPolicyDefinition | Where-Object { $_.Properties.DisplayName -like ‘*diagnostic settings*Log Analytics*’ }
    и работы с данным списком в цикле для каждого элемента.
  • · Проверка параметров для политики – напомню, что у политики есть свои параметры – большинство из которых – например, тот же режим работы политики – параметр Effect – является установленным по умолчанию в рекомендуемое значение, но вот для данного случая существует еще и параметр logAnalytics (которым назначается конкретное хранилище Log Analytics Workspace, куда направляются все логи) и который может иметь различные модификации имен. Потому – в скрипте проводится проверка точного имени параметра по шалону ‘logAnalytics*’ и формирование параметра на основе полученного имени.

    # get right name of policy’s parameter (typicaly named as logAnalytics or logAnalytics_1 or logAnalytics_param ) to setup required Log Analytics as destination storage
    $obj = $mon.Properties.Parameters
    $prop = Get-Member -InputObject $obj -MemberType NoteProperty -Name logAnalytics*
    # build parameter object
    if($prop)
    {
    $asparam = @{$($prop[0].Name)=$($logan.ResourceId)}
    }

  • · Формирование имени для назначения конкретной политики на основе строки описания политики, из которой по шаблонам извлекается название сервиса (описания для всех политик по управлению настройками диагностики стандартные и позволяют достаточно просто получить имя сервиса, для которого политика предназначена), для которого назначается политика, и после, используя полученное название – создается имя типа $name = “{0}-monitoring-assigned-byScript” -f $aname

    # Build the name of assignment based on substring with Azure service type in Policy’s description
    $aname = $mon.Properties.Description.Split(‘ for ‘)[1].Split(‘ to stream ‘)[0]
    $aname = $aname.Replace(‘ ‘, ”)
    # Workaround for some non-standard descriptions 🙂
    if($aname.Length -gt 32)
    {
    $aname = $mon.Properties.Description.Split(‘ for ‘)[1].Split(‘ and stream the logs to ‘)[0]
    $aname = $aname.Replace(‘ ‘, ”)
    }
    $name = “{0}-monitoring-assigned-byScript” -f $aname

  • · Назначение политики в режиме Remediation – обязательное указание параметров локации (параметр команды -Location) и привязки managed identity (-AssignIdentity) – $assignment = New-AzPolicyAssignment -Name $name -PolicyDefinition $mon -Scope $subsId -PolicyParameterObject $asparam -Location westeurope -AssignIdentity
  • · Ожидание создания учетной записи, привязанной к назначенной политики – требуется время, чтобы вновь созданная учетная запись была реплицирована внутри Azure AD и была доступна – поскольку без этого нельзя назначать требуемые роли на следующем шагу.

    # Assignment have to create Service Principal account and we need to check was account created before continue.
    # The new managed identity must complete replication through Azure Active Directory before it can be granted the needed roles.
    $prid = $assignment.Identity.PrincipalId
    $principal = Get-AzADServicePrincipal -ObjectId $prid
    while(!$principal -and $null -eq $principal)
    {
    Start-Sleep -s 10
    $principal = Get-AzADServicePrincipal -ObjectId $prid
    }

  • · Самая важная часть скрипта – при назначении политик через портал Azure выполняет операции по конфигурированию связанной учетной записи – назначение ролей – на фоне в автоматическом режиме, но когда используется PowerShell – команда New-AzPolicyAssignment только создает учетную запись, но не назначает для нее роли, которые потом требуются для выполнения политикой операций по исправлению конфигураций. Потому скрипт берет данные о ролях из описания политик (внутри каждой политики есть описание требуемых ролей (ID) для операций Remediation) и назначает роли для вновь созданных учетных записей. В случае, если речь идет не просто о политике, а об инициативе (наборе политик) – то тут скрипт просматривает еще и набор политик внутри каждой инициативы и уже из описания политики извлекает ID требуемых ролей (об этом вы найдете в конце видео, когда идет сравнение двух скриптов – для назначения политик и инициатив)

    # WARNING!!! workaround for assignment of the policy that requires remediation
    <#

When creating an assignment using the portal, Azure Policy both generates the managed identity and grants it the roles defined in roleDefinitionIds.

In the following conditions, steps to create the managed identity and assign it permissions must be done manually:

While using the SDK (such as Azure PowerShell)

When a resource outside the assignment scope is modified by the template

When a resource outside the assignment scope is read by the template

The following code iterates the policy definition in $policyDef for the roleDefinitionIds and uses New-AzRoleAssignment to grant the new managed identity the roles.

#>

# Get all policy’s definitions inside each policy in Initiative

$polDefs = $mon.policyDefinitionId

foreach( $polDef in $polDefs)

{

$policyDef = Get-AzPolicyDefinition -Id $polDef

# Use the $policyDef to get to the roleDefinitionIds array

$roleDefinitionIds = $policyDef.Properties.policyRule.then.details.roleDefinitionIds

if ($roleDefinitionIds.Count -gt 0)

{

$roleDefinitionIds | ForEach-Object {

$roleDefId = $_.Split(“/”) | Select-Object -Last 1

New-AzRoleAssignment -Scope $subsId -ObjectId $assignment.Identity.PrincipalId -RoleDefinitionId $roleDefId

}

}

}

  • · И, в заключение – назначение задачи по сканированию конфигурации существующих экземпляров сервисов на соответствие политике и исправлению (Remediation), если данное исправление требуется. Так же, как и в предыдущем случае, при назначении политики через интерфейс портала Azure – данная операция назначается в мастере назначения, а в случае использования скриптов – операция Remediation должна быть назначена отдельной командой явно. Кроме того, чтобы следить за ходом выполнения сканирования и исправления – скрипт выводит на экран текст команды с требуемым ID задачи.

    # Create a remediation for a specific assignment


$name = “Remediation_{0}-monitoring-assigned-byScript” -f $aname

$remtask = Start-AzPolicyRemediation -Name $name -PolicyAssignmentId $assignment.ResourceId -ResourceDiscoveryMode ReEvaluateCompliance

Start-Sleep -s 30

Get-AzPolicyRemediation -Id $remtask.Id

Write-Host “`r`nRemediation task $($remtask.Id) was configured!`r`n`t>>> Check state (ProvisioningState property) by >>> ‘Get-AzPolicyRemediation -Id $($remtask.Id)’ command`r`n”

Как я уже упоминал и в тексте, и в видео – при разработке собственных скриптов на базе данного примера рекомендую обратить внимание на то, как в скрипте автоматически генерируются имена для назначений – шаблоны будут отличаться, как формируется переменная с параметрами, которые используются для передачи политики (они, естественно, отличаются от политики к политике) и, конечно же, какие различия между скриптом, который назначает политики и тем, который назначает инициативы – там тоже есть свои нюансы.

Полный исходный код обоих скриптов, рассмотренных в видео – найдете в аттачменте к данном посту.


Другие доклады по облачным и серверным технологиям у меня на канале:

  • · ИТ-карьера – “ОТКРЫТОЕ СОБЕСЕДОВАНИЕ” – начинаем новый сезон 2021 – приглашаются все желающие – https://youtu.be/h0hk03xX_Z0
  • · Azure AZ-900 – онлайн семинар MUK – построение гибридной инфры с Azure Arc и Windows Admin Center – https://youtu.be/vJhuo7bc-Pg
  • · Azure AZ-900 – онлайн семинар MUK – Azure Security Center – обзор возможностей и конфигурирование – https://youtu.be/1Z3Z6XqJZsM
  • · Azure AZ-900-онлайн семинар MUK-Azure Infrastructure as Code IaC, ARM templates, BICEP, Azure DevOps – https://youtu.be/UOEmloeetfY
  • · Azure AZ-900 – онлайн семинар MUK – Microsoft Power Virtual Agents – создание эффективных чат-ботов – https://youtu.be/mez50o_m0oE
  • · Azure SALES – онлайн-семинар MUK – продажа сервисов Azure для различных сценариев кибербезопасности – https://youtu.be/YF7yKgCVLAA
  • · Azure AZ-900 – онлайн-семинар MUK – обзор Azure Automation, Monitor, Log Analytics, Logic Apps – https://youtu.be/a6VGeDUNYt4
  • · Azure SALES – онлайн-семинар MUK – что такое PaaS службы баз данных Azure SQL и Azure Data Platform – https://youtu.be/38Y-TxFFqT4
  • · Azure SALES – онлайн-семинар MUK – планирование миграции в Azure, стоимость и службы гибридой инфра – https://youtu.be/j_LqwHeLDPY
  • · Azure – онлайн-семинар MUK – планирование миграции в Azure с Azure Migrate, построение гибридой инфра – https://youtu.be/vnQOSPrunKc
  • · Закон Мерфи для кода или автоматическое копирование файлов между Azure Storage с Azure Logic Apps – https://youtu.be/jvWX6V92aCQ
  • · Azure Global AI Bootcamp (UAE) – рус.версия по Cognitive services с PowerShell, Functions, Logic Apps – https://youtu.be/7J4veWZqtpY
  • · Azure – онлайн-семинар MUK – использование сервисов Azure (Logic Apps, Functions, Cognitive) для RPA – https://youtu.be/YQiCfiivpBc
  • · Azure – онлайн-семинар MUK – основы Power Platform создание решений на Power Apps, Flows, Chatbots – https://youtu.be/DECMirInQ2I
  • · Что такое облачные технологии и подготовка к экзамену Microsoft AZ-900 Azure Fundamentals – http://bit.ly/Exam-Az-900

Гаджеты: Microsoft представила новую линейку Surface – Surface Pro 8, Surface Duo 2 и Laptop Studio



Итак, кроме новой ОС Windows 11 нас ожидают и новые устройства от Microsoft из линейки Surface (и не только) – которые, конечно же, будут работать под управлением Windows 11 (напомню, что на днях Microsoft обновила официальную утилиту, которая позволяет протестировать, будет ли ваш старый ПК работать с Windows 11 – смотрите подробнее в видео https://youtu.be/b3BJuq0L_uk ). А новые устройства из серии Microsoft Surface, как обычно – быстрее, мощнее, стильнее и, местами – очень даже интересно и инновационно. Так что давайте по порядку появления устройств в видео – пару слов о них, а подробнее – смотрите уже в данном видео.


Гаджеты: Microsoft представила новую линейку Surface – Surface Pro 8, Surface Duo 2 и Laptop Studio

Флагманом линейки Microsoft Surface, безусловно, является ее “основатель” – универсальный профессиональный планшет Microsoft Surface Pro, который получил 8ю версию с процессорами Intel i3, i5, i7 11го поколения (максимальный – i7 1185G7), при этом память будет теперь в вариантах 8ГБ, 16ГБ и 32ГБ (все равно мало, но для планшета – очень даже прилично) + хранилища 128/256/512ГБ или 1ТБ с возможностью расширения через дополнительный легкодоступный разъем M.2 NVMe. Полностью обновили дизайн Surface Pro 8 – теперь он больше похож на стиль Surface Pro X с дополнительными отверстиями вентиляции в торцах – систему охлаждения тоже переработали, чтобы как-то компенсировать “дурное тепло” i7 (по себе знаю на примере GPD Win 3 – https://youtu.be/xEpjW8qH8C8 ). От Surface Pro X к Pro 8 перешел и новый дизайн клавиатуры с новым Slim Stylus 2. И, судя по истории Microsoft – это лучший стилус на рынке сейчас (в паре с новым Microsoft Surface Pro 8). Основная улучшения нового стилуса – это более высокая отзывчивость и меньшее время отклика от стилуса + благодаря механизма микровибрации и алгоритмам – стилус симулирует реальное движение выбранного инструмента (карандаш, кисть, перо) по поверхности экрана. Все в восторге, говорят – лучший инструмент для дизайнеров/художников. В общем – новый Microsoft Surface Pro 8 получился эволюционным развитием линейки на новом процессоре, в новых конфигурациях и возможностью расширения + с интересными нишевыми фичами типа нового уникального пера.

Чтобы не очень много писать насчет ценовой политики Microsoft относительно каждого из рассмотренных новых устройств линейки Surface – оставлю здесь для удобства скрины с ценами с сайта Microsoft (не забывайте, что сверху надо будет еще накинуть налог, для Европы – это 20%). Итого, цены на разные Microsoft Surface Pro заявлены следующие:

Surface PRO - Screenshot 2021-09-24 083850


Следующим идет нишевая версия Microsoft Surface Go 3 с новым процессором 10го поколения с достаточно высоким ценником и оправдывает ее появление только желание дать “крепкий Windows планшет” каждому ребенку для учебы, развлечений и творчества. Честно говоря, говоря о таких вот мобильных решениях по цене 700уе – все же тут лучше “пляшут” различные другие производители подобных небольших устройств, особенно – китайские, предлагающие цену в 2-3 раза ниже.

Surface Go - Screenshot 2021-09-24 084125


Дальше – очень интересная экологическая инициатива от Microsoft – Ocean Mouse – мышка, которая сделана из вторично переработанного пластика, собранного в океане. Фактически, покупая Ocean Mouse – вы спонсируете программу очистки океанов от плавающего там пластика.


И теперь о самом интересном (как минимум – лично для меня) – мобильном двухэкранном смартфоне-раскладушке Microsoft Surface Duo 2.

Surface Duo 2

Да, Microsoft решил таки продолжить развивать эту серию и вторая версия Microsoft Surface Duo 2 получила новый процессов SD 888, 8ГБ ОЗУ и от 128ГБ до 512ГБ хранилища. Кроме того, добавили уже “стандартные для рынка 3 камеры” с оптической стабилизацией и хорошей оптикой и интересную информационную панель в торце, где находится механизм складывания экрана. Эта информационная панель – небольшой, узкий и вытянутый вдоль телефона экран – предназначен для отображения различных уведомлений, времени, информации о звонке и заряде батареи. На рендерах выглядит очень стильно.

Кроме того, Microsoft говорит об активной работе с разработчиками ПО, чтобы поддержать работу сторонних приложений на 2х экранах Microsoft Surface Duo 2 – на одном выводится общая информация, на втором – детальная (так, список почты и содержимое конкретного выбранного письма), или изображение на одном и опции/инструменты его редактирования на другом, или игра на одном и элементы виртуального геймпада на втором – в таком режиме уже работают на Duo 2 некоторые популярные игры.

Кстати, Microsoft активно рекламирует свой игровой сервис xCloud для стриминга игр XBOX (обзор смотрите здесь – Вот это – круто! не то,что Windows 11 – Microsoft запустил облачный сервис XBOX Cloud – играют все! – https://youtu.be/AWqxDymYSMY ) со всеми устройствами.

Surface Duo 2 - Screenshot 2021-09-24 084415


И, наконец, новинка в линейке – новый Surface под названием Microsoft Surface Laptop Studio – мощный универсальный ноутбук для со всем, поскольку оснащен топовым мобильным i7 11gen процессором, до 32ГБ ОЗУ и NVidia RTX 3050Ti (только в топовых моделях). По названию можно понять, что это мобильная реинкарнация настольного мощного рабочего места Microsoft Surface Studio, в основном – заточенного под дизайнеров. Фактически, с Surface Laptop Studio, Microsoft решил распространить линейку Surface сразу на новые ниши ноутбуков – здесь и мобильный гейминг – поскольку есть все, что касается достаточной производительности в играх + обещают хорошее охлаждение, и дизайнерская работа – это и такой же экран с поддержкой нового пера, как у Surface Pro 8, и оригинальный механизм изменения расположения экрана в режим “стенда” или “планшета” для более удобной работы в режиме рисования или черчения, и разработка приложений (на которую также нацелен Surface Laptop Studio – мощный процессор и относительно много памяти (в топовом варианте) +  стильный дизайн – должны, по идее Microsoft, привлечь разработчиков к новому суперноуту.

Ложка дегтя – это ценник за 3К уе, маленький экран 14.4″ (очень слабо для видеоредакторов и работы с кодом) и всего 4ГБ в видюхе (что может создавать проблемы и в играх, и при работе с видео). Да и памяти, на мой взгляд, маловато будет – 32ГБ уже совсем не та цифра, которая нужна для серьезной работы – мне уже 64ГБ на моем “китайском минисервере” начинает не хватать – 37ГБ занятой памяти при “обычной” работе – а это я еще виртуалки для различных тестов не запустил. Так что нет, 32ГБ памяти лично мне для работы не выглядят привлекательными в настоящий момент.

37GBmem - Screenshot 2021-09-24 091320

И возвращаясь к нише игровых ноутов и мощных мобильных рабочих станций – все же новая модель моего Acer Predator Helios (эксплуатирую пред-предыдущий Acer Predator Helios 300 без остановки уже 2 года) будет попривлекательнее за меньшую цену. Хотя, это уже вопрос выбора… И вот вам те самые “завышенные” цены на Surface Laptop Studio

Surface Laptop Studio - Screenshot 2021-09-24 094223

Другие видео по Windows, облачным и серверным технологиям у меня на канале:

  • GPD Win3 i7/16GB/1TB – лучшая портативная игровая консоль на Win10 – распаковка, настройка и обзорhttps://youtu.be/xEpjW8qH8C8
  • ГадЖеТы: обзор Microsoft Surface Pro 7 (2020) – стоит ли покупать Surface и нужен ли он вамhttps://youtu.be/fQ9VJE7jHbI
  • Windows 11 – Microsoft обновила утилиту проверки совместимости PC Health Check App и требования к ПКhttps://youtu.be/b3BJuq0L_uk
  • * Windows 11 – конвертируем BIOS загрузчик старых Windows в загрузчик UEFI/Secure Boot для Windows 11 https://youtu.be/F-kmvcglLOI
  • * СРОЧНО В НОМЕР! – Windows 11 – в Сеть утекла Store-ссылка на установку Windows Subsystem for Android https://youtu.be/KbLPMqjow5I
  • * Windows 11 – включаем и тестируем “Режим Бога” (God Mode) в Windows 11 – такой же,как и в Windows 10 https://youtu.be/bV79x-DvMGE
  • * Запускаем Windows 11 на Raspberry Pi 4 – как настроить RPi 4, создать и установить Win11, скоростьhttps://youtu.be/fH35VgyDpZk
  • * Вот это – круто! не то,что Windows 11 – Microsoft запустил облачный сервис XBOX Cloud – играют все! https://youtu.be/AWqxDymYSMY
  • * Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”?https://youtu.be/MG3zscrFvpE
  • * Срочно в номер! – обзор Windows 11 – что нового в утёкшей ранней сборке 21996, как установить в ВМhttps://youtu.be/mbLfpI5S4TQ
  • * Windows 10 c ядром Linux (WSL2) “научилась” запускать графические GUI приложения Linux – демо WSLghttps://youtu.be/7Yz3fPuQH6k
  • * Azure AZ-900-онлайн семинар MUK-Azure Infrastructure as Code IaC, ARM templates, BICEP, Azure DevOpshttps://youtu.be/UOEmloeetfY
  • * Azure AZ-900 – онлайн-семинар MUK – обзор Azure Automation, Monitor, Log Analytics, Logic Appshttps://youtu.be/a6VGeDUNYt4
  • * Azure – онлайн-семинар MUK – планирование миграции в Azure с Azure Migrate,построение гибридой инфраhttps://youtu.be/vnQOSPrunKc
  • * Что такое облачные технологии и подготовка к экзамену Microsoft AZ-900 Azure Fundamentalshttp://bit.ly/Exam-Az-900

ИТ-карьера, сезон 2021-22 – открытое собеседование на позицию Azure Admin – что нужно знать, ч.01




Итак, большое спасибо Алексею за участие в первом выпуске нового сезона “Открытое собеседование 2021-22”. Кстати, напомню, что все желающие могут принять участие в данном проекте – достаточно связаться со мной в том же LinkedIn – https://www.linkedin.com/in/iwalker2000/  – или в комментариях под видео – а подробнее о проекте смотрите в этом видео – https://youtu.be/h0hk03xX_Z0 – идея данных видео – дать всем ИТшникам, желающим развиваться в направлении администрирования Azure, представление о тех знаниях и навыках, которые потребуются для работы администратором Azure, а для тех, кто уже работает с Azure – проверить свои знания и навыки и быть уверенным в прохождении реальных собеседований на подобную позицию.


ИТ-карьера, сезон 2021-22 – открытое собеседование на позицию Azure Admin – что нужно знать, ч.01


Так что смотрите и развивайтесь профессионально. Кстати, меня спрашивали, а что делать тем, кто уже гуру в “наземной инфраструктуре” – как им легче переходить в Azure, чтобы не начинать все с начала и не выглядеть “старыми джуниорами” – думаю, такие “публичные собеседования” очень помогут тоже определиться, а вообще – планирую записать отдельное видео с “мэппингом” локальных технологий в облачные технологии и куда “копать” с точки зрения миграции знаний, чтобы не начинать с нуля.



В этом видео Алексею “выпал” следующий набор вопросов (с которым он очень даже успешно справился, а вместе с темами идут и ссылки на мои доклады по данным темам):


Думаю, такой список тем, ответы на которые есть в интервью + ссылки на более подробные доклады – поможет вам подготовиться к участию в данной инициативе или к сдаче экзаменов.



Примеры записей предыдущего сезона смотрите здесь:

  • ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.01 – https://youtu.be/HmpgQoahXTA
  • ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.02 – https://youtu.be/cFzd62vlB9M
  • ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.03 – https://youtu.be/DECMirInQ2I

ИТ-карьера–новый 2021 сезон инициативы “ОТКРЫТОЕ СОБЕСЕДОВАНИЕ”–проверь свои знания и навыки в Azure


Мой LinkedIn ►►► https://www.linkedin.com/in/iwalker2000/
Подписаться на канал ►►►
http://bit.ly/iwalker2000_subs
Открытое интервью ►►►
https://youtu.be/HmpgQoahXTA
ИТ-карьера сисадмина-2019 ►►►
https://youtu.be/eE-6AA3Cm6Q
Подготовка к AZ-900 ►►►
http://bit.ly/Exam-Az-900
ИТ карьера – что для этого нужно ►►► http://bit.ly/ITcarriera_
Еще про Azure и серверы ►►►
http://bit.ly/WindowsServer_overview

Хотите проверить свои знания по Azure? Понять, в каких разделах Azure у вас пробелы? Быть уверенными на собеседовании на новую позицию типа Azure Administrator/Engineer? Я запускаю на канале новый сезон инициативы “ОТКРЫТОЕ ИНТЕРВЬЮ” – к участию приглашаются все желающие. Шаринг виде – https://youtu.be/h0hk03xX_Z0 – приветствуется и добавляет +100500 в карму.


ИТ-карьера – “ОТКРЫТОЕ СОБЕСЕДОВАНИЕ” – начинаем новый сезон 2021 – приглашаются все желающие

Инициатива “ОТКРЫТОЕ ИНТЕРВЬЮ” – ЗАЧЕМ?

  • Обеспечить доступ ИТ-сообщества к оценке их профессиональных знаний и навыков для :
    • Пытаться понять индивидуальный уровень знаний в некоторых областях и найти «слепых пятна» в знаниях
    • Оценка перед сертификационными экзаменами
    • Имитация собеседований с реальными требованиями к реальной должности для подготовки к следующим карьерным ступеням
  • Предоставить интервьюируемому свою «карту знаний» и возможные способы дополнительного обучения, повышения уровня знаний (со ссылками на материалы).
  • Расширение знаний и навыков ИТ-сообщества путем обмена записанными сессиями «открытых интервью»


“ОТКРЫТОЕ ИНТЕРВЬЮ”– КАК?

  • «Открытое собеседование» представляет собой симуляцию реального 1–1,5-часового онлайн-собеседования (по Teams и т.п.), как типичное собеседование для какой-то «стандартной» ИТ-должности (для моего примера – L2 администратор службы поддержки Azure) с конкретными должностными обязанностями и требованиями (99 % близко к реальному)
  • «Открытое интервью» записывается и передается ИТ-сообществу любым подходящим способом.
  • Личность интервьюируемого может быть публичным или анонимным – по желанию интервьюируемого.
  • Главное условие – запись интервью будет опубликована вне зависимости от результатов и желания собеседника.
  • Собеседник не знает вопросов, только общие темы – например, ему задают только требования к должности (поскольку это имитация собеседования).
  • После самого собеседования – карта слепых пятен и личный путь обучения, ссылки, материалы будут предоставлены интервьюируемому (не для протокола, вне записи).

ИТАК, каждый желающий проверить свои знания по администрированию Azure путем прохождения “симуляции” реального собеседования на реальную должность инженера/администратора Azure уровня L2 – может связаться со мной по указанным выше профилям – в LinkedIn или YouTube – и мы договоримся об удобном времени такого “собеседования”.

Описание такой позиции Azure L2 Support Engineer (реальной) и требований к ней (также абсолютно реальные) – смотрите ниже. Все вопросы в “интервью” также взяты из реальных задач, с которыми приходится сталкиваться администратору Azure в ежедневной работе.

Job responsibilities

  • Work with presales Architects team and customer technical team to build LLD
  • Support customer migration project
  • Build ARM, DSC, Security policies based on customer requirements and reference architecture
  • Deploy Azure IaaS/PaaS solution.
  • Implement Automation, Monitoring, DR solutions in Azure.
  • Azure IaaS/PaaS (VM, network, storage, DB, security) troubleshooting
  • Continuous delivery infrastructure for managed customers as Infrastructure as Code.
  • Disaster Recovery.
  • Create new Automation solutions in respond to customer/L1/business requests.
  • Handover and train L1 team.

Required skills and experience

  • Knowledge in the recommended best practices and architectures of Azure — for example, Azure Virtual Datacenter — and the ability to tailor customer solutions to architecture and security requirements (IaaS/PaaS, O365).
  • Knowledge in networks concepts in Azure – VNET, VPN Gateways, ExpressRoute, Application Gateway/WAF, Firewall, Traffic Manager, Azure Front Door and hands on experience on planning, deploying and managing Azure Networks and Hybrid connectivity.
  • Knowledge in security concepts in Azure – Azure AD, IAM, VM / VNet hardening – and their practical application in the development of user infrastructures (IaaS/PaaS, O365) in Azure.
  • Practical knowledge and hands-on experience and skills in using Azure deployment tools – ARM template, az / PowerShell / DSC – and IaC concepts/processes. Scripting skills (powershell/DSC/cmd) for deploying IaaS and OS in virtual machines.
  • Practical knowledge, hands-on experience and skills in working with monitoring and support tools in Azure – ASC, AM, ASR, Automation. Skills and experience in developing scripts for Azure Automation runbooks.
  • Hands-on experience in the administration, support and resolution of problems in the Windows Server / Linux OS and practical experience in managing them using remote PowerShell.

Additional skills, knowledge and experience related to Azure or on-premises technologies are the big plus

  • Administer Azure AD / Active Directory on-prem
  • Windows Admin Center / Hybrid Infrastructure
  • Administer Office 365 / Exchange / SharePoint Server etc. office servers on-prem
  • DBA – Azure SQL / SQL Server etc. on-prem
  • MDM / MAM / Windows 10 using Intune / SCCM
  • Chef, Puppet, Ansible

Примеры записей предыдущего сезона смотрите здесь:

  • ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.01 – https://youtu.be/HmpgQoahXTA
  • ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.02 – https://youtu.be/cFzd62vlB9M
  • ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.03 – https://youtu.be/DECMirInQ2I

Облачные Managed Services – часть 2 – технологические отличия от "традиционных"​ Managed Services


Продолжаю тему «цифровой трансформации» в отношении к современным облачным Managed Services, которую я, пользуясь личным практическим опытом, частично осветил в первой части данной статьи. Напомню, там речь шла о концептуальных и стратегических отличиях новых облачных Managed Services от традиционных «динозавров» Managed Services, вкратце:

  • Поставщики облачных Managed Services выступают «головой», а не «руками» заказчика и концентрируются не на том, «чтобы все виртуальные машины работали», а на консультационной помощи заказчику по миграции в облака и модернизации приложений в формат «нативных» решений. Фактически, поставщик современных облачных Managed Services для заказчика – это, как модно говорить сейчас, «Trusted Advisor» по всему, что касается облаков.
  • Облачные Managed Services отвечают за SLA бизнес-процессов, а не за непонятный для бизнеса заказчика SLA времени ответа на запрос. Задача современных Managed Services обеспечить желаемый SLA для критического сервиса/приложения заказчика, используя все доступные средства облака и способствовать модернизации приложений.
  • Поставщик современных облачных Managed Services работает с заказчиком по принципу «непрерывного проекта миграции и модернизации», обеспечивая постоянное внедрение новых служб, решений и модернизацию существующих без переключения на «сторонние проекты».
  • Поставщик современных облачных Managed Services работает в непрерывном контакте с заказчиком, имея в команде технического менеджера, который поддерживает регулярную коммуникацию с заказчиком, знает о всех его планах и проблемах, обеспечивает координацию с различными командами и вендорами заказчика и управляет ресурсами своей команды и текущими проектами.
  • И, наконец, «цена вопроса» за услуги Managed Services, которая формируется не путем подсчета «виртуальных машин по головам», а в проценте от общей суммы утилизации Azure клиентом.

А в этой части мы поговорим о технологических и процедурных отличиях современных облачных поставщиков Managed Services по сравнению c «динозаврами» «традиционных» Managed Services.

В предыдущем посте я уже писал, что облака вообще и Azure в частности «добавляют новый, не достижимый ранее, уровень гибкости для Managed Services благодаря своим сервисам уведомлений, мониторинга, автоматизации, автоматического поддержания здоровья и безопасности поверх таких возможностей облаков, как эластичность, масштабируемость и отказоустойчивость». И ключевое слово тут – «совершенно новый уровень мониторинга и автоматизации».

Такой мониторинг и автоматизация в первую очередь должны быть направлены на обеспечение требуемого SLA для критических бизнес-сервисов и приложений заказчика, о котором говорилось в предыдущей части. И, учитывая специфику и возможности мониторинга в Azure и сервиса Azure Log Analytics – основной отличительной чертой современного провайдера Azure Managed Services является проактивный мониторинг с предсказанием тенденций по тем или иным показателям критических приложений и/или поиском аномалий в текущих показателях. Звучит красиво и непонятно, а в реальности – Azure Alert, который базируется на нескольких командах в запросе KUSTO к нужным данным, которые хранятся в таблицах Azure Log Analytics – и мы получаем, например, тенденцию уменьшения свободного места на диске исходя из показателей мониторинга последних 15-30 минут, часов, дней – в зависимости от того, насколько высоки требования к SLA решения и как «чутко» нам нужно реагировать на возможное отсутствие дискового пространства для серверов приложений и сколько за это готов платить заказчик. Напомню, что каждый такой Alert с запросом и собственно, время работы вызванной после процедуры Azure Automation стоит денег, пускай это идут центы, но при активном использовании с минутными интервалами – может набегать ощутимая сумма.

Сценарии применения такой «предсказательной» автоматизации – бесконечно обширны благодаря инструментарию управления в Azure. Конкретный пример с предсказанием окончания места на диске за несколько дней до критического значения (обычно 5-10%) в реальных инфраструктурах – это и оправка уведомлений всем заинтересованным лицам + создание «тикета» в системе управления того бизнес-приложения, у компонентов которого место на диске подходит к концу, и запуск Azure Automation runbook, который в ближайшее окно обслуживания остановит, если возможно, проблемную виртуальную машину и увеличит размер диска на ней. Другой сценарий – это предсказание изменения нагрузок (кол-ва запросов) на том же Azure Application Gateway, чтобы предварительно увеличивать/уменьшать количество работающих экземпляров App Gateway в зависимости от недельных/сезонных и общих тенденций, что позволяет обеспечивать и высокую доступность решения, и экономить деньги клиента, подстраивая количество экземпляров под реальные потребности. И да, я в курсе про autoscaling для App Gateway, но как показывает опыт – всегда стоит держать +1 экземпляр в горячем режиме про запас – потому что автоматическое масштабирование не успевает реагировать на те же атаки или даже просто резкий скачек нагрузки при каких-то онлайн событиях. А вот такие онлайн события по расписанию очень легко предсказывать на недельном форекасте и реагировать за 15-30 минут до их начала расширением пула и экземпляров App Gateway, и App Services, и SQL Database DTU, и прочих компонент приложения.

Интересной особенностью Azure Monitor и Azure Log Analytics является Azure VM Insights – возможность «заглядывать» в то, что происходит на уровне ядра OS виртуальных машин и получать информацию не только о показателях производительности базовых компонентов, но и, например (еще один реальный сценарий), мониторить и предсказывать «всплески» высокого уровня задержек сетевых соединений (outbound connection latency) процессов приложения при запросах между виртуальными машинами, на которых находятся компоненты приложения, или к базам данных. Опять же, зная суточные/недельные/месячные тенденции и текущие показатели – очень легко предсказывать возможные «залипания» соединений и быстро реагировать на проблемы путем увеличения количества виртуальных машин требуемого типа в пуле приложения. И да, заметьте, тут для масштабирования используются не стандартные показатели типа CPU/RAM/Disk или даже число запросов, а именно тот показатель, который может серьезно влиять на доступность и производительность приложения, не смотря на отсутствие явных признаков высокой утилизации конкретной виртуальной машины и всего решения в целом.

И чтобы не быть голословным (все-таки техническая часть) – вот вам небольшой пример того самого запроса KUSTO к Azure Log Analytics с визуальным предсказанием нагрузки App GW, который отображает общую почасовую тенденцию изменения трафика на App GW в следующие 3 дня исходя из истории предыдущих 5 дней:

let min_t = toscalar ( AzureDiagnostics | where TimeGenerated > ago(5d) | summarize min(TimeGenerated));

let max_t = toscalar ( AzureDiagnostics | where TimeGenerated > ago(5d) | summarize max(TimeGenerated));

AzureDiagnostics

| where TimeGenerated > ago(5d) and ResourceType == “APPLICATIONGATEWAYS” and OperationName == “ApplicationGatewayAccess”

| make-series Requests_H = count() on TimeGenerated from min_t to max_t+3d step 1h

| extend forecast = series_decompose_forecast(Requests_H, toint(3d/1h),0)

| render timechart

Визуальный результат будет выглядеть так, где синий график – текущие показатели количества запросов к сайту за прошедшие 5 дней, а красный график – предсказание тенденций изменения трафика на следующие 3 дня:

clip_image002

А дальше – выполняя такие запросы по расписанию (и помним о цене запроса) и оценивая тенденции или находя аномалии – запускаем в случае критических показателей требуемые скрипты Azure Automation или других продуктов, которые внедрены в процессы компании.

Проактивный мониторинг инфраструктуры – это отличное средство обеспечения требуемых SLA, но не стоит игнорировать и стандартные средства эффективной реакции на проблемы инфраструктуры и приложений в Azure, такие, как уведомления/предупреждения о проблемах (служба Azure Alerts, являющаяся частью Azure Monitor) и автоматической проверки здоровья (Health checks/auto-healing, опции различных служб), работающие в той же связке с Azure Automation для реакции на события путем запуска требуемых Azure Automation Runbook.

На рынке существует достаточно большое количество решений, обеспечивающих сбор и мониторинг данных по работающей инфраструктуре в Azure, но в большинстве своем – это универсальные системы, строящие «красивые отчеты» и «дашбоарды» для различных компонентов, в то время, как для современных облачных Managed Services важно гарантировать SLA клиентского сервиса в целом, что уже упоминалось в первой части статьи. Потому для доведения решения до требуемой кондиции – контроля за SLA и реакции на возможные проблемы – все равно требуется доводка таких универсальных систем «напильником». И, как показал опыт – подстраивать сторонние готовые универсальные мониторинга системы под задачи конкретного заказчика – весьма утомительно и, часто, очень проблематично ввиду особенностей архитектуры этих систем. Кстати, об архитектуре систем – практически эта архитектура требует в тенанте (даже не подписке) заказчика наличия учетных записей с такими правами, на которые служба безопасности заказчика категорически не согласна. Так что приходится все это решать средствами собственных скриптов, объединяя с упомянутыми выше очень даже функциональными сервисами Azure. Как работает такая связка – я постарался вкратце рассказать в ходе недавнего онлайн семинара по Azure Automation и Azure Monitor/Log Analytics – https://youtu.be/a6VGeDUNYt4


Azure AZ-900 – онлайн-семинар MUK – обзор Azure Automation, Monitor, Log Analytics, Logic Apps

Таким образом, современные Azure Managed Services базируются на обширном репозитории шаблонов скриптов и запросов, которые можно быстро адаптировать под потребности конкретного заказчика и задача команды современных облачных Managed Services – активно расширять и оптимизировать данный репозитарий.

Интересным аспектом является модный ныне DevOps, о котором столько разговоров. И да, вы правильно сделали выводы – если я не начал с самого начала нахваливать DevOps – он действительно не играет существенной роли в предоставлении Managed Services (если, конечно, вы не предоставляете DevOps, как одну из услуг Managed Services). Тот же практический опыт показал полное отсутствие каких-либо преимуществ применения DevOps перед традиционными средствами развертывания и управления инфраструктурой в Azure – типа шаблонов ARM, Azure Automation, DSC – для предоставления тех же услуг развертывания инфраструктуры в рамках Azure Managed Services. Почему так? – Да потому, что большинство инфраструктур заказчика стабильны и меняются не так часто, потому репозитория ARM шаблонов вполне достаточно и для начального развертывания, и для дальнейшей модификации/восстановления при сбоях. Что же касается программной части – тех же Azure Apps Services, Azure Data Platform, Kubernetes и прочих – в задачу Azure Managed Services входит их мониторинг и поддержка, а начальное «запиливание» кода в большинстве случаев – это ответственность команд разработчиков (причем, чаще – во множественном числе), которые работают над своим продуктом и со стороны поставщика Azure Managed Services им требуется готовая инфраструктура самой службы DevOps, настроенные системы мониторинга и реакции на проблемы со стороны Azure. Очень часто – разработчики вообще не представляют, какие функции управления инфраструктурой того, что они «наворотили», имеются в Azure и именно «обвес» мониторинга и высокой доступности всего решения в целом – куда входят и Application Gateway/WAF с CDN, и App Services с базами данных и хранилищами, и средства управления масштабированием и здоровьем, и репликации, а не отдельный экземпляр App Services – и является зоной ответственности команды Azure Managed Services и требует постоянного взаимодействия с командой разработчиков и разработки спецификаций, которые позволяют упростить процесс работы такой инфраструктуры и которым должны следовать разработчики в архитектуре своего решения.

Так что DevOps – это скорее нет, чем да… Или вы «подхватываете» у заказчика, а вернее – его поставщиков – функции разработки и DevOps по совместительству. Но это уже совсем не та история, которая про Azure Managed Services.

А вот следующая часть «той истории» современного облачного поставщика Azure Managed Services начинается в последних предложениях про DevOps о спецификациях – это называется Operational Excellence (OE) – по-русски звучит коряво – «Операционное Совершенствование» – потому буду использовать в тексте аббревиатуру OE. Operational Excellence я бы назвал одной из основных составляющих успеха после того, как вы наработали у себя в облачных Managed Services необходимый минимум репозитория шаблонов скриптов и дальше развиваете свой бизнес. Какие первоочередные задачи стоят перед OE в данном случае? Во-первых – это работа над спецификациями типа LLD benchmark checklist, Developers benchmark checklist и т.п. Все эти спецификации должны определять списки требования к архитектурам, которые планируют для ваших заказчиков либо ваши коллеги из Professional Services, либо разработчики заказчика, либо непосредственно ваши сотрудники, работающие в Managed Services. Такие OE спецификации для планирования решения чаще всего содержат в себе требования к наличию различных компонентов мониторинга и управления в дизайне по умолчанию. Например, для Azure LLD OE benchmark checklist это проверка архитектуры на:

· Наличие Azure Monitor Alert, который уведомляет о глобальных проблемах всех служб Azure

· Наличие Alert для критических значений вместимости и производительности для всех компонентов

· Наличие требуемых служб мониторинга – Azure VM Insights, Application Insights, Azure Log Analytics, Azure Security Center для критических компонентов

· Наличие карты требуемых процессов обслуживания

· Наличие автоматизации рутинных процессов с использованием Azure Automation

· Наличие карты зависимостей критических приложений, для которых будет требоваться SLA

· Наличие плана восстановления после сбоев

· Наличие списка других объектов/процедур, которые являются критическими в инфраструктуре и т.п.

Следующая часть OE – это внутренние процессы, такие, как контроль за процедурными документами и их соответствию текущему статусу инфраструктуры, улучшение основных процессов поддержки SLA путем внедрения результатов анализа каждого сбоя – Root Cause Analysis (RCA), и, самое главное – это наличие процессов анализа обращений клиентов с целью обнаружения типовых обращений и создания на их основе новых автоматических процедур или решений, которые обеспечивают доступ к требуемой информации/операций посредством порталов или приложений самообслуживания.

И да, Operational Excellence – это моя «боль», поскольку даже при очень хорошо продуманных процедурах, особенно внутренних – надо еще научить коллектив соблюдать эти процедуры. И здесь, опять же – приходит на помощь и автоматизация бизнес-процессов, и, конечно же, правильные KPI. Но это уже тема следующей части про действительно современные и актуальные облачные Managed Services.

Зато есть еще одна, упомянутая выше, технологическая часть Azure Managed Services, которая существенно отличается от «традиционных» – поскольку мы работаем с облаками и, как уже говорилось в первой части, не блокируем полностью клиентский доступ к инфраструктуре – тут у нас открывается обширное поле деятельности для создание решений по самообслуживанию, особенно, если OE работает и вы быстро определяете базовые рутинные потребности в обслуживании для каждого клиента Azure Managed Services. Что дальше? Безусловно – автоматизация или применение современного удобного инструментария/платформ разработки решений, которые позволяют максимально ускорить взаимодействие заказчика с его же инфраструктурой.

К чему это я? Все очень просто – такими инструментами и платформой для создания решений самообслуживания являются и сам Azure с его Log Analytics, Logic Apps, Automation, Functions, Cognitive Services, и платформа Power Platform c Power Apps, Power Virtual Agents. Применение Power Apps позволяет очень легко и просто предоставить заказчику, особенно менеджменту, простое приложение-панель информации для мобильных платформ (телефонов и планшетов) – наиболее востребованная, как показывает опыт и анализ запросов, функциональность – «хотим видеть на телефоне прямо в реальном времени состояние всех приложений и их компонентов (светофорчики)». Используя Power Apps и средства типа Log Analytics и Functions, которые вызываются из Power Apps – создание такого приложения занимает считанные дни, модификация – часы, а публикация – минуты. При этом такое простое приложение имеет громадный позитивный эффект на лояльность и удовлетворенность менеджмента заказчика предоставляемыми Azure Managed Services.

Второй сценарий – это автоматизация стандартных технических запросов от инженеров заказчика, которые обслуживают непосредственно приложения, обычно – внутри виртуальных машин и лезть куда-то в незнакомый портал и отвечать за «поломанное» им совершенно не интересно. Опять же, как показала практика – самый эффективный способ быстрой реакции на запрос – это автоматизация обработки почтовых сообщений, в которых с простым синтаксисом описываются требуемые операции, такие, как создание виртуальных машин или команды к существующим, изменение конфигураций NSG, App Services, Application Gateway, запросы на отчеты и многое другое. А далее – используется Azure Logic Apps, которые управляют данным процессом, с запросом (если требуется) подтверждений операций как со стороны ИТ заказчика, так и инженера поддержки команды Azure Managed Services. И после прохождения всех формальностей – такое электронное письмо разбирается через Cognitive Services, проверяется на предсказание возможных последствий или наличие аномалий для SLA и сами операции выполняются средствами Azure Automation, Functions и Log Analytics. Подобные сценарии я рассматривал в упомянутом ранее видео про автоматизацию управления Azure – https://youtu.be/a6VGeDUNYt4

Опять же, как и в варианте с Power Apps, на разработку бизнес-процесса требуется несколько дней, после чего уже технические специалисты заказчика остаются очень довольными простотой взаимодействия. Сразу скажу, что особым хитом сезона являются всякие там запросы на отчеты по email – написал имя виртуальной машины или ресурсной группы и даты – и получил через минуту полный почасовой отчет утилизации ресурсов ВМ.

И тут возникает правильный вопрос – а как же Level 1 Support? А вот никак, поскольку в большинстве своем Azure Managed Services – это непрекращающийся постоянный процесс модернизации инфраструктуры из наследованных технологий в облачные. И если специалист L1 не в курсе процессов и зависимостей внутри инфраструктуры заказчика – он скорее не поможет, а навредит, и при этом – базовые операции типа пресловутой «перезагрузить ВМ» уже запросто могут быть делегированы системе со службой самообслуживания, поскольку вызывая такую операцию из приложения или почты – заказчик вызывает не команду перезагрузки ВМ, а достаточно сложный скрипт, проверяющий влияние такой операции на SLA бизнес-приложений и принимающий решение уже на базе сценариев «лучшего возможного SLA».

А Level 1 – разве что приятный женский голос, отвечающий по телефону + мы начали эксперименты с Power Virtual Agents для предоставления той же информации о статусе и отчетов. А «мальчикам» из Level 1 придется либо расти до инженеров (про требования к инженеру в Azure у меня есть серия публичных собеседований – см.ниже), либо искать другую работу.


ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.01

· ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.01 – https://youtu.be/HmpgQoahXTA

· ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.02 – https://youtu.be/cFzd62vlB9M

· ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.03 – https://youtu.be/DECMirInQ2I

И вот про то, как изменяется орг.структура организации, которая решила перейти от предоставления «традиционных» Managed Services к современным облачным Managed Services – будет третья часть данной статьи.

Облачные Managed Services – современная реальность "цифровой трансформации"​ и отличия от "традиционных"​ Managed Services


* Больше технических статей и постов на LinkedIn – https://www.linkedin.com/in/iwalker2000/
* Мой YouTube канал и технические видео на нем – https://www.youtube.com/iwalker2000
* Бесплатный курс по подготовке к экзамену Azure Fundamentals AZ-900 – http://bit.ly/Exam-Az-900

Как показывает личный опыт последних лет, красивые слова типа «диджитализация», «цифровая трансформация» и прочие расхожие фразы, которые должны подчеркнуть невероятную «продвинутость» компании на пути к новым вершинам «облачного» бизнеса – очень часто являются всего лишь красивой вывеской, за которой скрывается уровень бизнеса 20летней давности и косность менеджмента, по прошествии «20 лет успеха» не способного уже мыслить по другому, как раз критериями той самой «цифровой трансформации»… Нет, эта статья не будет про различные личные психологические практики «как принимать новое» и «читать больше и думать инновационно» – эта статья будет более практической – я постараюсь сформулировать собственное видение того, что является действительно «трансформированными» Managed Services для облака (в моем случае речь пойдет про Azure и базируется на личном опыте создания и руководства соответствующем департаментом) в отличие от «традиционных» Managed Services, к которым продолжают тяготеть «динозавры» бизнеса под вывеской «диджитализации».

Итак, чем же должны отличаться организации, которые предоставляют современные Azure Managed Services от организаций с «традиционными» Managed Services и какой путь должны пройти последние, чтобы предоставлять действительно современные Managed Services для облаков, а не уровень звонка в Level 1 типа «у нас не работает виртуалка – пожалуйста, перегрузите»?

Облака – это существенное изменение в управлении, поскольку они добавляют новый, не достижимый ранее, уровень гибкости для Managed Services благодаря своим сервисам уведомлений, мониторинга, автоматизации, автоматического поддержания здоровья и безопасности поверх таких возможностей облаков, как эластичность, масштабируемость и отказоустойчивость. Соответственно, клиенты Azure Managed Services ожидают от поставщика услуги, что все данные инструменты будут использованы для обеспечения беспрерывной работы уже не отдельных виртуальных машин, а их бизнес-сервисов и бизнес-процессов в целом и разговор «ой, у меня не работает виртуальная машина» просто не может произойти в рамках облачных Managed Services. Также клиенты ожидают от поставщиков Azure Managed Services, что их методологии и подходы к Operational Excellence тоже будут трансформированы и адаптированы к облачным условиям, где используются не только реактивные инструменты мониторинга и автоматизации здоровья решений и SLA, но и службы автоматического улучшения инфраструктуры бизнес-сервиса, исходя из возможностей аналитики, поиска аномалий и предсказаний средствами облачных сервисов типа Log Analytics или Sentinel. И, безусловно – клиенты ждут помощи в миграции в облако и дальнейшей адаптации их традиционных «наземных» решений – этот аспект даже не обсуждается – и если непосредственно миграция уже проведена – чаще всего это вариант с миграцией существующих «наземных» сервисов в виде виртуальных машин IaaS Azure – клиенты ожидают от поставщика Azure Managed Services дальнейших шагов по трансформации такой инфраструктуры в нативные сервисы Azure.

И здесь первая огромная разница между традиционными и облачными Managed Services – заказчик видит в поставщике Azure Managed Services не просто «аутсорсовые руки», которые он будет использовать для выполнения рутинных операций типа «перегрузить виртуальную машину», а именно доверенное лицо, которое в первую очередь предоставляет экспертизу по «движению в облако», причем заказчик ожидает, что получит возможность общения с высококлассным SME (Subject-Matter Expert) по всему возможному спектру сервисов Azure, который обозначен в контракте, и общение между заказчиком и поставщиком услуг будет проходить в стиле знаменитого диалога:

— Теперь вот такое предложение: а что, если
— Не стоит.
— Ясно Тогда, может быть, нужно
— Не нужно.
— Понятно. Разрешите хотя бы
— А вот это попробуйте.

Пожалуй, повторюсь по поводу этого пункта, поскольку до многих руководителей «традиционных» Managed Services этот момент доходит, как до того диплодока с очень длинной шеей – в случае с публичным облаком типа Azure заказчик самостоятельно может выполнять большое количество базовых операций – благо, Azure существенно упрощает многие административные рутинные функции и предоставляет отличный инструментарий управления – будь то портал Azure или Azure PowerShell сотоварищи – и это не те местечковые «облака» с банальными виртуальными машинами, которые расплодились за последние 10-15 лет и так и не превратившиеся в настоящие облака, и которые не в состоянии предоставить нормальный инструментарий управления для клиентов и потом все «пляски с бубнами» вокруг каждой виртуальной машины должны выполняться исключительно персоналом провайдера Managed Services. В случае Azure заказчик не нуждается в столь плотной «опеке» и «залоченной» облачной инфраструктуре, к которой имеют доступ только сотрудники поставщика «традиционных» Managed Services – фактически, это создает промежуточное звено во внедрении решений и существенно замедляет процессы – что полностью противоречит задачам облаков – ускорению бизнеса путем быстрой адаптации и развертывания ИТ сервисов. Но Azure продолжает быть достаточно сложным для инженеров заказчика, в ответственность которых входят именно бизнес-сервисы, а не то, как их работа обеспечивается в Azure – потому именно экспертные услуги со стороны поставщика Azure Managed Services и являются главной отличительной чертой «нового» провайдера современных облачных Managed Services.

Вторая отличительная черта поставщика Azure Managed Services – это SLA. Нет, не тот SLA, о котором любят писать провайдеры Managed Services в контрактах – про гарантированное время ответа и восстановления, это в реальности мало кого интересует в облачных сервисах – облако Azure куда стабильнее всех этих «местечковых облачков» – а действительный доказанный SLA конкретных бизнес-сервисов. Именно так – заказчик дает запросы на предоставление требуемого уровня SLA для своих критических сервисов, а поставщик Managed Services – их обеспечивает. И здесь уже в дело вступает первый пункт – поcтавщик услуг Azure Managed Services предоставляет не «руки», а «головы», в задачу которых входит в том числе и совершенствование инфраструктуры заказчика (в рамках контракта Managed Services) для достижения необходимого уровня SLA конкретного критического бизнес-сервиса. Дальше уже исключительно техническая и финансовая часть задачи по достижению требуемого SLA – возможно ли такое технически в рамках Azure и конкретного бизнес-приложения заказчика и готов ли заказчик платить за все «хотелки» для достижения такого SLA. А поскольку в рамках Azure можно «наворотить» многое для достижения требуемой высокой доступности, надежности, защиты от сбоев и восстановления конкретного решения – то задача вполне решаемая для «настоящих» специалистов поддержки (а не L1, который «должен перегрузить ВМ») без особых проблем. Но самое интересное в данном случае с SLA – если само «наследованное» приложение не адаптировано к работе со средствами масштабирования и высокой надежности в Azure и требуется модификация или даже тотальное изменение архитектуры решения. И тут вступает в дело третья, и, по большому счету – самая важная – отличительная черта современного облачного поставщика Managed Services в отличие от «традиционных» Managed Services.

Итак, отличие третье – основные работы современные облачные провайдеры Managed Services выполняют для заказчиков не в рамках «тикетов» на «перегрузку ВМ» или «изменение размера ВМ», а в рамках постоянной адаптации и оптимизации клиентских сервисов в облаке. Рассматривайте это, как продолжительный непрекращающийся разбитый на фазы проект модернизации, внедрения новых компонентов, оптимизации существующих и т.п. Никаких устаревших бизнес-моделей, где в контракте оговорено количество виртуальных машин, сетей и прочего для обслуживания, а все новое – это отдельный «проект по планированию и развертыванию», который выполняют «Professional Services». В случае облачных Azure Managed Services все развитие инфраструктуры в облаке, возможно, с планами на год или даже несколько лет – это задачи и ответственность команды Azure Managed Services. Выглядит очень требовательно? Возможно, но речь не идет о «переписывании» приложений (хотя такие сервисы и предлагаются некоторыми поставщиками услуг облачных Managed Services), а о консультационной работе с разработчиками заказчика и рекомендациях по изменении кода приложения или архитектуры согласно лучшим практикам Microsoft для Azure. Фактически, специалисты из команды Azure Managed Services выступают и постановщиками задачи для разработчиков (совместно с заказчиком) и SME по архитектуре решения, поскольку одна из зон ответственности провайдера Azure Managed Services – это SLA приложений и сервисов и их архитектура должна быть спланирована под задачи соответствия договоренному SLA. А что насчет планирования и внедрения новых сервисов в облаке для заказчика – и это тоже работа команды Azure Managed Services. Во-первых, потому, что любая облачная инфраструктура – это в первую очередь следование лучшим практикам и они говорят о построении решений типа виртуального ЦОД с архитектурой HUB-SPOKE и после построения центрального хаба все дополнительные сервисы подключаются по типовым проектам, как spoke – и «городить» там что-то серьезное, с привлечением «Professional Services», вообще не требуется. А во-вторых – именно команда Managed Services обладает полной актуальной информацией по всей инфраструктуре клиента, возможных дополнительных ограничениях или требованиях, планах по развертыванию других сервисов и многой другой информацией – потому, фактически, проект подобных улучшений или будет связан с длительным процессом передачи знаний между командой Managed Services и командой «архитекторов» Professional Services c последующими согласованиями результатов и т.п. – что делает такой проект существенно громоздким и дорогостоящим, или может быть выполнен командой Managed Services с привлечением необходимых SME по каким-то специфическим решениям как раз из команды Professional Services. Хотя, как показывает опыт работы – инженер L2 Azure Managed Services после года активной работы в среде крупного корпоративного заказчика даст большую фору «архитектору» Professional Services по планированию и внедрению решений в обслуживаемой среде – поскольку имеет практический опыт и куда более глубокое понимание конкретной среды – так что в реальности, по личному опыту – привлечение SME от «Professional Services» вообще не требовалось – все планирование и внедрение новых решений и модернизация существующих для соответствия SLA выполнялись только силами L2 инженеров и L3 архитекторов Azure Managed Services, без привлечения сторонних «экспертов».

И здесь в дело вступает еще одно отличие – для нормального взаимодействия с клиентом требуется постоянный технический диалог, в рамках которого обсуждаются планы и проекты, а клиент может обратиться с соответствующими техническими вопросами типа «А нельзя ли сделать так?» к тому самому SME по Azure, который имеет полное представление об инфраструктуре клиента. И такой диалог должен быть постоянным, регулярным и проактивным со стороны поставщика Azure Managed Services, т.е. – команда Azure Managed Services, которая работает с конкретным заказчиком, должна иметь в своем составе кого-то, кто будет выполнять функции условного «Technical Account Manager» (TAM) для клиента. Практика показывает, что именно L3 support Azure Architect прекрасно справляется с регулярными техническими коммуникациями с заказчиками и является для них тем самым основным SME по Azure, единой точкой контакта по всем техническим вопросам и принимает участие во всех встречах/совещаниях по планированию и развитию инфраструктуры, и, конечно же – лидером команды Azure Managed Services для конкретного заказчика. Данный условный TAM должен обладать полным знанием об инфраструктуре заказчика, быть в курсе планов развития инфраструктуры, выделять и планировать ресурсы команды под будущие проекты и вести текущие проекты с точки зрения технической экспертизы и управления. И, опять же – как показывает практика – от персоналии такого вот TAM во многом зависит успешность работы с конкретным заказчиком, его удовлетворенность сервисом и многое другое. Так что регулярные созвоны пару раз в неделю и работы на опережение (все эти Operational Excellence – про это – в следующей части) очень даже требуется со стороны TAM.

Еще одним различием облачных Managed Services и «традиционных» является «цена вопроса» – переход от «подсчета по головам», т.е. по количеству обслуживаемых виртуальных машин с фиксированной ценой за одну ВМ, к проценту от цены утилизации в облаке. Согласитесь, считать стоимость облачных сервисов по «головам» ВМ, в то время, как одна из задач современных Azure Managed Services – оптимизация инфраструктуры, обеспечение SLA для бизнес-сервисов и приложений – требует модернизации «зашитых» в ВМ приложений в IaaS окружении в сервисы PaaS и что автоматически удаляет ВМ в будущем – крайне странно. Плюс в Azure масса сервисов, которые требуют управления и которые не посчитаешь «по головам». Потому – только процент от утилизации. Опять же – в зависимости от набора предоставляемых в рамках Managed Services услуг процент может варьироваться от 10% до 30% стоимости самих утилизированных ресурсов Azure. Это, ко всему прочему, двигает заказчика более пристально относиться к вопросам стоимости и оптимизации инфраструктуры (что упрощает и внедрение SLA бизнес-сервисов для команды Managed Services), а с другой стороны – Managed Services заинтересована в постоянном развитии инфраструктуры и драйвинге процессов миграции других сервисов заказчика из локальной инфраструктуры в облако. И показатель роста утилизации (и, соответственно, роста стоимости услуг Azure Managed Services) – отличный KPI для новой облачной команды (наряду с обновленным KPI по SLA – только не того, который представляет «непонятные тикеты» ответа, а SLA бизнес-приложений заказчика).

И вот про KPI и прочие шаги, которые надо предпринять провайдеру услуг (типа реализации облачного варианта Operational Excellence) для трансформации «традиционного залоченного» Managed Services в современный облачный/Azure Managed Services – мы поговорим в следующей статье на эту тему.

Продолжение – следует…

интересная серия видео, на которые рекомендую обратить внимание – это “открытое собеседование” на позицию Azure L2 support engineer (попросту “администратор Azure”) – которое поможет вам сориентироваться в требованиях к позиции и оценить свои знания:

  • * ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.01 – https://youtu.be/HmpgQoahXTA
  • * ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.02 – https://youtu.be/cFzd62vlB9M 
  • * ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.03 – https://youtu.be/DECMirInQ2I

Семинары по AZURE–фундаментальные возможности и основы управления AZURE, использования сервисов безопасности, надежности и мониторинга в AZURE


Подписаться на канал ►►►
Мой LinkedIn ►►► 
ИТ-карьера сисадмина-2019 ►►►
Подготовка к AZ-900 ►►►
Как стать системным администратором ►►►
ИТ карьера – что для этого нужно ►►►
Еще про Azure и серверы ►►►
Про производительность дисков ►►►




По приглашению компании МУК –
https://muk.ua/ – прочитал несколько семинаров по технологиям Azure, в основном в рамках того самого базового курса по Azure, который потом предполагает сдачу сертификационного экзамена Microsoft Az-900 – http://bit.ly/Exam-Az-900 – как раз для тех, кому лениво смотреть весь цикл серий (тем более, что я их так пока и не закончил). Но, если у вас есть потребность “быстренько” познакомиться с основными концепциями и технологиями Azure всего за 4 часа, а не за 15 часов (как в моем курсе http://bit.ly/Exam-Az-900) – тогда смотрите эту “короткую” серию 😉

Темы первого семинара “Основы управления AZURE и базовые сервисы AZURE”


  • Базовые концепции облаков – надежность, эластичность, масштабируемость
  • Датацентры Azure и высокая доступность
  • Утилиты управления Azure – портал, PowerShell, CLI
  • Понятие Resource Group и развертывание ресурсов
  • Основные сетевые сервисы в Azure
  • Основные сервисы хранилищ в Azure
  • Резервное копирование и DR в Azure
  • Виртуальные машины в Azure, отказоустойчивость, мониторинг
  • Вычислительные сервисы в Azure – App Services, Functions
  • Сервисы управления процессами – Power Automate
  • Сервисы контейнеров в Azure


Azure – начальный технический обзор основных сервисов Azure – мой доклад на онлайн-семинаре MUK


Кстати, в конце видео я упоминаю про так называемое “публичное собеседование” –
https://youtu.be/pyzxPupDbI8?t=12811 – эта такое себе анонимное (по желанию) собеседование под запись или сразу в прямом эфире с разбором полетов потом – чтобы желающие сразу могли оценить требования крупной компании на простую должность типа инженера/архитектора поддержки клиентов в Azure. Потом я это опубликую тут, на канале, в разделе ИТ-карьеры – http://bit.ly/ITcarriera_ – а то народ периодически спрашивает, что нужно знать и как понять, знаешь ли ты “это” и просит записать видео – а записывать абстрактно как-то не хочется – типа, перечисления – вот, это, это и это учите, а хотелось бы сделать такой вот живой диалог, плюс – можно же сразу знать, что учить, а я еще буду в конце такого “собеседования” рассказывать, как и для чего 😉 В общем, если вы вдруг хотите поучавствовать в таком эксперименте – добавляйтесь ко мне в контакты в LinkedIn –  https://www.linkedin.com/in/iwalker2000/ и при добавлении не забудьте указать в сообщении, что хотите поучавствовать в онлайн собеседовании 😉


Смотрите продолжение моего доклада по Azure Fundamentals на онлайн семинаре, который проводит по пятницам компания МУК ( https://muk.ua/ ). Первую часть семинара можете посмотреть в записи тут – https://youtu.be/pyzxPupDbI8 – а также напомню, что у меня на канале есть 13 серий базового курса по Azure, который потом предполагает сдачу сертификационного экзамена Microsoft Az-900 – http://bit.ly/Exam-Az-900 . А темами данной части семинара по Azure для технических специалистов стали следующие возможности и функции Azure:

Темы второго семинара “AZURE – основы использования сервисов безопасности, надежности и мониторинга”

  • * Безопасность Azure
    • Защита учетных записей в Azure Active Directory
    • Политики безопасности в Azure
    • Средства защиты данных, шифрование, ключи и секреты
    • Сетевая безопасность Azure
    • Безопасная конфигурация Azure VM
    • Azure Security Center
    • Best Practices для облачной и локальной инфраструктуры с сервисами безопасности Azure
  • * Средства защиты от сбоев
    • Гео-репликация данных
    • Гео-репликация служб
    • Azure Backup
    • Azure Site Recovery
  • * Архитектурные решения
    • Мониторинг инфраструктуры Azure
    • Azure Monitor/Diagnostic
    • Базовые уведомления
    • Azure Automation
    • Azure VM/Apps Insights
    • Azure Log Analytics
    • Использования API для автоматизации мониторинга


Azure – 2я часть – по основнам безопасности, надежности, мониторингу Azure – онлайн-семинар MUK


Другие доклады по облачным и серверным технологиям у меня на канале:

Автоматическое развертывание Windows Failover кластеров в Azure и еще один пример неработающего публичного кода и поддержки от Microsoft


Смотри на действование Microsoft: ибо кто может выпрямить то, что Он сделал кривым? (Екк. 7:13)

Верить в наше время нельзя никому, порой даже самому себе. Мне — можно. (Старина Мюллер)

Северный пушной зверек подкрался незаметно, откуда его никто не ждал… (Работа)

Начало этой истории (которая по странному стечению обстоятельств практически совпала с другой историй про Microsoft support, о которой я писал ранее и с еще более печальной историей про бан моего курса по экзамену AZ-900 со стороны Microsoft) было драматичным… Заказчик присылает на развертывание дизайн ресурсной группы в Azure, в котором кроме всего прочего – еще и 6 Windows Failover Clusters по 2 сервака в каждом и с обычными сроками «на завтра». В принципе, все есть – ARM templates много раз деланы-переделаны, отдельные ARM template/DSC для кластеров официально опубликованы Microsoft на GitHub – https://github.com/Azure/azure-quickstart-templates/tree/master/301-storage-spaces-direct . Звоню заказчику, торгуюсь по срокам, договариваемся «на послезавтра, иншааллах». В моем отделе не принято «сетапить ручками» или сдавать заказчику непроверенные пакет ARM/DSC/PowerShell скриптов – потому день будет на тестирование «на всякий случай», хотя скрипты уже множество раз протестированы и отлажены на предыдущих деплойментах, в том числе и для этого заказчика буквально месяц назад – в общем, на 100% уверены и тестовое развертывание – это «чистая формальность»…

Ага! «Формальность»! Как же! До того момента, как следом за Microsoft с его комплектом ARM/DSC/PowerShell для развертывания кластера на GitHub не подкрался тот самый северный пушной зверек. Народ сразу взялся за дело и … смотрит на меня слегка офигевшими от прихода зверька глазами. Microsoft’овский скрипт для развертывания кластера выдает при тестовом прогоне ошибку:

“DSC Configuration \u0027ConfigS2D\u0027 completed with error(s). Following are the first few: PowerShell DSC resource MicrosoftAzure_xCluster failed to execute Set-TargetResource functionality with error message: The running command stopped because the preference variable “ErrorActionPreference” or common parameter is set to Stop: The network path was not found.\r\n The SendConfigurationApply function did not succeed. LCM failed to start desired state configuration manually.”

и деплоймент всего ARM шаблона обваливается 😦 Понятно, что «на послезавтра» сделать кластеры можно, но «ручками», а это не наш стиль – все инфраструктуры клиентов у нас хранятся в ARM/DSC/PowerShell и даже если нет полной копии сайта в Azure Site Recovery, а только бекапы – восстановление/развертывание копии инфраструктуры заказчика с наличием таких скриптов занимает от минут до нескольких часов.

И вот тут до меня начинает доходить весь круг тех проблем, которые очертил своими лапками пушной зверек, вызванный нежеланием Microsoft сопровождать и тестировать свои скрипты после очередных апдейтов (типа, мы вам их «кинули» 3 года назад и чего это вы еще недовольны?). А проблема в том, что примерно в 1/3 от всех развернутых клиентских инфраструктур у нас присутствуют кластеры и это означает, что случись сейчас что или клиенты захотят «дубликаты» – то у нас нет рабочих скриптов «быстро все повторить». В общем, «зверек» разгулялся по полной…

Быстрое изучение вопроса и поиск решения показало только то, что проблема не только у нас, но есть еще люди на просторах Интернета и даже успели опубликовать проблему в репозитории – https://github.com/Azure/azure-quickstart-templates/issues/6932 – но самое главное в данной ситуации, что никому в Microsoft проблема со скриптом на GitHub для развертывания кластера в Azure не интересна – запрос висит уже месяц и только дополнился еще одним пострадавшим… Ну не работает у людей инфраструктура в Azure – проблемы индейцев пользователей шерифа Microsoft не волнуют, Azure не требует поддержки для пользователей по мнению самого Microsoft. Кстати, и запрос к техническому специалисту в Microsoft, который привязан к конкретному заказчику «пошуршать по продуктовой команде и найти тех, кто выправит то, что сделалось кривым» – так и ушел «вникуда»… Периодически пингую «специалиста» последнюю неделю без какого-либо успеха… А что, Рождество же, Azure и проблемы могут и подождать, «ручками развернете и сконфигурите кластеры»…

Заранее предполагая такую проблему с тем, что в Microsoft об восстановлении скрипта никто и «не почешится», решил сделать запасной вариант развертывания кластеров в Azure, интегрированный в ARM template и использующий «чистый» PowerShell – разбираться, что пошло не так со сценарием DSC в «оригинальном» решении Microsoft, времени и желания не было.

Потому, пока Microsoft не пофиксит (может быть) «главный скрипт», вот вам основная идея, как автоматически развертывать кластеры в Azure через ARM с zero-touch. Да, получилось не так универсально, как в оригинале, но оно простое и понятное для всех, легко модифицируется и, главное, работает 😉

Итак, основные технические нюансы и сам код:

Первое – в Azure можно поднять только Windows Failover Cluster в режиме Storage Spaces Direct на 3 узла максимум. Кроме того, не все нагрузки поддерживаются в таком режиме в Azure, и, самое главное – цена вопроса, поскольку требуются производительные премиумные SSD диски для работы дисковой системы в режиме репликации Storage Spaces Direct в таком кластере.

Второе – чтобы развернуть кластер, необходимо, чтобы виртуальные машины, в нем участвующие, как узлы, имели частные статические IP в виртуальной сети Azure и были добавлены в единый Availability Set. ОС внутри этих ВМ должны быть добавлены в домен (кстати, если нужно только добавить ВМ в домен, то это можно сделать и непосредственно в ARM через расширение JsonADDomainExtension), на них установлены необходимые роли и службы. Это не проблема, такую работу выполняет простой PowerShell скрипт:

[CmdletBinding()]

param (

    [Parameter()]

    [string]

$domainname,

    [string]

$biosname,

    [string]

$adminname,

    [string]

$adminpwd

)

#Online the cluster’s disks

Get-Disk |  Where-Object IsOffline -eq $true | Set-Disk -IsOffline $false

#install failover clustering services and tools

Install-WindowsFeature Failover-Clustering -IncludeAllSubFeature -IncludeManagementTools

Start-Sleep -Seconds 5

Install-WindowsFeature FS-FileServer

Start-Sleep -Seconds 5

# generate domain admin’s credentials for domain join

$adminusername = “$biosname\$adminname”

$password = ConvertTo-SecureString -String $adminpwd -AsPlainText -Force

$cred = new-object -typename System.Management.Automation.PSCredential -argumentlist $adminusername, $password

Add-Computer -DomainName $domainname -Credential $cred -Restart -Force

Скрипт помещается в виде файла в какой-то Azure BLOB Storage (не забудьте разрешить анонимный доступ к объектам внутри контейнеров, хотя можно и заморочиться с атрибутам ресурса и указанием ключа доступа к этому BLOB) и запускается такой скрипт внутри VM из ARM template, как ресурс для создаваемой виртуальной машины с использованием extentions типа CustomScriptExtention, с указанием правильного пути к скрипту, который вы только что скопировали в BLOB (атрибут fileUris) и генерацией правильной командной строки (атрибут commandToExecute). Вот пример фрагмента кода именно ресурса (должен быть пристыкован к BМ) для ARM template:

“resources”: [

            {

“type”: “extensions”,

“name”: “CustomScriptExtension”,

“apiVersion”: “2017-03-30”,

“location”: “[parameters(‘location’)]”,

“dependsOn”: [

“[concat(‘Microsoft.Compute/virtualMachines/’, parameters(‘vmname1av1’))]”,

“[concat(‘Microsoft.Compute/virtualMachines/’, parameters(‘vmname2av1’))]”

              ],

“properties”: {

“publisher”: “Microsoft.Compute”,

“type”: “CustomScriptExtension”,

“typeHandlerVersion”: “1.8”,

“autoUpgradeMinorVersion”: true,

“settings”: {

“fileUris”: [

https://mystorage.blob.core.windows.net/CL/pre-setupVM.ps1&#8221;

                  ],

“commandToExecute”: “[concat(‘powershell -ExecutionPolicy Unrestricted -File pre-setupVM.ps1 -domainname ‘, parameters(‘domainname’), ‘ -biosname ‘, parameters(‘netbiosname’), ‘ -adminname ‘, parameters(‘adminUsername’), ‘ -adminpwd ‘, parameters(‘adminPassword’))]”

}

}

}

]

Еще хочу обратить внимание на формирование строки для выполнения пользовательского скрипта – начинается она с вызова powershell с правильными параметрами -ExecutionPolicy Unrestricted и указанием имени файла вашего скрипта в параметре -File.

Данный скрип будет запущен после развертывания самой виртуальной машины ARM шаблоном и сконфигурирует диски, установит нужные роли и службы в виртуальную машину, добавит ее в домен и перезагрузит.

Третье – и вот тут, после выполнения скрипта и перезагрузки каждой машины начинаются проблемы. ARM считает свою работу по запуску скриптов выполненной и, самое главное, в описание каждой из виртуальной машины в ARM template вы можете добавить только один ресурс типа extensions/CustomScriptExtension. А после перезагрузки нам нужно запустить на одном из узлов будущего кластера еще один скрипт, который сформирует кластер. Сделать это в ARM template нельзя – второй скрипт не указывается, и объяснить ARM, что после перезагрузки на машине стартует еще один скрипт и окончания его работы тоже нужно дождаться – тоже не получится… Потому – занимаемся «лайфхакингом». Если нельзя сделать внутри ARM template, это можно сделать в скрипте PowerShell, который запускает развертывание ARM template. Схематически такой скрипт выглядит следующим образом:

  1. Запускаем команду PowerShell на развертывание ARM – New-AzResourceGroupDeployment с указанием файла «большого» ARM, который развернет всю требуемую инфраструктуру и запустит на требуемых виртуалках скрипт конфигурации машины (выше);
  2. А теперь «хак» – для каждой из виртуальных машин, где уже был выполнен скрипт, запускаем команду по удалению расширения, что позволит выполнить еще одно развертывание ARM со вторым скриптом, который и сконфигурирует кластер – Remove-AzAMCustomScriptExtention . Единственное НО тут – это то, что данная команда для каждой из ВМ выполняется достаточно долго – 3-5 минут.
  3. Снова запускаем New-AzResourceGroupDeployment – на этот раз для развертывания второго шаблона ARM, в котором для каждой второй виртуальной машины (одной из пары узлов кластера) выполняется другой скрипт, как extensions/CustomScriptExtension.

Четвертое – для работы кластера требуется кворум, который для нашего варианта в Azure реализуется с использованием Cloud Witness. Для этого требуется создать Azure BLOB Storage, получить Access Key этого хранилища и использовать ключ для конфигурирования кворума кластера в режиме Cloud Witness. Потому в логике скрипта выше появляется еще один пункт 2а, где после создания инфраструктуры и сервисов (в том числе и хранилища для Cloud Witness) и удаления первых расширений, мы получаем ключи доступа для созданных хранилищ и на следующем шаге передаем их как параметр в новый ARM template – и дальше уже внутри ARM они будут переданы в вызываемый через extensions/CustomScriptExtension скрипт PowerShell для создания непосредственно кластера.

Итого, общий код PowerShell скрипта, который будет выполнять развертывание двух ARM template, с переключением extensions/CustomScriptExtension и получением ключей хранилища:

# deploy basic infrastructure from main ARM template (defined in $templateFilePath)

New-AzResourceGroupDeployment -ResourceGroupName $resourceGroupName -Mode Incremental -TemplateFile $templateFilePath -TemplateParameterObject $Params | Out-Null

# delete CustomScriptExtension from deployed VMs (names should be defined in $deployedVMs array)

foreach($vmname in $deployedvms){

Remove-AZVMCustomScriptExtension -ResourceGroupName $ResourceGroupName -VMName $vmname -Name “CustomScriptExtension” -Force | Out-Null

}

# get storage account’s key for Cluster quorum Cloud Witness and set values in $Params object for next ARM deployment

$keys = Get-AzStorageAccountKey -ResourceGroupName $ResourceGroupName -Name $Params[‘storagename1’]

$Params[‘key1’] = $keys[0].Value

# deploy second CustomScriptExtension (build the cluster) from second ARM template (defined in $templateFilePath2)

New-AzResourceGroupDeployment -ResourceGroupName $resourceGroupName -Mode Incremental -TemplateFile $templateFilePath2 -TemplateParameterObject $Params | Out-Null

Теперь дело за малым – за созданием кластера.

Сам код вызова extensions/CustomScriptExtension во втором ARM template выглядит аналогично первой части (второй скрипт тоже не забудьте поместить в правильный контейнер, как и в первом случае), единственно – в параметрах скрипта передается 2 имени узлов будущего кластера и другие его параметры:

“resources”: [

        {

“type”: “Microsoft.Compute/virtualMachines/extensions”,

“name”: “[concat(parameters(‘vmName2av1′),’/customscript’)]”,

“apiVersion”: “2015-06-15”,

“location”: “[parameters(‘location’)]”,

“properties”: {

“publisher”: “Microsoft.Compute”,

“type”: “CustomScriptExtension”,

“typeHandlerVersion”: “1.4”,

“settings”: {

“fileUris”: [

https://mystorage.blob.core.windows.net/CL/setupCluster.ps1&#8221;

                    ],

“commandToExecute”: “[concat(‘powershell -ExecutionPolicy Unrestricted -File setupCluster.ps1 -domainname ‘, parameters(‘domainname’), ‘ -biosname ‘, parameters(‘netbiosname’), ‘ -adminname ‘, parameters(‘adminUsername’), ‘ -adminpwd ‘, parameters(‘adminPassword’), ‘ -vmnames \”‘, parameters(‘vmname1av1′),’,’,parameters(‘vmname2av1’),’\” -clustername ‘, parameters(‘availabilitysetname1’), ‘ -clusterip ‘, variables(‘cluster1’), ‘ -storageaccount ‘, parameters(‘storagename1’), ‘ -storageacckey ‘, parameters(‘key1’))]”

                }

            }

        }

]

Пятое – чтобы развернуть кластер, скрипт должен выполняться с правами администратора домена, а вот CustomScriptExtension исполняет скрипт с правами ОС внутри виртуальной машины. Но скрипт PowerShell нельзя имперсонализировать в самом скрипте, но, как вариант, можно выполнить команду с правами администратора на удаленном компьютере через Invoke-Command. Т.е. запускаем скрипт через ARM template, передаем логин/пароль админа в скрипт, который создает идентити админа и вызывает команду через Invoke-Command с правами администратора.

Шестое – Windows Failover Cluster НЕЛЬЗЯ развернуть удаленно через Invoke-Command даже с правами администратора. НО, можно сконфигурировать удаленное исполнение команд Invoke-Command через аутентификацию CredSSP, которую предварительно надо настроить на обоих узлах с использованием пары перекрестных команд Enable-WSManCredSSP:

  • Для каждого из узлов включаем режим сервера Enable-WSManCredSSP Server -Force
  • Для каждого из узлов включаем доверие Enable-WSManCredSSP Client -DelegateComputer <имя второго узла> -Force

После конфигурации CredSSP для каждого узла появляется возможность использования Invoke-Command для создания кластера.

Таким образом второй скрипт PowerShell, который создает кластер, будет выглядеть следующим образом:

[CmdletBinding()]

param (

    [Parameter()]

    [string]

$domainname,

    [string]

$biosname,

    [string]

$adminname,

    [string]

$adminpwd,

    [string]

$vmnames,

    [string]

$clustername,

    [string]

$clusterip,

    [string]

$storageaccount,

    [string]

$storageacckey

)

# create domain admin credential’s object

$adminusername = “$biosname\$adminname”

$password = ConvertTo-SecureString -String $adminpwd -AsPlainText -Force

$cred = new-object -typename System.Management.Automation.PSCredential -argumentlist $adminusername, $password

#get nodes name from parameter string like “node1,node2”

$nodesArr = $vmnames -split “,”

$n1 = $nodesArr[0]

$n2 = $nodesArr[1]

#enable CredSSP authentication for admin impersonation by remote calls

#set both nodes as CredSSP’s servers

Invoke-Command $nodesArr -Credential $cred {Enable-WSManCredSSP Server -Force}

#set current node CredSSP’s client that trusts other node

Enable-WSManCredSSP Client -DelegateComputer $n1 -Force

#set other node CredSSP’s client that trusts current node

Invoke-Command $n1 -Credential $cred {Enable-WSManCredSSP Client -DelegateComputer $Using:n2 -Force}

Start-Sleep -Seconds 5

# create cluster as domain admin with one node by remote call over CredSSP

Invoke-Command $n1 -Credential $cred {New-Cluster -Name $Using:clustername -Node $Using:n1 -NoStorage -AdministrativeAccessPoint ActiveDirectoryAndDns -StaticAddress $Using:clusterip -Force} -Authentication Credssp

Start-Sleep -Seconds 30

Invoke-Command $n1 -Credential $cred {Get-Cluster $Using:clustername} -Authentication Credssp

Start-Sleep -Seconds 5

# add second node to the cluster as domain admin by remote call over CredSSP

Invoke-Command $n1 -Credential $cred {Get-Cluster -Name $Using:clustername | Add-ClusterNode -Name $Using:n2 -NoStorage} -Authentication Credssp

Start-Sleep -Seconds 30

Invoke-Command $n1 -Credential $cred {Get-Cluster $Using:clustername} -Authentication Credssp

Start-Sleep -Seconds 5

# configure cluster’s Storage Spaces Direct as domain admin by remote call over CredSSP

Invoke-Command $n1 -Credential $cred {Enable-ClusterStorageSpacesDirect -Confirm:$false} -Authentication Credssp

Start-Sleep -Seconds 30

# configure cluster’s cloud witness as domain admin by remote call over CredSSP

Invoke-Command $n1 -Credential $cred {Get-Cluster -Name $Using:clustername | Set-ClusterQuorum -CloudWitness -AccountName $Using:storageaccount -AccessKey $Using:storageacckey} -Authentication Credssp

Start-Sleep -Seconds 5

# configure cluster’s cloud witness as domain admin by remote call over CredSSP

Invoke-Command $n1 -Credential $cred {Get-StoragePool S2D* | New-Volume -FriendlyName Data -FileSystem CSVFS_ReFS -UseMaximumSize} -Authentication Credssp

Вот и все готово… Получилось, как я уже писал выше – куда более лаконично, нежели нагромождение кода DSC у Microsoft (который и обвалился в результате), более понятно и читаемо (хотя да, есть некоторые «странности», но это опять таки – вопросы к МС с его Invoke-Command и ограничениями для extensions/CustomScriptExtension) и, главное – оно работает, в отличие от «элитарного» кода Microsoft.

Сейчас держим про запас 2 набора файлов IaC для наших заказчиков с кластерами в Azure – один с «классическим» и нерабочим сейчас кодом Microsoft для создания кластеров через ARM/DSC – в надежде, что Microsoft таки читает запросы на разрешение проблем и хоть как-то сопровождает свой код, и второй – вот данный момент рабочий и приведенный выше.

Я уже писал про компетенцию и поддержку своих продуктов со стороны Microsoft – этот случай из той же оперы, причем тут Microsoft явно забил на свой публично опубликованный код (типа, а вот сопровождать не обещали). Так что, как сказано в предисловии к посту – верить никому нельзя и мы таки попытались выправить то, что Microsoft сделал кривым.

И да, если Microsoft не в состоянии поддерживать документацию, код и вообще – оказывать качественный саппорт – может, им стоит прислушаться к тому совету, который мне написали в комментариях к предыдущему моему посту (хотя Microsoft пошел простым путем – находит тех, кто делает это бесплатно за непонятные и совершенно эфимерные плюшки статуса MVP, который еще и довольно таки “подозрителен”, как я уже писал ранее):

Игорь, привет. По поводу твоего свежего поста – совет: предложить им сделать аналог Bug Bounty/Marketplace: за чужой хороший код и документацию платить премии.

Друге посты и видео по теме Azure и ИТ-карьеры:

Microsoft Exam AZ-900 Azure Fundamentals–бесплатная подготовка к сертификационному экзамену, часть.02: экономика облачных технологий, вопросы по CapEx и OpEx в Azure


Продолжаю серию видео – http://bit.ly/Exam-Az-900 – по подготовке к сертификационному экзамену Microsoft AZ-900 Azure Fundamentals. В этой серии – сразу несколько небольших (вопросов на 4-5), но достаточно неприятных для ИТ-специалистов тем экзамена – Модель Shared Economy в облачных технологиях для снижения стоимости и главная экономическая фишка, под которой продаются любые “облака” – CapEx/OpEx в ИТ. Да-да, в AZ-900 есть такие вопросы, потому я в обзорном видео к экзамену AZ-900 – https://youtu.be/_2-txkA3Daw – и говорил, что для “простого” технического специалиста некоторые вопросы могут быть весьма “далекими” и совершенно непрактичными. Хотя, в реальности – оно так и есть – Microsoft предлагает “правильные ответы” согласно своей маркетинговой идеологии… Так что смотрите и запоминайте, не забудьте пройтись и по линкам.

Подписаться на канал ►►► http://bit.ly/iwalker2000_subs
Мой LinkedIn ►►► https://www.linkedin.com/in/iwalker2000/
Подготовка к AZ-900 ►►► http://bit.ly/Exam-Az-900
Как стать системным администратором ►►► http://bit.ly/ITProSysAdmin
ИТ карьера – что для этого нужно ►►► http://bit.ly/ITcarriera_
Обзор GPD P2 Max ►►►
https://youtu.be/HZfN_geAvQI
Все обзоры Windows 10 ►►► http://bit.ly/Windows10_review
Про производительность дисков ►►► http://bit.ly/Disk_perf_p01


Exam AZ-900 Azure Fundamentals – подготовка к экзамену, ч.02: CapEx и OpEx, экономические вопросы

Предыдущие видео данной серии про экзамен AZ-900 смотрите здесь – http://bit.ly/Exam-Az-900 :

  • Exam AZ-900 Azure Fundamentals – подготовка к экзамену, ч.01: общий обзор экзамена и как готовиться – https://youtu.be/_2-txkA3Daw

Azure и совместное потребление

  • Microsoft покупает много серверов сразу по цене, которая значительно ниже розничной (в реальности – Microsoft заказывает блоки у компаний типа QCT и собирает в стойки по своей архитектуре – Open Compute Project (OCP) – https://azure.microsoft.com/en-us/global-infrastructure/hardware-innovation/ ).
  • Microsoft собирает их облако, которое позволяет максимально плотно заполнить нагрузкой каждый физический сервер – 80% нагрузки на сервер в сравнении с 30% «обычной» нагрузки на сервер в организациях.
  • Аналогично – для хранилищ и сетевой инфраструктуры.
  • Microsoft перепродает «плотно упакованные» серверы по частям – в виде виртуальных машин и прочих сервисов.
  • Суммарная стоимость виртуальных машин, запущенных клиентами на таких серверах – выше стоимости всех серверов. Профит!
  • Чем больше клиентов и плотнее упаковка и выше нагрузка на серверы – тем выше профит… Есть возможность снижать цены или предоставлять доп.сервисы дешевле.
  • Про экономику облачных датацентров – http://cloudscaling.com/blog/cloud-computing/understanding-cloud-datacenter-economies-of-scale/
  • Клиент арендует по принципу «заплатил только за использование» и не нуждается:
    • В приобретении серверов и начальных крупных затратах
    • Помещении для хранения, средств энергопитания
    • Не нуждается в обслуживании физических серверов
    • Клиент быстро может нарастить мощности своих вычислений без дополнительных затрат


СapEx & OpEx в ИТ и облаках:

  • CapEx – разовые крупные покупка любого «железа», «софт», оплата проектов по строительство ЦОД (серверных комнат), разработка программного обеспечения и т.п.
  • OpEx – регулярные выплаты по потребностям – зарплата ИТ-специалистам, связь и коммуникации от провайдеров, электричество, обслуживание и комплектующие материалы, подписка на ПО и сервисы.
  • Облачные провайдеры сдают в аренду готовые сервисы (виртуальные машины или программные комплексы – например, Office 365 – это почта, взаимодействие в команде, хранилища и т.п.) с помесячной оплатой за услуги – по размеру ресурса или количеству пользователей и берут на себя все затраты по аппаратному и программному обеспечению, строительству и обслуживанию сервисов.
  • Таким образом – облако переводит для конечного пользователя CapEx в OpEx – пользователю не нужно тратить деньги на начальные инвестиции (CapEx) и он просто арендует те ресурсы, которые ему требуются, выплачивая помесячно стоимость только потребленных ресурсов (OpEx).
  • OpEx в облаках – фактически, рассрочка выплаты тех же денег, которые потратила бы компания на покупку железа и т.п. в течение 5 лет (обычно).
  • Эффективность переноса решения в облако Azure позволяет посчитать Total Cost Ownership (TCO) Calculator на сайте Azure.

В следующем видео – разбор вопросов AZ-900 по теме характеристики облака – эластичность, масштабируемость, высокая доступность, отказоустойчивость, аварийное восстановление.

Друге видео то теме Azure и ИТ-карьеры:

  • Доклады по серверным технологиям Microsoft Windows Server – http://bit.ly/WindowsServer_overview
  • ИТ-карьера: как стать ИТ-специалистом, основные шаги для успешной карьеры в ИТ – http://bit.ly/ITcarriera_

Microsoft Exam AZ-900 Azure Fundamentals–бесплатная подготовка к сертификационному экзамену, часть.01: общий обзор экзамена и как готовиться


Подписаться на канал ►►► http://bit.ly/iwalker2000_subs | Мой LinkedIn ►►► https://www.linkedin.com/in/iwalker2000/ | Подготовка к AZ-900 ►►► http://bit.ly/Exam-Az-900 | Как стать системным администратором ►►► http://bit.ly/ITProSysAdmin ИТ карьера – что для этого нужно ►►► http://bit.ly/ITcarriera_ | Загляните на мой блог ►►► http://iwalker2000.com | Обзор GPD P2 Max ►►► https://youtu.be/HZfN_geAvQI | Все обзоры Windows 10 ►►► http://bit.ly/Windows10_review | Про производительность дисков ►►► http://bit.ly/Disk_perf_p01
 

Я уже несколько раз начинал серию “серьёзных” видео про ИТ для системных администраторов и вообще 😉 Это была и серия про ИТ-карьеру – http://bit.ly/ITcarriera_  – в рамках которой я планировал перейти от простых рекомендаций по карьере в ИТ к техническим рекомендациям, и серия про Microsoft Azure для системных администраторов – http://bit.ly/WindowsServer_overview – где я планировал рассказать про Azure с точки зрения миграции ИТ-инфраструктур и гибридных решений. И обе эти серии тихо закрылись – ввиду малого интереса аудитории к ним и больших временных затрат на их подготовку – как бы – “если людям не интересно, то чего я буду тратить на это свое время”.

И вот, я таки снова решил начать новую серию – которая будет менее абстрактной, чем предыдущая, поскольку она будет отвечать конкретным задачам – не научить некоего “Васю-будущего админа облаков” чему-то вообще, а помочь в подготовке и сдаче достаточно специфического сертификационного экзамена Microsoft – Exam AZ-900: Microsoft Azure Fundamentals (Основы Microsoft Azure). И даже если вы не собираетесь сдавать сам экзамен, то я постараюсь построить материал так, чтобы вы могли получить современные и обширные знания по облачным технологиям вообще и технологиям Microsoft Azure в частности. И да, видео не будут иметь ограничений по уровню начальных знания – их можно (и нужно) смотреть и нетехническим людям в ИТ – для расширения кругозора и понимания того, что вы продаете и с чем каждый день сталкиваетесь в повседневной работе/жизни – например, как мне сказали “Облако – это OneDrive” 😉 Нет, это один из множества сервисов, которые предоставляет облако. И да, поскольку я пообещал этими видео помочь людям – я постараюсь оперативно создавать новые и закончить всю серию, охватив все очень обширные темы экзамена. Так что подписывайтесь на канал –http://bit.ly/iwalker2000_subs – продолжение следует. А между сериями будут другие обычные видео про гаджеты и т.п.


Exam AZ-900 Azure Fundamentals – подготовка к экзамену, ч.01: общий обзор экзамена и как готовиться



Для кого это серия видео про Azure?


  • Для всех, кто планирует сдать экзамен Exam AZ-900: Microsoft Azure Fundamentals – Основы Microsoft Azure.

      – Для тех, кто планирует подготовиться самостоятельно, но им тяжело сконцентрироваться на конкретных направлениях изучения ввиду того, что материал экзамена очень обширный.
      – Для тех, кто «не дружит» с английским языком на достаточном уровне и ищет в Интернете возможность поучиться на русском бесплатно.
      – Для тех, кто ищет в Интернете брейндампы данного экзамена бесплатно 😉 но хочет еще и понимать, что он там заучивает

  • Для моих бывших коллег из Microsoft, особенно из отделов продаж, которые ходят и рассказывают, какой классный Azure
    , но потом компания потребовала всех их сдать экзамен – и они его успешно провалили и обратились ко мне за помощью (а вы думали, я вас не потроллю? %) )

  • Для всех, кто собирается работать в ИТ (даже без экзаменов) по направлению облаков, и не обязательно Microsoft Azure
    – эта серия видео будет также идти, как часть моей серии «ИТ-карьера» –
    http://bit.ly/ITcarriera_ и http://bit.ly/itcar_post1

  • А! И для моего сына, которому нужно написать в его Slovenská technická univerzita v Bratislave (STU) курсовую по введению в облака
    😉 Останется только перевести на словацкий.

  • Планы на серию? Это примерно 20-25 роликов по 30-45 минут каждый, с детальным изложением одной из тем экзамена, с ориентировочными вопросами, практическими примерами и т.п.
    – будут выходить по 2-3 видео в неделю, т.е. в общем – около 2х месяцев 😉



Особенности экзамена AZ-900


  • Экзамен абсолютно дурацкий!

  • Это не технический в общем понимании экзамен…

  • В экзамене очень много всякого маркетингового булшита от Microsoft.

  • В экзамене много теоретических и абстрактных вопросов (типа authentication vs authorization, CapEx vs OpEx)

  • В экзамене много спорных вопросов, которые сам Microsoft озвучивает по разному, исходя из ситуации – например, снижения стоимости владения потому, что не нужно столько админов? – в жизни МС руководству рассказывает, что ДА – вы уменьшите потребность в персонале, в экзамене – он же для админов – НЕТ, админов сокращать не надо!

  • В экзамене много вопросов по подпискам, лицензированию, планам поддержки и прочим.

  • В экзамене много вопросов по международным регулятивным требованиям – типа GDPR, NIST, ISO – и сервисам для государственных учреждений.



Особенности экзамена AZ-900 – Если вы ТЕХНИЧЕСКИЙ СПЕЦИАЛИСТ, который работает с Azure, то вы имеете шанс НЕ СДАТЬ его потому, что:

az900-01-05

Особенности экзамена AZ-900 – Если вы НЕ ТЕХНИЧЕСКИЙ СПЕЦИАЛИСТ, а менеджер по продажам Microsoft, или другой «эффективный менеджер», особенно новомодный миллениал – то вы НЕ СДАДИТЕ:

az900-01-06

Основные группы вопросов на AZ-900

az900-01-07

Как подготовиться к сдаче сертификационного экзамена Microsoft AZ-900 Azure Fundamentals?

  • Набраться терпения и просмотреть все видео этой серии 😉
  • У меня на канале еще много видео по теме Azure, особенно здесь – http://bit.ly/WindowsServer_overview и здесь – http://j.mp/Azure_IaaS_2015
  • Подписаться на мой канал, поставить лайк и перешарить эти видео в соц.сетях – это +100 в карму, а карма, как известно, очень помогает на экзамене.
  • Почитать рекомендуемую литературу (см.дальше) и различные источники – я первоисточниками для подготовки буду делиться в следующих, более практических видео по AZ-900.
  • Официальные курсы? Если хотите – идите. Все зависит от самого тренера – как повезет. В мою бытность тренером я подстраивал материал курса под реальные вопросы экзаменов, потому как сам материал курса не предназначен для подготовки к экзамену.
  • Брейндампы? Да, если найдете – сейчас это очень прибыльный бизнес и «бесплатных» найти проблематично, тем более – с комментариями и рекомендациями.
  • Практическая работа – без более-менее внятного представления, как же выглядит Azure Portal и чем отличается Virtual Machine от Web App, сдать будет проблематично.
  • Начните с создания бесплатной подписки и страницы https://azure.microsoft.com/en-us/get-started/

Список книг для самоподготовки к экзамену AZ-900

  • Exam Ref AZ-900 Microsoft Azure Fundamentals – собственно, материалы официального курса Microsoft
  • Learn Microsoft Azure
  • Azure: Microsoft Azure Tutorial for Beginners
  • Microsoft Azure For Beginners: Getting Started with Microsoft Azure
  • Azure: Microsoft Azure Tutorial The Ultimate Beginners Guide
  • Hands-On Cloud Administration in Azure: Implement, monitor, and manage important Azure services and components including IaaS and PaaS

Новые Microsoft Surface – телефон Surface Duo, складной планшет Surface Neo, Surface Pro X на ARM


Итак, Microsoft, на прошедшем в среду, 2 октября 2019, мероприятии, посвященном своим новым устройства линейки Microsoft Surface, презентовала целую гамму новых устройств, которые, фактически, полностью закрывают всю инфраструктуру лептопов и мобильных устройств – лептоп Microsoft Surface 3, профессиональный планшет Surface Pro 7, его облегченную версию на ARM процессоре Surface Pro X, новый и ожидаемый складной планшет Surface Neo (ранее называемый Centaurus), работающий с новой версией Windows – Windows 10X – облегченной и “заточной” под работу с двумя экранами и, совершенно неожиданно – новый телефон-раскладушку с двумя экранами 5.6″ и под управлением Android с глубоко модифицированным UI – Microsoft Surface Duo. Также Microsoft показала беспроводные наушники-вкладыши, от одного вида которых хочется сказать НЕТ!, а услышав цену в 250уе – НЕТ, НЕТ И ЕЩЁ РАЗ НЕТ! НО – вернёмся к обзорам всех этих традиционных Surface Laptop 3, Surface Pro 7, Surface Pro X и раскладушек Surface Neo и Surface Duo.


Новые Microsoft Surface – телефон Surface Duo, складной планшет Surface Neo, Surface Pro X на ARM


Surface Laptop 3 –
https://youtu.be/eITjrh267vs?t=189 – довольно проходной девайс, здесь интересно то, что Microsoft вместе с AMD создал для новых моделей специальный процессор AMD RYZEN Microsoft Surface Edition, пересмотрел концепцию ремонтопригодности и замены комплектующих, расширил линейку моделью с большим размером экрана – 15″ и убрал эту ужасную тряпку на клавиатуре 😉 В общем – такой себе качественный и не очень дешевый ноутбук премиум класса с очень высокой ценой – https://www.microsoft.com/en-us/surface – цены появились на сайте МС уже ближе к утру – с максимальным ценником в 2900уе за i7/Ryzen R7 и 32ГБ ОЗУ – не взлетит, я думаю…
 

Еще более “проходным” оказался Surface Pro 7 –
https://youtu.be/eITjrh267vs?t=577 – улучшения настолько “бедные”, что даже сказать нечего… Типа, “ну вот мы добавили USB Type-C, и поменяли процессор, и…, и… – ах, ну да, новое перо, а еще мы пофиксили Эксель и теперь пером можно писать прямо в ячейках”…. Вау!!!! 😦 Но, надо отдать должное серии Microsoft Surface Pro – его улучшать – только портить. Достаточно просто менять компоненты. А так, начиная с Surface Pro 3 – шикарный девайс, пользуюсь уже 5 лет без всяких нареканий (кроме сдыхающей батарейки) – https://youtu.be/aI6He06ZHY8



Microsoft Surface Earbuds – таблетки АСС в уши? За такую цену? Нет и еще раз НЕТ!



Microsoft Surface Pro X – https://youtu.be/eITjrh267vs?t=844 – это, конечно, что-то такое, что очень хочется посмотреть и пощупать! Легкий и тонкий – при 13″ экрана и … полноценной Windows 10, но на ARM процессоре, который Microsoft разработал совместно с Qualcomm на базе их процессора Snapdragon 8cx – теперь это называется Microsoft SQ1 и имеет на борту модуль AI в 9TFLOPS. Слушая выступление, у меня сложилось чувство, что Microsoft и сам не знает, нафига в таком планшете такой модуль и как его использовать в реальных задачах – пример интеллектуального улучшения картинки в рельном времени как-то не очень нагляден. А вообще – при таком ценнике – МС решила не конкурировать с другими моделями Microsoft Surface Pro – и выставила одинаковый ценник и на Pro 7, и на Pro X – https://www.microsoft.com/en-us/p/surface-pro-x/8vdnrp2m6hhc – такой планшет выглядит очень привлекательно для тех, кто много бывает в разъездах. Кроме того – очень интересны мелкие инновации – типа стилуса, для которого предусмотрены контейнер и беспроводная зарядка прямо в клаве. В общем – это тот момент, когда количество переходит в качество, но, правда, не то, которое бы хотелось лично мне. Про свои “хотелки” к мобильным устройствам я писал тут – http://bit.ly/FutureGadgets01



И новые ультрамобильные устройства c двумя экранами в линейки Microsoft Surface – планшет-раскладушка Microsoft Neo – https://youtu.be/eITjrh267vs?t=1350 – под управлением Windows 10X (про которую никаких реальных деталей так и не рассказали – хотя бы потому, что она еще “не совсем готова”) и раскладушка-телефон Microsoft Duo – https://youtu.be/eITjrh267vs?t=1777 – этот под управлением Android с переточенной под работу с двумя экранами оболочкой от Microsoft (кстати, кто не вкурсе, у Microsoft есть отличный Microsoft Launcher для Android – пользуюсь им и очень доволен).

“Икспёрды” уже начали крик “зачем нам 2 экрана, что с ними делать?!” – хотите или нет – но 2 экрана и раскладушки – это тренд 3-5 лет – а для меня постоянная реальность, поскольку раскладушками – пусть и с экраном и клавой – пользуюсь все годы своей мобильной эпопеи… И могу сказать, что более продуктивного мобильного устройства, чем телефон-раскладушка с аппаратной клавой (или, как предлагает Microsoft – вирутальной, но все же привычной, в стиле мини-ноутбука) – лучший рабочий телефон.

Кстати, Microsoft на протяжении всей презентации говорила, что создает устройства для креативной части населения, которая будет создавать тот или иной контент при помощи их устройств. Я, кстати, создаю создаю контент в виде текста – по дороге на работу/с работы, в роскошном “золотом классе” метро Дубаи – можно отлично поработать 40 мин, чем я и пользуюсь – на ноутбуке не очень комфортно, а вот на мобиле-раскладушке Gemini PDA 4G или теперь – на мини ультрабуке GPD P2 Max – очень даже хорошо получается поработать. Например, этот текст и был как раз написан в метро по дороге на работу – как и многие другие – будь то документы или книги. 1.5 часа каждый день для креатива – это же отлично! Вы так не делаете, просто скролите картинки – вы не просто созданы быть креативным, вы только потреблять… Winking smile Большинство упомянутых выше “икспёрдов” – как раз из такой категории. Так что если вы ничего не создаете – вы для Microsoft – просто лишний баланс, поскольку не относитесь к креативному классу и устройства Surface – точно не для вас. Продолжайте молча, потреблять, а не рассуждать, кому же нужен телефон с двумя экранами – просто ввиду ограниченности вашей жизненной модели – вы даже не можете понять его назначение… Winking smile

Понравилось ли что-то из продемонстрированного Microsoft лично мне и что бы я себе купил?

Как я уже писал выше – очень интересно выглядит на презентации Microsoft Surface Pro X, хотя окончательное решение о покупке я бы принимал, только подержав Surface Pro X в руках и глянув на его экран. Вопрос вызывает и ARM архитектура процессора Surface Pro X, и, не смотря на заявления Microsoft о том, что там работает “полноценная” и “полностью совместимая” сборка Windows 10 – я бы все же протестировал бы некоторые приложения, работа которых может быть под вопросом.     

Microsoft Neo? Да, очень интересно, учитывая, что он появится только в следующем году – я успею “укатать” мой нынешний мини ультрабук GPD P2 Max – и с чистой совестью перейти на Microsoft Neo. Надеюсь, к тому времени его уже доведут до ума и хорошо попатчат, особенно новую ОС, а наличие нового процессора Intel 11 поколения как раз оправдывает такую покупку – сразу с Core m3-8100Y на 11 – отличный апгрейд. И, конечно же, еще хотелось бы клаву и стилус. То, что Microsoft придумал с совместным использованием аппаратной и виртуальной клавы/экрана в Surface Neo – выглядит куда интереснее и правильнее того же TouchBar в MacBook – куда больше сценариев применения. В общем – осталось подождать полгодика – и брать Winking smile

Microsoft Duo? я не уверен… Сейчас у меня отлично с поддержкой моего креатива справляется Gemini PDA 4G и мне очень нравится его аппаратная клавиатура. Именно аппаратная QWERTY – лучший инструмент для работы с текстом, даже круче двух экранов Winking smile. Хотя ему уже больше года, новый вариант Gemini – под названием Cosmo – не не особо нравится, так что, может, после выхода в следующем году пощупаю Microsoft Duo тут, в Дубаи (если буду продолжать жить и работать тут) и прикуплю себе. Особенно, если они добавят и в Microsoft Duo вариант аппаратной клавы-вкладыша, как у Microsoft Neo.

Что же разочаровывает в Surface Duo и, впрочем, в Surface Neo – это опять замкнутость на одном устройстве – печально, что никто не сказал ни слова про сценарии работы, подобные Continuum в Windows Mobile 10 – было бы очень круто иметь возможность использовать эти маленькие, но мощные устройства в режиме “обычного” десктопа – по проводам или без. И да, так классно начавшаяся тема того, что называется простым доступом к компонентам и возможность замены хранилищ в Surface Laptop 3 и Surface Pro X – не нашла продолжения в Surface Neo и Surface Duo. И тут я снова возвращаюсь к теме, “почему для меня Microsoft Duo – не “ВАУ!”?” – да потому, что устройство все же не стало изменением существующей на рынке парадигмы “все в одном – а потом просто выкините”… Sad smile Думаю, пора снова в руки брать Gemini PDA и на его аппаратной клаве настрочить новую статью про будущее мобильных гаджетов, развитие старой – http://bit.ly/FutureGadgets01 – с учетом современных реалий. 


И обзоры других гаджетов у меня на канале iWalker2000:

Конференция SysAdmin Day.Kharkiv 2018–о чем будем говорить и мое интервью Lenovo в предверии этого интересного ИТ-мероприятия в Харькове 13 июня 2018 года


Article - Topic - LinkedIn

13 июня при поддержке лидеров рынка Lenovo в Украине и Microsoft Ukraine в Харькове состоится яркая IT-конференция SysAdmin Day 2018. На этой конференции я выступаю, как эксперт по ИТ-инфраструктуре и буду рассказывать про миграцию в облака средних и малых предприятий, а также про использование облачных сервисов для управления локальными и мобильными устройствами и защитой данных. Также меня попросили дать небольшое интервью о тех перспективах и особенностях применения облачных технологий, которые современные технологии предоставляют для средних и малых компаний, а также – для карьеры системных администраторов.

Первый мой доклад на SysAdmin Day.Kharkiv 2018 будет называться “Стратегия миграции инфраструктуры малых и средних предприятий в облачные сервисы”. Вкратце об этом докладе смотрите в трейлере к докладу:

Второй доклад на SysAdmin Day.Kharkiv 2018 будет посвящен управлению мобильными устройствами и безопасностью и называтеся “Использование облачных сервисов Microsoft для управления локальными и мобильными устройствами, управление безопасностью данных в облаке и на мобильных устройствах”. И также предлагаю ознакомиться с трейлером к докладу:

 

И, собственно, возвращаемся к интервью для Lenovo в Украине:

  1. Что на сегодняшний день нужно IT-специалисту, системному администратору, чтобы развивать карьеру? В одном из видео вы перечисляли три must have пункта: подтвержденные знания в профессии, практический опыт и умение на простом языке доносить свои идеи потенциальным заказчикам. Хотелось бы подробнее об этом узнать.
    1. Я думаю, что подробнее рассказать об это в рамках данной беседы не получится – ведь мне для раскрытия этого вопроса понадобилось минимум 5 видео с длительность по 30 минут каждое. Могу просто порекомендовать всем посмотреть внимательно серию этих видео про ИТ-карьеру у меня на канале:

  2. На сегодняшний день в сфере IT огромная скорость изменений. Не теряют ли актуальность полученные сертификаты? Как часто IT-специалисту имеет смысл подтверждать свои знания сертификацией?
    1. Честно говоря, сейчас переломный момент именно для ИТ-специалистов (не путать с разработчиками) – технологии управления ИТ-инфраструктурой меняются кардинально ввиду развития облаков и, вполне возможно, в ближайшие 3-5 лет от ИТ специалистов будут требовать совсем другие навыки. Потому мои собственные предпочтения в этой области – сначала знания и навыки, потом экзамены (обычно, это требуется только работодателю) и мой ответ на подобный вопрос – «могу запросто доказать, что я обладаю более широкими знаниями, чем требует сертификация, а если вам нужен именно сертифицированный специалист, чтобы получить какой-то партнерский статус – сдам экзамен сразу, как только вы это оплатите»
  3. Как быть в ситуации, когда знания есть, идеи есть, а заказчика на их разработку нет? Какие есть возможности реализовать свои знания в практических проектах?
    1. Мир сейчас стал очень маленьким, поэтому не проблема найти нужный проект на том же портале Upwork, особенно, если устроить демпинг с ценами. Там попадаются иногда очень «креативные» запросы по скрещиванию бульдога с носорогом, сейчас, качественно и дешево 😉
  4. Умение переводить свои IT-знания и идеи на общечеловеческий язык и язык бизнеса — это врожденный талант, или его можно освоить? Как этого добиться?
    1. Работать над собой, понимать, что люди совершенно разные и людям не интересно копаться в настройках также, как это интересно вам. Людям (не обязательно бизнесу) свойственно мышление «черного ящика» – «делаю вот это с одной стороны, с другой стороны – получаю результат». Потому, разговаривая с людьми или бизнесом – представляйте себя магом (можно темным злым колдуном) – не надо рассказывать, как работает заклинание, просто показывайте результат, который людям будет полезен.
  5. За какими ресурсами и событиями нужно следить IT-специалисту, чтобы постоянно оставаться в курсе происходящего в сфере? Где получать свежие идеи и знания? Какие сайты, каналы, офлайн-мероприятия и конференции вы можете посоветовать?
    1. Если мы говорим о русскоязычных ресурсах (а с украиноязычными вообще все плохо) – то наблюдается тенденция их критического сокращения. Все больше специалистов уезжает в Европу и США, все меньше рынок (кол-во смотрящих) для таких ресурсов – потому ИТ-специалисту, который хочет развиваться, придется учить английский и работать с англоязычными ресурсами. Такими, как, например, Microsoft Virtual Academy – https://mva.microsoft.com/ – сборником виртуальных учебных курсов и теми же бесплатными книгами и учебными пособиями – https://mva.microsoft.com/ebooks/ . Лично я тоже стараюсь внести свой вклад в развитие ИТ-специалистов бывшей родины – периодически выпуская обзорные и технические видеоматериалы у себя на YouTube канале – http://bit.ly/WindowsServer_overview . Что же касается регулярного обновления знаний – то тут очень хорошо подойдут блоги компаний-разработчиков тех продуктов, которыми вы пользуетесь. Так, например, свежие новости про технологии Azure, связанные с ним события и прочее я читаю на https://azure.microsoft.com/en-us/blog/ . И, конечно же, профессиональные социальные сети – например, LinkedIn – главное, правильно выбирать контакты, ленту которых будешь читать. Опять же, лично я стараюсь на LinkedIn давать выборку интересных мне новостей – https://www.linkedin.com/in/iwalker2000/ – желающие могут подписываться (рекрутеров без конкретных предложений – не приглашаю).
  6. Расскажите о конференции SysAdmin Day, где вы будете участвовать. Почему IT-специалистам стоит туда ехать (кроме обширной фановой программы J) Что они смогут вынести оттуда?
    1. В своих докладах я всегда стараюсь дать стратегическую перспективу развития того или иного продукта или направления. Сейчас, как я уже говорил ранее – переломный момент в развитии навыков и умений системных администраторов. В своем недавнем докладе на Стальном Бубне я уже рассказывал про то, какие навыки необходимы системному администратору в будущем. На SysAdmin Day я продолжу эту тенденцию, и расскажу, как облачные технологии и сервисы критически изменяют работу ИТ-специалистов.
  7. Большинство из тем, заявленных на SysAdmin Day, касаются облачного хранения данных. Почему эта тема приобретает такую популярность? Каковы тенденции в этой сфере? Не случится ли, что популярность достигнет пика и схлынет, сервисы закроются и придется искать новые решения?
    1. Я бы не сказал, что именно облачного хранения данных, скорее, мы будем говорить про то, как облачные сервисы позволяют эффективно решать вопросы обмена данными, резервного копирования и даже защиты от сбоев целой инфраструктуры. Именно сценарии защиты от сбоев начинают приобретать широкую популярность, поскольку позволяют быстро стартовать копии всех ваших серверов в облаке с актуальными данными в случае сбоя питания, катастрофы, изъятия всего парка оборудования. Что же касается закрытия сервисов – это облака – это новый тренд в индустрии, который будет актуален лет 20 минимум. Просто выбирайте правильного поставщика сервисов, например, Microsoft Azure.
  8. Что касается гибридных решений: какое расширение функций дает дополнительное использование облачных сервисов, вдобавок к локальным хранилищам? Каким бизнесам больше подходит гибридный вариант, а каким — полный переход в облако?
    1. Я бы не говорил об облаках, как о хранилищах. Да, резервное копирование и защита от сбоев, которые мы уже обсудили ранее – одна из наиболее востребованных функций облаков для гибридной работы. Но – облака интересны тем, что вы можете вынести туда (стартовать там) те функции, которые ранее обслуживались локально – так, облачный пакет офисных сервисов Office 365 включает в себя облачный Exchange, SharePoint, AD, OneDrive, а в Azure присутствуют сервисы управления безопасностью мобильных устройств Intune, защиты данных на платформе RMS – Azure Information Protection, сервисы мониторинга серверов OMS и антивирусной безопасности Defender Advanced Threat Protection – про их применение я и буду рассказывать в своих докладах. Что же касается перехода в облако или гибридных сценариев – то тут много нюансов, про которые можно говорить часами, но базовые концепции, которым обязательно надо следовать, готовя проект миграции в облако – я изложу в своих докладах. Также материалы по сценариям миграции есть у меня на канале среди технических докладов, и особенно хочу обратить внимания тех, кто уже сейчас планирует миграцию в облака, на доклад «Первые 15 шагов по переходу в облака – что сделать до того, как мы залогинимся в портал AZURE» –  рекомендуется просмотреть еще до начала проекта по миграции в облака.
  9. Насколько безопасно облачное хранение данных?
    Защищена ли информация от несанкционированных проверок, взлома, слива данных третьим лицам?
    Стоит ли опасаться «ковровых» блокировок, вроде истории с Телеграммом, когда за компанию с мессенджером пострадал огромный кусок интернета.
    Есть ли у облачных провайдеров услуги защиты от ДДОС?
    Что происходит с данными, если сервер облачного хранилища отключился или поврежден? Куда они перемещаются?
    Какие предусмотрены способы защиты на случай падения связи? Есть ли резервные каналы для таких ситуаций?
    1. Тема слишком обширна и пересекается с моими докладами. Вкратце могу сказать, что все инструменты для защиты от несанкционированного доступа к вашим данным в том же Azure есть – и по умолчанию, и расширенный набор – про тот же Azure Site Recovery я уже упоминал выше. Защита данных при отказе серверов самого облака обеспечивается тем планом, который вы выбрали для хранения – готовы ли вы платить за репликации данных внутри одного ЦОД облака или даже между разными континентами. За канал связи с вашей стороны, понятно, отвечаете вы сами. Но существуют также и продукты, обеспечивающие кеширование и репликацию локальных хранилищ в облако, что позволяет работать с такими данными в оффлайн режиме.
  10. По каким критериям бизнесу нужно выбирать облачного провайдера? Какие провайдеры есть сейчас в Украине? На что обратить внимание, составляя договор с провайдером о предоставлении данных, чтобы обеспечить их максимальную защиту?
    1. Критерии выбора облачного провайдера очень и очень обширны и это тема для отдельного разговорам минимум на 30 минут. Вкратце – это бизнес-здоровье компании и ее позиция на рынке, административная поддержка и SLA, технологии, которые требуются вам и предоставляются провайдером, безопасность и доверие к провайдеру и т.п. В Украине нет облачных провайдеров в полном смысле этого слова – фактически, это обычные хостеры, предоставляющие услуги виртуальных машин и IaaS (Infrastructure as a Service) с консолями управления для клиентов – и даже называть, а тем более сравнивать данные «облака» с настоящими публичными облаками типа Microsoft Azure – нельзя. Но, сейчас, с появлением такого продукта, как Microsoft Azure Stack – позволяющего «приземлить» большую часть возможностей Azure, которые и делают облако «облаком», на серверах локального провайдера – некоторые из провайдеров начали двигаться в направлении «настоящих облаков», а не просто хостинга виртуальных машин. Хотите понять, перед вами «просто хостер» или действительно «облачный провайдер» – задайте специалистам данной компании простой вопрос – а какие шаблоны описания облачных инфраструктур поддерживаются данным провайдером, например, формата ARM templates? Какие сервисы вы получаете для размещения ваших нагрузок – виртуальные машины, сервисные фабрики, базы данных, средства автоматизации? Есть ли у провайдера механизмы автоматического масштабирования выбранных вами сервисов – scale up/scale out? В 99% случаев вы услышите ответ – вы будете использовать наши «гибкие» виртуальные машины, которые сами настроите из предоставленных образов.
  11. Предоставляют ли облачные провайдеры услуги системного администрирования и начальной развертки серверов для компаний, которые только что сформировались и в принципе не знакомы с облаками? Есть ли решения “под ключ” для таких компаний?
    1. Вообще-то, если говорить о «настоящем облаке», то все эти «услуги по развертыванию» не требуется. Современная парадигма облаков и новый подход к администрированию таких систем не требует интенсивного вмешательства в управление и опирается на декларативные описания инфраструктур, что позволяет развертывать целые инфраструктуры одним кликом на взятый из магазина решений шаблон – про это я как раз и рассказывал в своем предыдущем докладе про новые принципы работы администраторов. Если компания все же хочет разработать подобный шаблон «под себя», то для этого существует достаточно обширное предложение по консалтингу – собственно, компания, которую я возглавляю, и занимается таким консалтингом. Кроме того, я лично провожу тренинги по данному направлению нового администрирования, если требуется в проекте иметь команду уже подготовленных специалистов, которые готовы будут обслуживать и развивать инфраструктуру после сдачи проекта.
  12. В прошлом году инновационные решения для ЦОД Lenovo были названы лучшими по 46 показателям. Какие серверные решения этого бренда можно рекомендовать малому и среднему бизнесу, и почему?
    1. Я бы начал с того, что мало кто знает, что Microsoft сертифицировала Lenovo среди нескольких производителей серверов, как поставщика оборудования для решений Microsoft Azure Stack – копии облака Azure для локальных провайдеров – https://www3.lenovo.com/us/en/data-center/ThinkAgile-SX-for-Microsoft-Azure-Stack/p/WMD00000272 . Это говорит об очень высоком уровне надежности и производительности серверных решений Lenovo, а также о том, что в проектировании своих серверов серии ThinkAgile Lenovo опирается на самые современные аппаратные технологии, которые использует и Microsoft для построения ЦОД «большого облака» Azure. Такая сертификация – высочайший знак качества аппаратной серверной платформы от Lenovo. Что же касается «обычных» серверов, то мне сложно выделить какую-то модель из линейки Lenovo ThinkServer – тут стоит правильно учитывать потребности компании и задачи при выборе серверов, особенно, с учетом того, что часть инфраструктуры может быть вынесена в сервисы облака. И на что бы я еще обратил пристальное внимание компаний, которые планируют миграцию в облака – это на то, что с переносом сервисов в облака – «на земле» остается клиентская часть, и здесь у Lenovo есть великолепная линейка надежных производительных тонких (и не очень) клиентов серии Tiny – ThinkCentre Tiny/ThinkCentre Thin Client и ThinkStation Tiny – которые позволят компании эффективно трансформировать рабочие места для работы с облаками.

Обязательно к прочтению и изучению для тех систеных администраторов, которые планируют развивать свою карьеру – и не только в направлении облаков – SysAdmin vs DevOps–что разного и что общего–будущее системных администраторов на примере автоматизации развертывания и конфигурирования VM в Azure–Infrastructure as Code и инструменты DevOps, которыми сисадмин должен будет владеть в ближайшем будущем

 

Первые серии нового курса по использованию Azure IaaS и обо всем том, где будет рассмотрено подробно все то, о чем я буду упоминать в презентациях:

 

Видео об ИТ-карьере – как стать ИТ-специалистом и заработать много денег:

Немного ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

И смотрите другие видео для ИТ-специалистов у меня на канале:

Видео про новые возможности дисков и дисковых массивов:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Вирус Petya и правильная комплексная защита от него и подобных следующих вирусов, которая должна была быть в каждой ИТ-инфраструктуре–то, что не сделали вовремя украинские CIO


А теперь послушайте страшную историю о том, что вы действительно должны были сделать, дорогие мои CIO – так сказать, «техническое алаверды» тому потоку негатива от обиженных CIO и “патриотов”, который последовал за публикацией предыдущего поста «про Petya» в ФБТрагедия и фарс–украинские CIO и 150долларовые админы,российский след и “атака ФСБ”,тотальный факап Microsoft Ukraine–все, что вам надо знать о причинах вчерашней вирусной атаки в Украине

Особенно «возбудились» почему-то некоторые «патриотические» деятели с дежурной фразой – «ты не живешь в Украине, какое право ты имеешь об этом писать!» – спасибо, повеселили, значит, мой «толстый» троллинг зацепил за живое…

Ладно, оставим лирику – все равно я всякое разное в ФБ комментах покилял, а самых ярых – заблокировал.

А мы посмотрим пошагово, чего же такого «провтыкали» CIO, что могло бы предотвратить эпидемию в украинских компаниях «на корню», что есть в базовых рекомендациях Defense-in-Depth https://msdn.microsoft.com/en-us/library/cc767969.aspx и реализовать которые не является большой проблемой. Напомню, требования Defense-in-Depth (DiD) достаточно простые и предусматривают реализацию тех или иных сервисов защиты на всех уровнях ИТ-инфраструктуры.

Уровень

Технологии

Данных

ACL/шифрование/классификация данных с RMS

Приложений

SDL, антивирусы, «бронирование» приложений и сервисов, App/Device Guard

Хостов

«Бронирование» ОС, аутентификация, управление обновлениями, FW, защита от вторжения (IDS), VBS, Device Guard

LAN

Сегментирование и изоляция (VLAN), шифрование (IPSec), защита от вторжения (NIDS)

Периметр

FW, контроль доступа, App FW, NAP

Физическая безопасность

Охрана, ограничение доступа, аппаратный контроль и аудит доступа, отслеживание устройств, камеры наблюдения

Люди, политики, процедуры

Документирование, тренинги, предупреждения и уведомления, наказания…

Есть и более «продвинутые» методы защиты, которые обеспечивают высокий уровень защиты от современных типов атак, которые в том числе, использовались и в Petya – Securing Privileged Access – http://aka.ms/privsec

Итак, начнем с первичного заражения. В данной эпидемии рассматривается 2 основных сценария – проникновение через почтовые сообщения в виде вложения к письму и через систему обновлений MEDoc, так называемую атаку «software supply chain attacks», когда взламывается поставщик ПО. Подробно, кто еще не прочитал – «разбор полетов» можете посмотреть здесь – https://blogs.technet.microsoft.com/mmpc/2017/06/27/new-ransomware-old-techniques-petya-adds-worm-capabilities/

При этом в первом сценарии запущенный пользователем из почты исполнимый файл атакует ОС через уязвимости SMBv1 (EternalBlue/EternalRomance) и получает все требуемые права, чтобы выполнить свои процессы – шифрование и распространение.

Какие методы противодействия Defense-in-Depth помогут от подобной атаки:

  • Периметр – сервис фильтрации почтовых сообщений (например, в Microsoft Exchange) – просто удаляющий все файлы, кроме разрешенных типов, антивирусная система для электронной почты, если нет чего-то подобного – аренда аналогичных облачных сервисов, например – Exchange Online Protection, «знания» которого не зависят от «расторопности» админов (время внедрения – 30 мин + обновление доменного имени).
  • Приложения – антивирусы, которые ловили Petya.A с самого начала эпидемии. Надо обновлять сигнатуры – нет, не слышали?
  • Хост – бронирование ОС – накатить готовые политики с рекомендованными настройками безопасности от Microsoft Security Compliance Manager или доточить их под рекомендации – например, отключить SMB v1 как класс и прочие ненужные устаревшие сервисы – плевое дело, управление обновлениями (совсем не сложно, особенно, если Windows не пиратская), с IDS сложнее, но даже тут – всего лишь подписка на Defender Advanced Thread Protection, который, как показала практика, ловит атаки подобного типа на корню.
  • ЛПП – обучение не открывать файлы, предупреждение об возможных атаках и наказание – вплоть до увольнения и судебных исков против запустивших вирус (ах, да – страна такая, законы не работают – тогда просто переломайте запустившему вирус ноги).

Так что в данном случае – сам факт заражения существенно снижается…

Сценарий второй – вирус «прилетел» через обновление той или иной LoB-системы и здесь пока почти без шансов – скорее всего компьютер будет заражен, поскольку код выполняется от прав системы.

Но не будем расстраиваться. Мы потеряли один компьютер и далее все зависит исключительно от устойчивости ИТ-инфраструктуры в целом.

Дальнейший сценарий распространения вируса Petya проходит по нескольким направлениям:

  • Механизм, использующий уязвимость SMBv1 (EternalBlue/EternalRomance) на находящихся в одной подсети с зараженным ПК компьютерах,
  • Или механизм pass-the-hash/pass-the-ticket, используя имеющиеся на зараженном ПК сеансы пользователей.

Первый вариант распространения вируса на соседние ПК блокируется очень просто с Defense-in-Depth:

  • LAN – сегментирование и изоляция (VLAN) – совсем просто, особенно учитывая кол-во накупленных в компаниях Cisco и прочего оборудования, надо только сесть и чуть подумать, какой же трафик куда должен ходить между сегментам пользовательских ПК (многочисленных и разнесенных тоже) и серверами приложений (тоже сегментированных между собой по типам приложений и требуемого сетевого доступа). Мы не говорим даже об NDIS – даже без обнаружения вторжения (хотя если Cisco – так чего бы не активировать?) – сегменты сетей стали бы непреодолимым барьером для проникновения вируса вне группы ПК.
  • Хост – с его firewall, который, как ни странно, сейчас включается в Windows по умолчанию и только дурацкий ответ на вопрос – «хотите ли вы расшарить свои файлы в сети» – «да, хочу!» – портит всю картину. Ну вот зачем, зачем пользовательскому ПК вообще что-то публиковать в сети? Зачем все админы так любят отключать firewall? Легче работать? А не легче ли написать правила в групповых политиках… И все, даже в рамках одного сегмента сети – такие ПК c firewall будут защищены от посягательств зараженного ПК. А что насчет контроллеров домена и прочих файловых помоек – читай выше, обязательных обновлений и «бронирования» и тут никто не отменял.
  • ЛПП – и да, не забываем о персональной ответственности админов и сетевиков за каждый следующий поломаный по сети комп.

Второй вариант распространения вируса чуть сложнее – Petya использует для атаки на другие ПК в сети наличие открытых пользовательских сеансов/кэшей паролей на зараженном ПК, а учитывая парадигму того, что многие админы на ПК используют один и тот же пароль локального администратора или учетную запись администратора домена для работы на любом ПК компании – здесь для Petya широкое поле деятельности с использованием механизмов атак pth/ptt. Имея на руках администраторские пароли и открытые «всем ветрам» порты соседних ПК – Petya успешно копирует себя через административные шары (Admin$) и запускает удаленно свой код на атакуемой машине.

НО, если обратиться к Defense-in-Depth, то можно обнаружить, что:

  • Хост – рекомендовано использование технологий VBS и Device Guard для защиты от кражи идентити подобными способами. Но – VBS есть только в Windows 10 – Ok, но никто не мешает познакомиться с рекомендациями по защите хостов от Pass-the-hash/pass-the-ticket атак для Windows 7 и т.д. – ничего сложного, кроме опять же – использования рекомендованных шаблонов безопасности (их же можно использовать и для Windows 10 без VBS/DG) – http://aka.ms/pth – начиная с отключения кеширования идентити при входе и т.п.
  • Хост – простейшая гигиена аутентификации, связанная с использованием уникальных администраторских паролей на каждой рабочей станции/сервере – утилита Local Administrator Password Solution (LAPS) – http://aka.ms/laps – избавит от головной боли «по запоминанию» каждого пароля, а далее – более сложные процедуры гигиены для администраторов, которые говорят, что для выполнения определенных действий на ПК должны быть использованы определенные учетные записи, не обладающие полнотой прав на уровне всей сети – https://docs.microsoft.com/en-us/windows-server/identity/securing-privileged-access/securing-privileged-access-reference-material (а что, никто не в курсе, что с доменным админом ходить по рабочим станциям категорически запрещено?).
  • Плюс – уже упомянутые выше механизмы обнаружения вторжения – тот же Defender ATP или Microsoft ATA («заточенный» как раз на обнаружение атак pth/ptt) и, безусловно – firewall и сегментирование сетей для того, чтобы завладевший теми или иными учетными записями вирус не смог подключиться к соседям.
  • ЛПП – а здесь уже может “прилететь” и админу компании в целом, если окажется, что его учетная запись “гуляет” почему-то по рабочим местам пользователей или используется на ПК совместно с такими гуляющими админами.

ВСЕ! Было «охренеть как сложно», мы потратили от силы 3 рабочих дня (24 часов и 24х75=1800евро денег высококвалифицированного специалиста) из предоставленных 43 дней с предыдущей атаки для того, чтобы защититься от разрушительного действия вируса типа Petya.

UPD 1: По просьбам комментаторов и просто друзей в Facebook и прочих социальных сетях – записал практическое видео с примером реальной лабы по заражению домена Petya.C с правильно настроенными политиками безопасности согласно требованиям Defense-in-Depth для защиты от современных типов угроз (типа того же Pass-the-Hash/Pass-tht-Ticket, которые использовал Petya.C) – при явном заражении одного ПК – влияние вируса на остальную лабу – нулевое:


СофТы: закрываем уязвимости ИТ-инфраструктуры от современных атак (типа Petya – pth/ptt)

Да, тут некоторые коллеги в комментах дискутировали насчет того, что «нельзя так просто взять и поделить сеть на подсети пользователей и банкоматов – есть моменты администрирования и удобства работы» – но, в любом случае, у CIO было еще минимуму 3-5 дней на подумать, а потом решить, что удобство работы перед угрозой полномасштабной вирусной атаки – отходит на второй план. В общем – даже не думали и не сделали НИЧЕГО.

Наши потери от Petya после принятых общих мер – мы потеряли, скорее всего, все машины, которые заразились путем приезда «обновления от MEDoc» (хотя, при использовании IDS типа Defender ATP – и эти потери могут быть сведены к минимуму), мы потеряли 10% от тех машин, которые получили «письма счастья», а компания – потеряла работавших на них сотрудников. ВСЕ! Никакой эпидемии, никаких отключившихся касс и банкоматов (!!!), никаких тысяч часов на восстановление ИТ-инфраструктуры. Осталось восстановить требуемые данные из бекапов (или вообще ничего не восстанавливать, кроме ОС на ПК – если ИТ-инфраструктура сделана правильно и все хранится и бекапится централизованно, к тому же – в облако).

Так что это было, добродии?! Почему Petya гулял по украинским сетям, вынося всех и вся (и не надо рассказывать, что «в Европе/России тоже пострадали», «это была спланированная атака на Украину») – как не лень, некомпетентность и пофигизм CIO попавших под раздачу организаций и полный пофигизм Microsoft Ukraine по отношению к наземной угрозе?!

Ах да, Microsoft и «облака наше все»… Сейчас пойдут разговоры о том, что если бы «все было в Azure», то ничего бы не было. Было бы – с тем же результатом – ваши виртуальные машины в Azure были бы в той же ситуации – локальная сеть, открытые порты и т.п. – потому что в гибридной инфраструктуре облачная часть IaaS по безопасности ну никак не отличается от наземной по необходимости настроек.

Таким же образом, через обновления, Petya успешно бы пролез и на виртуалки в Azure, дальше бы пошел гулять по виртуальным сетям Azure (которые вы бы не поделили на сегменты, не изолировали, не использовали firewall на каждой), а потом и через Site-to-Site VPN залез бы и на наземные ПК пользователей… Или наоборот – с тем же результатом в такой незащищенной от угрозы изнутри “обланой” инфраструктуре.

А то было бы и хуже – учитывая умение Petya считывать учетные записи админов и зная безалаберность этих админов – Petya.Cloud (с модулем работы в облаке – дописать в код пару строчек) давно бы уже имел административные права на ваши подписки в облаках и делал бы там все, что заблагорассудится, кидая вас еще и на деньги – например – поднимал бы виртуалки для майнинга или ботсетей в вашей облачной подписке, за которые вы бы потом платили по 100К-300К уе/мес.

И даже использование облачного Microsoft Office 365, который вроде как SaaS и его инфраструктура защищается Microsoft – при такой дырявой инфраструктуре на местах – не спасет – с тем же успехом вирус добирается до админского аккаунта O365, используя воровство учетных записей – и дальше подписка O365 уже «не ваша».

Вам об этом не сказали Microsoft, Google, Amazon – все, кто продает «облака»? Так это, им же продать надо, а не решать ваши проблемы – а все проблемы облаков – находятся «на местах», а туда особо уже и не продашь – значит, и инвестировать в наземные части заказчиков не стоит ни копейки – даже тренингами и семинарами… 

И всем – приготовиться – это была только следующая волна, ждем следующей, как только ребята найдут следующий механизм “заброски” и инфильтрации вируса в корпоративные сети. И этот вирус также не будет обнаруживаться антивирусами по сигнатурам и будет эксплуатировать свежие уязвимости сетей и незакрытые механизмы типа Pass-the-hash/Pass-the-ticket. И вот просто “перенести все в облака” вам не поможет, а подписка на облачные Microsoft ATA/Defender ATP в дополнение к описаным выше мерам – вполне.

И небольшой ликбез для тех, кому интересно (некоторые доклады – почти годичной давности):


Webcast: как противостоять современным информационным атакам при помощи Microsoft Advanced Threat Analytics – про Pass-the-hash/pass-the-ticket атаки 


О безопасности гибридной/облачной ИТ-инфраструктуры в Azure IaaS

 

И немного ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

И еще – немного ссылок про ИТ-карьеру и тренинги/обучающие материалы для ИТ-профессионалов и Системных Администраторов:

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Трагедия и фарс–украинские CIO и 150долларовые админы,российский след и “атака ФСБ”,тотальный факап Microsoft Ukraine–все, что вам надо знать о причинах вчерашней вирусной атаки в Украине


Феерический факап «ИТ-нации», которая в реальности оказалась совсем не «ИТ нацией», а просто сборищем ремесленников-разработчиков «на галерах», способных писать код на заказ, но имеющих весьма отдаленное представление об ИТ в целом и безопасности в частности… Даже словацкое телевидение пнуло Украину, показав с утра в новостях сюжет с ремаркой типа “украинские специалисты не могут справиться с вирусом”… 

История, как говорится, повторяется дважды – один раз в виде трагедии, второй раз – в виде фарса… В Украине произошел именно фарс с этим вирусом “Petya.A” – по другому никак нельзя назвать обрушение ИТ Украины более чем через месяц после основной волны аналогичных вирусов по всему миру и более чем через 4 месяца после того, как возможная уязвимость была пропатчена компанией Microsoft. А рекомендации по защите от подобных атак от Microsoft существуют уже более 10 лет в виде стратегии Defense-in-Depth.

ИТ-карьера – как стать успешным и востребованным системным администратором с высоким доходом 
ИТ-карьера – как стать Системным Администратором-практические шаги,часть 01-готовим рабочее место

И какие причины привели к данному фарсу в виде коллапса многих банков и учреждений из-за действий абсолютно банального вируса, возраст которого – более года и использующего в настоящий момент уязвимости 4хмесячной данности?

Дебилы, бл@

Только так можно на текущий момент охарактеризовать уровень CIO компаний, которые подверглись успешным атакам. Причем можно даже не детализировать – и так все ясно – достаточно сказать о том, что эти люди не сделали никаких выводов и телодвижений из крупных атак на мировые системы более месяца назад. И уже не важно, что стало окончательной причиной внедрения вируса – старые системы, отсутствие обновлений, действие пользователей, отсутствие той самой стратегии Defense-in-Depth – результат на лицо – никаких мер за целый месяц принято не было, вообще! Причем эти меры – ничего такого из ряда вон выходящего, что выходит за рамки включения тех или иных функций в ИТ-инфраструктуре компании (уже имеющихся «из коробки») и описанные в том же Defense-in-Depth.

Вторая часть – Вирус Petya и правильная комплексная защита от него и подобных следующих вирусов, которая должна была быть в каждой ИТ-инфраструктуре–то, что не сделали вовремя украинские CIO

Кстати, Defense-in-Depth достаточно часто рассматривался мной на различных докладах и выступлениях по безопасности и последний раз – 20 мая 2017 на «Стальном Бубне» – запись доклада здесь – https://youtu.be/4e2qwseGGNA?t=2m30s . Кстати, рекомендую обратить внимание на разницу в том, о чем сам доклад и почему он начинается именно с Defense-in-Depth.

Для Petya.A хватило бы соблюдения минимальных рекомендаций, в том числе таких, как firewall на всех ПК, закрывающий ненужные порты рабочих станций (они не серверы, и нечего «светить» портами, особенно непропатченными, даже в локальную сеть) и применение шаблонов и рекомендаций по безопасности, среди которых – и отключение уязвимых версий протоколов SMB. Ну заразились бы отдельные ПК, на которых пользователи открыли бы вредоносный файл – но это бы не приняло масштабы эпидемии, когда выносились целые сети таких вот «открытых всем ветрам» ПК. А еще большей загадкой для меня является то, каким образом связаны сети общего пользования в некоторых банках и сети банкоматов? Там что, пакетики в сети гуляют, как заблагорассудится и каждый внутренний пользователь теоретически, может добраться до каждого банкомата?

А рассказать сотрудникам о том, что открывать все файлы подряд и подтверждать запрос подсистемы безопасности – опасно – вообще запредельная задача для ИТ подразделений?! Не говоря уже о фильтрации ненужных почтовых сообщений и опасных файлов в них… 

Но нет, украинским CIO – это не по силам, они там для другого сидят – пилить корпоративный/государственный бюджет на ИТ и делиться с таким же наемным руководителем этой компании. И, как мне кажется, ничего CIO этих компаний не будет (как говорится кум-сват-брат), зато если посмотреть на список атакованных компаний и сравнить его с вручением Best CIO Ukraine – и Ощадбанком в списке победителей – то хочется попросить организаторов публично отозвать эту номинацию, чтобы хоть кто-то из CIO прочувствовал, что все не просто так и ты не можешь быть “Best CIO”, если у тебя валится система. И, надеюсь, в следующем цикле отбора “лучших” – тема безопасности будет во главе угла с соответствующим аудитом – на наличие того самого Defense-in-Depth.

В реальности ситуация с Defense-in-Depth в крупном украинском предприятии выглядит примерно следующим образом (реальные данные).

Таблица требований Defense-in-Depth.

Уровень

Технологии

Данных

ACL/шифрование/классификация данных с RMS

Приложений

SDL, антивирусы, «бронирование» приложений и сервисов, App/Device Guard

Хостов

«Бронирование» ОС, аутентификация, управление обновлениями, FW, защита от вторжения (IDS), VBS, Device Guard

LAN

Сегментирование и изоляция (VLAN), шифрование (IPSec), защита от вторжения (NIDS)

Периметр

FW, контроль доступа, App FW, NAP

Физическая безопасность

Охрана, ограничение доступа, аппаратный контроль и аудит доступа, отслеживание устройств, камеры наблюдения

Люди, политики, процедуры

Документирование, тренинги, предупреждения и уведомления, наказания…

Согласно проведенному опросу, службы безопасности, рекомендованные в Defense-in-Depth, реализованы в ограниченном объеме для каждого из уровней.

  • Защита данных – отсутствует
  • Защита приложений – отсутствует
  • Защита хостов – реализованы 2 требования к защите (аутентификация, управление обновлениями) данного уровня из 8ми
  • Защита локальной сети – 1 требование (VLAN) из 3х
  • Защита периметра – 2 (FW, контроль доступа) требования из 4х
  • Физическая защита – 3 (Охрана, ограниченный доступ, контроль) из 5
  • Персонал, политики, процедуры – отсутствует

UPD 3: Видео с примером реальной лабы по заражению домена Petya.C с правильно настроенными политиками безопасности согласно требованиям Defense-in-Depth для защиты от современных типов угроз (типа того же Pass-the-Hash/Pass-tht-Ticket, которые использовал Petya.C) – при явном заражении одного ПК – влияние вируса на остальную лабу – нулевое:


СофТы: закрываем уязвимости ИТ-инфраструктуры от современных атак (типа Petya – pth/ptt)

 

150 долларовые админы…

Кадры решают все – это сказал фараон… Может, при «таких» CIO и хороших, инициативных и ответственных админах-исполнителях на более низких позициях, которые бы проявили инициативу и сами, еще в марте 2017 года, аккуратненько пропатчили бы системы и приняли остальные рекомендуемые меры – вируса не смог бы разгуляться в таких масштабах.

НО – таких админов в украинском ИТ просто не существует. Потому что «ИТ-псевдонация» вообразила, что только аутсорсеры-девелоперы могут зарабатывать нормальные деньги, толковый системный администратор же не стоит более 500 баксов, а в лучшем случае – и 150 баксов ему хватит. Что вызвало естественный отток из этого направления ИТ наиболее толковых специалистов – тех, кто хотел и умел переучиваться – они ломанулись в «devops» и прочие, смежные с лавками галер, позиции, присасываясь к денежным потокам аутсорса. Самые умные – плюнули на весь этот бедлам и просто уехали «на постоянку» в нормальные страны с соответствующим уровнем развития ИТ и пониманием места и стоимости ИТ-специалистов в современном мире.

На смену им в украинские компании пришли те, кто вдруг «внезапно» решил «уйти в ИТ» из «менеджеров» и прочих «по работе с клиентами» с редкими вкраплениями «молодой поросли» системных администраторов после ВУЗов (которые, ВУЗы, как бы не надували свои щеки – никаких системных администраторов даже в базовом представлении не готовят).

Кстати, о ВУЗах – имел тут возможность пообщаться с некоторым количеством «перспективных молодых сисадминов», которые заканчивают ВУЗ и многому научились – в направлении ИТ администрирования и т.п. на ведущих ИТ кафедрах украинских ВУЗов не рассказывают даже о теоретических основах ИТ-инфраструктуры, таких, как IT Infrastructure Optimization Model/IT Infrastructure Maturity Model, что, на мой взгляд, должно быть фундаментом знаний для любого, кто выходит из ВУЗа со специальностью типа «ИТ-специалист». О чем я? Да вот об этом – Модель оптимизации ИТ – http://bit.ly/CoreIOmod – хотя бы 8 часов лекций в план обучения можно добавить?

150 баксов – компании довольны, платить больше не надо, CIO репортят о внедрении новых систем для бизнеса, ИТ платформа продолжает быть лоскутной и дырявой – и всем хорошо. Было…

Когда тыкаешь носом в проблему – «Ок, проблемы есть, мы работаем, может привлечем кого-то со стороны, вот вас, например» – «75евро/час» – «сколько? Да вы что, мы таких денег в ИТ не платим!». Сейчас злорадно потираю руки, вспоминая разговор начала февраля…

Вывод только один – никакой украинской «ИТ-нации» не существует и не будет существовать еще долго. Сейчас есть какая-то «псевдонация» химерного вида с аутсорсерами, которые клепают код на заказ и считающими, что они держат Бога за бороду. Данная вирусная атака показала же полную несостоятельность Украины, как ИТ-страны.

Российский след…

«Патриоты» сразу устроили истерику «это необъявленная ИТ-война», нас атакуют! Расслабьтесь – никакие спецслужбы не причастны напрямую к данной атаке, ибо она является фарсом по своему смыслу и содержанию. Если к этой атаке причастны ФСБ и прочие подразделения – то кроме как полным тотальным ФАКАПОМ и провалом такую атаку от ФСБ назвать нельзя. Почему? Да все очень просто – имея так отлично работающий механизм инфильтрации в чужую сеть – профакапить возможности многолетнего контроля и планомерного изъятия информации из зараженных сетей, которые предоставляла данная атака – могли только дилетанты-школьники, решившие, что номер их Bitcoin достаточно защитит их анонимность и они получат миллионы баксов и свалят на Карибы…

О чем я?! Если бы я, как сотрудник соответствующего подразделения ФСБ, планировал атаку и имел бы на руках подобный механизм вторжения – никогда ни за что я бы не шифровал файлы, я бы использовал дальше pass-the-hash, pass-the-ticket атаки для получения всех требуемых мне аккаунтов и спокойно и незаметно контролировал бы сети крупнейших компаний Украины без какой бы то ни было огласки. Годами! Потому что CIO и ИТ-персонал украинских компании в 90% случаев не то, что не готово к таким атакам, а даже не в курсе, что это такое и как защищаться.

И в таком случае ФСБ получало бы стратегическое преимущество вместо тактической «хулиганской» победы – представьте себе права Enterprise Admin’а в Ощадбанке? А в -энерго? А на Чернобыльской АЭС или в Аэропорту «Борисполь»? Вы можете читать базы, смотреть транзакции и, не дай бог (хотя я допускаю и такую возможность – объединение технологических и офисных сетей при украинском общем ИТ-пофигизме) управление системами навигации или контроля за «Укрытием»… Представили?

Так что либо ФСБ – идиоты, либо «Путин всех переиграл», либо – украинский псевдопатриотический ИТ-бомонд опять прикрывает свою полную некомпетентность «войной»…

Кстати, коллеги из СБУ – я бы все же проверил насчет pth/ptt зараженные Петей системы после ввода их снова в эксплуатацию во избежание описанного выше сценария. Нужны консультации – вы знаете, как меня найти… Нет, в Украину не поеду.

А хакерам-недоучкам остается сказать только – ВЫ ИДИОТЫ, ВЫ ТОЛЬКО ЧТО ПРОВТЫКАЛИ СВОЙ ШАНС ИМЕТЬ НЕОГРАНИЧЕННЫЙ НЕКОНТРОЛИРУЕМЫЙ ДОСТУП КО ВСЕМ РЕСУРСАМ ЦЕЛОЙ СТРАНЫ ГОДАМИ!!!

Феерический факап Microsoft Ukraine

Самый же большой факапер в данной ситуации – это Microsoft Ukraine. И не потому, что вирус поражает Windows, а потому, что данное региональное подразделение Microsoft в Украине не предприняло никаких действий по предупреждению угрозы и защите своих заказчиков (а пострадали крупные заказчики) от возможных будущих атак. Вот просто НИКАКИХ! Ни в тот момент, когда в марте 2017 вышел патч, который был настолько критическим, что о нем трубили все, кому ни лень, ни в тот момент, когда через месяц, в апреле 2017, вышел эксплоит на дырку, ни в мае 2017, когда пошла первая волна атак – ни в один из этих моментов Microsoft Ukraine не разродился ни коммуникацией к заказчикам, ни к обширной базе своих подписчиков на рассылки, ни какими бы то ни было семинарами или даже вебкастами – просто тишина… Зачем?! Действительно, Интернет, народ читает про вирус, вдруг сам додумается закрыть дырки. Не додумался.

Ах, нет специалистов соответствующего профиля в Microsoft Ukraine?! Серьезно?! Безопасность, которая является критическим аспектом в ИТ – никак не представлена в Microsoft Ukraine соответствующей позицией? И при этом компания позиционирует локальный офис в том числе и как инструмент для поддержки пользователей?! – Тогда грош цена такому инструменту, который за полгода никак не смог прореагировать на громадную потенциальную угрозу и палец о палец не ударил, не потратил ни тысячи маркетинговых денег, чтобы хоть как-то донести информацию и об угрозах, и о мерах противодействия им, до своих заказчиков (вот специально зашел в подписки и посмотрел на коммуникации от Microsoft Ukraine – НИ-ЧЕ-ГО).

Впрочем – ситуация тут во многом аналогична ситуации на украинском рынке ИТ в целом, которая описана выше… С ослепленностью носорога Microsoft Ukraine уже 5 лет прет вперед девизом «Девелоперс! Клауд!» и полным отрицанием необходимости работать с ИТ-специалистами в целом и с безопасностью – в частности. Чего стоит проведенное с помпой многодневное мероприятие для девелоперов по блокчейну, проведенное в Киеве – прямо как пир во время чумы. Можно было бы хотя бы 20% этих денег потратить на то, чтобы рассказать про WannaCry и прочую хрень с EternalBlue и методы противодействия, вплоть до Defense-in-Depth – с соответствующими трансляциями и распространением материалов, можно было вебкасты организовать, в течение 4х месяцев с соответствующей рекламной поддержкой. Ага, фиг там!

Особенно порадовало вчера, в разгар вирусной атаки, сообщение в ФБ от менеджера Microsoft Ukraine по коммуникациям – «Ми працюємо! Триматиму в курсі справ.» – что, серьезно?! Афигеть, как оперативно сработали! Защитили! Даже перевода статьи месячной давности https://blogs.technet.microsoft.com/msrc/2017/05/12/customer-guidance-for-wannacrypt-attacks/ не опубликовали… Кстати, письма в массовых рассылках про угрозу и с рекомендациями – так и не появилось. На текущий момент 28.06.2017 12:00 молчит также и группа ФБ – Спільнота ІТ-фахівців Microsoft в Україні – https://www.facebook.com/ITproCommunity/– постит только смешные гифки, у них же праздник и выходной – проблемы пользователей в праздник никого не волнуют.

Вторая часть – про что должен был рассказать, показать и научить всех своих заказчиков и клиентов Microsoft Ukraine – Вирус Petya и правильная комплексная защита от него и подобных следующих вирусов, которая должна была быть в каждой ИТ-инфраструктуре–то, что не сделали вовремя украинские CIO

«Девелоперс! Ажур! Все в облака!» – при этом сами сотрудники компании плохо себе представляют те угрозы, которые несет насквозь дырявая локальная ИТ-инфраструктура облачной инфраструктуре заказчика и какие затраты могут возникнуть в случае взлома (об этом тоже здесь – https://youtu.be/4e2qwseGGNA) и везде, где только возможно, об этом умалчивая. Мало того, они слабо представляют себе и тот момент, что имидж продуктов Microsoft после подобных атак катастрофически испорчен, и даже не важно, что локальный ИТ профакапил не меньше – выбор заказчиками следующих продуктов, в том числе и облачных – будет не в пользу Microsoft и продавать Azure и облачные сервисы Microsoft после такого факапа будет еще сложнее, как бы не рассказывали «продажники» о высокой защищенности облаков (что, на сама деле – тоже неправда).

Так что данная атака – самый крупный и тотальный факап Microsoft Ukraine за все годы его существования и громадная дыра в стратегии компании в целом. И можно сказать, что на Microsoft Ukraine и его бездеятельности – лежит большая часть ответственности за произошедшее. Хотя и не думаю, что они сделают из этого какие-то выводы, кроме того, что продолжат свои преследования «инакомыслящих»…

 

И на этой ноте – хочу пожелать становления украинскому ИТ, после такой смачной публичной пощечины, думаю, некоторые таки задумаются про то, сколько реально стоит ИТ и почему не «рабы на галерах», а админы являются ИТ-специалистами и определяющей составляющей «ИТ-нации» и сколько им надо платить, чтобы подобное не повторилось. И учиться, учиться и еще раз учиться… Хотя я слабо представляю, как это будет делать “пересичный” украинский ИТ-администратор, который загружен по уши на работе текучкой (он же ИТ-дженералист по сути), денег на обучение у него нет (на 150 долларов – тут бы выжить), а Microsoft и прочие компании – “слились” из данного сегмента развития рынка… А отдельным ИТшникам – учитесь, развивайтесь, валите из этой страны, где ваши знания никто не оценит, туда, где есть реальный спрос и реальные задачи потому что, как мне кажется, весь этот шмон закончится просто очередным распилом бюджета…

Ах, да! Что делать?! Если срочно – просто снесите все (надеюсь, бекапы у вас есть) и установите начисто новую лицензионную Windows 10 со всеми обновлениями и влюченными сервисами защиты. Если данные важны и “потерпит” – дождитесь расшифровщика – скорее всего, учитывая объем атак – он появится. Для тех, кто еще не подхватил, но в зоне риска – обязательно следуйте рекомендациям Microsoft – https://blogs.technet.microsoft.com/msrc/2017/05/12/customer-guidance-for-wannacrypt-attacks/ , научите своих пользователей ничего не запускать из Инета и удачи!

 

UPD 01: И, в дополнение, уже по комментам в Facebook на статью, хочу добавить замечательные слова, которые сказал Коля Бобух (сам я как-то поторопился с написанием статьи, так сказать, “на одном дыхании” писалась):

Nick Bobukh Также, я бы продлил логическую цепочку твоих рассуждений насчёт “АйТи нации” и “войти вайти” имени некоторых распиаренных в ФБ личностей.
Страна нихера не производит _конечного продукта_ (т.е. от слова совсем). Кто не верит, пусть пересчитает в денежном эквиваленте украинские вещи на себе, софт на компе, гаджеты, авто в гараже, даже квартиры если подумать, строятся на 50% из импортных материалов и на 100% импортной техникой по импортным же технологиям. ИТ не может быть вещью в себе, как утверждают апологеты “ИТ нации”, это часть экономики, причём не самая большая (Испания например нихера не “ИТ нация”, но и уровень и оборот в бабле ИТ области там на порядок больше чем у нас, потому что и экономика больше). А если у нас государство не может обеспечить даже неприкосновенность права собственности, то о каком росте может идти речь 🙂
Это значит, что добавочной стоимости, которая может идти в том числе на ИТ – нет. Отсюда и квадратные глаза при более чем гуманных рейтах.

UPD 02: для интересующихся техническими деталями – пост на Microsoft Blogs о том, как Petya работает и рекомендации по защите – New ransomware, old techniques: Petya adds worm capabilities – https://blogs.technet.microsoft.com/mmpc/2017/06/27/new-ransomware-old-techniques-petya-adds-worm-capabilities/

 

И пара ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

И еще – немного ссылок про ИТ-карьеру и тренинги/обучающие материалы для ИТ-профессионалов и Системных Администраторов:

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

ИТ-карьера:как заработать миллион с Microsoft IoTLab Ukraine – год спустя + интересный проект Finder для велосипедистов, февраль 2017


У меня снова была возможность пообщаться с Сергеем Поплавским – бессменным руководителем Microsoft Ukraine IoT Labwww.iotlab.in.ua – через год после предыдущего видео про Microsoft IoTLab Ukraine и ее гаджеты и проекты.

Итак, если вы чистолюбивы, умны, работоспособны и хотите заработать миллион, создав какой-то технологический стартап – вам в Microsoft IoTLab Ukrainewww.iotlab.in.ua  Winking smile

Подписаться на канал ►►►

 

ИТ-карьера – как стать успешным и востребованным системным администратором с высоким доходом 
ИТ-карьера – как стать Системным Администратором-практические шаги,часть 01-готовим рабочее место

 

В этом видео Сергей рассказывает об успехах своих предыдущих подопечных, стартапах, которые уже выпустились в прошлом году… И да – некоторое из них уже заработали свои миллионы… Пусть в гривнах – но, как говорится – лиха беда – начало Winking smile

 

 
ИТ-карьера:как заработать миллион с Microsoft IoTLab – год спустя, февраль 2017 в 4К

Кроме того, вы узнаете о тех тенденциях, которые сейчас имеют место на рынке стартапов и почему лаборатория IoT Lab начинает потихоньку переходить от “обычных железячных” IoT решений все больше к программно-аппаратным или даже программным решениям.

И, конечно же, как и в предыдущем видео – Сергей расскажет о новых гаджетах и оборудовании, которые IoT Lab предоставляет своим участникам безвозмездно для прототипирования и создания собственных аппаратных решений…

Много чего интересного, на самом деле, появилось в лаборатории за год – всякие там nanopi и аналоги Pi на тех же Intel Atom.

Так что смотрите и присоединяйтесь к работе лаборатории для стартапов Microsoft IoTLab Ukrainewww.iotlab.in.ua . Напомню – раз в год лаборатория “выпускает” “созревшие” стартапы и проводит конкурс на набор новых, обеспечивая им всестороннюю поддержку…

А продолжение про работу Microsoft IoTLab Ukraine – следует. Один из стартапов в лице девушки Аллы с удовольствием согласился рассказать, как им работается в IoT Lab.

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Эта замечательная девушка – одна из учасниц лаборатории Microsoft IoTLab Ukrainewww.iotlab.in.ua – со своим замечательным проектом Finderfinder.itcreative.com.ua

Про саму лабораторию Microsoft IoTLab Ukraine я уже рассказывал ранее – а теперь хочу поделиться разными проектами, которые участники лаборатории “собирают на коленке” с помощью Microsoft, чтобы потом заработать миллионы Winking smile

На самом деле, девушек-авторов проекта Finder двое – Alla Bozhko и Katerina Stetsenko, но, к сожалению, Катерина не смогла присоединиться к нам во время съемки.

Потому – за всех отдувалась Алла, рассказывая как о проекте Finder, так и о других их проектах. Да-да, не смотря на свою молодость и красоту – Алла и Катерина уже достаточно преуспели в ИТ-бизнесе – можете заглянуть на домашнюю страницу их проектов – itcreative.com.ua Winking smile

 

 
ИТ-карьера:как заработать миллион с Microsoft IoTLab – проект Finder для велолюбителей от ITCreative.com.ua в 4К

И, конечно же, про сам проект Finder, хотя Алла и сама достаточно подробно рассказала уже о нем в видео. Идея – проста, как и у всех других стартапов 😉 В данном случае – трекер велосипеда, но не сколько “фитнесовый”, сколько аварийный – на случай кражи или потери. Насколько для велосипедистов кража любимого протюненого велосипеда – это боль – можете послушать в интервью пана Вовки из Братиславы

Что будет делать гаджет от Finder? Будучи встроенным в руль “обычного” или “необычного” велосипеда – он будет исправно “стучать” о местоположении велосипеда, взятом с GPS, в соответствующий сервис через модуль 3G. Обещают минимум 3 дня без подзарядки и дополнительную опцию, которая позволит заряжать модуль от динамомашинки (генератора) – но это пока еще в стадии обсуждения и планирования Winking smile

Ничего особенного? Да, но уже полезно… НО, кроме всего прочего поисковый гаджет от Finder будет еще иметь и модуль Bluetooth, который позволит велосипедистам организовывать “социальные игры” типа “охоты на лис” или “догони вора”. О чем это? А дело в том, что благодаря Bluetooth Finder, находящийся в режиме “кражи” (владелец может удаленно установить такой через вебпортал или приложение) начинает броадкастить на все находящиеся в зоне доступности Bluetooth устройства… И, конечно же, на соседние Finder.

Таким образом, если помеченый украденый велосипед с работающим Bluetooth-маячком Finder будет проезжать мимо другого Finder’а – владелец второго Finder получит сообщение, что “враг рядом” и пора его “валить”… И можно начинать преследование веловора, ориентируясь на информацию с маячка.

Представляете, какие возможности для стайной охоты за веловорами открывает Finder перед велосообществомПри широком внедрении Finder в массы – велосипедисты будут только и ждать, чтобы кто-то украл чей-то велосипед, чтобы “размяться” на “Большой Охоте” Winking smile

Кстати, я помог скооперироваться девушкам и пану Вовке – и, похоже, что реальные испытания на местности Finder будет проходить в Братиславе, где очень и очень развито велокомьюнити…

А мне остается только пожелать девушкам удачи и успеха в их интересной задаче с Finder и в ИТ-бизнесе вообще Winking smile Надеюсь, свой первый миллион они заработают уже в этом году на Finder.

 

А продолжение про работу Microsoft IoTLab Ukrainewww.iotlab.in.ua – следует. Я постараюсь в течение месяца рассказать еще об интересных проектах в IoTLab Ukraine.

 

А для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

И еще – немного ссылок про ИТ-карьеру и тренинги/обучающие материалы для ИТ-профессионалов и Системных Администраторов:

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Анонс семинара–25/26.04.2016 в Киеве–отказоустойчивая гибридная ИТ-инфраструктура с Microsoft & Veeam


Microsoft Украина и Veeam 25-26 апреля 2016 года проводят в Киеве 2хдневных технический семинар, посвященный новым средствам обеспечения надежной отказоустойчивой локальной и гибридной ИТ-инфраструктуры, в частности – решениям гибридного резервного копирования Microsoft и Veeam на базе Microsoft Azure, а также – новым возможностям дисковых подсистем в Windows Server 2016, на котором докладчиком буду в том числе и я Winking smile 

Семинары включают в себя как теоретические, так и практические доклады по программным и аппаратным технологиям и будут интересны как руководителям ИТ подразделений организаций среднего и большого размера, так и практикующим ИТ-специалистам – системным администраторам, специалистам службы поддержки и т.д.

Семинары будут проходить 25-26 апреля 2016 года с 9:30 до 17:30 в конференц-зале Microsoft Украина по адресу г.Киев, ул.Жилянская 75.

Расписание докладов и ссылки на регистрации следующие:

Первый день, 25 апреля 2016г. – переход на облачные средства резервного копирования – Microsoft Azure Backup & Veeam

9:30-10:00

Регистрация участников

10:00-11:00

Обзор возможностей Microsoft Operations Management Suite (OMS) – мониторинг и резервное копирование для гибридных инфраструктур + лицензирование (доклад Microsoft)

11:00-11:15

Перерыв

11:15-12:15

Возможности средств резервного копирования Veeam для гибридных инфраструктур + лицензирование (доклад Veeam)

12:15-13:00

Обед

13:00-14:15

Демонстрация внедрения гибридного резервного копирования Microsoft Azure Backup/Azure Site Recovery, входящих в пакет OMS (доклад Microsoft)

14:15-14:30

Перерыв

14:30-15:45

Демонстрация решений гибридного резервного копирования Veeam Cloud Connect (доклад Veeam)

15:45-16:00

Перерыв

16:00-17:00

Отказоустойчивые дисковые массивы на основании Microsoft Storage Spaces для среднего и крупного бизнеса – опыт успешной реализации проектов в Украине за 3 года. (доклад Entry)

17:00-17:30

Вопросы и ответы (все докладчики)

 

Второй день, 26 апреля 2016г. – новая надежная ИТ-инфраструктура с Windows Server 2016 & Veeam

9:30-10:00

Регистрация участников

10:00-11:00

Обзор новых функций Windows Server 2016 TP4 – новая серверная ОС для гибридных инфраструктур (доклад Microsoft)

11:00-11:15

Перерыв

11:15-12:15

Новые возможности и развитие средств резервного копирования Veeam (доклад Veeam)

12:15-13:00

Обед

13:00-14:15

Повышение отказоустойчивости ИТ-инфраструктуры: новые возможности отказоустойчивого кластера в Windows Server 2016, геораспределенные кластеры (доклад Microsoft)

14:15-14:30

Перерыв

14:30-15:45

Обновленные средства управления инфраструктурой хранения данных в Windows Server 2016 – Software Defined Storage – Storage Replica, Storage Space Direct (доклад Microsoft)

15:45-16:00

Перерыв

16:00-17:00

Как правильно подбирать серверное оборудование под конкретные задачи бизнеса, и чем поможет штатная утилита Microsoft PerfMon. (доклад Entry)

17:00-17:30

Вопросы и ответы (все докладчики)

Увидимся на семинарах уже в будущий понедельник!

А кто пропустил предыдущие вебкасты и различные тренинги и семинары, посвященные администрированию Microsoft Windows Server, Microsoft Azure, Microsoft Windows 10, которые я проводил онлайн и оффлайн (в Украине) – рекомендую посмотреть в записи вот здесь у меня на YouTube-канале iWalker2000:

image[5]
Записи тренинга Microsoft Azure Infrastructure Camp, май 2015

image[10]
Семинары Windows Server 2016 Jump Start – что нового в серверных решениях Microsoft, Киев, ноябрь 2015

image[19]
Технические доклады с Microsoft TechDays’осень 2015 по Windows 10 в Украине

Обзоры Microsoft Lumia 950 XL, 1я неделя–распаковка, начальная настройка Microsoft Lumia 950 XL, обновление OS Microsoft 10 Mobile


Решил немного изменить на блоге формат подачи обзоров Microsoft Lumia 950 XL, которые я сечас делаю, начав с 14 февраля 2016 года активно эксплуатировать свою новенькую Microsoft Lumia 950 XL. На своем YouTube канале iWalker2000 я буду публиковать 3 обзора Lumia 950 XL в неделю (тематику обзоров все желающие могут регулировать путем опроса, который есть в конце каждого видео или в комментариях), а здесь, на блоге – каждую пятницу подводить общие итоги за неделю в виде дайджеста.

Подписаться на канал iWalker2000 ►►►

 

Обзор Microsoft Lumia 950 XL, ч.01 – достаем из коробки флагман на Windows 10 Mobile

Ура! Ко мне приехала моя новенькая Microsoft Lumia 950 XL – так что теперь ждите массу новых обзоров и тестирований как самой Microsoft Lumia 950 XL, так и возможностей Windows 10 Mobile и инструкций по работе с Windows 10 Mobile для пользователей.

Для тех, кому интересны какие-то особые возможности Microsoft Lumia 950 XL/Windows 10 Mobile или работа с определенными программами/играми – напоминаю, что вы можете писать “заявки” на обзоры Microsoft Lumia 950 XL в комментариях…

И еще одно замечание – все предыдущие обзоры Microsoft Lumia 950 XL я снимал на прототипе, а сейчас у меня на руках – серийный образец, так что возможны какие-то изменения.

Итак, из наиболее ярких аппаратных особенностей, которые выделяют смартфоны Microsoft Lumia 950 и Microsoft Lumia 950 XL среди флагманских смартфонов других компаний и о которых вы услышите в этом обзоре, стоит упомянуть о:

  • 2 адаптивные антены в Microsoft Lumia 950 и 950 XL, которые улучшают прием в различных условиях;
  • новые процессоры Qualcomm Snapdragon 808 (6ти ядерный, 1.8ГГц для 950) и Qualcomm Snapdragon 810 (8ми ядерный 2ГГц для 950 XL);
  • жидкостное охлаждение ЦПУ аналогичного типа и класса, как и применяемое в новых планшетах Surface, что позволяет использовать и без того мощные процессоры Microsoft Lumia 950/950 XL на максимальных режимах;
  • новая основная 20МПкс камера с тройной LED RGB вспышкой, обеспечивающей натуральные цвета, оптикой Carl Zeiss, матрицей с технологией PureView и оптической стабилизацией нового поколения;
  • экраны 5,2″ (у Lumia 950) и 5,7″ (у Lumia 950 XL) в общим разрешением 2560х1440 точек. Экраны выполнены по технологии OLED, что обеспечивает работу Glance Screen – отображение важной информации на экране выключенного телефона без затрат энергии;
  • Разъем USB-C – новый стандарт для подключения к ПК, зарядке (на презентации было заявлено, что за 30 минут Microsoft Lumia 950/950 XL будет заряжаться на 50% заряда) и подключения к док-станциям, которые позволяют использовать смартфоны, как полноценные ПК – подключив к ним монитор, клавиатуру и мышь…

А в этом видео – распаковка Microsoft Lumia 950 XL и немного о технических характеристиках Microsoft Lumia 950 XL.

image
Обзор Microsoft Lumia 950 XL, ч.01 – достаем из коробки флагман на Windows 10 Mobile

 

Коробка с Microsoft Lumia 950 XL содержит, кроме самого телефона, запечатаного в целлофановую обертку, также краткую инструкцию для пользователя на нескольких языках (для варианта, продающегося в СНГ – это русский, украинский, казахский), блок питания для сети 220В с выходом 5В/3А с неотделимым шнурком и отдельно шнур подключения к ПК/док-станции USB 3.1 – USB Type C. Аккумулятор в моем случае был уже установлен в самом телефоне.

Технические характеристики новой Microsoft Lumia 950 XL следующие:

  • Главная особенность: флагманский телефон от Microsoft с новой ОС Windows 10 Mobile, у Microsoft Lumia 950 XL масса уникальных особенностей – подробнее смотрите здесь 
  • Процессор: 8ми ядерный QualcommMSM8994 Snapdragon 810 – 4 ядра 1.5 GHz Cortex-A53 + 4 ядра 2.0 GHz Cortex-A57
  • Графика: Adreno 430 (650МГц)
  • Память: 3ГБ ОЗУ
  • Встроенное хранилище: 32ГБ
  • Слот для карт microSD: до 200ГБ
  • Экран: AMOLED, 5,7″, 1440 x 2560 пикселей, Gorilla Glass 4, ClearBlack
  • Камера: 20МПкс, сенсор 1/2.4″, 1.12 µm ультрапиксели, Carl Zeiss, OIS, autofocus,  автофокус, triple-LED RGB вспышка, видео 4К 2160p при 30fps + фронтальная 5МПкс  с видео 1080р
  • Аккумулятор: 3340 мА*ч, время воспроизведения MP3 – 80ч
  • Размеры, вес: 151,9 x 78,4 x 8,1 мм, 165 г

Плюс – к Microsoft Lumia 950 XL предлагается Display Dock, который позволяет подключить телефон к монитору, а к телефону – клавиатуру, мышку, внешние USB-устройства и использовать, как рабочую станцию. Режим Windows 10 Continuum позволяет телефону использовать второй монитор, как полноценный рабочий стол и все новые приложения будут запускаться не в режиме телефона, а в режиме десктопа Windows 10. Это дает возможность полноценной работы с приложениями Microsoft Office или мультимедиа. Смотрите демо работы Continuum на Microsoft Lumia в этом обзоре Microsoft Lumia 950 XL .Распаковку и обзор Displa Dock смотрите в ближайших обзорах. Начальный обзор функции Continuum в Microsoft Lumia 950 XL смотрите здесь.

Кстати, забегая немного вперед – тесты камеры Lumia 950 XL и сравнение качества съемки видео с камерами других телефонов линейки Microsoft Lumia вы найдете здесь. И еще – как и просили – я уже начал снимать свои Путевые Заметки на Microsoft Lumia 950 XL в формате 4К, так что смотрите путешествия на моем канале по выходным.

 

Обзор Microsoft Lumia 950 XL, ч.02 – первоначальная настройка Windows 10 Mobile на Lumia 950 XL

После того, как вы достали из коробки свою Microsoft Lumia 950 XL или любой другой смартфон под управлением Windows 10 Mobile и включили его – вы видите мастер первоначальной настройки Windows 10 Mobile, про который смотрите в этом видео.

image
Обзор Microsoft Lumia 950 XL, ч.02 – первоначальная настройка Windows 10 Mobile на Lumia 950 XL

Мастер начальной настройки Windows 10 Mobile – это всего несколько вопросов, ответы на которые надо давать правильно, от них зависит дальнейшая правильная и удобная работа с вашей Windows 10 Mobile.

Две главные опции настройки – это указание правильного времени и часового пояса и указание правильной учетной записи Microsoft (Microsoft Account).

Почему время так важно? Потому что аутентификация в службах Microsoft в том числе зависит и от синхронизации времени на сервере и клиенте (разница не более 5 минут). И тут частая ошибка – время/дату пользователи выставляют правильно, а вот часовой пояс – нет.

Почему мастер не спрашивал у меня установку времени явно? – потому что по умолчанию Windows 10 Mobile имеет настройки автоматической синхронизации времени от серверов Microsoft (если вы при начальной настройке уже подключились к WiFi) и требуется только уточнить ваш часовой пояс (который нужен только для вашего удобства – чтобы на экране было локальное время, а система все равно оперирует с универсальным временем).

А про Microsoft Account я уже рассказывал подробно в этом видео – все, рассказанное в этом видео относится также к применению учетной записи Microsoft и на телефонах с Windows 10 Mobile.

Помните, что именно по Microsoft Account вы получаете доступ ко всем службам Microsoft, таким, как Магазин, резервные копии, синхронизация данных с другими устройствами и т.п. Так что не указав учетную запись Microsoft – вы не сможете, например, устанавливать приложения из Магазина.

При этом следует помнить, что телефон привязывается к указанной учетной записи и далее поменять учетную запись можно будет только путем полного сброса (Hard Reset, про сброс Windows-телефона смотрите здесь) телефона – это было и в Windows Phone 8.1, и сохраняется в Windows 10 Mobile.

И еще хочу напомнить, что некоторые приложения проверяют, сколько устройств у вас зарегистрировано в учетной записи Microsoft, и не дают устанавливаться, пока из у вас не будет 10 или даже 5 штук. Про управление зарегистрированными на вашу учетную запись устройствами смотрите снова здесь.

Так же очень важным шагом первоначальной правильной настройки нового телефона Windows 10 Mobile является обновление приложений и ОС – рекомендую обновить ОС и приложения сразу после начальной настройки Windows 10 Mobile. Про обновление приложений в Магазине – смотрите в данном видео, а про обновление ОС Windows 10 Mobile – смотрите в следующем видео.

 

Обзор Microsoft Lumia 950 XL, ч.03 – как обновить Microsoft Windows 10 Mobile

После того, как вы прошли мастер начальной настройки Windows 10 Mobile, также очень настойчиво рекомендую сразу зайти в настройки Windows 10 Mobile и проверить наличие обновлений самой OS.

Процедура обновления Windows 10 Mobile не сложная и, в принципе, автоматическая – подключившись к сети WiFi телефон Windows через какое-то время сам скачает требуемые обновления и предложит их установить. Но я рекомендую сделать это сразу после первого включения и первоначальной настройки телефона – пока вы не “накидали” туда программ и данных – в таком случае обновление ОС на “голом” телефоне пройдет куда быстрее и корректнее. 😉 А в случае “залипания” обновления – не так жалко будет делать сброс телефона в ноль для обновления 😉

image
Обзор Microsoft Lumia 950 XL, ч.03 – как обновить Microsoft Windows 10 Mobile

И, конечно же, напоминаю, что перед обновлением рекомендуется зарядить телефон минимум на 50% (иначе установка обновления просто не стартует), а лучше – на все 100%.

Но в случае с Microsoft Lumia 950 XL зарядка телефона перед обновлением – не проблема. Как вы знаете, Microsoft Lumia 950 XL имеет особенность заряжаться на 50% за 30 минут (я уже протестировал эту возможность ускоренной зарядки Lumia 950 XL),  поэтому, если вы поставите телефон на зарядку в момент включения и первичной настройки – то к моменту, когда Microsoft Lumia 950 XL скачает обновления ОС и понадобится перезагрузка для обновления Windows 10 Mobile – Lumia 950 XL уже полностью зарядится 😉

И ДА – вы не можете управлять опцией “устанавливать или нет обновления ОС” – при наличии WiFi-подключения к Интернету Windows 10 Mobile будет автоматически проверять (каждый день) и скачивать обновления ОС. Единственный выбор, который у вас есть – это указать, согласны ли вы на установку обновлений сразу автоматически (при этом сначала будет проверен уровень заряда) или же система должна спросить у вас дату и время устрановки обновлений ОС на телефон.

А теперь, когда у нас есть правильно настроенный и обновленный телефон Microsoft Lumia 950 XL на Windows 10 Mobile – можно приступать к обзорам как самой Lumia 950 XL, так и к обзорам/инструкциям Windows 10 Mobile.

И следующее видео будет посвящено распаковке второй коробочки, которая у меня есть – это Microsoft Display Dock, которая нужна для работы технологии Continuum в Windows 10 Mobile.

Так что продолжение обзоров Microsoft Lumia 950 XL – следует… Все обзоры Microsoft Lumia 950 XL и Windows 10 Mobile будут в этом плейлисте, и не забывайте также о подробных обзорах бюджетной Microsoft Lumia 550 на моем канале.

 

А в перерывах между обзорами Microsoft Lumia 950 XL – смотрите обзоры и тестирование новых дешевых бюджетных китайских планшетов на Intel Atom X5 Z8300 и Intel Atom X7 Z8700 под уравлением Windows 10.

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

Другие обзоры Windows 10 Mobile и Windows-смартфонов на моем канале:

ГаджеТы: Обзор нового флагманского планшета Microsoft Surface Pro 4 – новое железо и возможности работы–на русском


Подписаться на канал ►►►

Смотрите обзор нового планшета Microsoft Surface Pro 4, а здесь смотрите обзоры новых смартфонов MIcrosoft Lumia 950 и Microsoft Lumia 950 XL.

Это видео – нарезка и переозвучка наиболее интересных моментов презентации новых устройств от MIcrosoft, которая проходила в Нью-Йорке 6 октября 2015 года. Всю презентацию на английском языке смотрите здесь, первую часть, обзор новых возможностей Microsoft Lumia 950/950 XL – смотрите здесь.

image
Обзор нового флагманского планшета Microsoft Surface Pro 4 – новое железо и возможности работы–на русском

Новый планшет от Microsoft – Microsoft Surface Pro 4 – получил массу улучшений и стал достойным продолжателем линейки, которую начала действительно революционная модель – Microsoft Surface Pro 3 (мои обзоры Microsoft Surface Pro 3 смотрите здесь – распаковка, подробный обзор Surface Pro 3, обзор Microsoft Surface Pro 3 после 1 года работы). У Microsoft Surface Pro 4 следующие новые возможности, которые вы увидите в данном видео:

Про это и многое другое о Microsoft Surface Pro 4 – смотрите в данном видео 😉

Продолжение обзоров Microsoft Surface следует!

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

Смотрите еще обзоры Microsoft Surface и других планшетов на моем канале:

Смотрите обзоры новых возможностей Windows 10:

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Microsoft Lumia 532 – достаем из коробки и детальный обзор дешевого Windows-телефона


Абсолютно логично после обзоров Microsoft Lumia 535 ( и еще несколько обзоров Lumia 535 будут опубликованы  скоро 😉 – снять обзор и меньшей "копии" – Microsoft Lumia 532. Первый краткий обзор Lumia 532 я снял еще на CeBIT 2015 – а вот теперь у меня появилась возможность тщательно пощупать этот аппарат от Microsoft.

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

Итак – скажу главное – Microsoft Lumia 532 – очень бюджетный аппарат на той же аппаратной платформе, что и Lumia 535 – тот же Snapdragon 200 1,2ГГц на 4 ядра, те же 1ГБ ОЗУ и 8ГБ хранилища и будет показывать все ту же производительность, что и Lumia 535. В чем отличие – в размере и разрешении экрана и в дизайне… А также – отсутствие каких либо проблем с тачем, про которые говорят о Lumia 535 😉

image
Microsoft Lumia 532 – достаем из коробки и детальный обзор дешевого Windows-телефона

И как по мне – кому позвонить и поработать, имея в руках и в кармане достаточно компактный по нынешним временам смартфон – Lumia 532 очень даже хороший выбор… Вместе с Lumia 630 – это отличный выбор "родительского" телефона 😉

Что же до полных характеристик Microsoft Lumia 532, то они следующие:

  • Главная особенность: очень бюджетный телефон от Microsoft
  • Процессор: 4хядерный Qualcomm Snapdragon 200 1,2 ГГц
  • Графика: Adreno 302
  • Память: 1ГБ ОЗУ
  • Встроенное хранилище: 8ГБ
  • Слот для карт microSD: до 128ГБ
  • Экран: 4" 800×480
  • Камера: 5МПкс, без вспышки; видео 480p 
  • Фронтальная камера: VGA
  • Аккумулятор: 1560 мА*ч
  • Размеры, вес: 118,9 x 65,5 x 11,6 мм, 136 г

Детальное продолжение о Lumia 532 снимать, думаю, не стоит – по производительности он такой же, как уже снятая в тестах Lumia 535 и разные игры на Lumia 535. Так что те, кому интересна Lumia 532 – следите за обзорами Lumia 535 😉

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

Смотрите еще обзоры Microsoft Lumia 535 и Windows Phone на моем канале:

Обзор новой сборки Windows 10 Technical Preview build 10041 – что там нового и что “не так”…


Продолжаю последовательно следить за новыми сборками Windows 10 Technical Preview – начало детальных обзоров Windows 10 смотрите с обзора сборки 9926 у меня на канале. Примерно неделю назад всем участникам программы тестирования Windows 10 ( http://insider.windows.com ), у которых включен режим обновления Fast – приехало обновление до версии 10041 .

Подписывайтесь на мой канал iWalker2000просто кликните сюда.

image
Смотрите обзор новой сборки Windows 10 Technical Preview build 10041 – что нового в Windows 10

Этот обзор является не полным обзором "всего",  а лишь дополнением – обзором новых дополнений и "улучшений" в новой сборке 10041 относительно предыдущей общедоступной 9926.

Итак, главное обсуждаемое обновление/улучшение новой сборки – это полупрозрачное окно Start… Нда, какой ужас, абсолютно не функциональное + еще и этот список всех программ в одном маленькос столбце – который надо скроллить и скроллить… В общем – я высказал и написал свое мнение в программе Windows Feedback.

Кстати, новое приложение Windows Feedback – отлично позволяет вам оставлять свои замечания и пожелания по разрабатываемой Windows 10 – именно ради этого все раздачи сборок и затеяны. Обязательно пользуйтесь.

Также порадовали настройки хранилища Storage Sense, похожие на телефонные, в которых теперь можно явно указать, куда будут устанавливаться приложения из Store – на диск компа или на установленную SD-карту.

А про различные обломы, связанные с установкой Windows 10 на старые ПК или на планшеты с хранилищем 16ГБ – смотрите в видео… Это было жестокое разочарование 😦

Но самым большим разочарованием сборки 10041 стало то, что в ней по прежнему нет обещанного нового браузера Spartan, посмотреть на который уже давно желает все прогрессивное ИТ-сообщество 😉

И, как я уже написал выше и сказал в видео – продолжение обзоров улучшений и дополнений новых сборок Windows 10 – следует…

Подписывайтесь на мой канал iWalker2000просто кликните сюда.

Другие мои обзоры продуктов Microsoft:

Обзор новых моделей Microsoft Lumia 640 и Lumia 640 XL на выставке CeBIT 2015


Кто не смотрел прошлые видео – я был на знаменитом CeBIT в Ганновере. Первую часть репортажа с CeBIT 2015, из основных павильонов, смотрите здесь. Вторую часть, посвященную другим, "китайско-тайваньско-корейским", павильонам и различным стартапам на CeBIT 2015, смотрите здесь.

Подписывайтесь на мой канал iWalker2000просто кликните сюда.

image
Обзор новых моделей Microsoft Lumia 640 и Lumia 640 XL на выставке CeBIT 2015

А это видео посвящено новым сматрфонам серии Lumia уже от Microsoft – Microsoft Lumia 640 и Microsoft Lumia 640 XL. Напомню, что они были анонсированы совсем недавно, но уже пошли в Европе в продажу по 170евро и 210евро соответственно. Если судить по номеру, то они стали развитием направления Lumia 6xx, которая в их лице стала еще более "впечатляющей", "подросшей" и "усилившейся". Внутри же нового 640го варианта – тоже свои отличия. Как понятно из приставки XL – Microsoft Lumia 640 XL больше – ее экран размером 5,7 дюйма действительно привлекает внимание, но не только этим отличается XL. Еще 640 XL имеет куда лучшее оснащение на борту, а именно – лучшие камеры и больший аккумулятор 😉

Вот основные технические характеристики Microsoft Lumia 640 и Microsoft Lumia 640 XL соответственно:

  • Главная особенность: повседневные телефоны среднего ценового класса
  • Процессор: 4хядерный Qualcomm Snapdragon 400 1,2 ГГц
  • Графика: Adreno 305
  • Память: 1ГБ ОЗУ
  • Встроенное хранилище: 8ГБ
  • Слот для карт microSD: до 128ГБ
  • Экран: ISP, 5" / 5,7" (для 640 XL), 720 x 1280 пикселей, Gorilla Glass 3, ClearBlack
  • Камера: 8МПкс 1/4" (для 640), 13МПкс 1/3" Carl Zeiss (для 640 XL), автофокус, LED-вспышка; видео 1080p/60fps
  • Фронтальная камера: 1МПкс (640) / 5МПкс широкоугольная (640 XL)
  • Аккумулятор: 2500 мА*ч / 3000мА (640 XL)
  • Размеры, вес: 141,3 x 72,2 x 8,8 мм, 145 г (640) / 157,9 x 81,5 x 9 мм, 171 г (640 XL)

Выводы делать пока рано – надо было бы активно поюзать оба аппарата, но предварительно можно сказать, что Microsoft Lumia 640 явно направлен на тот сегмент, который занимали Lumia 630 (все мои обзоры Nokia Lumia 630 здесь) и Lumia 730 (все мои обзоры Nokia Lumia 730 здесь). А вот Microsoft Lumia 640 XL больше наступает на пятки такой серии, как Lumia 1320 (которая не получила развития и в планах обновления новыми моделями про нее ничего не слышно. Обзор Nokia Lumia 1320 смотрите здесь) . До конкуренции с Nokia Lumia 1520 ( смотри все мои обзоры Nokia Lumia 1520 здесь) Microsoft Lumia 640 XL, не смотря на ее большой экран, явно не дотягивает 😉

Надеюсь, эти аппараты еще попадут мне в руки хотя бы на неделю-другую и я смогу полностью их протестировать и снять обзоры 😉

В любом случае – продолжение обзоров различных гаджетов и интересных стендов на CeBIT 2015 следует, смотрите здесь

Подписывайтесь на мой канал iWalker2000просто кликните сюда.

Другие мои обзоры и сравнения моделей Windows Phone:

 

Обзор функций XBOX One – игровая приставка и не только


Если вы не смотрели распаковку XBOX One – смотрите мое видео про распаковку XBOX One здесь. В этом видео я расскажу про функции, которыми обладает XBOX One – а это не только игровая приставка, но и домашний медиацентр, а также расскажу про некоторые нюансы управления системой.

Подписывайтесь на мой канал iWalker2000просто кликните сюда.

XBOX One review - обзор XBOX One
обзор функций XBOX One – игровая приставка и не только

Итак – функции XBOX One в настоящий момент выходят за рамки обычной игровой приставки – пользователям предоставляется отличный набор медиавозможностей. Это приложения Xbox Music и Xbox Video для проигрывания музыки и видео, в том числе и по подписке Xbox Music, это и обычный Media Player, который может проигрывать сетевой видео/аудио контент через тот же DLNA, чем я активно пользуюсь в повседневной жизни (кстати, о работе с устройствами и источниками DLNA смотрите видео тут). Еще одной особенностью работы XBOX One с медиаконентом является возможность работы с ТВ-приставками – просмотр ТВ программ через XBOX One и запись контента (DVR). Сигнал поступает ТВ-приставки на HDMI-вход XBOX One, а переключение каналов на ТВ-приставке выполняется через настройку Kinect, который посылает требуемые инфракрасные команды приставке. Плюс XBOX One умеет скачивать расписание передач и вы запросто можете настроить запись нужных вам ТВ-программ на XBOX One.

Кроме медиаконтента XBOX One имеет базовый набор приложений, которые "нужны всем" – браузер IE, Skype (использует Kinect как микрофон и камеру), клиенты OneDrive, YouTube и прочее из магазина. А в ближайшее время, с выходом Windows 10 и универсальных приложений – ожидаем превращение XBOX One в полноценный ПК с большим набором новых программ Windows 10 😉

И пару слов об управлении – кроме традиционного джойстика (геймпада) вам будут доступны также варианты управления голосовыми командами – как это выглядит – смотрите на видео и при помощи жестов Kinect (для большей наглядности я еще и игрушку погонял) 😉 С голосовым управлением XBOX One (напомню, что оно также использует микрофоны Kinect) я настолько свыкся и настолько уже обленился, что теперь смотрю сериалы, передачи и прочее видео даже не шевеля руками для того, чтобы поставить на паузу или перемотать – все только голосом 😉
Но если честно, то я не настолько ленивый – на самом деле я отдал предпочтение именно XBOX по причине наличия в нем Kinect и активных игр – больше всего играю именно в кинектовские игр. Хотя это можно больше назвать физическими упражнениями и фитнесом 😉

Еще одной возможностью управления XBOX One является работа с утилитой Xbox One SmartGlass, которая бесплатна и доступна для платформ Windows 8, Windows Phone, iOS и Android. Фактически эта утилита является дополнительным беспроводным экраном для XBOX One. Подключившись через локальную сеть к своему XBOX One при помощи SmartGlass, вы получаете доступ к его рабочему столу. Т.е. видите те же иконки, сообщения и т.п. и можете запускать требуемые вам приложения или общаться с друзьями в социуме Xbox. При запуске того или иного приложения поверхность планшета или телефона с SmartGlass превращается в виртуальный тачпад с виртуальными кнопками, где вы можете управлять непосредственно игровым процессом или приложением, подобно обычному геймпаду XBOX One. И, наконец, если приложение или игра поддерживают прямую работу со SmartGlass – бы получите дополнительный экран игрового процесса – как его будет использовать игра – например, для вывода карты или каких-то дополнительных данных или как “специальный” геймпад с кучей дополнительных виртуальных кнопок/команд – это уже определяют разработчики. Так что рекомендую всем пользователям XBOX One обзавестись также и приложением Xbox One SmartGlass – тем более, что это – бесплатно Winking smile

И как я уже говорил в видео – вы видели список доступных у меня игр – кто хочет обзоры этих конкретных игр – пишите 😉

Продолжение обзоров XBOX One – следует…

Другие мои обзоры Xbox и игр:

ГаджеТы: достаем из коробки Microsoft Xbox One


Да, я знаю – Xbox One продается уже год 😉 Но, в прошлом феврале, когда я был в Штатах – не было возможности привезти такой "бокс" в багаже… И я ждал распродаж в Европе – и таки дождался 😉 Вот, уже послерождественские скидки помогли 😉 Оставил какого-то ребенка в Toys"R"Us без дешевой игровой приставки…

Подписывайтесь на мой канал iWalker2000просто кликните сюда

XBOX One unboxing - распаковка XBOX One
достаем из коробки Microsoft Xbox One

Зачем мне Xbox One, когда есть Xbox 360 – это новые игрушки и новый Kinect, а еще – вдохновило сообщение о том, что можно будет транслировать игры на ПК и планшеты с Windows 10. Жду доступности этой фичи в новых сборках Windows 10.

А все, что можно было сказать про "железо" в Xbox One – я рассказал в видео, как, впрочем и показал весь процесс начальной настройки Xbox One. Он при первом подключении успел скачать почти гигабайт обновлений, успешно перепрошиться и приготовиться к работе 😉

Правда, при запуске игры, которая шла в комплекте – Call of Duty: Ghosts – он снова попросил обновиться – теперь уже для игры 😉 Поэтому – обзоры собственно игрового процесса и работы с Xbox One, его дополнительных фукнций, кроме игровой приставки – будут в следующих видео.

А пока я активно осваиваю работу с Xbox One, подключил его уже к кабельной сети, но, увы, не получается настроить мою кабельную ТВ-приставку так, чтобы она управлялась с Xbox One и можно было использовать Xbox One как DVR для записи интересных мне передач по расписанию. А вот с просмотром фильмов с устройств DLNA вообще никаких проблем не возникло – установил из магазина Xbox One обычный Media Player – и теперь вижу все источники медиаконтента в домашней сети.

Так что – продолжение про Xbox One следует…

Подписывайтесь на мой канал iWalker2000просто кликните сюда

Другие мои обзоры Xbox и игр: