Что было хорошего в поздних сборках Windows 10 и развивается в Windows 11 – это подсистемы Windows Subsystem for Linux (WSL), которая позволяет “нормально” запускать задачи Linux в Windows Pro без всяких виртуальных машин – фактически, ядро Linux в Windows работает параллельно с ядром самой Windows и может теперь пользоваться всеми аппаратными ресурсами ПК. Именно эти улучшения – работа с графикой и дисками легли в основу новой версии WSL в Windows 11 + также Microsoft существенно упростила процесс установки и конфигурации ядра Linux в Windows 11 Pro. Собственно – о том, как теперь просто установить и сконфигурировать WSL, о новой работе с GUI-приложениями Linux в WSL (про бета-версию я рассказывал еще в апреле 2021 тут – https://youtu.be/7Yz3fPuQH6k), о работе с дисками в WSL – и пойдет речь в данном видео.
Для тех, кому не терпится попробовать ядро Linux в Windows 11 Pro – вот вам небольшой перечень команд для установки и конфигурации самой системы WSL и Linux внутри:
* УСТАНОВКА WSL: запускаем командную строку Windows (PowerShell или CMD) с правами админа и в ней выполняем команду wsl –install . Данная команда скачивает все необходимые модули WSL, включает/конфигурирует другие вспомогательные службы Windows и после, ВАЖНО – скачивает из онлайн репозитория базовый дистрибутив Ubuntu (текущую версию) и просит перегрузить ПК.
– если вы хотите установить другой дистрибутив при инициализации WSL, сначала просмотрите доступные сборки в репозитории WSL командой wsl –list –online, а потом при установке используйте команду –install с ключем -d имя_дистрибутива, например, wsl –install -d kali-linux – настроит WSL и скачает по умолчанию Kali Linux, как основной. Кроме того, в дальнейшем, выполняя команду wsl –install -d имя – вы сможете установить несколько дистрибутивов, переключаясь между ними.
– если вы хотите поэкспериментировать с WSL в виртуальной машине – не забудьте включить для нее вложенную виртуализацию процессора, поскольку WSL использует аппаратную виртуализацию процессора для ускорения работы – и виртуальная машина тоже должна иметь доступ к данной функции в своих виртуальных процессорах. Так, если вы используете встроенный в Windows 10/11 Pro гипервизор Hyper-V (кстати, именно его я рекомендую и юзать) – то для включения вложенной виртуализации процессора достаточно на основном ПК выполнить в PowerShell следующую команду с правами админа – Set-VMProcessor -VMName имя_ВМ -ExposeVirtualizationExtensions $True – где имя_ВМ – это имя виртуальной машины в консоле Hyper-V. Сравнение производительности между виртуальной машиной с Linux и WSL я уже проводил тут – СофТы: тестирование производительности Linux в Windows Subsystem for Linux vs Hyper-V – https://youtu.be/P88GPegg7x0
* ПОСЛЕ ПЕРЕЗАГРУЗКИ ПК автоматически запустится консоль Linux в отдельном окне, которая уже закончит установку ядра дистрибутива и попросит у вас имя/пароль админа именно для данного дистрибутива. По окончании настройки – закройте окно и снова запустите командную строку Windows с правами админа и выполните там команду wsl –update – будет выполнено обновление движка WSL и если потребуется (будет показано сообщение о необходимости перезапуска WSL) – перезапустите WSL командой wsl –shutdown . Все, ваша WSL готова к работе.
Получить доступ к командной строке Linux вы сможете через соответствующую иконку в меню Пуск Windows, также, в отдельную папку для каждого дистрибутива, будут добавляться и иконки приложений, которые в него устанавливаются. Новый сервис WSL уже по умолчанию поддерживает работу с GUI приложениями Linux, так что там же вы найдете и иконки всех ваших графических приложений. Напомню, что устанавливать какую-то десктопную оболочку в дистрибутив или X-сервер на Windows вам не нужно, окна Linux приложений будут отображаться, как отдельные окна Windows. Про работу графической среды Linux в Windows я уже рассказывал как раз на примере бета-версии данной WSL – Windows 10 c ядром Linux (WSL2) “научилась” запускать графические GUI приложения Linux – демо WSLg – https://youtu.be/7Yz3fPuQH6k
Теперь ждем еще одной подсистемы – Windows Subsystem for Android – для запуска Андроид приложений прямо под Windows, которая, кстати, будет базироваться на том же WSL (и умельцы и раньше уже запускали Android приложения через WSL). Так, постепенно, Microsoft превращает Windows в универсальную платформу для работы, и, что важно, для разработки и отладки решений. Посмотрим, появится ли Windows Subsystem for MacOS – в принципе, ничего сложного при имеющемся решении WSL. 🙂
Другие видео по Windows, облачным и серверным технологиям у меня на канале:
* Windows 11: переключаем новые контекстные меню Win11 в режим старых добрых меню Windows 10 – https://youtu.be/gSh1Aqo4NTw
* Windows 11: тестируем хак с отключением TPM/CPU при установке Win11 на неподдерживаемое железо – https://youtu.be/mhJcG9h5xns
* Windows 11 – конвертируем BIOS загрузчик старых Windows в загрузчик UEFI/Secure Boot для Windows 11 – https://youtu.be/F-kmvcglLOI
* СРОЧНО В НОМЕР! – Windows 11 – в Сеть утекла Store-ссылка на установку Windows Subsystem for Android – https://youtu.be/KbLPMqjow5I
* Windows 11 – включаем и тестируем “Режим Бога” (God Mode) в Windows 11 – такой же,как и в Windows 10 – https://youtu.be/bV79x-DvMGE
* Запускаем Windows 11 на Raspberry Pi 4 – как настроить RPi 4, создать и установить Win11, скорость – https://youtu.be/fH35VgyDpZk
* Вот это – круто! не то,что Windows 11 – Microsoft запустил облачный сервис XBOX Cloud – играют все! – https://youtu.be/AWqxDymYSMY
* Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”? – https://youtu.be/MG3zscrFvpE
* Срочно в номер! – обзор Windows 11 – что нового в утёкшей ранней сборке 21996, как установить в ВМ – https://youtu.be/mbLfpI5S4TQ
* Windows 10 c ядром Linux (WSL2) “научилась” запускать графические GUI приложения Linux – демо WSLg – https://youtu.be/7Yz3fPuQH6k
* Azure AZ-900-онлайн семинар MUK-Azure Infrastructure as Code IaC, ARM templates, BICEP, Azure DevOps – https://youtu.be/UOEmloeetfY
Итак, Windows 11 официально доступна с 5 октября 2021 года и, как и обещала Microsoft, устанавливается только на ограниченный набор достаточно новых ПК – с процессорами Intel Core 7 поколения и выше и с обязательным наличием включенного модуля TPM (Trusted Platform Module) при установке ПК. Но, как всегда это бывает – данную проверку в процессе установки уже успели обойти, и сторонняя бесплатная утилита Media Creation Tool (MCT) теперь имеет дополнительные модули, которые позволяют выключить в создаваемом образе Windows 11 все “неправильные” проверки и таки установить Windows 11 на неподдерживаемое железо. В этом видео я постарался не только рассказать про сам процесс использования утилиты Media Creation Tool, но и провести небольшое исследование насчет того, что ожидает тех, кто рискнет установить Windows 11 на “кривое железо” и каких сюрпризов можно будет ожидать потом.
* из архива на диск, где есть свободных 6ГБ места распаковываем файл MediaCreationTool.bat . Скрипт написан так, что он использует имя файла, как параметры, и у меня в примере он называется ‘iso 11 Pro MediaCreationTool.bat’ – если вы переименуете свой файл таким образом, то он будет сразу, без вопросов, создавать iso файл с Windows 11 Pro.
* запускаем полученный bat файл и выбираем версию ОС (11) и тип создаваемой установки – в идеале – USB – тула сразу для вас запишет USB флешку, или, как вариант в видео – ISO – для установки в виртуалку. При этом полученный установочный образ будет сразу иметь отключенную проверку TPM.
* используем полученный образ для “чистой, с нуля” установки Windows 11 на неподдерживаемое “железо” (без того же TPM).
* для ОБНОВЛЕНИЯ уже существующей ОС Windows 10 до Windows 11 на неподдерживаемом железе кроме уже упомянутого образа Windows 11 требуется и модификация текущего экземпляра ОС – в том же архиве с GitHub найдете два bat файла – Skip_TPM_Check_on_Dynamic_Update_v1.cmd и Skip_TPM_Check_on_Dynamic_Update_v2.cmd – распаковываем их на тот ПК, который будем обновлять.
* Прямо на ОС, которую планируем обновить до Windows 11, запускаем первый, V1 и пробуем запустить setup.exe из подготовленного ранее установочного образа (либо с подключенной флешки, либо с примонтированного ISO образа) – программа обновления Windows 11 проверит железо на совместимость и продолжит или ругнется на TPM/CPU
* если программа обновления ругается на “железо” – говорим остановить обновление и запускаем версию V2 скрипта – Skip_TPM_Check_on_Dynamic_Update_v2.cmd – и снова запускаем setup.exe из образа, который снова начнет процесс обновления.
* ВАЖНО! При обновлении утилита все равно обнаружит, что ваше железо не соответствует требованиям, НО предложит принять условия, что за сбои в работе Windows 11, ее полный слёт и потерю данных Microsoft ответственности не несет – просто соглашайтесь и обновление продолжится успешно.
Что дальше?! как показали эксперименты – все эти шаманские пляски с отключением проверки TPM при установке/обновлении – до одного места, Microsoft все равно в курсе про несовместимое железо и все следующие крупные обновления – типа следующей сборки – опять начинают все это дело с начала – т.е. снова происходит проверка совместимости железа и крупные обновления требуют “взлома TPM” для установки. Кроме того, пример Raspberry Pi 4 с установленной на ней Windows 11 Insider Preview четко показал, что инструмент полного отключения обновлений на “нежелательном железе” у Microsoft есть – заставить обойти ограничения на Raspberry Pi у меня так и не получилось, но пока – сборка работает (в режиме теста). И, как показывает опыт – этот режим самый опасный – через какое-то время ОС просто перестает грузиться и лечится все только полной переустановкой, даже установка поверх не помогает.
Так что хочу сразу предупредить – шаманские пляски с обходом проверки требований Windows 11 на несовместимых ПК могут в недалеком будущем закончиться плачевно – в какой-то момент система перейдет в режим тестовой работы (и как бы ни старались – МС знает, на каком железе идет работа) и после какого-то периода – полное выключение ОС с потерей возможности откатиться назад, сохранив настройки. А пока – я буду экспериментировать с Windows 11 Insider Preview на несовместимых ПК – посмотрим на поведение в будущем.
Другие видео по Windows, облачным и серверным технологиям у меня на канале:
* Windows 11 – конвертируем BIOS загрузчик старых Windows в загрузчик UEFI/Secure Boot для Windows 11 – https://youtu.be/F-kmvcglLOI
* СРОЧНО В НОМЕР! – Windows 11 – в Сеть утекла Store-ссылка на установку Windows Subsystem for Android – https://youtu.be/KbLPMqjow5I
* Windows 11 – включаем и тестируем “Режим Бога” (God Mode) в Windows 11 – такой же,как и в Windows 10 – https://youtu.be/bV79x-DvMGE
* Запускаем Windows 11 на Raspberry Pi 4 – как настроить RPi 4, создать и установить Win11, скорость – https://youtu.be/fH35VgyDpZk
* Вот это – круто! не то,что Windows 11 – Microsoft запустил облачный сервис XBOX Cloud – играют все! – https://youtu.be/AWqxDymYSMY
* Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”? – https://youtu.be/MG3zscrFvpE
* Срочно в номер! – обзор Windows 11 – что нового в утёкшей ранней сборке 21996, как установить в ВМ – https://youtu.be/mbLfpI5S4TQ
* Windows 10 c ядром Linux (WSL2) “научилась” запускать графические GUI приложения Linux – демо WSLg – https://youtu.be/7Yz3fPuQH6k
* Azure AZ-900-онлайн семинар MUK-Azure Infrastructure as Code IaC, ARM templates, BICEP, Azure DevOps – https://youtu.be/UOEmloeetfY
Обещанные «очень технические» видео по теме Azure на канале – пришло время поделиться некоторыми из личных скриптов и заложенных в них идеях и особенностях реализации той или иной функциональности Azure. В этом видео/посте – поговорим про реализацию автоматического назначения некоторых Azure Policy для конфигурации отправки различными объектами диагностики в Azure Log Analytics при помощи скриптов Azure PowerShell.
Почему не с применением ARM Template? – да потому, что «заморочек» в работе с политиками через ARM Template, особенно если говорить о назначении имеющихся политик, да еще и в режиме «исправления» Remediation. Это и огромные нечитаемые «простыни» самого ARM Template вероятными ошибками при копи-пасте и «заморочками» при редактировании, и масса вопросов по описанию в том же (или отдельном) шаблоне всех необходимых учетных записей managed identity (principal) с раздачей им необходимых ролей в том же шаблоне, и процесс поиска и прописывания массы параметров вручную и прочие моменты типа «ручного участия» даже в назначении имен в том же шаблоне… Потому – скрипт, который управляет назначением выбранных политик – является куда меньшим «злом» с точки зрения процесса и более универсальным в работе, чем шаблоны, которые нужно потом очень внимательно править.
И напомню про пару других моих детальных видео об автоматизации Azure с применением скриптов (с детальным разбором данных скриптов):
· Azure – подробный обзор универсального PowerShell скрипта для работы с Azure Log Analytics API – https://youtu.be/2AB-bIQl_4Q
· Закон Мерфи для кода или автоматическое копирование файлов между Azure Storage с Azure Logic Apps – https://youtu.be/jvWX6V92aCQ
Но вернемся к представленному Azure PowerShell скрипту, в задачу которого входит назначение политик (стандартных, встроенных в Azure) настройки мониторинга Azure Log Analytics для всех типов сервисов Azure, которые поддерживают данные настройки, на уровне выбранной подписки Azure (хотя в качестве области назначения политик может быть и ресурсная группа, и Management Group). В качестве политики используются встроенные политики Azure Policy, которые соответствуют шаблону имени ‘*diagnostic settings*Log Analytics*’, которые развертываются в режиме Remediation (effect = DeployIfNotExists) для своего типа сервисов.
Какие важные блоки в данном скрипте, на что обратить внимание при работе с назначением политик и использованием их в режиме Remediation (исправления) в коде Azure PowerShell:
· Простые операции получения списка нужных политик (или инициатив – набора политик) при помощи команды $mons = Get-AzPolicyDefinition | Where-Object { $_.Properties.DisplayName -like ‘*diagnostic settings*Log Analytics*’ } и работы с данным списком в цикле для каждого элемента.
· Проверка параметров для политики – напомню, что у политики есть свои параметры – большинство из которых – например, тот же режим работы политики – параметр Effect – является установленным по умолчанию в рекомендуемое значение, но вот для данного случая существует еще и параметр logAnalytics (которым назначается конкретное хранилище Log Analytics Workspace, куда направляются все логи) и который может иметь различные модификации имен. Потому – в скрипте проводится проверка точного имени параметра по шалону ‘logAnalytics*’ и формирование параметра на основе полученного имени.
# get right name of policy’s parameter (typicaly named as logAnalytics or logAnalytics_1 or logAnalytics_param ) to setup required Log Analytics as destination storage $obj = $mon.Properties.Parameters $prop = Get-Member -InputObject $obj -MemberType NoteProperty -Name logAnalytics* # build parameter object if($prop) { $asparam = @{$($prop[0].Name)=$($logan.ResourceId)} }
· Формирование имени для назначения конкретной политики на основе строки описания политики, из которой по шаблонам извлекается название сервиса (описания для всех политик по управлению настройками диагностики стандартные и позволяют достаточно просто получить имя сервиса, для которого политика предназначена), для которого назначается политика, и после, используя полученное название – создается имя типа $name = “{0}-monitoring-assigned-byScript” -f $aname
# Build the name of assignment based on substring with Azure service type in Policy’s description $aname = $mon.Properties.Description.Split(‘ for ‘)[1].Split(‘ to stream ‘)[0] $aname = $aname.Replace(‘ ‘, ”) # Workaround for some non-standard descriptions 🙂 if($aname.Length -gt 32) { $aname = $mon.Properties.Description.Split(‘ for ‘)[1].Split(‘ and stream the logs to ‘)[0] $aname = $aname.Replace(‘ ‘, ”) } $name = “{0}-monitoring-assigned-byScript” -f $aname
· Назначение политики в режиме Remediation – обязательное указание параметров локации (параметр команды -Location) и привязки managed identity (-AssignIdentity) – $assignment = New-AzPolicyAssignment -Name $name -PolicyDefinition $mon -Scope $subsId -PolicyParameterObject $asparam -Location westeurope -AssignIdentity
· Ожидание создания учетной записи, привязанной к назначенной политики – требуется время, чтобы вновь созданная учетная запись была реплицирована внутри Azure AD и была доступна – поскольку без этого нельзя назначать требуемые роли на следующем шагу.
# Assignment have to create Service Principal account and we need to check was account created before continue. # The new managed identity must complete replication through Azure Active Directory before it can be granted the needed roles. $prid = $assignment.Identity.PrincipalId $principal = Get-AzADServicePrincipal -ObjectId $prid while(!$principal -and $null -eq $principal) { Start-Sleep -s 10 $principal = Get-AzADServicePrincipal -ObjectId $prid }
· Самая важная часть скрипта – при назначении политик через портал Azure выполняет операции по конфигурированию связанной учетной записи – назначение ролей – на фоне в автоматическом режиме, но когда используется PowerShell – команда New-AzPolicyAssignment только создает учетную запись, но не назначает для нее роли, которые потом требуются для выполнения политикой операций по исправлению конфигураций. Потому скрипт берет данные о ролях из описания политик (внутри каждой политики есть описание требуемых ролей (ID) для операций Remediation) и назначает роли для вновь созданных учетных записей. В случае, если речь идет не просто о политике, а об инициативе (наборе политик) – то тут скрипт просматривает еще и набор политик внутри каждой инициативы и уже из описания политики извлекает ID требуемых ролей (об этом вы найдете в конце видео, когда идет сравнение двух скриптов – для назначения политик и инициатив)
# WARNING!!! workaround for assignment of the policy that requires remediation <#
When creating an assignment using the portal, Azure Policy both generates the managed identity and grants it the roles defined in roleDefinitionIds.
In the following conditions, steps to create the managed identity and assign it permissions must be done manually:
While using the SDK (such as Azure PowerShell)
When a resource outside the assignment scope is modified by the template
When a resource outside the assignment scope is read by the template
The following code iterates the policy definition in $policyDef for the roleDefinitionIds and uses New-AzRoleAssignment to grant the new managed identity the roles.
#>
# Get all policy’s definitions inside each policy in Initiative
$polDefs = $mon.policyDefinitionId
foreach( $polDef in $polDefs)
{
$policyDef = Get-AzPolicyDefinition -Id $polDef
# Use the $policyDef to get to the roleDefinitionIds array
· И, в заключение – назначение задачи по сканированию конфигурации существующих экземпляров сервисов на соответствие политике и исправлению (Remediation), если данное исправление требуется. Так же, как и в предыдущем случае, при назначении политики через интерфейс портала Azure – данная операция назначается в мастере назначения, а в случае использования скриптов – операция Remediation должна быть назначена отдельной командой явно. Кроме того, чтобы следить за ходом выполнения сканирования и исправления – скрипт выводит на экран текст команды с требуемым ID задачи.
Write-Host “`r`nRemediation task $($remtask.Id) was configured!`r`n`t>>> Check state (ProvisioningState property) by >>> ‘Get-AzPolicyRemediation -Id $($remtask.Id)’ command`r`n”
Как я уже упоминал и в тексте, и в видео – при разработке собственных скриптов на базе данного примера рекомендую обратить внимание на то, как в скрипте автоматически генерируются имена для назначений – шаблоны будут отличаться, как формируется переменная с параметрами, которые используются для передачи политики (они, естественно, отличаются от политики к политике) и, конечно же, какие различия между скриптом, который назначает политики и тем, который назначает инициативы – там тоже есть свои нюансы.
Microsoft обновила “окончательные” аппаратные требования к Windows 11 – из “плохих новостей” – требования по наличию TPM 2 и Secure Boot сохранились (как включить TPM и переконфигурировать установленную систему Windows под Secure Boot – смотрите в моем детальном видео – https://youtu.be/F-kmvcglLOI ), из хороших новостей – в список совместимых систем попали процессоры Intel Core 7го поколения и AMD Ryzen 2го поколения (при условии поддержки всех остальных требований типа TPM 2, который, кстати, начал массово появляться именно на платах 8го поколения Intel).
И, наконец, самое главное – обновилась официальная утилита PC Health Check, скачать официальную утилиту проверки ПК на совместимость с Windows 11 можете здесь – https://aka.ms/GetPCHealthCheckApp– которая теперь приводит полную информацию о совместимости (или несовместимости конкретного ПК) с Windows 11 и что нужно поменять, чтобы оно “взлетело”. Утилита PC Health Check простая – скачиваем по линку выше, запускаем установку, ждем 20-30 сек, запускаем утилиту после установки (по умолчанию) и жмем кнопку Check now в утилите. А там уже – смотрим на результаты – по умолчанию показываются только несовместимые опции и ссылки, как это исправить.
А вот и те базовые параметры “железа”, на которых будет работать Windows 11
* Processor: 1 gigahertz (GHz) or faster with 2 or more cores on a compatible 64-bit processor or System on a Chip (SoC ARM Snapdragon 850 or higher).
RAM: 4 gigabyte (GB)
Storage: 64 GB or larger storage device
System firmware: UEFI, Secure Boot capable.
TPM: Trusted Platform Module (TPM) version 2.0.
как настроить Secure Boot и не сломать существующую систему и где включить TPM – смотрите в этом видео – Windows 11 – конвертируем BIOS загрузчик старых Windows в загрузчик UEFI/Secure Boot для Windows 11 – https://youtu.be/F-kmvcglLOI
Graphics card: Compatible with DirectX 12 or later with WDDM 2.0 driver.
Display: High definition (720p) display that is greater than 9” diagonally, 8 bits per color channel.
Кстати, 22 сентября в 17:00 по Европе, Microsoft провела онлайн презентацию новых продуктов – скорее всего, это будут новые устройства серии Microsoft Surface под управлением Windows 11 – https://www.microsoft.com/en-us/event – запись и обзор обязательно будут на канале – смотрите здесь https://youtu.be/cEDSHN91aVc.
Другие видео по Windows, облачным и серверным технологиям у меня на канале:
* Windows 11 – конвертируем BIOS загрузчик старых Windows в загрузчик UEFI/Secure Boot для Windows 11 – https://youtu.be/F-kmvcglLOI
* СРОЧНО В НОМЕР! – Windows 11 – в Сеть утекла Store-ссылка на установку Windows Subsystem for Android – https://youtu.be/KbLPMqjow5I
* Windows 11 – включаем и тестируем “Режим Бога” (God Mode) в Windows 11 – такой же,как и в Windows 10 – https://youtu.be/bV79x-DvMGE
* Запускаем Windows 11 на Raspberry Pi 4 – как настроить RPi 4, создать и установить Win11, скорость – https://youtu.be/fH35VgyDpZk
* Вот это – круто! не то,что Windows 11 – Microsoft запустил облачный сервис XBOX Cloud – играют все! – https://youtu.be/AWqxDymYSMY
* Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”? – https://youtu.be/MG3zscrFvpE
* Срочно в номер! – обзор Windows 11 – что нового в утёкшей ранней сборке 21996, как установить в ВМ – https://youtu.be/mbLfpI5S4TQ
* Windows 10 c ядром Linux (WSL2) “научилась” запускать графические GUI приложения Linux – демо WSLg – https://youtu.be/7Yz3fPuQH6k
* Azure AZ-900-онлайн семинар MUK-Azure Infrastructure as Code IaC, ARM templates, BICEP, Azure DevOps – https://youtu.be/UOEmloeetfY
По приглашению компании МУК – https://muk.ua/ – прочитал несколько семинаров по технологиям Azure, в основном в рамках того самого базового курса по Azure, который потом предполагает сдачу сертификационного экзамена Microsoft Az-900 – http://bit.ly/Exam-Az-900 – как раз для тех, кому лениво смотреть весь цикл серий (тем более, что я их так пока и не закончил). Но, если у вас есть потребность “быстренько” познакомиться с основными концепциями и технологиями Azure всего за 4 часа, а не за 15 часов (как в моем курсе http://bit.ly/Exam-Az-900) – тогда смотрите эту “короткую” серию 😉
Темы первого семинара “Основы управления AZURE и базовые сервисы AZURE”
Базовые концепции облаков – надежность, эластичность, масштабируемость
Датацентры Azure и высокая доступность
Утилиты управления Azure – портал, PowerShell, CLI
Понятие Resource Group и развертывание ресурсов
Основные сетевые сервисы в Azure
Основные сервисы хранилищ в Azure
Резервное копирование и DR в Azure
Виртуальные машины в Azure, отказоустойчивость, мониторинг
Вычислительные сервисы в Azure – App Services, Functions
Кстати, в конце видео я упоминаю про так называемое “публичное собеседование” – https://youtu.be/pyzxPupDbI8?t=12811 – эта такое себе анонимное (по желанию) собеседование под запись или сразу в прямом эфире с разбором полетов потом – чтобы желающие сразу могли оценить требования крупной компании на простую должность типа инженера/архитектора поддержки клиентов в Azure. Потом я это опубликую тут, на канале, в разделе ИТ-карьеры – http://bit.ly/ITcarriera_ – а то народ периодически спрашивает, что нужно знать и как понять, знаешь ли ты “это” и просит записать видео – а записывать абстрактно как-то не хочется – типа, перечисления – вот, это, это и это учите, а хотелось бы сделать такой вот живой диалог, плюс – можно же сразу знать, что учить, а я еще буду в конце такого “собеседования” рассказывать, как и для чего 😉 В общем, если вы вдруг хотите поучавствовать в таком эксперименте – добавляйтесь ко мне в контакты в LinkedIn – https://www.linkedin.com/in/iwalker2000/ и при добавлении не забудьте указать в сообщении, что хотите поучавствовать в онлайн собеседовании 😉
Смотрите продолжение моего доклада по Azure Fundamentals на онлайн семинаре, который проводит по пятницам компания МУК ( https://muk.ua/ ). Первую часть семинара можете посмотреть в записи тут – https://youtu.be/pyzxPupDbI8 – а также напомню, что у меня на канале есть 13 серий базового курса по Azure, который потом предполагает сдачу сертификационного экзамена Microsoft Az-900 – http://bit.ly/Exam-Az-900 . А темами данной части семинара по Azure для технических специалистов стали следующие возможности и функции Azure:
Темы второго семинара “AZURE – основы использования сервисов безопасности, надежности и мониторинга”
* Безопасность Azure
Защита учетных записей в Azure Active Directory
Политики безопасности в Azure
Средства защиты данных, шифрование, ключи и секреты
Сетевая безопасность Azure
Безопасная конфигурация Azure VM
Azure Security Center
Best Practices для облачной и локальной инфраструктуры с сервисами безопасности Azure
Я уже несколько раз начинал серию “серьёзных” видео про ИТ для системных администраторов и вообще 😉 Это была и серия про ИТ-карьеру – http://bit.ly/ITcarriera_ – в рамках которой я планировал перейти от простых рекомендаций по карьере в ИТ к техническим рекомендациям, и серия про Microsoft Azure для системных администраторов – http://bit.ly/WindowsServer_overview – где я планировал рассказать про Azure с точки зрения миграции ИТ-инфраструктур и гибридных решений. И обе эти серии тихо закрылись – ввиду малого интереса аудитории к ним и больших временных затрат на их подготовку – как бы – “если людям не интересно, то чего я буду тратить на это свое время”.
И вот, я таки снова решил начать новую серию – которая будет менее абстрактной, чем предыдущая, поскольку она будет отвечать конкретным задачам – не научить некоего “Васю-будущего админа облаков” чему-то вообще, а помочь в подготовке и сдаче достаточно специфического сертификационного экзамена Microsoft – Exam AZ-900: Microsoft Azure Fundamentals (Основы Microsoft Azure). И даже если вы не собираетесь сдавать сам экзамен, то я постараюсь построить материал так, чтобы вы могли получить современные и обширные знания по облачным технологиям вообще и технологиям Microsoft Azure в частности. И да, видео не будут иметь ограничений по уровню начальных знания – их можно (и нужно) смотреть и нетехническим людям в ИТ – для расширения кругозора и понимания того, что вы продаете и с чем каждый день сталкиваетесь в повседневной работе/жизни – например, как мне сказали “Облако – это OneDrive” 😉 Нет, это один из множества сервисов, которые предоставляет облако. И да, поскольку я пообещал этими видео помочь людям – я постараюсь оперативно создавать новые и закончить всю серию, охватив все очень обширные темы экзамена. Так что подписывайтесь на канал –http://bit.ly/iwalker2000_subs – продолжение следует. А между сериями будут другие обычные видео про гаджеты и т.п.
Для всех, кто планирует сдать экзамен Exam AZ-900: Microsoft Azure Fundamentals – Основы Microsoft Azure. – Для тех, кто планирует подготовиться самостоятельно, но им тяжело сконцентрироваться на конкретных направлениях изучения ввиду того, что материал экзамена очень обширный. – Для тех, кто «не дружит» с английским языком на достаточном уровне и ищет в Интернете возможность поучиться на русском бесплатно. – Для тех, кто ищет в Интернете брейндампы данного экзамена бесплатно 😉 но хочет еще и понимать, что он там заучивает
Для моих бывших коллег из Microsoft, особенно из отделов продаж, которые ходят и рассказывают, какой классный Azure, но потом компания потребовала всех их сдать экзамен – и они его успешно провалили и обратились ко мне за помощью (а вы думали, я вас не потроллю? %) )
Для всех, кто собирается работать в ИТ (даже без экзаменов) по направлению облаков, и не обязательно Microsoft Azure – эта серия видео будет также идти, как часть моей серии «ИТ-карьера» – http://bit.ly/ITcarriera_ и http://bit.ly/itcar_post1
А! И для моего сына, которому нужно написать в его Slovenská technická univerzita v Bratislave (STU) курсовую по введению в облака 😉 Останется только перевести на словацкий.
Планы на серию? Это примерно 20-25 роликов по 30-45 минут каждый, с детальным изложением одной из тем экзамена, с ориентировочными вопросами, практическими примерами и т.п. – будут выходить по 2-3 видео в неделю, т.е. в общем – около 2х месяцев 😉
Особенности экзамена AZ-900
Экзамен абсолютно дурацкий!
Это не технический в общем понимании экзамен…
В экзамене очень много всякого маркетингового булшита от Microsoft.
В экзамене много теоретических и абстрактных вопросов (типа authentication vs authorization, CapEx vs OpEx)
В экзамене много спорных вопросов, которые сам Microsoft озвучивает по разному, исходя из ситуации – например, снижения стоимости владения потому, что не нужно столько админов? – в жизни МС руководству рассказывает, что ДА – вы уменьшите потребность в персонале, в экзамене – он же для админов – НЕТ, админов сокращать не надо!
В экзамене много вопросов по подпискам, лицензированию, планам поддержки и прочим.
В экзамене много вопросов по международным регулятивным требованиям – типа GDPR, NIST, ISO – и сервисам для государственных учреждений.
Особенности экзамена AZ-900 – Если вы ТЕХНИЧЕСКИЙ СПЕЦИАЛИСТ, который работает с Azure, то вы имеете шанс НЕ СДАТЬ его потому, что:
Особенности экзамена AZ-900 – Если вы НЕ ТЕХНИЧЕСКИЙ СПЕЦИАЛИСТ, а менеджер по продажам Microsoft, или другой «эффективный менеджер», особенно новомодный миллениал – то вы НЕ СДАДИТЕ:
Основные группы вопросов на AZ-900
Как подготовиться к сдаче сертификационного экзамена Microsoft AZ-900 Azure Fundamentals?
Набраться терпения и просмотреть все видео этой серии 😉
Подписаться на мой канал, поставить лайк и перешарить эти видео в соц.сетях – это +100 в карму, а карма, как известно, очень помогает на экзамене.
Почитать рекомендуемую литературу (см.дальше) и различные источники – я первоисточниками для подготовки буду делиться в следующих, более практических видео по AZ-900.
Официальные курсы? Если хотите – идите. Все зависит от самого тренера – как повезет. В мою бытность тренером я подстраивал материал курса под реальные вопросы экзаменов, потому как сам материал курса не предназначен для подготовки к экзамену.
Брейндампы? Да, если найдете – сейчас это очень прибыльный бизнес и «бесплатных» найти проблематично, тем более – с комментариями и рекомендациями.
Практическая работа – без более-менее внятного представления, как же выглядит Azure Portal и чем отличается Virtual Machine от Web App, сдать будет проблематично.
У меня появился новый ноутбук – можно сказать, классика рабочего жанра – Lenovo ThinkPad T580. В этом ноуте все отлично – и характеристики его железа (на канале будет отдельный обзор), и, собственно дизайн, вес и прочие эргономические вещи… И как главная плюшка – у ноута отличный 15” экран с разрешением 3840х2160 – 4К.
Но, как часто бывает – все эти плюшки не только приятны, но и имеют отрицательные стороны. Вы видели, какой масштаб PPI (DPI) стоит для таких вот 15” экранов 4К 3840х2160, подобных Lenovo ThinkPad T580?! – правильно, 250% по умолчанию! Т.е. именно настолько масштабируется изображение, чтобы текст на экране был читаемый глазом, а в элементы управления можно было попадать мышкой. Кто не знаком с эффектом DPI/PPI на маленьких экранах с большим разрешением (от 4К и выше) – рекомендую заглянуть в настройки дисплея в Windows и там поиграться в настройками Scaling’а. А для наглядности – вот вам картинка для сравнения вида интерфейса в масштабе 100% и 225%
При чем здесь DPI/PPI и масштабирование, спросите вы? А при том, что представьте себе, что у вас есть приложение, которое ничего не знает о том, в каком масштабе отображать картинку внутри себя и никакого масштабирования внутри такого приложения не происходит. В результате – внутри окна приложения будет все настолько мелким, насколько это выглядит таковым в приведенном выше примере (слева).
И таким вот нужным и часто используемым приложением, которое «не понимает масштабирования» для экранов с большим разрешением – является Microsoft Remote Desktop Client (да и многие прочие клиенты удаленного рабочего стола RDP). При подключении к удаленному компьютеру – рабочий стол этого компьютера в RDP выглядит катастрофически мелким, поскольку картинка RDP оттуда – отображается с масштабированием DPI удаленного сервера, которое может быть и 150%, и даже 100%. Работать с таким удаленным интерфейсом на экране 4К размером 15” – нереально, курсора мышки иногда просто не видно 😉
Так поменять масштабирование на удаленном сервере!!! – ага, сейчас, по умолчанию на сервере такая опция заблокирована – для изменения масштабирования интерфейса в сеансе RDP на сервере надо провести шаманские пляски (если у вас есть права на это), да и не будешь на каждом сервере это менять…
Итого, остается только вариант научить клиента удаленного рабочего стола RDP («родного» Microsoft’овского или какого либо другого) понимать масштабирование и учитывать это при соединении с удаленным сервером.
После достаточно длительного поиска в Инете и чтения разных «рецептов танцев с бубнами» вокруг проблемы масштабирования DPI/PPI в RDP, я пришел к выводу, что самым работоспособным рецептом решения проблемы является вариант, описанный в статье [Fix] Remote Desktop DPI scaling issues. Во избежание потери информации (если вдруг страницу или файлы удалят, сайт закроют) – сделаю вольный перевод предложенного материала/копию файлов и у себя на блоге.
Итак, метод лечения проблемы масштабирования интерфейса для стандартного RDP клиента Microsoft крайне прост и заключается в копировании специального файла-манифеста для RDP, который собственно и содержит в себе команду включения того самого масштабирования для удаленного подключения:
Правим на локальной машине (где вы и используете RDP и где у вас, надеюсь, есть все права админа) реестр, указывая, что стандартный RDP клиент должен брать настройки из файла манифеста:
Запускаем утилиту regedit и идем по следующему пути: HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\SideBySide
Создаем новый параметр, кликнув на пустом поле справа правой кнопкой мышки NEW -> DWORD (32 bit) Value
Вводим имя нового параметра PreferExternalManifest и жмем ENTER.
Снова кликаем правой кнопкой мыши, теперь уже по записи PreferExternalManifest, и выбираем Modify.
Вводим в Value Data значение 1 и выбираем пункт Decimal.
Нажимаем в окошке OK.
Закрываем Registry Editor. Результат должен выглядеть примерно следующим образом:
Далее, нужно создать файл самого манифеста под именем mstsc.exe.manifest и поместить его в папку %SystemRoot%\System32\mstsc.exe.manifest (обычно это C:\Windows\System32\mstsc.exe.manifest). Полный текст содержимого mstsc.exe.manifest приведен ниже, уже готовый файл mstsc.exe.manifest можете забрать здесь.
Далее – запускаем стандартный Microsoft клиент RDP (mstsc.exe) или перезапускаем его (если на момент изменений были открыты какие-то RDP сессии) и наслаждаемся соответствующим масштабу вашего локального экрана виду удаленного экрана. В реальности, данный фикс настроек RDP клиента работает очень просто – RDP клиент отправляет запрос на такое разрешение удаленного экрана, которое на соответствующий масштабу процент меньше, чем оригинальное у клиента – так что не удивляйтесь «странным» цифрам в разрешении удаленного рабочего стола. Например, если у меня разрешение 4К 3840х2160 при 225% масштаба, то разрешения удаленного стола будет установлено обновленным RDP клиентом для полноэкранной картинки как 1704х960 (как раз те самые 3840/2,25 и т.д.) – и все элементы удаленного интерфейса соответствуют масштабу.
И еще немного дополнительных материалов, посвященных ИТ тематике у меня на YouTube-канале iWalker2000 и тут на блоге. Надеюсь, сисадмины и те, кто ими собирается стать – найдут данные материалы тоже интересными для себя.
Первые серии нового курса по использованию Azure IaaS:
Выполняя пожелания посетителей моего канала iWalker2000, нашел время таки упорядочить серии видео (особенно технических видео и Путевых Заметок) в виде законченных постов на блоге, содержащих все связанные между собой и релевантные видео. И первой под раздачу попала серия про то, как проверить, что именно у вас тормозит в ПК или сервере и если проблемы с дисковой подсистемой – как оптимизировать работу дисков или выбрать правильный диск, чтобы “ускорить” ПК или сервер.
IT-эмиграция, ИТшники рассказывают о том, как им живется и работается “за бугром” ►►► http://bit.ly/ITemig
Как эмигрировать из СНГ, как получить вид на жительства в Евросоюзе ►►► http://j.mp/slovgo
Если ваш ПК или сервер тормозит, то, скорее всего, причина медленной работы системы в целом или отдельной службы/приложения кроется в проблемах дисковой подсистемы. Как показывает личный опыт, именно медленный или очень нагруженный диск является причиной “тормозов” в 80% случаев. Так что данное видео позволяет вам понять, каким образом производительность вашего компьютера под управлением Windows зависит от диска, насколько диск нагружен сейчас, как провести тестирование максимальных возможностей диска и, самое главное – в данной серии видео подробно рассказано про все этапы анализа производительности ПК и выполнения процедур по оптимизации скорости работы дисков, планирования новых дисков и их массивов, и, как результат – укорения работы всего ПК в целом. Так что воспринимайте эту серию, как очень подробный учебный курс по производительности дисков, который вы можете прослушать бесплатно. Кстати, даже в платных учебных центрах Microsoft – вы не найдете такого обширного и детального курса по теме планирования, мониторинга, оптимизации и ускорения дисковой подсистемы Windows. Так что не забывайте благодарить автора, ставить лайки к видео, делиться ссылкой на эту статью и видео в социальных сетях и т.п. И, конечно же – подписывайтесь на мой канал iWalker2000.
А также – как зажурналировать всю производительность вашего диска за определенно время, чтобы потом спокойно разобраться с тем, что же на самом деле у вас не так (с диском и по жизни 😉
В следующих частях – смотрите про тестирование дисков – как оценить максимальные параметры производительности диска под разными задачами/нагрузками и, далее, конечно же – тюнинг производительности диска и дисковой подсистемы в целом.
Продолжаем тему измерения производительности дисков и ускорения работы сервера/ПК путем оптимизации и тюнинга дисковой подсистемы. В первой части я рассказал, что и как мерять, а в этой части смотрите, как генерировать тестовую нагрузку при помощи утилиты iometer.
Скачать утилиту iometer можете здесь – http://www.iometer.org/doc/downloads.html , а файл с шаблонами для iometer, в котором вы найдете в том числе и эмуляцию нагрузки файлового сервера (что позволяет понять, например, как будет вести дисковая подсистема при высокой нагрузке в виде виртуальных машин), можете забрать с моего OneDrive – https://1drv.ms/u/s!AM7EfLavPWLMq9cR . Также хочу напомнить, что если у вас сервер планируется под специфическую нагрузку – типа SQL Server или Exchange Server (или другие серверы, работающие именно с БД) – вы должны четко понимать, какими блоками данных оперирует при работе с диском – например, SQL Server оперирует блоками 64КБ при чтении/записи на диск.
Надеюсь, процедура тестирования производительности дисковой подсистемы при помощи iometer разжевана достаточно подробно и вы сможете прогнать свои диски на предмет “правильной” нагрузки и увидеть, что вы будете получать на выходе. И хочу напомнить пять вещей про тестирование дисков с iometer в реальной жизни под реальную задачу:
вы должны примерно понимать текущую нагрузку на систему – кол-во обращений, отношение чтения и записи, какими блоками данных оперируют приложения, которые будут работать с дисками;
есть большая разница между операциями непосредственно с “голым” диском и операциями с файловой системой, поэтому выбор и тестирование файловой системы и размера кластера на ней – может быть критичен для производительности;
правильно подбирайте длительность выполнения теста (особенно для тестов с файловой системой, где надо дождаться заполнения кеша и прочих “слоев” – т.е. 3-5 часов теста для реальной большой дисковой системы – это нормально), размер тестового файла (желательно – на размер планируемых данных), количество тестовых процессов Worker (например, каждый тестовый процесс может соответствовать виртуальной машине, которая будет работать с дисковой подсистемой), кол-во генерируемых ими IOPS и микшируйте несколько нагрузок/дисков в одном тесте, чтобы убедиться, что вы нагружаете и меряете не один диск, а реальную нагрузку на дисковую подсистему.
подбирайте и тестируйте нагрузку так, чтобы она дошла до критических показателей (основным из которых, как вы знаете из предыдущего видео про измерение производительности диска – является время отклика диска – желательно, чтобы показатель был ниже 30мс, а 20мс – это идеально) и фиксируйте именно этот полученный результат по основным показателям. Это и будет правильная производительность.
и, наконец, не верьте только iometer и его показателям – оценивайте производительность дисковой подсистемы “в целом”, по другим важным показателям, которые дает возможность собрать тот же Performance Monitor в режиме логирования (про это тоже смотрите в предыдущем видео про основные показатели/счетчики производительности дисков). При тестировании дисковых подсистем следует обратить внимание и на потребление памяти, и на нагрузку на процессор. Также – очень полезно использовать iometer в сетевом режиме тестирования, чтобы оценить не только скорость работы дисков, а и сетевого интерфейса.
преимущества и основные сценарии использования SSD (Solid State Drive)
что такое NVMe SSD и почему они не нужны обычным пользователям
сценарии использования гибридных дисков SSHD (Solid State Hybrid Drive) – HDD с дополнительным кешем на флешке (2-8ГБ) и как они работают под нагрузкой в разных сценариях
и, конечно же, HDD – меня очень часто спрашивают – что какой брать – HDD 5400 или 7200 оборотов и всегда упирают на цену.
И да, хочу сказать, что деньги тут в выборе – самое главное, поскольку современные ОС активно используют диск, особенно при малом объеме ОЗУ (до 4ГБ) – потому жесткие диски HDD даже с 7200 оборотами – не лучшее место для размещения на них ОС. Поэтому – для ОС SSD 128ГБ или SSHD (на худой конец и маленький бюджет) + обычный HDD 7200 на теплые и холодные данные (фильмы, музыку, всякое разное). И для подобных коллекций подойдет и HDD 5400 – можете сэкономить 10 баксов.
что такое фрагментация файлов и почему важно дефрагментировать диски регулярно, а также – о том, что такое MFT в NTFS, почему важно держать его в нормальном состоянии и с нормальным размером – напомню, что в Windows для управления размером MFT и прочих файлов метаданных есть улитита командной строки (запускать с правами админа) – fsutil behavior query MftZone и fsutil behavior set MftZone (после изменения размера MFT – ОС потребует перезагрузки). Также есть утилита дефрагментации отдельных файлов от Sysinternals – Contig – https://docs.microsoft.com/en-us/sysinternals/downloads/contig – которая позволяет дефрагментировать файлы типа $MFT по отдельности.
о важности использования или отключения преобразования имен файлов к короткому виду 8.3 – как выключить поддержку коротких имен в NTFS – fsutil behavior query Disable8dot3 и fsutil behavior set Disable8dot3 – и немного о том, почему много файлов в одной папке – это плохо и как правильно делать имена файлов, если отключить имена 8.3 нельзя.
что такое дисковый массив RAID 0 – “страйп”, запись с чередованием без отказоустойчисости с высокими скоростями чтения и записи.
что такое дисковый массив RAID 1 – зеркало, запись дублированных данных на 2 диска сразу – отказоустойчивый массив с возможностью потери одного диска и высокой скоростью чтения при средней скорости записи.
что такое массив RAID 5 – запись данных с чередованием и единичным контролем целостности при аналогичных с RAID 1 характеристиках чтения/записи дает экономию дискового пространства и устойчив к выходу из строя одного диска.
что такое массив RAID 6 – еще более защищенная запись данных с чередованием и двойным контролем цлостности данных, RAID 6 допускает выход из строя сразу 2х дисков массива, но имеет самую низкую скорость записи из всех “обычных” вариантов.
комбинированные варианты массивов типа RAID x0 или RAID x1 – например, RAID 10 или RAID 51 – вариант с RAID 10 предусматривает запись с чередованием без контроля целостности – RAID 0 – на диски, которые сами по себе представляют собой массив из двух дисков в зеркале – RAID 1. Таким образом – достигается высокая скорость RAID 0 при надежном дублировании с RAID 1.
В клиентской Windows (начиная с Windows NT Workstation и далее – в Windows 2000 Professional, Windows XP и т.д.) есть встроенный программный RAID (не путать с более новой службой Storage Spaces, которая относится больше к SDS решениям, чем к локальным RAID), который позволяет достаточно эффективно работать с RAID для отдельных разделов, создавая RAID 0, RAID 1 конфигурации.
Кроме того, данный встроенный вариант программного RAID Windows позволяет защищать загрузочные и системные разделы Windows, используя зеркалирование RAID 1 для того же раздела с Windows. Так что кроме “разгона” ОС вы получите еще и некоторую надежность…
Почему некоторую? потому что зеркалирование будет применяться только к разделу с Windows, но в случае с современными системами с UEFI – надо будет зазеркалировать и тот же раздел UEFI, и раздел восстановления с “оригинального” диска – чтобы в случае полного выхода из строя основного диска – можно было бы стартовать с зеркала не только ОС, но и загрузчики UEFI и т.п.
В клиентской Windows (начиная с Windows 8) кроме службы “обычных” RAID , о которых я рассказывал в прошлом видео, есть также служба Storage Spaces, которая предлагает не просто организацию RAID для отдельных разделов дисков, а подное управления программно-определяемым хранилищем (ПОХ), а прилично оно звучит на языке оригинала – Software Defined Storage (SDS).
Такое хранилище имеет массу преимуществ перед имеющимися встроенными RAID, как, например, работу с USB дисками, кеширования данных на чтение и запись, создание слоев хранения данных на разных типах данных и т.п.
Минусом использования Storage Spaces в домашних условиях можно назвать необходимость выделения дисков (полностью) под Storage Pool – основной объект Storage Spaces, который объединяет все нужные физические диск в едуный объект хранения и управления, из которого уже “нарезаются” все необходимые виртуальные диски RAID, их слои и кеши. НО, учитывая возможность использования тех же дисков USB для Storage Pool – вы можете запросто не только расширить свое дисковое пространство за счет внешних USB, но и разогнать их производительность за счет RAID в Storage Space.
Напомню, что данная команда создает пул дисков с фиксированными размерами по умолчанию (для повышения их дальнейшей производительности) и с размером сектора 512 байт (если вы используете современные диски, ОС и приложения, можете смело поменять 512 на 4096 в команде).
Создание RAID0 – New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName “RAID0” -Size 12GB -Verbose – диск после создание потребуется проинициализировать, создать на нем раздел и отформатировать стандартными средствами Windows
Создание RAID1 (зеркала) с двумя копиями данных и дальнейшим автоматическим созданием раздела и форматированием на полученном диске – New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName “RAID1” -Size 8GB -ResiliencySettingName Mirror |Initialize-Disk -PassThru |New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem NTFS -FileSystemLabel “RAID1” -Verbose
Создание специального RAID1 с тремя копиями данных, напомню, что для создания такого тройного зеркала требуется минимум 5 дисков – New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName “RAID1-3” -Size 12GB -ResiliencySettingName Mirror -NumberOfDataCopies 3 |Initialize-Disk -PassThru |New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem NTFS -FileSystemLabel “RAID1-3” -Verbose
Что же касательно времени жизни и надежности, то хочется верить, что те 20ТБ (приблизительно 60МБ/с * 3600с * 96ч, 96 часов – это приблизительное время на все тесты, если считать, что все проходы iometer на разных кардридерах, по 8 часов каждый), которые я записал на карточку за время тестирования – явно продемонстрировали ее работоспособность, причем – в достаточно агрессивном режиме использования (надеюсь, это не скажется критически в дальнейшем на ее жизненном пути). Кстати, все упомянутые “китайцы” – LonDisk, OV, Toshiba, купленные на AliExpress – продолжают активно работать и сейчас. Одна из них используется очень даже агрессивно – в видеокамере – для записи всех моих обзоров на канале и прочих Путевых Заметок.
Плюс, поскольку все тесты предыдущих microSD делались исключительно в CrystalDiskMark версии 5, я нашел себе силы, чтобы прогнать все имеющиеся у меня microSD Samsung и в CrystalDiskMark 6 – так сказать, для дальнейшей совместимости результатов с будущими тестами. А они еще точно будут – я еще по дешевке – буквально за 7баксов – заказал себе те самые “китайские ноунейм” OV Pro U3 64GB и мне самому интересно, насколько падение цены в 2 раза по сравнению с “китайским Samsung” повлияет на падение скорости.
И немного о производительности дисков – на этот раз на microSD, а “настоящих” HDD/SSD дисков, которые стоят в вашем сервере, ПК или ноутбуке. Очень рекомендуется данная серия для продвинутых пользователей, которые хотят понять причины медленной работы системы и каким образом можно оптимизировать и ускорить работу дисковой подсистемы компьютера:
Меня тут уговорили сделать “краткую” инструкцию по развертыванию отказоустойчивого кластера Windows Server 2016 Failover Clustering – как развертывается, какие проблемы могут быть и почему не работает.
Но я пообещал более подробно (кроме собственно, развертывания кластера) раскрыть эту тему – поэтому в следующем “длинном” видео смотрите более подробно про настройки параметров ролей в кластере, а также – о создании гостевого кластера (кластера внутри кластера) для еще более бесперебойной работы и высокой доступности приложений.
как работает отказоустойчивость и высокая доступность в кластере Windows для “обычного” приложение – настройка количества сбоев, перезапуск/”переползание” приложения между узлами кластера, остановка приложения.
работа приложений, поддерживающих распределенный режим работы и позволяющий им работать на всех (нескольких) узлах кластера одновременно – на примере Scale-Out File Server.
Работа отказоустойчивой виртуальной машины Hyper-V в кластере.
Настройка параметров восстановления роли кластера в случае сбоя одного из узлов кластера – возврат роли на оригинальны узел после восстановления работоспособности роли, настройка общих приоритетов работы роли и преференций по работе роли на разных узлах кластера Windows Server 2016.
Настройка мониторинга отдельного сервиса внутри роли виртуальной машины кластера Hyper-V для мониторинга состояния отдельных процессов ВМ и ее общего здоровья, запущенной в кластере.
И, конечно же, демонстрация “падения” одно из узлов кластера Windows Server 2016 и реакция на это событие разных типов ролей – подолжение процесса копирования файлов на Scale-out File Server, старт общей роли на втором узле кластера, и перезапуск виртуальной машины, которая “обрушилась” при падении узла кластера.
Особенностью данного видео и основным отличием от первого видео – просто развертывания кластера Windows Server 2016 – в том, что гостевой кластер создается не просто так, а в режиме “Active Directory-Detached Cluster” – отключенного от Active Directory кластера Windows.
все узлы кластера должны быть зарегистрированы в каком-то из доменов (зон) DNS – для этого необходимо, чтобы DNS сервер поддерживал динамические обновления, суффиксы требуемого домена были прописаны в настройках серверов, а в настройках сетевых интерфейсов – стояли опции обязательной регистрации имени. Или вам потребуется создавать все записи в DNS зоне для узлов кластера, самого кластера и его ролей ручками.
настройки firewall должны разрешать обращаться всем узлам друг к другу.
на каждом из узлов будущего кластера должна существовать учетная запись-локальный администратор с общими одинаковым именем и паролем. Также, должен быть отключен сетевой фильтеринг в UAC – тот самый ключ в реестре – New-ItemProperty -Path HKLM:\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System -Name LocalAccountTokenFilterPolicy -Value 1 ВНИМАНИЕ! Помните, что такой кластер представляет собой потенциальную жертву для атак типа pth/ptt – которые использует тот же Petya и другие вирусы (и просто хакеры). Поэтому смотрите видео про защиту от подобных атак Pass-the-Hash/Pass-the-ticket и, конечно же, читайте статью, посвященную стратегии защиты ИТ-инфраструктуры Defense-in-Depth на примере защиты от Petya.
А поскольку мы развертываем гостевой кластер из виртуальных машин и ему требуется также общие диски для своей работы – смотрите в данном видео сценарии, каким образом вы можете создать и где разместить такие диски в виде специальны общих виртуальных дисков Hyper-V (Shared Disk – VHDX или VHD Set). И, пожалуйста, не монтируйте диски гостевого кластера на те же LUN SAN/iSCSI, которые уже используются “большим” основным кластером – это приведет к катастрофическим последствиям для обеих систем.
Поэтому данную тему будем пока считать закрытой… Хотя есть масса нюансов в обслуживании повседневном кластеров и, конечно же, есть команды PowerShell, которые позволят намного быстрее и гибче развертывать и управлять кластерами Windows… Но это тема уже другой серии видео про кластеры Windows Server 2016.
Предыдущие видео о том, как восстановить флешку/microSD. В этих видео описаны детальные шаги восстановления microSD/USB флешки при возникновении той или иной проблемы:
Аппаратные проблемы самой карточки/флешки или устройств, к которых microSD работает:
Заводской брак самой карточки (или сама карточка изначально “очень китайская” и собрана из отбракованных элементов для продажи в страны 3го мира типа бывшего СНГ)
Сильный нагрев устройства, в котором стоит microSD, при работе – и как результат – нагрев и выход из строя microSD
«Китайский» кардридер/устройство, не соблюдающие должным образом требования к вольтажу/силе токи, серьезные скачки/пики при работе
Окончание лимита перезаписи ячеек у карточки – у каждого устройства с флеш-памятью – есть лимит, сколько раз каждая ячейка может быть гарантированно быть перезаписана. Обычно – указывается как цифра, какой объем перезаписи от полного объема карточки в день допустим в течение гарантийного срока. Обычно у microSD – это около 0.2, т.е. карточка объемом 32ГБ может в день перезаписывать данных не более чем на 6ГБ 😉
Программные проблемы, когда ввиду тех или иных ошибок происходит повреждение логической структуры самой файловой системы:
Аппаратный сбой записывающего устройства при записи
Недостаточная производительность самой карточки – на нее пытаются записать быстрее, чем она может реально писать и как вариант – сбои записи с повреждением данных
Программные ошибки приложений при записи на карточку
Что с этим делать? Как уменьшить риск потери карточки/данных:
Проверяйте флешку сразу после покупки, китайцы часто «кидают» по размеру/скорости – обязательно посмотрите это видео – http://bit.ly/microSD_test – и используйте утилиту проверки/теста microSD перед эксплуатацией
Знайте особенности своего телефона и не злоупотребляйте нагревом – не “гоняйте чертиков”, которые “кипятят процессор” долго, если карточка в телефоне конструктивно – рядом с процом.
Знайте особенности своей флешки, особенно – по скорости и перезаписям – еще раз перечитайте статью/пересмотрите видео про маркировку карточек/тестирование их скорости – http://bit.ly/chmicroSDpost
Ставьте microSD, соответствующие аппаратным требованиям устройства
Покупайте оборудование знакомых марок у знакомых поставщиков, поищите в Интернете обзоры и тесты “выщиваемости” различных марок/моделей microSD.
Видеокамеры и видеорегистраторы – гроза и убийцы microSD – особенно со сдохшим аккумулятором
Режимы работы камер типа Time Lapse – часто приводят к сбоям ввиду длительности нагрузки/нагрева
Не используйте “любимую” карточку с глючными устройствами/прошивками
Известные производители, проверенные поставщики, не продающие подделки
Требуемая спецификация для устройства и задач
2х32ГБ лучше 1х64ГБ – если это возможно (например, для видео/фото). Кроме того, что в случае сбоя – вы потеряете только половину, есть еще один важный аспект – чем выше плотность хранения на карточке microSD (больше ее объем) – тем больше вероятность сбоя ее носителя (причем, вероятность выше, чем прямо процорциональная увеличению объема).
Обязательно – температурная защита у флешки и у телефона. И не только температурная – для современных “плотных” карточке microSD действительно может хватить и работающего рядом фена с его электромагнитным излучением
В случае, если при команде LIST DISK в списке устройства нет/пишет No media
Скорее всего «сдох» контроллер флешки (в мусорник)
Попробуйте в другом, нормальном кардридере
Команда CLEAN выдает сообщение «ошибка записи устройства», «устройство не готово»
Вышел из строя носитель на флешке, перешел в состояние «только запись» по исчерпанию ресурса (в мусорник)
Попробуйте другой кардридер
Команда CLEAN проходит нормально, но после, при команде CREATE PARTITION выдается сообщение, что места для нового раздела – нет
Вероятнее всего – также вышел из строя носитель флешки, запись на него неустойчивая
Аналогично, флешка нормально работает после восстановления на компьютере, но не работает в устройстве – уровень сигнала на портах USB/кардридерах обычно выше, чем в смартфонах/камерах, потому в ПК запись устойчивее и носитель работает.
Внимание, перед тем, как начать обновление, убедитесь, что:
Ваше “железо” соответствует требованиям Windows 10, а также на диске C: достаточно – 8ГБ – места для обновления
Вы установили все требуемые обновления на текущую сборку Windows 10 перед тем, как обновится до новой сборки
Вы сделали резервную копию ваших данных и у вас есть все необходимые драйверы (и умения) на случай, если систему придется переустанавливать
Вы понимаете, что могут возникнуть проблемы с работой ваших программ и “железа”. Кстати, мой личный опыт обновления говорит о том, что
На одном из моих планшетов (а именно – на Surface Pro 3) после обновления до Windows 10 Creators Update перестал работать Microsoft Edge. Проведенное небольшое расследование при помощи утилиты Problems Report показало, что проблема в Edge Extension (плагине), которое добавляет в Edge управление навигацией с помощью пера. Репорт отправил разработчикам (и даже завел проблему на сайте), но решения пока нет.
После обновления моего мининоута GPD Win до Windows 10 Creators Update – его встроенная карточка WiFi перестала соединяться с сеткой просто сообщалось, что подключение не удалось. Полечилось какой-то утилитой GDP Win, которая что-то фиксит в самой фирмваре карточки. Решение проблемы и ссылку на утилиту найдете здесь.
Многие в комментах пишут о том, что возникают проблемы с драйверами видеокарт NVidia.
Откройте окно Параметры в Windows 10 удобным для вас способом
В Параметрах Windows выберите раздел Обновление и безопасность
И в разделе Центр обновления Windows (права)/Состояние обновления (заголовок) кликните на линк “Да, покажите, как это сделать” под надписью “Хорошие новости!”
Запустится браузер (который установлен у вас в вистеме как браузер по умолчанию – у меня это Microsoft Edge) и в нем откроется страница сайта Microsoft с инструкциями по обновлению (согласно вашим региональным и территориальным настройкам), на которой вы выбираете линк “Сайт загрузки программного обеспечения” (в случае русской версии) и переходите на следующую страницу (или Upgrade Advisor, как в видеоинструкции по обновлению – и пропускаете следующий шаг, если у вас английская версия).
Сохраните файл мастера обновления Windows 10 Creators Update (имя и размер файла могут отличаться) на локальном диске вашего ПК/ноута/планшета и дождитесь окончания загрузки
По окончанию загрузки файла мастера обновления – запустите его с админскими правами (запрос на эскалацию прав будет показан)
Мастер запустится и проведет проверку возможности обновления вашей системы до Windows 10 Creators Update, если ОС потребуются какие-то дополнительные обновления – они будут загружены и установлены на данном этапе. НО, лучше обновить текущую сборку ОС до начала обновления до Windows 10 Creators Update. Дождитесь окончания проверки…
После окончания проверки на возможность обновления – нажмите кнопку “Обновить сейчас” в окне мастера
Если вы решили пойти “простым путем” очистки диска C: (и не смотреть другое мое видео с инструкцией по правильной очистке C: выше) и поудалять немного лишних программ/игр, то сделать это тоже очень просто – оставляем мастер обновления Windows 10 ждать, а сами заходим еще раз в Параметры Windows/Система/Хранилище и кликаем на диск C:
В содержимом диска C: выбираем раздел “Приложения и игры”
Выбираем в открывшемся списке установленных программ сортировку по размеру и ждем, пока Windows не обновит список программ, построив его от самых больших к самым маленьким
Кликаем на “ненужном” приложении (у меня это PCMark) и выбираем в появившейся панели опцию “Удалить” и подтверждаем удаление.
При этом не забываем, что если программа установлена не из магазина, то “просто так” она может не удалиться, а открыть свою утилиту удаления и потребовать подтверждения там (как пример – собственная утилита удаления PCMark ниже).
После окончания очистки места на диске С: – возвращаемся к мастеру обновления Windows 10 и нажимаем в нем кнопку “Попробовать еще раз” – в результате чего мы возвращаемся на шаг назад и снова жмем кнопку “Обновить сейчас”
На этот раз уже “все будет хорошо” и мастер продолжит с информацией о том, что система таки удовлетворяет требованиям… Можете сами нажать кнопку “Далее” на этой странице мастера обновления Windows 10 или он сам автоматически продолжит работу через 30 секунд и перейдет к процессу скачивания и распаковки обновления Windows 10 Creators Update на ваш компьютер.
Наблюдать за процессом скачивания обновления мастером (если вы не уверены в том, что “оно качает”) вы можете, запустив утилиту Диспетчер Задач Windows 10 и переключившись на закладку “Производительность”, выбрать в ней раздел Wi-Fi или Ethernet (если у вас кабель). И будете видеть, качает ли ваш мастер обновления и понимать, что “дергать” его не стоит, особенно, когда кажется, что обновление остановилось. После скачивания обновления мастер перейдет (без вашего участия) к распаковке…
Аналогично предыдущему шагу – данный момент обновления – распаковка пакетов установки – от вас совершенно не зависит (а только от производительности диска вашего компьютера). И, так же, как и в случае с загрузкой пакетов – наблюдать за процессом распаковки (если вы думаете, что он “залип”) – можете через Диспетчер Задач Windows 10, только, в данном случае, через раздел Диск 0 (С:). Ждите окончания распаковки – это может занять несколько часов…
Последний шаг мастера по обновлению Windows 10 после окончания распаковки пакета обновления Windows 10 Creators Update – это запрос на перезагрузку, чтобы Windows 10 продолжила основную часть обновления уже в режиме “синего экрана”, который может продлиться еще час-полтора (в зависимости от вашего устройства – у меня на GPD Win этот этап занял около двух часов). Но даже если вы не нажмете кнопку “Перезапустить сейчас” – мастер автоматически перезагрузит ваш комп через полчаса – так что, в принципе, можете запускать мастер на “закачку” обновления Windows 10 Creators Update и идти спать – он дальше почти все сделает автоматически.
Далее, после перезагрузки, следует самый длительный этап обновления Windows 10 Creators Update – стандартный синий экран установки обновлений… При этом компьютер будет прегружен еще дважды – на 30% и на 75% этого этапа…
После окончания обновления запускается еще раз короткий мастер начальной конфигурации Windows 10 – с запросом аккаунта, с которым вы будуте выполнять операции, настройками приватности и Кортаны, а после логона – прийдется немного подождать, пока система не сконфигурирует пользовательские приложения для работы в обновленной ОС.
Есть подозрение, что китайцы о чем-то не договорились с Microsoft и “запилили” для CUBE WP10 сборку, не пройдя сертификацию, а Microsoft просто “не знает” о наличии такого Windows 10 Mobile фаблета, как CUBE WP10 и не отдает ему обновления. Но это, на самом деле – не проблема. Можно запросто “заставить” CUBE WP10 обновляться на самые последние официальные сборки путем нехитрых манипуляций с реестром
Подключите очищенный CUBE WP10 к ПК (по окончанию сброса телефон не надо настраивать, вводить Microsoft ID и т.п.) и скопируйте в телефон файлы, например, в каталог Документы в основной памяти телефона. Отключите телефон CUBE WP10 от ПК.
Включите в телефоне режим разработчика – перейдите в настройках к опциям Settings -> Update & Security -> For developers и выберите там опцию «Developer Mode» (попросит подтверждения – нажмите Ok). Настройки закроются – зайдите в опции еще раз и проверьте работу
Запустите на CUBE WP10 утилиту File Explorer (Проводник) и по очереди, не торопясь (запуская файлы примерно раз в минуту) установите сначала 4 файла библиотек, которые были в каталоге Dependencies – кликая на каждый файл и подтверждая установку кнопкой Install.
После установки библиотек – запустите установку самой утилиты InteropToolsApp по аналогичной процедуре. Подождите, Interop Tools появится у вас в списке всех программ. Если прошло время, а утилита не появилась – еще раз, чуть медленнее, установите библиотеки, и после – снова попробуйте установить утилиту.
Запустите на CUBE WP10 установленную Interop Tools и на первом экране выберите опцию «This device / Native registry provider».
В меню Interop Tools (вверху слева) выберите опцию «Registry Browser» и перейдите в реестре к разделу HKLM -> System -> Platform -> DeviceTargetInfo
Там поменяйте значения данных следующих ключей на указанные (БУДЬТЕ ВНИМАТЕЛЬНЫ) и не забывайте нажимать кнопку сохранить после ввода:
PhoneManufacturer = MicrosoftMDG
PhoneHardwareVariant = RM-1116
PhoneManufacturerModelName = RM-1116_11258
PhoneModelName = Lumia 950 XL Dual SIM
Перегрузите CUBE WP10
Перейдите в настройках к разделу Settings -> Update & Security -> Phone Update и проверьте наличие обновлений (при подлюченном WiFi). Если обновлений «пока нет» – повторите через час/два. Если обновления не пришли на CUBE WP10 в течение суток – скорее всего, вы где-то ошиблись с вводом, проверьте реестр.
Установите обновления на CUBE WP10.
Отключите в телефоне режим разработчика – перейдите в настройках к опциям Settings -> Update & Security -> For developers и выберите там опцию «Windows Store only».
Удалите Interop Tools – она все равно не работает без режима разработчика .
Одной из опций установки нового Windows Server 2016 является опция Nano Server, которая позволяет установить только ядро Windows Server 2016 с одной или несколькими требуемыми функциями. Тем самым достигается минимизация накладных расходов на работу «основной ОС» и выделяется больше ресурсов для поддержки непосредственно функций, которые будет выполнять сервер с Nano Server в ИТ-инфраструктуре.
Обратите внимание, что Nano Server – это не редакция, а именно опция установки – с вытекающими отсюда правилами лицензирования согласно используемой при сборке редакции Windows Server 2016.
Концептуально – Windows Server 2016 Nano Server является эволюционным развитием идеи «базовой» установки Windows Server – Server Core с соответствующими ей задачами – уменьшение места на диске и используемых ресурсов, повышение безопасности и т.п. Технологически – в отличие от установки Server Core, при которой устанавливается практически полная ОС Windows Server со множеством подсистем и служб (кроме полного графического интерфейса), в варианте с Nano Server – устанавливается только ядро ОС Windows Server 2016, с минимумом подсистем и без графического интерфейса, к которому по выбору администратора устанавливаются базовые службы, подсистемы и утилиты для выполнения узконаправленной задачи. В Nano Server предусмотрено «встраивание» следующих компонентов (пакетов):
Роль серверной виртуализации Hyper-V
Отказоустойчивая кластеризация
Файловый сервер и компоненты управления хранилищами (SDS)
DNS сервер
IIS веб сервер (ограниченная конфигурация)
Контейнеры
Комплект драйверов оборудования от Core Server
Комплект драйверов и гостевых сервисов для работы в виде виртуальной машины в среде Hyper-V
Антивирус Windows Defender
Агенты SCVMM и SCOM
Поддержка PowerShell Desired State Configuration
Поддержка BitLocker, криптографических провайдеров и т.п.
Поддержка шифрованных виртуальных машин Shielded VMs
Network Performance Diagnostics Service (NPDS)
Data Center Bridging
Такой сценарий установки требуемых сервисов при помощи Nano Server позволяет получить существенные преимущества перед полной установкой Windows Server 2016 или Core Server, если в задачу входит применение экземпляров Windows Server 2016 для выполнения конкретной роли в инфраструктуре. Среди преимуществ применения установки Nano Server перед другими вариантами можно назвать:
Повышенная безопасность благодаря уменьшенной поверхности атак – Nano Server не содержит лишних сервисов и компонентов кода, только базовое ядро и код требуемой подсистемы/службы
Минимизация перезагрузок и простоев (ввиду меньшего кода, см.выше)
Меньшие потребности в аппаратном обеспечении для установки и накладные затраты на работу ядра ОС – больше ресурсов для выполняемой роли
Быстрый старт ОС
Практически же, чтобы реализовать такой сценарий установки Windows Server 2016 с требуемой ролью, как Nano Server, в образе установки Windows Server 2016 присутствует минимизированный образ ядра Windows Server для работы в режиме Nano Server и дополнительные пакеты (.cab) для каждой из ролей/сервисов/утилит, которые могут быть установлены вместе с Nano Server.
Далее, системный администратор собирает из имеющегося ядра и пакетов ролей рабочий образ Nano Server для установки на требуемое оборудование или в виртуальную машину, используя команды модуля PowerShell по управлению образом Nano Server, который прилагается вместе с образом Nano Server в пакете установки Windows Server 2016. Команды по «сборке» нужного образа являются довольно громоздкими и процесс сборки превращается в довольно-таки рутинную и времязатратную операцию. При этом стоит учесть также тот момент, что для успешного развертывания образа Nano Server требуется также понимание аппаратного обеспечения физического сервера, на котором будет работать образ – администратор должен «вшить» в образ все требуемые драйверы (или весь комплект от Core Server, хотя, обычно, только его недостаточно), а также – указать правильные индексы сетевых адаптеров – т.е. требуется какой-либо инструментарий для предварительного анализа аппаратного обеспечения платформы для будущего «готового» Nano Server.
И на этапе установки Nano Server – требуется инструментарий, чтобы эффективно развертывать полученные .wim/.vhd/.vhdx файлы на «железо» и в виде виртуальных машин. Если процедура установки ОС по сети автоматизирована хотя бы средствами Windows Deployment Services (WDS) – тогда нет проблем, а если ее нет и планируется «штучная» установка Nano Server на «железо» – тогда администратору требуется дополнительный инструментарий или выполнять пошаговое ручное развертывание Nano Server.
Все эти сложности и масса ручной работы негативно влияли на инсталляционную базу Nano Server. Действительно, когда тебе необходимо развернуть 2-4 сервера Hyper-V в кластере и ты можешь это сделать за 30 минут в режиме Server Core – нет никакого желания «заморачиваться» с командной строкой сборщика Nano Server и потом еще выяснять, как это все заставить «взлететь», учитывая те же вопросы с драйверами.
Потому Microsoft не долго думала, и уже в конце октября 2016, буквально вместе с глобальной доступностью Windows Server 2016 предложила бесплатную утилиту Nano Server Image Builder, которая предоставляет администраторам мастер с удобным графическим интерфейсом, которые позволяет играючи собрать требуемый образ Nano Server. В общем, у Nano Server Image Builder три основные функции:
Собственно, сборка образа Nano Server для «железа» или виртуальных машин
Создания установочной USB-флешки на базе выбранного образа, которая обеспечит автоматический процесс установки с созданием требуемых разделов на целевом сервере
Создание специальной загрузочной USB-флешки, которая позволяет провести инвентаризацию аппаратного обеспечения целевого сервера на предмет требуемых драйверов и параметров сетевых адаптеров.
И, конечно же, образ Windows Server 2016, в котором находится исходное ядро для Nano Server и остальные пакеты, рассмотренные выше. Для ознакомления и тестирования Nano Server Image Builder вполне подойдет триальная версия Windows Server Evaluations – https://www.microsoft.com/en-us/evalcenter/evaluate-windows-server-2016
Создание образа Nano Server с использованием Nano Server Image Builder очень просто. В ходе прохождения мастера создания образа в Nano Server Image Builder вам будет необходимо указать место хранения исходных файлов Windows Server 2016 (если у вас .ISO файл – смонтируйте и скопируйте его содержимое в какую-то папку), выбрать назначение создаваемого образа (виртуальная машина или физический сервер), путь хранения и типа файла образа (.vhd/.vhdx/.wim, последний доступен только для варианта с физическим сервером).
Если указать создание образа для физического сервера, то перед собственно работой с образом Nano Server Image Builder предложит создать загрузочную USB-флешку с утилитой анализа и инвентаризации «железа» целевого сервера и определения требуемых драйверов.
Далее мастер Nano Server Image Builder проанализирует указанный образ Windows Server 2016 и предложит выбрать необходимые роли, сервисы и утилиты, которые необходимо добавить в сервис. Кроме ролей на следующих этапах Nano Server Image Builder можно добавить необходимые драйверы (в случае с аппаратным сервером, как раз те, о которых позволяет выяснить анализатор Nano Server Image Builder), определить имя будущего Nano Server и пароль его администраторского аккаунта, присоединить создаваемый образ к существующему домену, включить режим удаленного управления с использованием WinRM и указать параметры сетевых адаптеров.
Вот тут с двумя последними шагами стоит быть внимательным. Во-первых, присоединение к домену выполняется по умолчанию «на лету» – т.е. указав имя домена мастеру Nano Server Image Builder, тот при создании образа будет пытаться обратиться к этому домену, создать в нем под вашими правами учетную запись компьютера и эту информацию прописать в образ. Если такая процедура невозможна – тогда можно добавить компьютер в домен, указав мастеру Nano Server Image Builder специальный файл, содержащий результат оффлайнового добавления компьютера к домену через утилиту DJOIN (подробнее про создание такого файла смотрите здесь – Offline domain join process and Djoin.exe syntax – https://technet.microsoft.com/en-us/library/offline-domain-join-djoin-step-by-step(v=ws.10).aspx ).
Во-вторых – указывая статические IP-адреса для сетевых адаптеров в образе Nano Server – вы должны знать индексы сетевых адаптеров, каким образом их видит Windows Server. Для получения такого индекса, если целевой сервер «голый», и используется загрузочная USB-флешка, которую создает Nano Server Image Builder на одном из предыдущих этапов. Если сервер «рабочий», то получить индексы всех сетевых адаптеров можно командой PowerShell Get-NetAdapter.
И, наконец, расширенные параметры сборки образа Nano Server в мастере Nano Server Image Builder позволяют добавить в образ дополнительные пакеты, скрипты установки и настройки, папки или файлы, которые могут потребоваться ролям/службам для работы и включить опции отладки и удаленного доступа к терминальной консоли Emergency Management Services и отладочной информации.
И после сбора всей необходимой информации Nano Server Image Builder собирает требуемый вам образ Nano Server, используя все те же команды PowerShell, которые вы не захотели учить.
После сборки образа вы можете использовать еще одну возможность Nano Server Image Builder – создание инсталляционной USB-флешки с имеющимся образом Nano Server. Мастер Nano Server Image Builder использует для такой флешки WinPE собственно для загрузки и запуска скриптов установки, которые автоматически разметят диск целевого сервера, скопируют или распакуют (в зависимости от типа файла) образ Nano Server на диск сервера и зарегистрируют Nano Server в загрузчике. При этом мастер Nano Server Image Builder запросит у вас данные о том, каким образом и под какой загрузчик (BIOS/UEFI) вы хотите разметить диск целевого сервера.
Собственно – вот и все, утилита Nano Server Image Builder крайне проста (важнее понимать, что вообще позволяет делать Nano Server) и избавляет системных администраторов от необходимости писать «зубодробительные» команды с длиннющими параметрами, чтобы «побыстрячку» собрать образ Nano Server для пары серваков/виртуалок под конкретную задачу.
А тема управления и применения Windows Server 2016 в режиме Nano Server будет рассмотрена одной из ближайших серий видео про ИТ-карьеру и самообразование для системного администратора – http://bit.ly/ITProSysAdmin – вместе с другими сценариями установки, например Core Server или Hyper-V Server.
В левой колонке настроек Системы выберите пункт Хранилище и в открывшемся окне справа – из списка дисков выберите диск С:
Откроется новое окно с размерами занятых областей диска С:. Дождитесь, когда система все занятое просканирует и посчитает.
Выберите в списке из типов хранимых данных раздел “Временные файлы”
и в новом окне выберите пункт “Предыдущая версия Windows” (по желанию можете очистить и другие папки, например – “Временные файлы” или “Корзина”) и нажмите ниже кнопку “Удалить файлы”….
И остается только дождаться полного удаления Windows.Old системой – о чем сигнализирует вращающийся возле кнопки “Удалить файлы” индикатор. При этом вы можете продолжать работать с другими приложениями/задачами в Windows.
Также хочу напомнить, что папка Windows.old в Windows 10 хранит в себе предыдущую версию Windows или сборку Windows 10 в течение 30 дней и предназначена для “отката” в случае каких-либо проблем. Как откатиться назад на предыдущую сборку Windows 10 – я рассказывал в конце вот этого видео. Поэтому, удаляя папку Windows.Old сразу – вы лишаете себя возможности вернуться к предыдущей сбоке/версии в случае каких-то проблем.
Прошло 3-5 дней, а ваш ПК/лептоп/планшет все еще не получил автоматическое обновление до Windows 10 Anniversary Update? Что делать, если ваш компьютер не видит обновления до Windows 10 Anniversary Update “обычным путем” – т.е. через обычные обновления? Вы проверяете обновления, а там все время одно и тоже – только обновления баз антивируса 😦 Не переживайте – выход есть! Причем – сразу два. 😉
План А. воспользоваться утилитой Windows 10 Upgrade Assistant
План В. или обновиться при помощи утилиты Media Creation Tool, которая также поможет вам создать ISO-образ Windows 10 Anniversary Update или загрузочную USB-флешку c Windows 10 Anniversary Update.
Для обновления по “Плану А” – необходимо просто кликнуть в том же окне проверки обновлений под кнопочкой “Проверка наличия обновлений” на ссылку “Подробнее“, которая приведет вас на страницу поддержки обновлений Windows 10.
На этой странице Microsoft разместила ссылку на утилиту “пропихивания” обновлений под кнопкой “Начать юбилейное обновление сейчас“.
По клику скачается утилита проверки обновления Windows 10 Anniversary Update и вам остается только запустить ее от прав администратора…
Как показывает мой личный опыт – на 2х из 3х моих ПК, которые не получили обновление обычным путем, эта утилита Windows 10 Upgrade Assistant не помогла – на одном она начала ругаться на отсутствие 16ГБ свободного места, а на втором – вообще вываливалась по ошибке 0xA0000400 – и я решил воспользоваться планом В по принудительному обновлению до Windows 10 Anniversary Update.
Нажимаем там кнопку “Скачать средство сейчас“, запускаем утилиту Media Creation Tool и выбираем, что нам требуется сделать:
если тебуется обновить текущий ПК до Windows 10 Anniversary Update и на нем есть свободное место для файлов обновления (16ГБ), то в утилите выбираем “Обновить ПК сейчас”. Media Creation Tool скачает все обновления и начнет принудительный процесс обновления до Windows 10 Anniversary Update.
если требуется одновить несколько ПК до Windows 10 Anniversary Update, или нет свободного места – то очень просто при помощи Media Creation Tool создать загрузочную USB-флешку. Поэтому выбираем в утилите опцию “Создать установочный носитель для другого компьютера”. Далее выбираем язык, версию и разрядность будущего пакета установки Windows 10 Anniversary Update, на какую флешку записать (желательно иметь флешку 8ГБ) и утилита сама все скачает и запишет на флешку.
Еще одна особенность созданной флешки и обновления таким путем до Windows 10 Anniversary Update – вам не надо загружаться с этой флешки и т.п. Достаточно подключить эту установочную флешку к ПК с уже запущенной Windows 10 запустить с нее setup.exe. При этом программа обновления спросит у вас режим установки – обновление с сохранением данных и настроек Windows 10, сохранение только данных и сброс всех настроек Windows 10, и – для любителей “чистой” установки каждый раз – есть режим “полного затирания” и установки обновленной Windows 10 Anniversary Update с нуля (опять же – специально грузиться с флешки все равно не надо
После установки Windows 10 Anniversary Update (не зависимо от того, получилось ли у вас это сделать по плану А или плану В) – есть еще несколько опций, которые вы должны будете проделать с обновленной системой.
Если у вас все же возникнут проблемы с работой Windows 10 Anniversary Update – вы можете “откатиться” назад – там же, в разделе Параметров “Обновление и безопасность” есть пункт Восстановление, где вы можете выполнить откат к более ранней сборке.
Если же “откатываться” на предыдущую сборку Windows 10 вы не планируете, то можете удалить предыдущую версию Windows 10, которую установка Windows 10 Anniversary Update автоматически оставляет на диске для того самого “отката” – она находится в папке Windows.old, которую вы не можете удалить вручную. Для того, чтобы удалить папку Windows.old со старой версией Windows 10, зайдите в Парамеры и там – в раздел Система. Выберите настройки Хранилише и там диск С:.
В окне содержимого диска С: кликните на раздел Временные файлы.
И в окне Временных файлов – выберите Предыдущая версия Windows и нажмите на кнопку Удалить файлы…
Подождите окончания операции, папка Windows.old будет удалена. Если же она останется на диске – там, возможно будет 10-100МБ разных файлов, которые требуются для работы ваших наследованных приложений – оставьте эту папку в покое – пусть живет, а занятых 100МБ на диске вам погоду не сделают все равно
Да-да! Этот радостный момент 2 августа 2016 года наступил и на большинстве компьютеров со “старой” Windows 10 появилось обновление (как самое что ни на есть обычное обновление) до Windows 10 Anniversary Update. Выглядит оно в панели Параметров как “Feature update to Windows 10, version 1607”. Просто зайдите в Параметры, там в Обновление и безопасность, и оттуда – в раздел Центр обновления Windows – где надо нажать Проверка наличия обновлений, если новая Windows 10 еще не приехала… Если же даже после проверки наличия обновлений она не заработала – не расстраивайтесь У меня дома на 3х устройствах из 8ми она тоже не заработала…
Что делать, если обновления до новой Windows 10 Anniversary Update нет? Ничего страшного – сначала – просто подождите пару дней Я намерен подождать до вечера четверга, и если обновления не будет – буду обновляться принудительно. И, конечно же, сниму видео с подробной инструкцией, как принудительно обновляться до Windows 10 Anniversary Update.
На этой странице Microsoft разместила ссылку на утилиту “пропихивания” обновлений под кнопкой “Начать юбилейное обновление сейчас“. По клику скачается утилита проверки обновления Windows 10 Anniversary Update и вам остается только запустить ее от прав администратора… Как показывает мой личный опыт – на 3х ПК эта утилита совершенно не помогла 😉
Нажимаем там кнопку “Скачать средство сейчас“, запускаем утилиту Media Creation Tool и выбираем в ней “Обновить этот компьютер сейчас“. Media Creation Tool скачает все обновления и начнет принудительный процесс обновления до Windows 10 Anniversary Update. 🙂 В принципе – это тот же процесс принудительного обновления, что и для “обычной” Windows 10, о котором я уже рассказывал год назад в этом видео и в этом. Если что – ждите еще одно подобное видео в пятницу – о принудительном обновлении до Windows 10 Anniversary Update .
И о хорошем в Windows 10 Anniversary Update – обновление без проблем “встало” на 5 моих ПК, планшетов, ноутов – никаких нареканий на работоспособность пока не замечено. Кроме того, вполне успешно обновился до Windows 10 Anniversary Update и планшет с 1ГБ ОЗУ – HP Stream 7 – так что разговоры об ограничениях по памяти оказались несколько преувеличенными – 2ГБ ОЗУ будет требоваться только для “чистой” установки на новые ПК 😉
Если у вас все же возникнут проблемы с работой Windows 10 Anniversary Update – вы можете “откатиться” назад – там же, в разделе Параметров “Обновление и безопасность” есть пункт Восстановление, где вы можете выполнить откат к более ранней сборке.
Для устройств с 32ГБ – есть шанс очистить 5-6ГБ места на диске С: и воспользовавшись возможностью Windows 10 обновляться с microSD – указать в процессе скачивания обновления Windows 10 карточку в качестве места, куда скачиваются обновления. Именно этот сценарий вы можете увидеть в этом видео
Производительность планшетов в синтетических тестах PCmark в Windows 10 осталась на уровне Windows 8.1 – с небольшими отклонениями в пределах погрешностей.
Производительность в тестах 3Dmark – упала на 10-15% (что, скорее всего, связано с ориентацией Windows 10 на Direct X 11, не поддерживаемый железом).
Зато серьезно порадовали тесты производительности браузеров – которые “резко разогнались” благодаря оптимизированному Microsoft Edge. И на радостях – увеличилось, пусть и не сильно – время автономной работы обоих планшетов от аккумуляторов.
А сейчас – как запустить Microsoft Azure Stack Technical Preview 1 в виртуальной машине Hyper-V или на «слабом железе» для ознакомления и тестирования. Хочу сразу обратить внимание на «ознакомление» – Microsoft Azure Stack не предназначен для работы в виртуальной машине, а его требования к «железу» – https://azure.microsoft.com/en-us/documentation/articles/azure-stack-deploy/ – довольно специфичны. А именно – наличие на хосте, который будет использоваться для старта Azure Stack Technical Preview 1, именно 4х свободных дисков (не разделов). Которые, кстати, при установке будут очищены и размечены 😉 И если у вас в сервере их больше – не факт, что будут выбраны именно те, на которые думаете вы…
Потому – виртуальная машина, в которой запускается Microsoft Azure Stack Technical Preview 1 «на посмотреть» – отличный выбор.
Для запуска Azure Stack в виртуальной машине мы воспользуемся новой «фишкой» Hyper-V в Windows Server 2016 – вложенной (или наследуемой) виртуализацией (про нее я рассказывал подробно в этом видео – https://youtu.be/4V-niAlZfTM?list=PLB5YmwQw0Jl_qktq5bwNaEUlMbzwl863l ), поскольку сам Azure Stack Technical Preview 1 – это набор виртуальных машин…
Распаковываем загруженный архив и запускаем полученный файл установки, который распаковывает еще раз файлы Azure Stack в каталог Microsoft Azure Stack POC;
В полученном каталоге находим файл виртуального диска WindowsServer2016Datacenter.vhdx и КОПИРУЕМ его в ту папку, где будут у вас находиться файлы будущей виртуальной машины с Azure Stack. Переименовывать его или нет – по желанию;
Монтируем скопированный файл VHDX в новой папке двойным кликом мышки, получаем еще один диск в системе;
Копируем в корень смотнированного диска папкуMicrosoft Azure Stack POC со всем ее содержимым;
Размонтируем VHDX диск обычной командой Eject (Извлечь) из контекстного меню.
ВНИМАНИЕ! Системные аппаратные требования Azure Stack Technical Preview 1 прописаны в установочных скриптах PowerShell, которые находятся в файле MicrosoftAzureStackPOC.vhdx в той же папке Microsoft Azure Stack POC. Минимальный объем памяти, на котором будет стартовать Azure Stack (будь то виртуальная машина или физический хост) – это 64ГБ. Данное условие – всего лишь функция проверки объема ОЗУ, которое находится в скрипте Invoke-AzureStackDeploymentPrecheck.ps1 в каталоге \AzureStackInstaller\PoCDeployment в файле MicrosoftAzureStackPOC.vhdx . Ищите в скрипте функцию CheckRam и поменяйте значение в операторе IF 😉 Вы можете сделать это как до копирования каталога установки в файл VHDX для виртуальной машины Azure Stack, так уже и внутри работающей виртуальной машины перед установкой. Там же можно найти и функцию проверки количества ядер процессора, если их недостаточно на вашем хосте.
Следующим шагом – создаем обычную виртуальную машину со следующими параметрами:
Generation 2;
Не менее 64ГБ ОЗУ (если физический хост позволяет, если нет – смотри выше) и отключенная динамическая память;
1 сетевой адаптер с доступом в Интернет;
У сетевого адаптера в расширенных настройках включаем опцию “Enable MAC address spoofing”;
Системный виртуальный диск – тот диск VHDX, который мы подготовили на первом шаге;
Дополнительный SCSI Controller, к которому добавляем 4 виртуальных VHDX-диска по 250-300ГБ (могут быть динамическими, для экономии места);
Количество vCPU – максимально доступное для вашего физического хоста (если логических процессоров будет недостаточно для установки – вы знаете, где «подправить» проверку);
Отключить в настройках виртуальной машины Снимки (Checkpoints) и сохранение при выключении хоста;
И, наконец, последнее – запускаем PowerShell с правами администратора и конфигурируем полученную виртуальную машину для Azure Stack на работу с вложенной виртуализацией при помощи команды Set-VMProcessor -VMName azuresvm -ExposeVirtualizationExtensions $true
Запускаем виртуальную машину и настраиваем основную ОС для Azure Stack (псевдофизический хост) при помощи мастера начальной настройки Windows Server.
В следующей части – продолжение – установка Microsoft Azure Stack Technical Preview 1.
Итак, работала себе в камере microSD, SD или флешка, а потом раз – и ошибка… А попытка отформатировать на ПК выдает ошибку “Windows was unable to complete the format” 😦
Поскольку и у меня в камере “вылетела” карточка microSD с описанными выше симптомами – она отказывалась форматироваться различными утилитами, в “обычном” форматировании Windows показывала “ту самую” ошибку “Windows was unable to complete the format” 😦
В командной строке введите команду DISKPART и подождите, пока не появится приглашение DISKPART>
Введите команду LIST DISK – вы получите список своих дисков, найдите среди них свою “убитую” microSD/USB и запомните номер. ВНИМАНИЕ!!! Если в строке вашей карточки написано No Media – то ВСЁ – карточка сдохла физически, восстановлению не подлежит 😦
Введите команду SELECT DISK N (где N – номер диска вашей мертвой microSD из предыдущего списка) – НЕ ПЕРЕПУТАЙТЕ НОМЕРА!!!, в случае ошибки – будет полностью почищен другой диск!!!
Команда CLEAN – ЭТО ПОЛНАЯ ОЧИСТКА ДИСКА, вообще!!! если после окончания этой команды вы увидите сообщение типа I/O error – опять же, ваша microSD/USB – сдохла физически 😦 можете не продолжать 😦
Команда CREATE PARTITION PRIMARY
Команда SELECT PART 1 – выбираем новый созданный на флешке раздел для форматирования
Команда FORMAT FS=exFAT QUICK – и вы получаете восстановленную рабочую microSD/USB флешку 😉 Если вам надо отформатировать восстановленную microSD/USB в другой формат – используйте команду FILESYSTEMS, чтобы получить список доступных форматов и подставьте нужный параметр FS=
По окончанию форматирования (без ошибок) – вводим команду EXIT для выхода из DISKPART
Открываем восстановленную microSD/USB в Windows и копируем на нее файлы для проверки работоспособности 😉
Итак, у вас телефон с Windows Phone 8.1, на который уже вышла официальная версия WIndows 10 Mobile? Не знаете, вышла ли? Тогда или загляните на страничку , где перечислены все поддерживаемые на текущий момент модели, на которые устанавливается Windows 10 Mobile или установите из Магазина утилиту Microsoft Upgrade Adviser, которая проверит, поддерживается ли обновление для конкретной модели…
НО! не торопитесь сразу обновлять телефон! Вот в этой инструкции подробно описаны шаги, которые следует проделать ПЕРЕД обновлением Windows Phone 8.1 до Windows 10 Mobile.
И даже этого может быть недостаточно – не стоит “перетаскивать” в новую систему глюки, которые могут накопиться за время работы и установки “кучи” разных программ, особенно если вы до этого “экспериментировали” с телефоном, “разлочивали” его и т.п. (как в моем случае).
В ИДЕАЛЕ – стоит вообще “зашить” телефон последней “родной” версией Windows Phone 8.1 при помощи утилиты Windows Device Recovery Tool отсюда и потом на новую чистую систему Windows Phone 8.1 – установить WIndows 10 Mobile.
И помните, что после обновления до Windows 10 Mobile – уже новая система захочет стать “еще новее” – так что не торопитесь сразу после обновления кидаться устанавливать приложения – дайте системе время обновить приложения и установить свежую сборку 😉 Про процесс настройки и обновления самой Windows 10 Mobile смотрите тут и тут.
А для тех, кто еще не знает, обновляться или нет – типа “слышал, что Windows 10 Mobile – медленная” – специально снял продолжение с тестом производительности Windows 10 Mobile на той же Lumia 730.
Так что – смотрите дальше – что быстрее – Windows Phone 8.1 или Windows 10 Mobile 😉
Так что данное видео с тестом Windows Phone 8.1 vs Windows 10 Mobile особо рекомендуется к просмотру тем, кто больше всех кричит “Windows 10 Mobile работает медленнее”, “Windows 10 Mobile тупит” и т.п. Конечно “тупит”, если под этим понимать производительность, выросшую в Windows 10 Mobile в некоторых тестах в 2 раза 😉
Да-да, в синтетических тестах браузера – таких, как Octane Benchmark, SunSpider, Kraken Benchmark – Windows 10 Mobile обгоняет Windows Phone 8.1 в разы за счет нового оптимизированного браузера Microsoft Edge. Так что если вы часто работаете с вебстраницами на своем Windows Phone 8.1 и еще раздумываете – “обновляться или нет до Windows 10 Mobile?” – мой совет – однозначно обновляйтесь, все будет работать куда шустрее 😉 Ниже сравнение с предыдущими результатами тестов Lumia 730 (и других смартфонов под управлением Windows Phone 8.1/Windows 10 Mobile):
* Windows 10 Mobile SunSpider score Nokia Lumia 730: 1231ms
SunSpider score Microsoft Lumia 650 (W10M): 1208ms SunSpider score Microsoft Lumia 550 (W10M): 1391ms SunSpider score Microsoft Lumia 535 (WP8.1): 1315ms SunSpider score Nokia Lumia 630 / 730 (WP8.1): 1340ms / 1259ms SunSpider score Nokia Lumia 1520 (WP8.1): 560ms
* Windows 10 Mobile Octane Benchmark score Nokia Lumia 730: 2482
Octane Benchmark score Microsoft Lumia 650 (W10M): 2457 Octane Benchmark score Microsoft Lumia 550 (W10M): 2173 Octane Benchmark score Microsoft Lumia 535 (WP8.1): 1235 Octane Benchmark score Nokia Lumia 630 / 730 (WP8.1): 1140 / 1345 Octane Benchmark score Nokia Lumia 1520 (WP8.1): 2658
* Windows 10 Mobile Kraken Benchmark score Nokia Lumia 730: 19255ms
Kraken Benchmark score Microsoft Lumia 650 (W10M): 18463ms Kraken Benchmark score Microsoft Lumia 550 (W10M): 21788ms Kraken Benchmark score Microsoft Lumia 535 (WP8.1): 27304ms Kraken Benchmark score Nokia Lumia 630 / 730 (WP8.1): 26811ms / 26500ms Kraken Benchmark score Nokia Lumia 1520 (WP8.1): 11256ms
В других синтетических тестах производительности, таких как GFXBench DX Benchmark, BaseMark OS II – результаты Windows 10 Mobile выше на 3-5%, что, в принципе, можно отнести к погрешности
Многие задают мне очень актуальный вопрос – как почистить диск C: с Windows – на системном диске Windows осталось слишком мало места, надо установить Windows 10, не хватает места для приложений и т.п.? Windows занимает на диске 15-20ГБ и как очистить папку Windows от лишних файлов и уменьшить ее размер до оригинальны 10ГБ? Обновление до Windows 10 требует больше свободного места на диске C:, как его почистить, чтобы установить Windows 10?
Да, действительно, для установки обновлением Windows 10 требуется 8ГБ свободного места на диске C:, да и для владельцев устройств с системными дисками на 16ГБ, 32ГБ и даже 64ГБ очень часто вопрос свободного места на C: встает очень болезнено, потом что папка Windows "раздувается" до 20ГБ…
пройдитесь по списку установленных приложений и удалите все лишнее – через Control Panel и Настройки системы Windows 8.1.
Control Panel / Programs / Unistall Programs – для просмотра и удаления классических приложений Windows
Комбинация клавиш Win+C / Settings / Change PC Settings / PC and devices / Disk space / See my applications’ sizes – для просмотра и удаления современных приложений Windows (установленных из магазина Microsoft Store). При клике на приложение в списке – отображается кнопка Uninstall для удаления не нужного приложения
Для геймеров с установленным Steam – рекомендуется проверить – где у вас находится папка хранилища Steam и перенести пакеты игр на другой диск