Windows 11 – вышел первый официальный билд Insider Preview 22000.51 – только изменения интерфейса + что пообещала Microsoft нового в Windows 11 на презентации 24 июня 2021 года



Итак, в рамках программы Windows 11 Insider Preview стала доступна первая ОФИЦИАЛЬНАЯ публичная сборка Windows 11 за номером 22000.51 – и, конечно же, я тут же обновил две своих тестовые машинки на эту сборку. Причем провел сразу два теста:


  • первая машина – это физический ноут с Windows 10 Insider Preview, которую вы видели в предыдущем видео про конвертацию “обычного” BIOS загрузчика в UEFI Secure Boot –
    https://youtu.be/F-kmvcglLOI – и переход с Windows 10 на Windows 11 Insider Preview прошел без проблем, хотя эта тестовая машинка довольно таки “загажена” всякими экспериментами и много чего на нее навешано – типа виртуализации, бета WSL2g, “песочницы” (кто не видел такую фичу в Windows 10 – рекомендую посмотреть – https://youtu.be/0XNo35PGdNY) и разных сторонних приложений, тех же X-сов и прочего. И все после такого апгрейда – прекрасно работает, что лишний раз подтверждает слова о том, что 11ка – это всего лишь 10ка с красивой мордой.
  • вторая машина – это виртуалка с установленной в ней “левой сборкой” Windows 11 21996, которая гуляла по Сети еще до анонса и которую вы могли видеть здесь – https://youtu.be/mbLfpI5S4TQ – в первом моем обзоре Windows 11. Идея в том, что я включил в ней тоже режим Insider Preview и она также вполне успешно проапгрейдилась на следующий билд 22000 – что очень даже хорошо, и все, кто установил сборку 21996 – смогут также включить себе режим Insider Preview и получить свежую Windows 11 уже сейчас.



Главный вопрос тут – а нужно ли?! Я про это уже писал и говорил – Windows 11 – это, фактически, Windows 10 c новой мордой лица. Местами – красивой, местами – не очень, где-то –  с удобными нововведениями, а где-то – с непонятками.


Windows 11 – вышел первый официальный билд Insider Preview 22000.51 – только изменения интерфейса 😦



Новая сборка Windows 11 отличается от уже показанной ранее пиратской сборки – https://youtu.be/mbLfpI5S4TQ – только переделанными эксплорером (который проводник/менеджер файлов) и менюшками Настроек (Settings). И если с настройками в принципе все ОК, сделали красивее, перенесли разделы, добавили некоторую функциональность типа истории заряда батареи (не может быть, после минимум 20 лет активного использования на ноутах!), убрали вообще раздел безопасности – наверное, будет свой Security Center – но в принципе, все изменения к лучшему, то вот с Проводником – вообще жесть. Так надругаться над уже ставшей привычной утилитой – это еще надо было придумать. Реально – красивые иконки при ухудшенном интерфейсе. Дизайнеров, а их там наверняка целая шобла, я бы сразу уволил за такое. Что с Проводником не так – да все не так, если смотреть с точки зрения улучшения процессов пользователей – про мой личный пример я рассказываю в видео.



Кроме того, Microsoft опубликовал новые комбинации клавиш, в том числе и для управления размещением окон – теперь это Win+Z – но зачем мне эта всплывающая менюшка с выбором схем размещения там же в углу – что мне мешает доехать мышкой, если и так придется? Почему нельзя показать такое меню “на месте”, сразу рядом с мышкой, чтобы мне потом не елозить ею в угол? Где логика? Да, и это тоже вопрос к “дизайнерам” нового продвинутого интерфейса.



Кстати, интерфейс еще и получил кучу ограничений того же taskbar’а – теперь он зафиксирован только внизу! и потерял массу полезных опций в контекстном меню – теперь оно доступно только по правому клику на иконку Пуск. В общем – сплошное разочарование интерфейсом.



Чего еще нет в Windows 11 из обещанного на презентации 24 июня – https://youtu.be/MG3zscrFvpE – это возможности запуска Android приложений и самого магазина для таких приложений от Amazon. Обещают доточить и добавить в следующих сборках. В любом случае, WSLg – запуск Linux приложений с графикой абсолютно нормально работает и сейчас в Win10 – https://youtu.be/7Yz3fPuQH6k – и уже проверил в Win11 – https://youtu.be/mbLfpI5S4TQ – потому не думаю, что будут какие-то накладки и с Android.



Ах да – еще заработала, после 22х лет обещаний (я про книгу Бизнес со скоростью мысли, где Билли говорил о том, что в скором времени компьютеры получат речевой ввод) – наконец-то в Windows 11 можно надиктовывать текст по-русски и оно довольно прилично его распознает. Правда, осталось разобраться с командными фразами – их списка так найти и не смог. Официальная документация отрицает возможность русскоязычного ввода 😉



В принципе – это и все из хорошего, что появилось в Windows 11 – и это печально… Конечно, буду дальше продолжать юзать Win11 – тем более что у меня ноут специально под Insider Preview выделен и от нее я никуда не денусь, но, думаю, каких-то специальных обзоров до появления модуля запуска Android про Win11 уже не будет…

Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”?

24 июня 2021г, Microsoft провел официальную презентацию “новых возможностей” новой ОС Windows 11, которая, как было сказано – “определит будущее операционных систем для ПК на следующее десятилетие”… И если смотреть на презентацию – то это будущее не совсем уж радостное и уж куда ниже планки ожиданий к современной настольной ОС.

Да-да, вы сейчас увидите на других ресурсах хвалебные отзывы о новой Windows 11 в стиле – “вау, какие окошки, вау, какая бирюличка” – но в реальности, это всего лишь перелицовка экрана, а вот насколько новая ОС Windows 11 способна удовлетворить потребности современного пользователя – это, на мой взгляд, большой вопрос… Потому – давайте по порядку – чего же такого показал Microsoft в своей презентации, что действительно будет удовлетворять потребностям пользователей в течение следующей декады и, что само главное – что не показал Microsoft и куда было бы логично развивать решения для настольных ОС, учитывая развитие гаджетов и “облаков”:


Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”?

Из показанного:

  • перелицовка интерфейса – красиво и, как по мне – совершенно вторично в отношении того, чтобы говорить о том, что это “новая уникальная ОС будущего”
  • Из изменений в интерфейсе стоит отметить действительно удобные вещи типа управления расположением окон, новые настраиваемые независимо рабочие столы с запоминанием “своих” приложений, фишка “умного” разворота содержимого окон при повороте экрана планшета и наиболее интересная фича, которую можно было бы сделать уже давно и для этого не требовалось “создавать” “новую ОС” – это запоминание состояния окон на разных мониторах и при отключении/подключении монитора – рабочий стол теперь не превращается в набор непонятно где находящихся окошек, а все “становится, как было”. И ВСЕ! ЭТО И ВСЕ “УЛУЧШЕНИЯ” именно функциональности оконного интерфейса в Windows 11.
  • Другие функциональные изменения в Windows 11, показанные в презентации, тоже можно пересчитать на пальцах:
    • виджеты – которые планируются, как интерфейсы для сторонних сетевых/облачных сервисов и приложений/сайтов. Microsoft считает, что это поможет многим локальным бизнесам, новостям, сообществам лучше взаимодействовать со своими пользователями. Распространяться будут через магазин, что говорит о будущей модерации контента – т.е. если вы создадите “антипрививочный” портал или портал против “псевдопандемии” и захотите таким образом распространять ленту новостей для своих подписчиков – вас просто удалят из магазина.
    • auto HDR – очень классная штука, если говорить о том, что это аналог XBOX Series X – действительно, игры выглядят куда лучше и применяется к любым играм, даже если игра изначально не разрабатывалась с HDR. Остается только вопрос насчет “железа” – какие требования будут к видеокарте и монитору и насколько это будет влиять на общий fps игр.
    • приложения Android – это было, в принципе, ожидаемо после WSL2g – запуск графических приложений Linux под Windows 10, что не мешает запустить и ядро Android с соответствующими приложениями. Да и подобные работы Microsoft вела еще в ходе разработки Windows 10 Mobile.

А теперь поговорим о том, что ОБЯЗАНА уметь ОС нового поколения, чтобы соответствовать “требованиям новой декады”:

  • запуск приложений на одном ПК с отображением окна на другом. Все компоненты для этого есть и в Windows 10 – фактически, так работает WSL2g – сценарий прост – у вас дома стоит мощный лэптоп, но вы не хотите “таскать” его из комнаты в комнату и хотите с большим комфортом поработать с теми же данными или приложениями с планшета, сидя на диване – вы видите доступные приложения “там” и запускаете то, которое вам нужно – или просто продолжаете работать с уже запущенным на ПК. Масса других приложений – типа того же Steam и любая Unix-система такое умеет уже 35 лет, а вот современный Windows не будет уметь и в 202х годах.
  • миграция приложений – похожий с описанным выше сценарий – только уже запущенные приложения переносятся в текущем состоянии между работающими ПК, как это сделано для тех же виртуальных машин. Сценарий прост – вы работаете с приложение на своем ПК в офисе и уходя домой – “мигрируете” запущенные приложения “как есть” на лэптоп или планшет и продолжаете работать в дороге или мигрируете далее на домашний ПК.
  • Windows 11 on ARM для Raspberry Pi – вообще ничего не сказано насчет поддержки ARM платформ и энтузиастов на Raspberry Pi, хотя много бла-бла-бла про поддержку креативных людей и сообществ – но главные сообщества, которые делают платформу популярной на следующие 10 лет – молодых ИТ-энтузиастов – Microsoft старательно проигнорировала. А ведь им ничего не стоило создать официальную ARM сборку Windows 11 для Raspberry Pi 4 в формате поддержки, например, Insider Preview – кастомные сборки Windows 10 on ARM для Raspberry Pi ходят по интернету в больших количествах и вполне себе работают. Такая вот поддержка увлеченных людей – только на словах.

Другие мои видео по Windows, облачным и серверным технологиям у меня на канале:

  • Windows 11 – как проверить, будет ли работать Windows 11 на вашем ПК – TPM 2.0, UEFI и Secure Boot – https://youtu.be/Ee8aTEE9ULU
  • Windows 11 – конвертируем BIOS загрузчик старых Windows в загрузчик UEFI/Secure Boot для Windows 11 – https://youtu.be/F-kmvcglLOI
  • Windows 11: официальная презентация – реальность vs ожидания – “новая” ОС не так уж и “напакована”? – https://youtu.be/MG3zscrFvpE
  • Срочно в номер! – обзор Windows 11 – что нового в утёкшей ранней сборке 21996, как установить в ВМ – https://youtu.be/mbLfpI5S4TQ
  • Windows 10 c ядром Linux (WSL2) “научилась” запускать графические GUI приложения Linux – демо WSLg – https://youtu.be/7Yz3fPuQH6k
  • Azure AZ-900-онлайн семинар MUK-Azure Infrastructure as Code IaC, ARM templates, BICEP, Azure DevOps – https://youtu.be/UOEmloeetfY
  • Azure AZ-900 – онлайн-семинар MUK – обзор Azure Automation, Monitor, Log Analytics, Logic Apps – https://youtu.be/a6VGeDUNYt4
  • Azure – онлайн-семинар MUK – планирование миграции в Azure с Azure Migrate,построение гибридой инфра – https://youtu.be/vnQOSPrunKc
  • Что такое облачные технологии и подготовка к экзамену Microsoft AZ-900 Azure Fundamentals – http://bit.ly/Exam-Az-900

Windows 10 c ядром Linux (WSL2) "научилась" запускать графические GUI приложения Linux–демо, как WSLg запускает WSL Linux приложения типа Quake, Chrome, WPS, Steam, Kodi в Windows 10 без проблем



Я обещал больше технических видео про новинки софта на своем канале по возвращению – я делаю 😉 И отдельное спасибо Microsoft за новые оригинальные “фичи”, которые появляются в Windows 10, и, в частности, в WSL (Windows Subsystem for Linux). Про сам WSL 2 и его возможности по “родному” запуску приложений Linux прямо из Windows 10 я уже рассказывал здесь – https://youtu.be/cUM4UVum_Ck – и здесь – https://youtu.be/P88GPegg7x0 – но предыдущие сборки Windows Subsystem for Linux v2 работали по умолчанию только с консольными версиями Linux приложений и чтобы запустить графические GUI приложения от Linux – требовалось существенно пошаманить, иногда – без гарантии ожидаемого результата работы графики. Для шаманства, чтобы заставить работать WSL2 с графикой, использовались различные X-серверы для Windows типа Xming, но заботало оно кривовато.



И вот – в новой сборке Windows 10 Insider Preview 21364 появилась новая версия ядра WSL, которое теперь работает с графическими приложениями из коробки и не требует специальных плясок с бубнами – WSLg. Т.е. теперь практически любое GUI приложение Linux будет работать “в графике” в WSL2 сразу из коробки и рядом с “окошками Windows 10” c их традиционным оформлением вы будете видеть и окна в стиле X запущенных линуксовских приложение. Кстати, работает это все очень просто в ядре системы – специальный драйвер в WSLg выдает RDP Windows за X-сервер для запускаемых графических Linux приложений. Т.е. фактически – каждое окно Linux-приложения – это всего лишь сессия RDP к ядру самого хоста, в которую отправляет картинку WSLg. Решение простое и эффективное для базовых GUI приложений, Microsoft эффективно использует его уже много лет для публикации не всего рабочего стола, а отдельных приложений на RDS серверах и теперь еще и на Azure WVD, но есть одно НО… И это НО – производительность работы RDP сессии при активно меняющейся картинке, например, видео или игр. В принципе – оно тепримо, но особо видео не посмотришь и в игры с высокими FPS на таком Linux не поиграешь. Хотя Quake я таки запустил для демонстрации.



Windows 10 c ядром Linux (WSL2) “научилась” запускать графические GUI приложения Linux – демо WSLg




И о демонстрации в данном видео и “на попробовать самому” – как я уже говорил, особых действий после установки новой сборки Windows 10 Insider Preview 21364 (или новее) не требуется. Если WSL2 уже установлен – требуется обновить его ядро, если WSL2 еще не установлен – установить само ядро Linux WSL2 в Windows 10 и установить какую-то из сборок Linux с поддержкой WSL2. Как это делается – описано в документации –
https://github.com/microsoft/wslg#welcome-to-wslg – буквально одна команда – или wsl –update , или wsl –install -d Ubintu (или другой дистрибутив из списка на выбор wls –list –online). Кстати, где-то в траблешутинге встречал упоминания о том, что пока нормально работают с графикой сборки только Ubuntu 18/20 (и просто Ubuntu – это ссылка на последнюю стабильную версию) – так что установить Ubuntu для теста WSLg рекомендуется. А дальше – следуем рекомендациям в той же доке https://github.com/microsoft/wslg#install-and-run-gui-apps – и устанавливаем различные тестовые GUI приложения Linux, типа gedit, chrome, edge и прочих. Кстати, я поступил по другому – я просто из примера сделал шеловский скриптик и запустил его. Кроме того, чтобы было более интересно – я также установил Quake (.pak файлы взял скопировал в WSL через nautilus из оригинального Quake, который есть у меня в Steam), различные офисные пакеты типа WPS и LibreOffice, Kodi для Linux и, конечно же, сам агент Steam.



Результаты тестов вы можете видеть в самом видео – все работает без каких-либо проблем, достаточно шустро, особенно, если учитывать, что для записи я подключался к ноуту, на котором у меня стоит Windows 10 Insider Preview, через RDP, а, как я уже говорил выше, WSLg само по себе тоже RDP сессия – так что о том, что бывает с графикой, когда запускаешь видео в RDP, которое уже в RDP – думаю, вы знаете не по наслышке. НО, не смотря на то, что в Steam у меня нет приложений для Linux – очень порадовал режим стриминга игр на Linux агента Steam в WSLg (причем, с того же компа, на котором я вел запись) – удивительно хорошо шла картинка и никаких неудобств в игре я не чувствовал. Конечно, практического применения такая работа Steam не имеет, но как демонстрация возможностей WSLg – очень даже.


Хочу также обратить внимание, что все запущенные Linux GUI-приложения отображаются не только как сессии RDP, но и появляются в виде значков в строке задач Windows 10:

image

Кроме того, все установленные в WPS сборки Linux приложения автоматически добавляются в виде иконок/ссылок в меню Старт Windows 10 – так что в реальности – не обязательно даже будет заглядывать в консоль WPS и запускать приложения оттуда – Windows 10 по клику на иконку сама запустит нужную сборку и сессию для приложения в ней. А в меню Старт установленные Linux-приложения выглядят примерно так:

imageimage

и запросто находятся тем же поиском Windows 10 в панеле задач, чтобы меньше кликать и скролить:

image

А каковы перспективы практического применения WSLg – смотрите в видео, думаю, с таким подходом скоро и Android Apps “поедут” на Windows 10. Но, если серьезно, особых перспектив массового использования WSLg и графических приложений Linux в Windows 10 конечными пользователями не ожидается. Это, скорее, удобный инструмент для разработчиков и ИТ-специалистов, который теперь позволяет иметь на рабочем столе Windows 10 инструменты с любой платформы без всяких там виртуальных машин и делает Windows 10 вполне такой действительно универсальной платформой.

Предыдущие видео про Windows Subsystem for Linux:

  • “Microsoft выпустил Windows 10 с ядром Linux” или как работает WSL2 в новой Insider сборке – https://youtu.be/cUM4UVum_Ck
  • СофТы: тестирование производительности Linux в Windows Subsystem for Linux vs Hyper-V – https://youtu.be/P88GPegg7x0
  • Windows 10: установка и настройка хакерского Kali Linux в Windows 10, как приложения WSL – https://youtu.be/RKFSJRSnLBw

Облачные Managed Services – часть 2 – технологические отличия от "традиционных"​ Managed Services


Продолжаю тему «цифровой трансформации» в отношении к современным облачным Managed Services, которую я, пользуясь личным практическим опытом, частично осветил в первой части данной статьи. Напомню, там речь шла о концептуальных и стратегических отличиях новых облачных Managed Services от традиционных «динозавров» Managed Services, вкратце:

  • Поставщики облачных Managed Services выступают «головой», а не «руками» заказчика и концентрируются не на том, «чтобы все виртуальные машины работали», а на консультационной помощи заказчику по миграции в облака и модернизации приложений в формат «нативных» решений. Фактически, поставщик современных облачных Managed Services для заказчика – это, как модно говорить сейчас, «Trusted Advisor» по всему, что касается облаков.
  • Облачные Managed Services отвечают за SLA бизнес-процессов, а не за непонятный для бизнеса заказчика SLA времени ответа на запрос. Задача современных Managed Services обеспечить желаемый SLA для критического сервиса/приложения заказчика, используя все доступные средства облака и способствовать модернизации приложений.
  • Поставщик современных облачных Managed Services работает с заказчиком по принципу «непрерывного проекта миграции и модернизации», обеспечивая постоянное внедрение новых служб, решений и модернизацию существующих без переключения на «сторонние проекты».
  • Поставщик современных облачных Managed Services работает в непрерывном контакте с заказчиком, имея в команде технического менеджера, который поддерживает регулярную коммуникацию с заказчиком, знает о всех его планах и проблемах, обеспечивает координацию с различными командами и вендорами заказчика и управляет ресурсами своей команды и текущими проектами.
  • И, наконец, «цена вопроса» за услуги Managed Services, которая формируется не путем подсчета «виртуальных машин по головам», а в проценте от общей суммы утилизации Azure клиентом.

А в этой части мы поговорим о технологических и процедурных отличиях современных облачных поставщиков Managed Services по сравнению c «динозаврами» «традиционных» Managed Services.

В предыдущем посте я уже писал, что облака вообще и Azure в частности «добавляют новый, не достижимый ранее, уровень гибкости для Managed Services благодаря своим сервисам уведомлений, мониторинга, автоматизации, автоматического поддержания здоровья и безопасности поверх таких возможностей облаков, как эластичность, масштабируемость и отказоустойчивость». И ключевое слово тут – «совершенно новый уровень мониторинга и автоматизации».

Такой мониторинг и автоматизация в первую очередь должны быть направлены на обеспечение требуемого SLA для критических бизнес-сервисов и приложений заказчика, о котором говорилось в предыдущей части. И, учитывая специфику и возможности мониторинга в Azure и сервиса Azure Log Analytics – основной отличительной чертой современного провайдера Azure Managed Services является проактивный мониторинг с предсказанием тенденций по тем или иным показателям критических приложений и/или поиском аномалий в текущих показателях. Звучит красиво и непонятно, а в реальности – Azure Alert, который базируется на нескольких командах в запросе KUSTO к нужным данным, которые хранятся в таблицах Azure Log Analytics – и мы получаем, например, тенденцию уменьшения свободного места на диске исходя из показателей мониторинга последних 15-30 минут, часов, дней – в зависимости от того, насколько высоки требования к SLA решения и как «чутко» нам нужно реагировать на возможное отсутствие дискового пространства для серверов приложений и сколько за это готов платить заказчик. Напомню, что каждый такой Alert с запросом и собственно, время работы вызванной после процедуры Azure Automation стоит денег, пускай это идут центы, но при активном использовании с минутными интервалами – может набегать ощутимая сумма.

Сценарии применения такой «предсказательной» автоматизации – бесконечно обширны благодаря инструментарию управления в Azure. Конкретный пример с предсказанием окончания места на диске за несколько дней до критического значения (обычно 5-10%) в реальных инфраструктурах – это и оправка уведомлений всем заинтересованным лицам + создание «тикета» в системе управления того бизнес-приложения, у компонентов которого место на диске подходит к концу, и запуск Azure Automation runbook, который в ближайшее окно обслуживания остановит, если возможно, проблемную виртуальную машину и увеличит размер диска на ней. Другой сценарий – это предсказание изменения нагрузок (кол-ва запросов) на том же Azure Application Gateway, чтобы предварительно увеличивать/уменьшать количество работающих экземпляров App Gateway в зависимости от недельных/сезонных и общих тенденций, что позволяет обеспечивать и высокую доступность решения, и экономить деньги клиента, подстраивая количество экземпляров под реальные потребности. И да, я в курсе про autoscaling для App Gateway, но как показывает опыт – всегда стоит держать +1 экземпляр в горячем режиме про запас – потому что автоматическое масштабирование не успевает реагировать на те же атаки или даже просто резкий скачек нагрузки при каких-то онлайн событиях. А вот такие онлайн события по расписанию очень легко предсказывать на недельном форекасте и реагировать за 15-30 минут до их начала расширением пула и экземпляров App Gateway, и App Services, и SQL Database DTU, и прочих компонент приложения.

Интересной особенностью Azure Monitor и Azure Log Analytics является Azure VM Insights – возможность «заглядывать» в то, что происходит на уровне ядра OS виртуальных машин и получать информацию не только о показателях производительности базовых компонентов, но и, например (еще один реальный сценарий), мониторить и предсказывать «всплески» высокого уровня задержек сетевых соединений (outbound connection latency) процессов приложения при запросах между виртуальными машинами, на которых находятся компоненты приложения, или к базам данных. Опять же, зная суточные/недельные/месячные тенденции и текущие показатели – очень легко предсказывать возможные «залипания» соединений и быстро реагировать на проблемы путем увеличения количества виртуальных машин требуемого типа в пуле приложения. И да, заметьте, тут для масштабирования используются не стандартные показатели типа CPU/RAM/Disk или даже число запросов, а именно тот показатель, который может серьезно влиять на доступность и производительность приложения, не смотря на отсутствие явных признаков высокой утилизации конкретной виртуальной машины и всего решения в целом.

И чтобы не быть голословным (все-таки техническая часть) – вот вам небольшой пример того самого запроса KUSTO к Azure Log Analytics с визуальным предсказанием нагрузки App GW, который отображает общую почасовую тенденцию изменения трафика на App GW в следующие 3 дня исходя из истории предыдущих 5 дней:

let min_t = toscalar ( AzureDiagnostics | where TimeGenerated > ago(5d) | summarize min(TimeGenerated));

let max_t = toscalar ( AzureDiagnostics | where TimeGenerated > ago(5d) | summarize max(TimeGenerated));

AzureDiagnostics

| where TimeGenerated > ago(5d) and ResourceType == “APPLICATIONGATEWAYS” and OperationName == “ApplicationGatewayAccess”

| make-series Requests_H = count() on TimeGenerated from min_t to max_t+3d step 1h

| extend forecast = series_decompose_forecast(Requests_H, toint(3d/1h),0)

| render timechart

Визуальный результат будет выглядеть так, где синий график – текущие показатели количества запросов к сайту за прошедшие 5 дней, а красный график – предсказание тенденций изменения трафика на следующие 3 дня:

clip_image002

А дальше – выполняя такие запросы по расписанию (и помним о цене запроса) и оценивая тенденции или находя аномалии – запускаем в случае критических показателей требуемые скрипты Azure Automation или других продуктов, которые внедрены в процессы компании.

Проактивный мониторинг инфраструктуры – это отличное средство обеспечения требуемых SLA, но не стоит игнорировать и стандартные средства эффективной реакции на проблемы инфраструктуры и приложений в Azure, такие, как уведомления/предупреждения о проблемах (служба Azure Alerts, являющаяся частью Azure Monitor) и автоматической проверки здоровья (Health checks/auto-healing, опции различных служб), работающие в той же связке с Azure Automation для реакции на события путем запуска требуемых Azure Automation Runbook.

На рынке существует достаточно большое количество решений, обеспечивающих сбор и мониторинг данных по работающей инфраструктуре в Azure, но в большинстве своем – это универсальные системы, строящие «красивые отчеты» и «дашбоарды» для различных компонентов, в то время, как для современных облачных Managed Services важно гарантировать SLA клиентского сервиса в целом, что уже упоминалось в первой части статьи. Потому для доведения решения до требуемой кондиции – контроля за SLA и реакции на возможные проблемы – все равно требуется доводка таких универсальных систем «напильником». И, как показал опыт – подстраивать сторонние готовые универсальные мониторинга системы под задачи конкретного заказчика – весьма утомительно и, часто, очень проблематично ввиду особенностей архитектуры этих систем. Кстати, об архитектуре систем – практически эта архитектура требует в тенанте (даже не подписке) заказчика наличия учетных записей с такими правами, на которые служба безопасности заказчика категорически не согласна. Так что приходится все это решать средствами собственных скриптов, объединяя с упомянутыми выше очень даже функциональными сервисами Azure. Как работает такая связка – я постарался вкратце рассказать в ходе недавнего онлайн семинара по Azure Automation и Azure Monitor/Log Analytics – https://youtu.be/a6VGeDUNYt4


Azure AZ-900 – онлайн-семинар MUK – обзор Azure Automation, Monitor, Log Analytics, Logic Apps

Таким образом, современные Azure Managed Services базируются на обширном репозитории шаблонов скриптов и запросов, которые можно быстро адаптировать под потребности конкретного заказчика и задача команды современных облачных Managed Services – активно расширять и оптимизировать данный репозитарий.

Интересным аспектом является модный ныне DevOps, о котором столько разговоров. И да, вы правильно сделали выводы – если я не начал с самого начала нахваливать DevOps – он действительно не играет существенной роли в предоставлении Managed Services (если, конечно, вы не предоставляете DevOps, как одну из услуг Managed Services). Тот же практический опыт показал полное отсутствие каких-либо преимуществ применения DevOps перед традиционными средствами развертывания и управления инфраструктурой в Azure – типа шаблонов ARM, Azure Automation, DSC – для предоставления тех же услуг развертывания инфраструктуры в рамках Azure Managed Services. Почему так? – Да потому, что большинство инфраструктур заказчика стабильны и меняются не так часто, потому репозитория ARM шаблонов вполне достаточно и для начального развертывания, и для дальнейшей модификации/восстановления при сбоях. Что же касается программной части – тех же Azure Apps Services, Azure Data Platform, Kubernetes и прочих – в задачу Azure Managed Services входит их мониторинг и поддержка, а начальное «запиливание» кода в большинстве случаев – это ответственность команд разработчиков (причем, чаще – во множественном числе), которые работают над своим продуктом и со стороны поставщика Azure Managed Services им требуется готовая инфраструктура самой службы DevOps, настроенные системы мониторинга и реакции на проблемы со стороны Azure. Очень часто – разработчики вообще не представляют, какие функции управления инфраструктурой того, что они «наворотили», имеются в Azure и именно «обвес» мониторинга и высокой доступности всего решения в целом – куда входят и Application Gateway/WAF с CDN, и App Services с базами данных и хранилищами, и средства управления масштабированием и здоровьем, и репликации, а не отдельный экземпляр App Services – и является зоной ответственности команды Azure Managed Services и требует постоянного взаимодействия с командой разработчиков и разработки спецификаций, которые позволяют упростить процесс работы такой инфраструктуры и которым должны следовать разработчики в архитектуре своего решения.

Так что DevOps – это скорее нет, чем да… Или вы «подхватываете» у заказчика, а вернее – его поставщиков – функции разработки и DevOps по совместительству. Но это уже совсем не та история, которая про Azure Managed Services.

А вот следующая часть «той истории» современного облачного поставщика Azure Managed Services начинается в последних предложениях про DevOps о спецификациях – это называется Operational Excellence (OE) – по-русски звучит коряво – «Операционное Совершенствование» – потому буду использовать в тексте аббревиатуру OE. Operational Excellence я бы назвал одной из основных составляющих успеха после того, как вы наработали у себя в облачных Managed Services необходимый минимум репозитория шаблонов скриптов и дальше развиваете свой бизнес. Какие первоочередные задачи стоят перед OE в данном случае? Во-первых – это работа над спецификациями типа LLD benchmark checklist, Developers benchmark checklist и т.п. Все эти спецификации должны определять списки требования к архитектурам, которые планируют для ваших заказчиков либо ваши коллеги из Professional Services, либо разработчики заказчика, либо непосредственно ваши сотрудники, работающие в Managed Services. Такие OE спецификации для планирования решения чаще всего содержат в себе требования к наличию различных компонентов мониторинга и управления в дизайне по умолчанию. Например, для Azure LLD OE benchmark checklist это проверка архитектуры на:

· Наличие Azure Monitor Alert, который уведомляет о глобальных проблемах всех служб Azure

· Наличие Alert для критических значений вместимости и производительности для всех компонентов

· Наличие требуемых служб мониторинга – Azure VM Insights, Application Insights, Azure Log Analytics, Azure Security Center для критических компонентов

· Наличие карты требуемых процессов обслуживания

· Наличие автоматизации рутинных процессов с использованием Azure Automation

· Наличие карты зависимостей критических приложений, для которых будет требоваться SLA

· Наличие плана восстановления после сбоев

· Наличие списка других объектов/процедур, которые являются критическими в инфраструктуре и т.п.

Следующая часть OE – это внутренние процессы, такие, как контроль за процедурными документами и их соответствию текущему статусу инфраструктуры, улучшение основных процессов поддержки SLA путем внедрения результатов анализа каждого сбоя – Root Cause Analysis (RCA), и, самое главное – это наличие процессов анализа обращений клиентов с целью обнаружения типовых обращений и создания на их основе новых автоматических процедур или решений, которые обеспечивают доступ к требуемой информации/операций посредством порталов или приложений самообслуживания.

И да, Operational Excellence – это моя «боль», поскольку даже при очень хорошо продуманных процедурах, особенно внутренних – надо еще научить коллектив соблюдать эти процедуры. И здесь, опять же – приходит на помощь и автоматизация бизнес-процессов, и, конечно же, правильные KPI. Но это уже тема следующей части про действительно современные и актуальные облачные Managed Services.

Зато есть еще одна, упомянутая выше, технологическая часть Azure Managed Services, которая существенно отличается от «традиционных» – поскольку мы работаем с облаками и, как уже говорилось в первой части, не блокируем полностью клиентский доступ к инфраструктуре – тут у нас открывается обширное поле деятельности для создание решений по самообслуживанию, особенно, если OE работает и вы быстро определяете базовые рутинные потребности в обслуживании для каждого клиента Azure Managed Services. Что дальше? Безусловно – автоматизация или применение современного удобного инструментария/платформ разработки решений, которые позволяют максимально ускорить взаимодействие заказчика с его же инфраструктурой.

К чему это я? Все очень просто – такими инструментами и платформой для создания решений самообслуживания являются и сам Azure с его Log Analytics, Logic Apps, Automation, Functions, Cognitive Services, и платформа Power Platform c Power Apps, Power Virtual Agents. Применение Power Apps позволяет очень легко и просто предоставить заказчику, особенно менеджменту, простое приложение-панель информации для мобильных платформ (телефонов и планшетов) – наиболее востребованная, как показывает опыт и анализ запросов, функциональность – «хотим видеть на телефоне прямо в реальном времени состояние всех приложений и их компонентов (светофорчики)». Используя Power Apps и средства типа Log Analytics и Functions, которые вызываются из Power Apps – создание такого приложения занимает считанные дни, модификация – часы, а публикация – минуты. При этом такое простое приложение имеет громадный позитивный эффект на лояльность и удовлетворенность менеджмента заказчика предоставляемыми Azure Managed Services.

Второй сценарий – это автоматизация стандартных технических запросов от инженеров заказчика, которые обслуживают непосредственно приложения, обычно – внутри виртуальных машин и лезть куда-то в незнакомый портал и отвечать за «поломанное» им совершенно не интересно. Опять же, как показала практика – самый эффективный способ быстрой реакции на запрос – это автоматизация обработки почтовых сообщений, в которых с простым синтаксисом описываются требуемые операции, такие, как создание виртуальных машин или команды к существующим, изменение конфигураций NSG, App Services, Application Gateway, запросы на отчеты и многое другое. А далее – используется Azure Logic Apps, которые управляют данным процессом, с запросом (если требуется) подтверждений операций как со стороны ИТ заказчика, так и инженера поддержки команды Azure Managed Services. И после прохождения всех формальностей – такое электронное письмо разбирается через Cognitive Services, проверяется на предсказание возможных последствий или наличие аномалий для SLA и сами операции выполняются средствами Azure Automation, Functions и Log Analytics. Подобные сценарии я рассматривал в упомянутом ранее видео про автоматизацию управления Azure – https://youtu.be/a6VGeDUNYt4

Опять же, как и в варианте с Power Apps, на разработку бизнес-процесса требуется несколько дней, после чего уже технические специалисты заказчика остаются очень довольными простотой взаимодействия. Сразу скажу, что особым хитом сезона являются всякие там запросы на отчеты по email – написал имя виртуальной машины или ресурсной группы и даты – и получил через минуту полный почасовой отчет утилизации ресурсов ВМ.

И тут возникает правильный вопрос – а как же Level 1 Support? А вот никак, поскольку в большинстве своем Azure Managed Services – это непрекращающийся постоянный процесс модернизации инфраструктуры из наследованных технологий в облачные. И если специалист L1 не в курсе процессов и зависимостей внутри инфраструктуры заказчика – он скорее не поможет, а навредит, и при этом – базовые операции типа пресловутой «перезагрузить ВМ» уже запросто могут быть делегированы системе со службой самообслуживания, поскольку вызывая такую операцию из приложения или почты – заказчик вызывает не команду перезагрузки ВМ, а достаточно сложный скрипт, проверяющий влияние такой операции на SLA бизнес-приложений и принимающий решение уже на базе сценариев «лучшего возможного SLA».

А Level 1 – разве что приятный женский голос, отвечающий по телефону + мы начали эксперименты с Power Virtual Agents для предоставления той же информации о статусе и отчетов. А «мальчикам» из Level 1 придется либо расти до инженеров (про требования к инженеру в Azure у меня есть серия публичных собеседований – см.ниже), либо искать другую работу.


ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.01

· ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.01 – https://youtu.be/HmpgQoahXTA

· ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.02 – https://youtu.be/cFzd62vlB9M

· ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.03 – https://youtu.be/DECMirInQ2I

И вот про то, как изменяется орг.структура организации, которая решила перейти от предоставления «традиционных» Managed Services к современным облачным Managed Services – будет третья часть данной статьи.

Облачные Managed Services – современная реальность "цифровой трансформации"​ и отличия от "традиционных"​ Managed Services


* Больше технических статей и постов на LinkedIn – https://www.linkedin.com/in/iwalker2000/
* Мой YouTube канал и технические видео на нем – https://www.youtube.com/iwalker2000
* Бесплатный курс по подготовке к экзамену Azure Fundamentals AZ-900 – http://bit.ly/Exam-Az-900

Как показывает личный опыт последних лет, красивые слова типа «диджитализация», «цифровая трансформация» и прочие расхожие фразы, которые должны подчеркнуть невероятную «продвинутость» компании на пути к новым вершинам «облачного» бизнеса – очень часто являются всего лишь красивой вывеской, за которой скрывается уровень бизнеса 20летней давности и косность менеджмента, по прошествии «20 лет успеха» не способного уже мыслить по другому, как раз критериями той самой «цифровой трансформации»… Нет, эта статья не будет про различные личные психологические практики «как принимать новое» и «читать больше и думать инновационно» – эта статья будет более практической – я постараюсь сформулировать собственное видение того, что является действительно «трансформированными» Managed Services для облака (в моем случае речь пойдет про Azure и базируется на личном опыте создания и руководства соответствующем департаментом) в отличие от «традиционных» Managed Services, к которым продолжают тяготеть «динозавры» бизнеса под вывеской «диджитализации».

Итак, чем же должны отличаться организации, которые предоставляют современные Azure Managed Services от организаций с «традиционными» Managed Services и какой путь должны пройти последние, чтобы предоставлять действительно современные Managed Services для облаков, а не уровень звонка в Level 1 типа «у нас не работает виртуалка – пожалуйста, перегрузите»?

Облака – это существенное изменение в управлении, поскольку они добавляют новый, не достижимый ранее, уровень гибкости для Managed Services благодаря своим сервисам уведомлений, мониторинга, автоматизации, автоматического поддержания здоровья и безопасности поверх таких возможностей облаков, как эластичность, масштабируемость и отказоустойчивость. Соответственно, клиенты Azure Managed Services ожидают от поставщика услуги, что все данные инструменты будут использованы для обеспечения беспрерывной работы уже не отдельных виртуальных машин, а их бизнес-сервисов и бизнес-процессов в целом и разговор «ой, у меня не работает виртуальная машина» просто не может произойти в рамках облачных Managed Services. Также клиенты ожидают от поставщиков Azure Managed Services, что их методологии и подходы к Operational Excellence тоже будут трансформированы и адаптированы к облачным условиям, где используются не только реактивные инструменты мониторинга и автоматизации здоровья решений и SLA, но и службы автоматического улучшения инфраструктуры бизнес-сервиса, исходя из возможностей аналитики, поиска аномалий и предсказаний средствами облачных сервисов типа Log Analytics или Sentinel. И, безусловно – клиенты ждут помощи в миграции в облако и дальнейшей адаптации их традиционных «наземных» решений – этот аспект даже не обсуждается – и если непосредственно миграция уже проведена – чаще всего это вариант с миграцией существующих «наземных» сервисов в виде виртуальных машин IaaS Azure – клиенты ожидают от поставщика Azure Managed Services дальнейших шагов по трансформации такой инфраструктуры в нативные сервисы Azure.

И здесь первая огромная разница между традиционными и облачными Managed Services – заказчик видит в поставщике Azure Managed Services не просто «аутсорсовые руки», которые он будет использовать для выполнения рутинных операций типа «перегрузить виртуальную машину», а именно доверенное лицо, которое в первую очередь предоставляет экспертизу по «движению в облако», причем заказчик ожидает, что получит возможность общения с высококлассным SME (Subject-Matter Expert) по всему возможному спектру сервисов Azure, который обозначен в контракте, и общение между заказчиком и поставщиком услуг будет проходить в стиле знаменитого диалога:

— Теперь вот такое предложение: а что, если
— Не стоит.
— Ясно Тогда, может быть, нужно
— Не нужно.
— Понятно. Разрешите хотя бы
— А вот это попробуйте.

Пожалуй, повторюсь по поводу этого пункта, поскольку до многих руководителей «традиционных» Managed Services этот момент доходит, как до того диплодока с очень длинной шеей – в случае с публичным облаком типа Azure заказчик самостоятельно может выполнять большое количество базовых операций – благо, Azure существенно упрощает многие административные рутинные функции и предоставляет отличный инструментарий управления – будь то портал Azure или Azure PowerShell сотоварищи – и это не те местечковые «облака» с банальными виртуальными машинами, которые расплодились за последние 10-15 лет и так и не превратившиеся в настоящие облака, и которые не в состоянии предоставить нормальный инструментарий управления для клиентов и потом все «пляски с бубнами» вокруг каждой виртуальной машины должны выполняться исключительно персоналом провайдера Managed Services. В случае Azure заказчик не нуждается в столь плотной «опеке» и «залоченной» облачной инфраструктуре, к которой имеют доступ только сотрудники поставщика «традиционных» Managed Services – фактически, это создает промежуточное звено во внедрении решений и существенно замедляет процессы – что полностью противоречит задачам облаков – ускорению бизнеса путем быстрой адаптации и развертывания ИТ сервисов. Но Azure продолжает быть достаточно сложным для инженеров заказчика, в ответственность которых входят именно бизнес-сервисы, а не то, как их работа обеспечивается в Azure – потому именно экспертные услуги со стороны поставщика Azure Managed Services и являются главной отличительной чертой «нового» провайдера современных облачных Managed Services.

Вторая отличительная черта поставщика Azure Managed Services – это SLA. Нет, не тот SLA, о котором любят писать провайдеры Managed Services в контрактах – про гарантированное время ответа и восстановления, это в реальности мало кого интересует в облачных сервисах – облако Azure куда стабильнее всех этих «местечковых облачков» – а действительный доказанный SLA конкретных бизнес-сервисов. Именно так – заказчик дает запросы на предоставление требуемого уровня SLA для своих критических сервисов, а поставщик Managed Services – их обеспечивает. И здесь уже в дело вступает первый пункт – поcтавщик услуг Azure Managed Services предоставляет не «руки», а «головы», в задачу которых входит в том числе и совершенствование инфраструктуры заказчика (в рамках контракта Managed Services) для достижения необходимого уровня SLA конкретного критического бизнес-сервиса. Дальше уже исключительно техническая и финансовая часть задачи по достижению требуемого SLA – возможно ли такое технически в рамках Azure и конкретного бизнес-приложения заказчика и готов ли заказчик платить за все «хотелки» для достижения такого SLA. А поскольку в рамках Azure можно «наворотить» многое для достижения требуемой высокой доступности, надежности, защиты от сбоев и восстановления конкретного решения – то задача вполне решаемая для «настоящих» специалистов поддержки (а не L1, который «должен перегрузить ВМ») без особых проблем. Но самое интересное в данном случае с SLA – если само «наследованное» приложение не адаптировано к работе со средствами масштабирования и высокой надежности в Azure и требуется модификация или даже тотальное изменение архитектуры решения. И тут вступает в дело третья, и, по большому счету – самая важная – отличительная черта современного облачного поставщика Managed Services в отличие от «традиционных» Managed Services.

Итак, отличие третье – основные работы современные облачные провайдеры Managed Services выполняют для заказчиков не в рамках «тикетов» на «перегрузку ВМ» или «изменение размера ВМ», а в рамках постоянной адаптации и оптимизации клиентских сервисов в облаке. Рассматривайте это, как продолжительный непрекращающийся разбитый на фазы проект модернизации, внедрения новых компонентов, оптимизации существующих и т.п. Никаких устаревших бизнес-моделей, где в контракте оговорено количество виртуальных машин, сетей и прочего для обслуживания, а все новое – это отдельный «проект по планированию и развертыванию», который выполняют «Professional Services». В случае облачных Azure Managed Services все развитие инфраструктуры в облаке, возможно, с планами на год или даже несколько лет – это задачи и ответственность команды Azure Managed Services. Выглядит очень требовательно? Возможно, но речь не идет о «переписывании» приложений (хотя такие сервисы и предлагаются некоторыми поставщиками услуг облачных Managed Services), а о консультационной работе с разработчиками заказчика и рекомендациях по изменении кода приложения или архитектуры согласно лучшим практикам Microsoft для Azure. Фактически, специалисты из команды Azure Managed Services выступают и постановщиками задачи для разработчиков (совместно с заказчиком) и SME по архитектуре решения, поскольку одна из зон ответственности провайдера Azure Managed Services – это SLA приложений и сервисов и их архитектура должна быть спланирована под задачи соответствия договоренному SLA. А что насчет планирования и внедрения новых сервисов в облаке для заказчика – и это тоже работа команды Azure Managed Services. Во-первых, потому, что любая облачная инфраструктура – это в первую очередь следование лучшим практикам и они говорят о построении решений типа виртуального ЦОД с архитектурой HUB-SPOKE и после построения центрального хаба все дополнительные сервисы подключаются по типовым проектам, как spoke – и «городить» там что-то серьезное, с привлечением «Professional Services», вообще не требуется. А во-вторых – именно команда Managed Services обладает полной актуальной информацией по всей инфраструктуре клиента, возможных дополнительных ограничениях или требованиях, планах по развертыванию других сервисов и многой другой информацией – потому, фактически, проект подобных улучшений или будет связан с длительным процессом передачи знаний между командой Managed Services и командой «архитекторов» Professional Services c последующими согласованиями результатов и т.п. – что делает такой проект существенно громоздким и дорогостоящим, или может быть выполнен командой Managed Services с привлечением необходимых SME по каким-то специфическим решениям как раз из команды Professional Services. Хотя, как показывает опыт работы – инженер L2 Azure Managed Services после года активной работы в среде крупного корпоративного заказчика даст большую фору «архитектору» Professional Services по планированию и внедрению решений в обслуживаемой среде – поскольку имеет практический опыт и куда более глубокое понимание конкретной среды – так что в реальности, по личному опыту – привлечение SME от «Professional Services» вообще не требовалось – все планирование и внедрение новых решений и модернизация существующих для соответствия SLA выполнялись только силами L2 инженеров и L3 архитекторов Azure Managed Services, без привлечения сторонних «экспертов».

И здесь в дело вступает еще одно отличие – для нормального взаимодействия с клиентом требуется постоянный технический диалог, в рамках которого обсуждаются планы и проекты, а клиент может обратиться с соответствующими техническими вопросами типа «А нельзя ли сделать так?» к тому самому SME по Azure, который имеет полное представление об инфраструктуре клиента. И такой диалог должен быть постоянным, регулярным и проактивным со стороны поставщика Azure Managed Services, т.е. – команда Azure Managed Services, которая работает с конкретным заказчиком, должна иметь в своем составе кого-то, кто будет выполнять функции условного «Technical Account Manager» (TAM) для клиента. Практика показывает, что именно L3 support Azure Architect прекрасно справляется с регулярными техническими коммуникациями с заказчиками и является для них тем самым основным SME по Azure, единой точкой контакта по всем техническим вопросам и принимает участие во всех встречах/совещаниях по планированию и развитию инфраструктуры, и, конечно же – лидером команды Azure Managed Services для конкретного заказчика. Данный условный TAM должен обладать полным знанием об инфраструктуре заказчика, быть в курсе планов развития инфраструктуры, выделять и планировать ресурсы команды под будущие проекты и вести текущие проекты с точки зрения технической экспертизы и управления. И, опять же – как показывает практика – от персоналии такого вот TAM во многом зависит успешность работы с конкретным заказчиком, его удовлетворенность сервисом и многое другое. Так что регулярные созвоны пару раз в неделю и работы на опережение (все эти Operational Excellence – про это – в следующей части) очень даже требуется со стороны TAM.

Еще одним различием облачных Managed Services и «традиционных» является «цена вопроса» – переход от «подсчета по головам», т.е. по количеству обслуживаемых виртуальных машин с фиксированной ценой за одну ВМ, к проценту от цены утилизации в облаке. Согласитесь, считать стоимость облачных сервисов по «головам» ВМ, в то время, как одна из задач современных Azure Managed Services – оптимизация инфраструктуры, обеспечение SLA для бизнес-сервисов и приложений – требует модернизации «зашитых» в ВМ приложений в IaaS окружении в сервисы PaaS и что автоматически удаляет ВМ в будущем – крайне странно. Плюс в Azure масса сервисов, которые требуют управления и которые не посчитаешь «по головам». Потому – только процент от утилизации. Опять же – в зависимости от набора предоставляемых в рамках Managed Services услуг процент может варьироваться от 10% до 30% стоимости самих утилизированных ресурсов Azure. Это, ко всему прочему, двигает заказчика более пристально относиться к вопросам стоимости и оптимизации инфраструктуры (что упрощает и внедрение SLA бизнес-сервисов для команды Managed Services), а с другой стороны – Managed Services заинтересована в постоянном развитии инфраструктуры и драйвинге процессов миграции других сервисов заказчика из локальной инфраструктуры в облако. И показатель роста утилизации (и, соответственно, роста стоимости услуг Azure Managed Services) – отличный KPI для новой облачной команды (наряду с обновленным KPI по SLA – только не того, который представляет «непонятные тикеты» ответа, а SLA бизнес-приложений заказчика).

И вот про KPI и прочие шаги, которые надо предпринять провайдеру услуг (типа реализации облачного варианта Operational Excellence) для трансформации «традиционного залоченного» Managed Services в современный облачный/Azure Managed Services – мы поговорим в следующей статье на эту тему.

Продолжение – следует…

интересная серия видео, на которые рекомендую обратить внимание – это “открытое собеседование” на позицию Azure L2 support engineer (попросту “администратор Azure”) – которое поможет вам сориентироваться в требованиях к позиции и оценить свои знания:

  • * ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.01 – https://youtu.be/HmpgQoahXTA
  • * ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.02 – https://youtu.be/cFzd62vlB9M 
  • * ИТ-карьера – Azure L2 support engineer – публичное собеседование на позицию, что нужно знать – ч.03 – https://youtu.be/DECMirInQ2I

Игры: достаем из коробки Xbox Series S, обзор и сравнение с Series X/One X, тестируем 4К картинку в WoT–первые впечатления


Вот, дождались! Новый XBOX Series S у меня в работе (вернее – играх). И даже не один, а сразу два – потому что будет еще и распаковка и обзоры XBOX Series X . Но начнем все же с более дешевой и “слабой” модели XBOX Series S, которая действительно получилась далеко не однозначной. Напомню, что Series S – это “обрезаный” вариант XBOX Series, который не дотягивает по некоторым параметрам игровой производительности не только до “старшего брата” XBOX Series X, но даже и до старичка XBOX One X.


Игры: достаем из коробки Xbox Series S, сравнение с Series X/One X, тестируем 4К картинку в WoT

Вот так выглядят технические характеристики новой младшей игровой консоли от Microsoft – XBOX Series S:

Processor
  – 8x Cores @ 3.6 GHz (3.4 GHz w/ SMT) Custom Zen 2 CPU

Graphics
  – 4 TFLOPS, 20 CUs @ 1.565 GHz Custom RDNA 2 GPU

Memory
  – 10 GB GDDR6

Memory Bandwidth
  – 8 GB @ 224 GB/s, 2GB @ 56 GB/s

Internal Storage
  – 512 GB Custom NVME SSD

I/O Throughput
  – 2.4 GB/s uncompressed, 4.8 GB/s compressed

Expandable Storage
  – 1 TB Expansion Card (matches internal storage exactly)

External Storage
  – USB 3.2 External HDD Support

Optical Drive
  – None, digital-only

Performance Target
  – 1440p @ 60 FPS, up to 120 FPS

Size
  – 275mm x 151mm x 64mm


Полезные линки

И что вам сказать про первые ощущения от XBOX Series S? Консолька получилась достаточно компактной, лёгкой (по крайней мере не ощущается тяжёлым шлакоблоком, как новый XBOX Series X и даже тот же XBOX One X), вполне себе производительной и горячей – в прямом смысле этого слова. Греется XBOX Series S очень даже сильно и слабо верится в тут красивую историю с вебкастов Microsoft, где, типа, XBOX Series S все время стоял на книжной полке позади докладчика среди книг. Он пы там с его “выхлопом” с замкнутом пространстве уже бы пожар устроил 😉 Это о том, что, почему-то, не замечают в XBOX Series S другие обзорщики и тестеры, и я бы побоялся ставить XBOX Series S куда-то в закрытое пространство во избежание – даже на ту же нижнюю полку, которая у меня есть в столике, на котором стоит телевизор. Да, там есть примерно 30см вертикально го пространства между полками, но этого явно будет недостаточно для того мощного потока горячего воздуха, который выдувает кулер. Наверное, так и оставлю лёжа у телевизора. 😉

А теперь – о самой больной теме – производительности и играх в 4К. XBOX Series S проектировался под 1440p@120fps – это максимальный режим картинки, которую он может выдавать со своими 4TFLOPS (для справки – XBOX Series X выдает 4K@120fps).Что касается 4К игр в XBOX Series S (а также видео и т.п.) – здесь есть несколько сценариев, о которых говорит Microsoft – первый – это масштабирование картинки игры с 1080р/1440р картинки до 4К (с обработкой, но некоторой потерей качества), второй – это сама игра соглашается с тем, что 4TFLOPS ей хватит для работы 4К при 30-60fps и САМА, ПРИНУДИТЕЛЬНО, включает режим работы 4K@60fps. Некоторые новые игрушки, которые разрабатывались под XBOX Series S – уже умеют работать с этой фичей. А видео – и так будет идти в 4К без проблем. Если говорить о реальных наблюдениях, то иногда масштабирование видно – простой прогон “чертиков” в World of Tanks показал, что такие артефакты масштабирования до 4К типа гребенки-лестницы вполне можно заметить на тех же границах изображений объектов – особенно, так, где идет контрастный переход – так, в начале WoT это хорошо заметно на маске пушки, а после – на краях шевронов результатов.

И что меня очень удивляет в XBOX – и что, я надеялся, пофиксят в XBOX Series S|X – это его способность работать с основными приложениями, учитывая, что поддержка клавиатур и мышек уже давно работает – почему нельзя было запустить нормальный браузер, почтовый клиент и тот же офис на очень даже производительной машинке? Типа – ввел свой аккаунт с Office 365 – и поехали. Тогда бы XBOX Series S точно оправдывал бы свою цену и позицию настоящего домашнего цифрового центра.


Обзоры предыдущих XBOX и геймпада Microsoft XBOX Elite Series 2:

  • ГадЖеТы: распаковка XBOX One X и сравнение с XBOX One S в WoT в режиме 4K HDR – https://youtu.be/JXalUSTX6jk
  • ГадЖеТы: достаем из коробки и тестируем Bluetooth на новом геймпаде Microsoft Xbox Elite Series 2 – https://youtu.be/n3AskUZWlZw
  • World of Tanks XBOX version – самоходка Dicker Max против тяжей VIII уровня – 4 убитых тяжа – https://youtu.be/-aYLGTGC96g


Семинары по AZURE–фундаментальные возможности и основы управления AZURE, использования сервисов безопасности, надежности и мониторинга в AZURE


Подписаться на канал ►►►
Мой LinkedIn ►►► 
ИТ-карьера сисадмина-2019 ►►►
Подготовка к AZ-900 ►►►
Как стать системным администратором ►►►
ИТ карьера – что для этого нужно ►►►
Еще про Azure и серверы ►►►
Про производительность дисков ►►►




По приглашению компании МУК –
https://muk.ua/ – прочитал несколько семинаров по технологиям Azure, в основном в рамках того самого базового курса по Azure, который потом предполагает сдачу сертификационного экзамена Microsoft Az-900 – http://bit.ly/Exam-Az-900 – как раз для тех, кому лениво смотреть весь цикл серий (тем более, что я их так пока и не закончил). Но, если у вас есть потребность “быстренько” познакомиться с основными концепциями и технологиями Azure всего за 4 часа, а не за 15 часов (как в моем курсе http://bit.ly/Exam-Az-900) – тогда смотрите эту “короткую” серию 😉

Темы первого семинара “Основы управления AZURE и базовые сервисы AZURE”


  • Базовые концепции облаков – надежность, эластичность, масштабируемость
  • Датацентры Azure и высокая доступность
  • Утилиты управления Azure – портал, PowerShell, CLI
  • Понятие Resource Group и развертывание ресурсов
  • Основные сетевые сервисы в Azure
  • Основные сервисы хранилищ в Azure
  • Резервное копирование и DR в Azure
  • Виртуальные машины в Azure, отказоустойчивость, мониторинг
  • Вычислительные сервисы в Azure – App Services, Functions
  • Сервисы управления процессами – Power Automate
  • Сервисы контейнеров в Azure


Azure – начальный технический обзор основных сервисов Azure – мой доклад на онлайн-семинаре MUK


Кстати, в конце видео я упоминаю про так называемое “публичное собеседование” –
https://youtu.be/pyzxPupDbI8?t=12811 – эта такое себе анонимное (по желанию) собеседование под запись или сразу в прямом эфире с разбором полетов потом – чтобы желающие сразу могли оценить требования крупной компании на простую должность типа инженера/архитектора поддержки клиентов в Azure. Потом я это опубликую тут, на канале, в разделе ИТ-карьеры – http://bit.ly/ITcarriera_ – а то народ периодически спрашивает, что нужно знать и как понять, знаешь ли ты “это” и просит записать видео – а записывать абстрактно как-то не хочется – типа, перечисления – вот, это, это и это учите, а хотелось бы сделать такой вот живой диалог, плюс – можно же сразу знать, что учить, а я еще буду в конце такого “собеседования” рассказывать, как и для чего 😉 В общем, если вы вдруг хотите поучавствовать в таком эксперименте – добавляйтесь ко мне в контакты в LinkedIn –  https://www.linkedin.com/in/iwalker2000/ и при добавлении не забудьте указать в сообщении, что хотите поучавствовать в онлайн собеседовании 😉


Смотрите продолжение моего доклада по Azure Fundamentals на онлайн семинаре, который проводит по пятницам компания МУК ( https://muk.ua/ ). Первую часть семинара можете посмотреть в записи тут – https://youtu.be/pyzxPupDbI8 – а также напомню, что у меня на канале есть 13 серий базового курса по Azure, который потом предполагает сдачу сертификационного экзамена Microsoft Az-900 – http://bit.ly/Exam-Az-900 . А темами данной части семинара по Azure для технических специалистов стали следующие возможности и функции Azure:

Темы второго семинара “AZURE – основы использования сервисов безопасности, надежности и мониторинга”

  • * Безопасность Azure
    • Защита учетных записей в Azure Active Directory
    • Политики безопасности в Azure
    • Средства защиты данных, шифрование, ключи и секреты
    • Сетевая безопасность Azure
    • Безопасная конфигурация Azure VM
    • Azure Security Center
    • Best Practices для облачной и локальной инфраструктуры с сервисами безопасности Azure
  • * Средства защиты от сбоев
    • Гео-репликация данных
    • Гео-репликация служб
    • Azure Backup
    • Azure Site Recovery
  • * Архитектурные решения
    • Мониторинг инфраструктуры Azure
    • Azure Monitor/Diagnostic
    • Базовые уведомления
    • Azure Automation
    • Azure VM/Apps Insights
    • Azure Log Analytics
    • Использования API для автоматизации мониторинга


Azure – 2я часть – по основнам безопасности, надежности, мониторингу Azure – онлайн-семинар MUK


Другие доклады по облачным и серверным технологиям у меня на канале:

Достаем из коробки "самый маленький ПК" CHUWI LarkBox на Windows 10 – Raspberry Pi нервно курит в сторонке


Заказать CHUWI LarkBox на Ali ►►► 
Магазин CHUWI ►►►
Обзор GPD P2 Max ►►►
GPD Win Max ►►►
Raspberry PI 8GB здесь ►►►
NAS из Raspberry PI ►►►
Обзор китайского миниПК/сервера ►►►
Подписаться на мой YouTube канал iWalker2000 ►►►  
ИТ-карьера сисадмина-2019 ►►► 
Подготовка к экзамену по Azure AZ-900 ►►► 
Как стать системным администратором ►►► 
ИТ карьера – что для этого нужно ►►►  |
про Azure, облачные и серверные технологии ►►► 

Итак, процессорные технологии мельчают и холоднеют и теперь китайцы решили “переопределить понятие ПК”, превратив “обычный настольный ПК” в совсем уже меленькую коробочку, которая способна почти на все (кроме, разве что, игр).

Ярким примером такого нового миниатюрного рабочего места стал мини ПК Chuwi LarkBox с процессором Intel Celeron J4115, 6ГБ ОЗУ и 128ГБ хранилища eMMC на борту, с полноразмерным HDMI портом, поддержкой разрешения 4К и возможностью установки дополнительного M.2 SSD (даже инструкция по разборке коробочки и установке SSD прилагается). И все это добро помещается в коробочке 60х60х40 мм (меньше стандартного Кубика Рубика) и весом 127г (без учета блока питания, который, в принципе – как обычная USB зарядка средних размеров).

Так что Chuwi – компания-производитель этого “чуда враждебной техники” – проделала большую работу и по “впихиванию” такого “железа” в такой корпус, и по созданию системы охлаждения, способной отвести достаточно тепла из такого малого внутреннего объема корпуса LarkBox. Кстати, я уже погонял пару тестов (видео про тестирование производительности будет обязательно, хотя особых цифр я бы не ждал, например, PCmark показал на LarkBox 1296 “попугаев”) и можно сказать, что процессор LarkBox не нагревается выше 70-75С даже при полной нагрузке в тестах, что очень даже не плохо, а температура покоя составляет около 50С. Хотя, говорят, что при установке SSD (которые тоже очень даже горячие по нынешним временам) – LarkBox начинает греться куда сильнее и даже сваливается в постоянный троттлинг.


Достаем из коробки “самый маленький ПК” CHUWI LarkBox на Windows 10 – Raspberry Pi нервно курит в сторонки


Но, вернемся к главному – месту таких мини ПК на рынке и почему Raspberry Pi нервно курит 😉 Итак, мы имеем дело с двумя устройствами примерно равной производительности “железа” и достаточно либеральными ценами. Новая Raspberry Pi 8GB, корпус с тихим кулером и к нему обвес типа подключения SSD “внутри корпуса” –  обойдется вам примерно в 130уе, тогда как при пред-заказе на IndieGoGo данный кубик LarkBox от Chuwi шел по 149уе.

Если вернуться к идее приобретения новой Raspberry Pi 4го поколения с 8ГБ на борту, то главным отсылом и была как раз идея иметь простую компактную рабочую станцию-терминал, способную выполнять основные задачи по работе с Azure – работа в VS Code, Azure PowerShell, Azure CLI, Azure Portal, Azure Storage Explorer, Azure Data Studio и прочие тулы по необходимости. Что показала работа с данными утилитами на Raspberry Pi 8GB – да ничего, большая часть из них просто не работает с Raspberry, не зависимо от установленной ОС – просто никто не портировал сборки – исключение составляет только PowerShell Core 7.x, который Microsoft лично портировала на Raspberry – все остальные утилиты или вообще отсутствуют/не устанавливаются/не запускаются, либо работают из рук вон плохо – например, VS Code, который портирована на Raspberry Pi энтузиастами под названием Code-OSS, которая глючит и в работе, и с расширениями, и производительность оставляет желать лучшего. И да, портал Azure на “местном” Chrome Raspberry Pi также работает очень-очень медленно, я бы даже сказал – мучительно медленно.

А вот то, как “бегает” и реагирует Chuwi LarkBox в интерфейсе, браузере, приложениях очень даже шустро. Я уже писал, что в PCmark 10 LarkBox показал результат 1296, что всего на 50% медленнее того же GPD Win 2 с его m3-7y30 процессором или в 2.5 раза медленнее модного игрового мини ноута GPD Win MAX . Так что в сочетании с 6ГБ ОЗУ достаточно для выполнения LarkBox всех перечисленных выше рабочих задач. В принципе – по работе с порталом Azure вопросов вообще нет, я уже погонял и все открывается с привычно по другим ноутам – типа GPD P2 Max – скоростью. Так чт, похоже, Raspberry Pi с появлением устройств типа Chuwi LarkBox потеряет массу своих поклонников-любителей дешевого “железа” для базовой работы, а вот для “китайцев” типа Chuwi наступят времена косить бабло путем замены на офисных столах “огромных NUC” на аккуратные миниатюрные коробочки – если, конечно, смогут доказать надежность и качество поддержки.

А дальше – будут тесты производительности и различные обзоры новой “игрушки” CHUWI LarkBox

И еще линки на портативные ноуты от GPD, которые у меня в использовании:

  • Портативный игровой мининоутбук-консоль 5.5″ GPD Win – 2016 год на Intel Atom – http://bit.ly/GPDwinplay
  • Портативный игровой мининоутбук-консоль 6″ GPD Win – 2018 год на Intel Core m3 7th gen – https://youtu.be/Knq2ytzxE4g
  • Производительный мини-ультрабук 9″ GPD P2 MAX – http://bit.ly/GPDP2max
  • Обзор GPD Win MAX:синтетические тесты 8″игрового мини ноута и сравнение с “настоящим” игровым ноутом – https://youtu.be/spyA4RilU8k

Обзор GPD Win MAX: синтетические тесты 8" игрового мини ноута и сравнение с "настоящим" игровым ноутом


Заказать GPD Win Max ►►►  
Предыдущая посылка с Ali ►►►
Собираем NAS из Raspberry PI ►►►
Обзор китайского миниПК/сервера ►►►
Обзор GPD P2 Max ►►►
Подписаться на канал ►►►

Продолжаю изучение нового 8″ игрового мини ноутбука от GPDGPD Win MAX, распаковку которого можете увидеть тут, а теперь – смотрите сравнительные синтетические тесты GPD Win MAX и других ноутов и планшетов – как на других платформах от GPD, так и других производителей, но уже на 10м поколении Intel Core. А поскольку GPD начало позиционировать данный GPD Win MAX, как универсальный игровой ноут (в отличие от миниатюрного GPD Win 2 – который был направлен на казуальные игры и эмуляторы страрых платформ) – то я решил сравнить GPD Win MAX не только в GPD Win 2, GPD P2 Max (моим основным мобильным рабочим ультрабуком) и Microsoft Surface Pro 7 (который на той же серии процессора, что и GPD Win MAX), но и с другими “нормальными” игровыми платформами, которые у меня есть – моим минисервером на Core i9-9900 с Nvidia GTX 1650 4GB (про него здесь) и настоящим игровым ноутом Acer Predator Helios 300 – с i7-9750H и GTX 1660 Ti на борту.


Обзор GPD Win MAX: синтетические тесты 8″ игрового мини ноута и сравнение с “настоящим” игровым ноутом

И что вам таки сказать про результаты синтетических тестов GPD Win MAX в PCmark, 3Dmark, GFX Bench и FinalFantasy XV benchmark? GPD с этим GPD Win Max проделала большую работу по охлаждению и повышению производительности непосредственно платформы Intel Core i5-1035G7, и даже добавила в BIOS возможности разгона процессора путем изменения его TDP даже выше максимального показателя в 25W (пробовал до 27W – благодаря мощному охлаждению – работал в тестах без проблем), НО – выше головы не прыгнешь и то, что сделал Intel кривым – Intel Iris Plus Graphic – уже не исправить. Я уже говорил в предыдущем видео, что GPW Win MAX получился очень странным устройством вне ниши – большой и тяжелый, чтобы называться мини ноутом, но при этом еще и недостаточно производительный, чтобы считаться действительно игровым ноутом. И выходит, что его удел – опять же – простые казуальные игры или WoT на минималках – но уже без той мобильности, которую предоставляет GPD Win 2. И, наверное, силы и объемы, которые потратила GPD на технологическую доточку процессора, пытаясь из ничего выжать хоть что-то – стоило потратить на то, чтобы интегрировать простенькую дискретную графику в тот же корпус. Сравнение с “минисервером”, у которого есть GTX 1650 показало превосходство последнего над GPD Win MAX в игровых синтетических тестах в ТРИ раза – при разнице в цене – в 1.5-2 раза. А Acer Predator Helios 300 обгоняет GPD Win MAX в 5-7 раз на графике – при разнице в цене в 2 раза. Т.е. реальное отношение цена/производительность у Predator в 3 раза лучше, чем у GPD Win MAX.

Но Acer Predator Helios 300 большой и тяжелый! – скажете вы… И будете правы! Но и GPD Win MAX уже не такой компактный и легкий, как GPD Win 2 (в реальности от размером как 9″ GPD P2 MAX, но куда толше и тяжелее), и он потерял ту самую “изюминку” мобильного компактного игрового мини ноута для казуала, а вот что он приобрел? Да ничего, в реальности… В том-то и самый важный вывод – на универсальный ноут GPD Win MAX еще не тянет, для большинства современных игр он явно слаб, запускать игры с Nintendo Switch в Cemu за 800уе, если можно тоже сделать на самом Switch, который будет легче и дешевле – абсурд. Вот так и получается, что лучше докинуть денег и купить бескопромисный ноут типа Acer Predator Helios 300, докинув в 2 раза, но получив в результате в 7 раз больше мощности и универсальный аппарат.

Радует только, что разрекламированный порт Thunderbolt 3 в GPD Win MAX “тащит” хорошо и в тестах подключенных Thunderbolt 3 порту NVMe дисков обогнал тот же Lenovo на 20-25% по скорости. Это дает надежду на то, что когда-нибудь можно будет все же “конвертировать” GPD Win MAX в “настольный универсальный игровой ноут” путем подключения к нему eGPU с нормальной внешней картой и дальше гонять его для того же видео.

А еще в защиту GPD Win MAX можно сказать, что он получился очень “холодным” и во всех тестах, даже самых экстремальных – оставался максимум теплым. Да и батарея с зарядкой по протоколу PD 3 очень даже живучая и быстро заряжающаяся. И про это – будет в следующих тестах GPD Win MAX.

А пока напомню линки на другие машинки от GPD, которые у меня в использовании:

  • Портативный игровой мининоутбук-консоль 5.5″ GPD Win – 2016 год на Intel Atom – http://bit.ly/GPDwinplay
  • Портативный игровой мининоутбук-консоль 6″ GPD Win – 2018 год на Intel Core m3 7th gen – https://youtu.be/Knq2ytzxE4g
  • Производительный мини-ультрабук 9″ GPD P2 MAX – http://bit.ly/GPDP2max


GPD Win MAX: достаем из коробки новый компактный 8" игровой ноутбук от GPD – GPD Win MAX – c Intel Core i5-1065G7,16ГБ ОЗУ и геймпадом


Итак, компания GPD, которая специализируется на выпуске компактных и достаточно мощных игровых ноутов и ультрабуков – выпустила новую модель – GPD Win MAX –  которую сам GPD называет развитием линейки игровых портативных субноутбуков-консолей GPD Win/GPD Win 2 (про них я уже рассказывал на своем YouTube канале iWalker2000GPD Win 2 и GPD Win), но в реальности – GPD Win MAX уже не портативный игровой субноут, а на такой себе GPD P2 MAX на стероидах, серьезно увеличившийся в размерах и весе в сравнении с Win/Win 2.


ГадЖеТы:достаем из коробки 8″ игровой ноутбук GPD Win MAX c Intel Core i5 10gen,16ГБ ОЗУ и геймпадом

Потому, смотря на лежащие рядом GPD Win 2 и GPD Win MAX, а особенно – держа МАХ в руках – возникает чувство неправильности в дальнейшем развитии этой замечательной ранее мобильной линейки. Да, “железо” у GPD Win MAX вроде как неплохое и современное – про него подробно в самом видео – но в отличие от GPD Win 2 – GPD Win MAX потерял уникальность серии ввиду своих размеров и веса. Средняя производительность GPD Win 2 в AAA-играх с лихвой компенсировалась его миниатюрностью и возможностью играть на ходу…

Фактически, GPD Win 2 – это такая себе портативная универсальная игровая приставка, на которой можно погонять и средние по требовательности к железу Windows-игры, и запустить эмуляторы старых платформ, и поработать с Windows – если очень надо (я вообще на Win 2 виртуалки запускал “в дороге”), и все это помещается в кармане и его не особо оттягивает.

А вот GPD Win MAX получился весьма противоречивым аппаратом – по своим размерам он явно не портативный – по длине-ширине Win MAX фактически как P2 MAX (и это при том, что у Win MAX экран 8”, а у P2 MAX – 9”) – только вот существенно отличается от P2 MAX по толщине и весу не в лучшую сторону, особенно – по весу… И это делает GPD Win MAX достаточно странным игровым девайсом без какой-то ниши и изюминки предыдущих GPD Win – уже и не портативный, но еще и не нормальный игровой ноутбук, на ходу держать и играть на таком ноуте, используя встроенный гемпад – уже проблематично, а использовать, как настольный игровой ноут – не достаточно производительности в сравнение с другими ноутами, у которых есть сама завалящаяся из актуальных сейчас графических карт.

Так что кроме обязательного тестирования GPD Win MAX в синтетических тестах и в традиционных играх – мне еще предстоит найти для GPD Win MAX его “нишу” в рабочих и просто развлекательных процессах. Впрочем, с рабочими процессами, где я активно использую GPD P2 MAXи так все ясно – у GPD Win MAX довольно специфические и разрешение экрана, и клавиатура, и тачпад, и вес/габариты – потому использовать GPD Win MAX как мобильное рабочее место не очень получится. С играми – будем посмотреть – покатаюсь с GPD Win MAX в метро (в Дубайском метро в “золотом вагоне” есть столики в спинках седений) и погоняю любимые игрушки на нем, в других поездках и просто дома в кресле – посмотрим, насколько это действительно удобно и какие игры подходят для такого стиля игры и производительности платформы.

Хотя, у владельцев GPD Win MAX есть еще и “план Б” для производительности устройства – по крайней мере в режиме “настольной работы” – это наличие у GPD Win MAX порта Thunderbolt 3, который позволяет подключать внешние графические карты eGPU и превращать ноут с неплохим процом Intel Core i5-1065G7 в полее мощную машинку с выделенной графиков – для игр или работы с той же графикой или видео. Правда, я пока жду, когда подобные работоспособные eGPU массово появятся в продаже – пока же про большинство имеющихся eGPU читаешь только отзывы – насколько они глючные или несовместимые с теми или иными моделями видеокарт или портами ноутов. В общем – ждите следующих обещанных обзоров.





А пока напомню линки на другие машинки от GPD, которые у меня в использовании:



  • Портативный игровой мининоутбук-консоль 5.5″ GPD Win – 2016 год на Intel Atom – http://bit.ly/GPDwinplay
  • Портативный игровой мининоутбук-консоль 6″ GPD Win – 2018 год на Intel Core m3 7th gen – https://youtu.be/Knq2ytzxE4g
  • Производительный мини-ультрабук 9″ GPD P2 MAX – http://bit.ly/GPDP2max

Миграция подписок в Azure–EA to CSP, PaYG to CSP и т.п.–часть 1, какая боль–теоретическая и политическая…


О сколько нам проблемок чудных готовит Microsoft’а дух!
И Windows, дитя ошибок трудных,
И Azure, парадоксов друг…
А.С.Пушкин, 2020

Еще немного про работу, ИТ и политику Microsoft по отношению к клиентам и партнерам – будет, скорее всего, в нескольких частях – эта часть первая, вступительная, рассказывающая о самой проблеме, которую Microsoft запросто создал на пустом месте и которую теперь приходится решать с огромными затратами сил.

И эта проблема называется – миграция в Azure. Нет, не та миграция, которая Lift-and-Shift и прочие там сценарии, когда вы берете локальные сервисы и мигрируете их в Ажур – это достаточно просто и вполне понятно с точки зрения логики и бизнеса.

Речь идет о другой миграции – внутри Azure – между разными подписками. Например, вы начали с Pay-as-you-Go и проект удался и вам теперь захотелось перейти на нормальную подписку типа CSP с договором и реквизитами (а не просто платить с чьей-то кредитки). Или, как вариант, с грабительского контракта AE на CSP в Azure.

И вот тут, оказывается, вы попали… У вас будет куда больше технических проблем с миграцией между двумя подписками внутри Azure, нежели с переносом локальных сервисом в Azure. Хотя, казалось бы – чего тут сложного с точки зрения миграции – просто переписать ID объектов – поменять в строке GUID старой подписки на GUID новой – и все…

НО НЕТ! ЭТО БЫЛО БЫ СЛИШКОМ ПРОСТО! Хотя бы потому, что Microsoft, создавая Azure десять лет назад – о таком даже и не думал, пытаясь загнать всех пользователей под одну, только ему удобную бизнес-модель, а индусы, которые все это кодили – вообще не склонны к созданию качественного продуманного продукта с универсальной архитектурой для будущего развития.

ИТАК, если вы вдруг в своей организации решите перейти с одной подписки в Azure на другую (EA to CSP, PaYG to CSP и наоборот), главное, что вы должны знать – это то, что любой технический «специалист» Microsoft, который скажет вам «это просто – там есть специальная кнопочка Move» – нажали и все перенеслось без остановки – или просто не является «техническим специалистом» и никогда не выполнял миграцию EA to CSP, или просто врет – потому гоните его от себя «ссаными тряпками» и пусть возвращается, только когда мигрирует минимум десяток разнообразных подписок с разными типами объектов в них. Да и вообще, как показал опыт, у Microsoft в «полях» ни одного такого «специалиста» просто нет.

В чем реальная проблема миграции EA to CSP или Pay-as-You-Go to CSP (и наоборот)? – правильно, в абсолютной непродуманности архитектуры Azure на этот счет и массе технических ограничений Azure для такой миграции. Давайте разберемся, каких именно и как эти ограничения можно обойти:

1. Все объекты служб, созданные из образов Azure Marketplace, не могут быть перенесены из-за технических ограничений Azure. К сожалению, вы не можем проверить наличие или возможность миграции этих объектов с помощью скриптов (с технической точки зрения они являются обычными объектами Azure и отличаются только способами оплаты на уровне подписки). Итак, вы должны знать свою инфраструктуру и идентифицировать подобные объекты «вручную». Как правило, это:

a. разные виртуальные сетевые устройства, такие как F5, CheckPoint, Cisco и прочие межсетевые экраны/шлюзы/маршрутизаторы

b. предварительно настроенные виртуальные машины с приложениями сторонних производителей, такими как CRM, ERP, CMS – например, виртуальные машины с веб-сайтами WordPress и т.д.,

c. Некоторые службы, такие как шлюзы SMTP/SMS/Мобильные уведомления и т.д. – например, SendGrid для отправки электронной почты непосредственно из приложений.

2. Все службы приложений Azure (веб-сайты Azure, Azure App Services) должны быть помещены в исходные группы ресурсов (Resource Groups), в которых они были созданы. Если какая-либо служба приложений была перемещена в другую группу ресурсов, а исходная группа ресурсов была удалена – невозможно перенести эту службу приложений Azure в другую подписку. Если изначальная группа ресурсов еще существует – достаточно вернуть приложение в оригинальную группу. Это связано с ограничениями самой архаичной архитектуры Azure App Services, которая не менялась в Azure еще со времен так называемого Classic Azure – Azure App Services привязаны к так называемому «штампу» в датацентре, который на уровне объекта прописан, как web space – это строка URL, которая, кроме всего прочего, содержит в себе и имя оригинальной ресурсной группы, в которой был создан объект приложения. Проверить это можно тем же скриптом через свойство объекта приложения serverFarmId и сравнив его с именем группы ресурсов или через мастер «Diagnose and solve problems» – там есть возможность проверить, возможна ли миграция данного приложения.

3. Все связанные между содой ресурсы каждого мигрируемого объемкта должны быть помещены в одну мигрируемую группу ресурсов. Это означает, что, например, объект виртуальной, объекты сетевого интерфейса этой виртуальной машины, объект VNET, к которому подключена виртуальная машина, объекты Public IPs для этой виртуальной машины, availability set, установленный для этой виртуальной машины, все виртуальные диски виртуальной машины, диагностические хранилища, объекты резервного копирования и их хранилища и т.д. должны быть помещены в одну группу ресурсов. Типичный пример проблемы миграции – одна VNET в одной группе ресурсов и много виртуальных машин подключены к этой VNET, но размещены в разных группах ресурсов. В этом случае все виртуальные машины и связанные ресурсы должны быть размещены вместе с VNET. Если окажется, кто к той же VNET будет подключено приложение из другой ресурсной группы, то мы не сможем выполнить миграцию без простоя, поскольку у VNET есть связанный объект из другой ресурсной группы, а перенести его в мигрируемую группу ресурсов мы не можем, поскольку миграция перемещенных из оригинальной ресурсной группы приложений невозможна. Значит, перед миграцией такой ресурсной группы с VNET, к которой подключены объекты других ресурсных групп – мы их должны отключить от сети, что и создаст простои. Тоже касается и таких вещей, как VNET peering с другими сетями в других ресурсных группах, что приведет к остановке трафика между сетями и простоям.

4. Некоторые типы объектов Azure вообще не могут быть мигрированы между подписками Azure. Вот такое вот вам планирование архитектуры Azure! Обычно, в реальной жизни – это типы Backup Recovery Points, некоторые SKU общедоступных IP-адресов, старые «классические» объекты Azure, которые существуют только для совместимости, если ранее у вас были «классические» развертывания. Все эти типы ДОЛЖНЫ быть отключены от существующих объектов и удалены. Наиболее проблемной частью является тип Backup Recovery Points, поскольку он является частью резервной копии виртуальной машины, и это означает, что все резервные копии с точками восстановления должны быть остановлены перед удалением объектов точки восстановления (данные резервной копии будут сохранены). Чтобы проверить подписку на эти объекты, я написал небольшой скрипт PowerShell, который использует в качестве источника список совместимых типов Azure на GitHub (надеюсь, его будут поддерживать в актуальном состоянии, поскольку на него ведет ссылка с сайта Microsoft).

[CmdletBinding()]

param (

[Parameter(Mandatory=$false)]

[string]

$SubsID,

[Parameter(Mandatory=$true)]

[string]

$RGName

)

if($SubsID)

{

Connect-AzAccount -Subscription $SubsID | Out-Null

}

else {

Connect-AzAccount | Out-Null

}

$res = Invoke-WebRequest -Uri https://raw.githubusercontent.com/tfitzmac/resource-capabilities/master/move-support-resources.csv -Method Get

$list = Convertfrom-csv -InputObject $res.Content

$resObjs = Get-AzResource -ResourceGroupName $RGName

foreach($obj in $resObjs)

{

$resName = $obj.Name;

$resType = $obj.ResourceType;

$resID = $obj.ResourceId;

$resList = $list -match $obj.ResourceType

if($resList)

{

$i = [int]$resList[0].’Move Subscription’

if($i -ne 1)

{

Write-Host “`n`t***`tOBJECT CAN _NOT_ BE MIGRATED: $resName has type $resType ($resID)” -ForegroundColor Yellow -BackgroundColor DarkRed

}

else {

Write-Host “`nOBJECT IS SUPPORTED FOR MIGRATION: $resName has type $resType ($resID)” -ForegroundColor Green

}

}

else {

Write-Host “UNKNOWN OBJECT’s TYPE: $resName has type $resType ($resID)” -ForegroundColor DarkRed -BackgroundColor Yellow

}

}

Read-Host “`n`n`n[INFO]Finished. Press Enter…”

«Переварите» и теперь «наслаждайтесь» той херней, которую породил Microsoft с подписками в Azure! Представили себе сложность процесса миграции, при том, что вы хотите просто получить более удобную для вас схему оплаты?! Иногда, затраты на миграцию между подписками превышают экономический эффект от перехода на новую подписку (более низкие цены) в течение года… А как же, Microsoft заботится о вас и, главное, ваших денежках!

А если вы еще не осознали после приведенных выше ограничений всей проблематичности, которая ожидает вас при миграции, приведу пару стратегий миграции и реальных примеров из жизни:

· Сценарии 2,3 потребуют только точного перемещения связанных объектов виртуальных машин/сетей/служб приложений в соответствующие группы ресурсов, как описано выше, на основе информации из самописных скриптов, которые рекурсивно проверяют все цепочки зависимостей. Т.е. здесь мы тратим время наших админов. НО! Есть некоторые сценарии, когда будет наблюдаться простой или недоступность ваших ресурсов при миграции. Самый типичный тому пример – это две группы ресурсов, в каждой из которых находятся «свои» ВМ, подключенные к «своей» сети VNET. А чтобы обеспечить взаимодействие ВМ в разных VNET по сети – между сетями созданы соединения – VNET Peering. В таком случае – миграция групп ресурсов будет невозможна, поскольку их VNET имеют связанные ресурсы в виде VNET в другой группе ресурсов. И для миграции – потребуется удаление VNET Peering, что приведет к отключению ВМ в мигрируемой группе ресурсов от ВМ в других группах ресурсов и простою на уровне доступности сервисов – примерно на 30 минут, как показывает опыт. После переноса группы ресурсов в новую подписку временно (или постоянно, в зависимости от плана миграции) можно установить VNET Peering между двумя сетями VNET в новой и старой подписках. Хоть что-то хорошее есть – ресурсы, находящиеся в разных подписках – могут обмениваться данными без проблем.

· Сценарий 4 – список объектов должен быть пересмотрен. Как правило, это ненужные или не важные объекты, которые не влияют на доступность решения (например, некоторые счетчики производительности / предупреждения для мониторинга) и могут быть удалены перед миграцией и воссозданы в новой подписке после миграции. Т.е. здесь мы тратим время наших админов.

· Сценарий 1 наихудший из всех, отнимает много времени при планировании и приводит к простоям решения при миграции. Есть несколько способов перенести объекты Marketplace в другую подписку:

o При помощи снимков дисков – хорошо для НЕ интенсивных операций записи в сервисах, которые обслуживаются виртуальными машинами. Создаем снимки существующих виртуальных машин, переносим снимки в новую подписку, создаем там новую виртуальную машину из того же самого образа Marketplace в новой подписке, подключаем/меняем диски новой виртуальной машины на имеющиеся снимки дисков ВМ из старой подписки. Далее начинается время простоя – если сервис имел публичные IP – нам либо нужно будет отключить публичные IP от старой ВМ и перенести в новую подписку и подключить к новой ВМ, либо поменять DNS записи. Потери данных в таком случае будут за промежуток времени с момента получения снимка.

o Служба восстановления сайтов Azure – ASR обеспечивает репликацию данных в реальном времени для виртуальных машин Azure. Это позволяет создавать непрерывную реплику необходимых виртуальных машин в новой подписке и переключаться, когда это потребуется. Время простоя только для разрешения нового публичного IP в DNS или переноса существующего Public IP между подписками, как это указано выше.

o Некоторые объекты из Marketplace нельзя перенести технически – если это не виртуальная машина, а некоторые службы Azure, такие как SoftGrid. В этом случае сервис должен быть удален и заново создан / переконфигурирован в новой подписке вручную. В случае, если вызовы API / строки подключения и т. Д. Этой службы жестко закодированы в других виртуальных машинах / службах приложений – потребуется пересмотреть коды / вызовы.

o Некоторые поставщики программного обеспечения не позволяют выполнять техническую миграцию своих объектов, как описано в первых двух сценариях, ввиду ограничений условий лицензирования или поддержки (мы точно знаем о F5), так что это означает, что эти объекты должны быть удалены и воссозданы в новой подписке.

Основной риск / проблема для миграции с EA на CSP – это объекты Marketplace, такие как Virtual Network Appliances, такие как брандмауэр / маршрутизаторы, особенно без возможности технической миграции (заблокированные поставщиком, например F5).

Давайте рассмотрим следующий действительно распространенный сценарий миграции:

1. Инфраструктура Azure имеет следующие объекты:

a. Общая VNET с разными подсетями в группе ресурсов RG01

b. Виртуальные машины в RG02 / RG03 подключены к VNET в RG01

c. Одна из виртуальных машин содержит CMS (из Marketplace) для корпоративного сайта

d. База данных SQL Azure для CMS

e. VNA F5 (из Marketplace), обеспечивающая безопасную публикацию / доступ к виртуальным машинам и подключенную к VNET

2. Соображения:

a. Мы не можем перенести F5 при помощи снимков из-за лицензионного ограничения, нам нужно пересоздать его.

b. Мы не можем перенести VNET из-за подключенного к нему F5, это означает, что мы должны отключить F5 перед миграцией других объектов.

c. Мы не можем отключить F5 от VNET, только полностью удалив виртуальную машину F5.

d. Мы не можем воссоздать F5 в новой подписке из-за отсутствия VNET до миграции других виртуальных машин и т. Д. Таким образом, это означает, что будет время простоя между удалением F5 из VNET и до тех пор, пока новый F5 не будет создан и настроен вручную в новой подписке в существующая VNET, которую необходимо перенести до новой подписки со всеми зависимыми виртуальными машинами.

e. То же самое, мы должны отключить (удалить) CMS VM перед миграцией VNET. Мы можем делать снимки дисков VM и переносить снимки в новую подписку. Виртуальная машина CMS может быть легко и быстро воссоздана из снимков после первоначальной миграции VNET.

f. Другие виртуальные машины могут быть перенесены напрямую, поскольку они будут перемещены из своих групп ресурсов в VNET RG01.

3. Процесс миграции:

a. Переместить все виртуальные машины / SQL в одну общую RG01 (где размещена VNET)

b. Очистить / удалить все неподдерживаемые типы объектов (отключить резервное копирование и т.п.) в RG01

c. Создание снимков для CMS VM

d. Удалить CMS VM (время простоя веб-сайта CMS начинается)

e. Создать резервную конфигурацию для F5 VNA.

f. Удалить виртуальную машину F5 (время простоя для всех служб начинается)

g. Запустить стандартный процесс миграции группы ресурсов Azure (всех остальных VM, подключенных к общей VNET, от которой уже отключили VNA и CMS) в новую подписку и дождаться его завершения.

h. Создать новую CMS VM из Marketplace, подключить к перенесенной VNET и заменить ее диски на оригинальные снимки со старой подписки.

i. Создать новую виртуальную машину F5 из Marketplace, подключить ее к перенесенной VNET, подключить перенесенные Public IP (чтобы не менять DNS) и восстановить конфигурацию/правила и т.д. из бекапа конфигурации оригинала.

j. На этом время простоя закончено.

Что, после такого объяснения все стало окончательно запутано?! Так вот так оно в Azure с миграцией между подписками и есть… Немного лучше, если у вам архитектура IaaS сделана «правильно», с центральным хабом и подключенным к нему по Peering VNET’ов для отдельных сервисов/приложений – тогда ломать приходится только центральный хаб и можно переключать отдельные VNET с меньшими простоями (как я уже писал выше). Но, в любом случае – для сложной инфраструктуры миграция ресурсов между EA и CSP подписками очень даже мучительная.

«Погоди Игорь! Видел у себя в подписке кнопочку Transfer to CSP – правда, она неактивная, «серенькая»…» – скажут некоторые. И будут правы – кнопочка есть, и она неактивна. Microsoft таким образом создает нездоровую атмосферу на рынке путем «перехвата подписок» – захочет, и предоставит право какому-то «избранному» партнеру, и тот очень легко и без такой вот головной боли, описанной выше, сможет запросто «воровать» подписки клиентов у конкурентов. Подумайте, к кому из двух партнеров Microsoft пойдет клиент, чтобы перейти с Pay-as-You-Go на CSP, если у одного партнера клиенту предлагают такую головоломную процедуру миграции, а второму партнеру Microsoft за какие-то «заслуги» «подарила» кнопочку «сделать все сразу и без головняка»??? Как выбираются партнеры – Microsoft «сам решает, выбирая крупных и лучших» … Такая себе отличная лазейка для коррупции, как, впрочем, и нынешнее полностью коррупционное «человеческое наполнение» Microsoft (я про это писал уже ранее в нескольких своих постах – http://bit.ly/35YRYy4 и http://bit.ly/2REMPHh )… О чем это я? – да о том, кому из партнеров какого клиента отдать на подписку – решает только аккаунт менеджер Microsoft, на основе своих личностных предпочтений, и, естественно, уровня «подмазывания» партнером. Ведь подписка – это вообще – просто продажа воздуха, она ни каким образом не отображает технические навыки того или иного партнера. Таким образом, менеджеры по работе с клиентами Microsoft вообще избавлены от какой-либо ответственности насчет передачи подписок клиентов кому-либо – они просто выбирают «карман», в который будет платить клиент (и который будет получать процент с прибыли как реселлер), и никакой технической ответственности ни партнер, ни менеджер Microsoft не несут. Т.е., как я уже писал выше – менеджер Microsoft выбирает, кому «дать заказ» только из критерия «кто лучше его «подмазал»», а как известно, во всем мире «лучше всего подмазать» – это «отблагодарить нужного человека лично», финансово простимулировать. Это насчет вопроса «про кнопочку» …

А как же технические специалисты Microsoft, неужели они не помогут своим клиентам (даже не партнерам) в такой миграции? Опять же, я уже писал выше, что такого понятия, как «технический специалист», который реально способен решать практические вопросы и имеет практический hands-on опыт работы с теми же продуктами Microsoft – в локальных офисах Microsoft нет. Все, что знают нынешние «технические специалисты» в региональных офисах Microsoft – это заученные мантры уровня технического маркетинга, и не более. Мало того – таких специалистов нет и в технической поддержке Microsoft – пример тому, моя статья про то, как я общался с поддержкой Microsoft на предмет аутентификации пользователей в Azure Functions. А если копнуть чуть глубже, на предмет технических знаний «технических специалистов» Microsoft непосредственно о миграции между EA и CSP подписками в Azure – то там уже совсем мрак-мрачный, многие даже не знают о самой проблеме, типа – «да никаких проблем, все переносится на ура», не говоря уже о понимании ограничений и сценариях миграции – только маркетинговый посыл «у нас все работает, у нас все классно».

И тут самое время перейти ко второй части повествования про миграцию – технической. Тут искушенные в миграции между подписками люди скажут, что непосредственно перед самой миграцией группы ресурсов Azure выполняет проверку на валидность всех объектов и их связей для миграции. Но вот воспользоваться этой опцией в Azure отдельно от самого процесса миграции – для создания плана миграции и понимания блокирующих компонентов – не получится, Azure сразу после проверки начинает зачем-то сразу мигрировать ресурсы (это отдельный вопрос к индуским «архитекторам» Azure – ЗАЧЕМ?! – нельзя было разделить на 2 операции – проверка и если все прошло хорошо – кнопочка Продолжить и Отменить, чтобы оценить миграцию не отдельной группы ресурсов, а инфраструктуры в целом).

Но есть возможность создать глобальный скрипт, который проверяет все ограничения по миграции сразу – чтобы потом оценить инфраструктуру и выработать удобоваримый план миграции с минимальным временем простоя. Для этого нужно воспользоваться тем же API, который вызывает и портал Azure для проверки перед миграцией. Но если вы считаете, что вызов данного API в Azure – дело простого скрипта – могу сказать, что у меня «простой» скрипт на PowerShell разросся до 260 строк кода, а документация по API и какие-либо осмысленные примеры кода (даже отдельных важных фрагментов общего алгоритма) у Microsoft просто отсутствует.

Поэтому – читайте следующий пост, в котором я попробую немного осветит эту казуистическую «индускую логику», в которой даже простой вызов API теперь делается через …

Друге посты и видео по теме Azure и ИТ-карьеры:

Microsoft Exam AZ-900 Azure Fundamentals–бесплатная подготовка к сертификационному экзамену, часть.02: экономика облачных технологий, вопросы по CapEx и OpEx в Azure


Продолжаю серию видео – http://bit.ly/Exam-Az-900 – по подготовке к сертификационному экзамену Microsoft AZ-900 Azure Fundamentals. В этой серии – сразу несколько небольших (вопросов на 4-5), но достаточно неприятных для ИТ-специалистов тем экзамена – Модель Shared Economy в облачных технологиях для снижения стоимости и главная экономическая фишка, под которой продаются любые “облака” – CapEx/OpEx в ИТ. Да-да, в AZ-900 есть такие вопросы, потому я в обзорном видео к экзамену AZ-900 – https://youtu.be/_2-txkA3Daw – и говорил, что для “простого” технического специалиста некоторые вопросы могут быть весьма “далекими” и совершенно непрактичными. Хотя, в реальности – оно так и есть – Microsoft предлагает “правильные ответы” согласно своей маркетинговой идеологии… Так что смотрите и запоминайте, не забудьте пройтись и по линкам.

Подписаться на канал ►►► http://bit.ly/iwalker2000_subs
Мой LinkedIn ►►► https://www.linkedin.com/in/iwalker2000/
Подготовка к AZ-900 ►►► http://bit.ly/Exam-Az-900
Как стать системным администратором ►►► http://bit.ly/ITProSysAdmin
ИТ карьера – что для этого нужно ►►► http://bit.ly/ITcarriera_
Обзор GPD P2 Max ►►►
https://youtu.be/HZfN_geAvQI
Все обзоры Windows 10 ►►► http://bit.ly/Windows10_review
Про производительность дисков ►►► http://bit.ly/Disk_perf_p01


Exam AZ-900 Azure Fundamentals – подготовка к экзамену, ч.02: CapEx и OpEx, экономические вопросы

Предыдущие видео данной серии про экзамен AZ-900 смотрите здесь – http://bit.ly/Exam-Az-900 :

  • Exam AZ-900 Azure Fundamentals – подготовка к экзамену, ч.01: общий обзор экзамена и как готовиться – https://youtu.be/_2-txkA3Daw

Azure и совместное потребление

  • Microsoft покупает много серверов сразу по цене, которая значительно ниже розничной (в реальности – Microsoft заказывает блоки у компаний типа QCT и собирает в стойки по своей архитектуре – Open Compute Project (OCP) – https://azure.microsoft.com/en-us/global-infrastructure/hardware-innovation/ ).
  • Microsoft собирает их облако, которое позволяет максимально плотно заполнить нагрузкой каждый физический сервер – 80% нагрузки на сервер в сравнении с 30% «обычной» нагрузки на сервер в организациях.
  • Аналогично – для хранилищ и сетевой инфраструктуры.
  • Microsoft перепродает «плотно упакованные» серверы по частям – в виде виртуальных машин и прочих сервисов.
  • Суммарная стоимость виртуальных машин, запущенных клиентами на таких серверах – выше стоимости всех серверов. Профит!
  • Чем больше клиентов и плотнее упаковка и выше нагрузка на серверы – тем выше профит… Есть возможность снижать цены или предоставлять доп.сервисы дешевле.
  • Про экономику облачных датацентров – http://cloudscaling.com/blog/cloud-computing/understanding-cloud-datacenter-economies-of-scale/
  • Клиент арендует по принципу «заплатил только за использование» и не нуждается:
    • В приобретении серверов и начальных крупных затратах
    • Помещении для хранения, средств энергопитания
    • Не нуждается в обслуживании физических серверов
    • Клиент быстро может нарастить мощности своих вычислений без дополнительных затрат


СapEx & OpEx в ИТ и облаках:

  • CapEx – разовые крупные покупка любого «железа», «софт», оплата проектов по строительство ЦОД (серверных комнат), разработка программного обеспечения и т.п.
  • OpEx – регулярные выплаты по потребностям – зарплата ИТ-специалистам, связь и коммуникации от провайдеров, электричество, обслуживание и комплектующие материалы, подписка на ПО и сервисы.
  • Облачные провайдеры сдают в аренду готовые сервисы (виртуальные машины или программные комплексы – например, Office 365 – это почта, взаимодействие в команде, хранилища и т.п.) с помесячной оплатой за услуги – по размеру ресурса или количеству пользователей и берут на себя все затраты по аппаратному и программному обеспечению, строительству и обслуживанию сервисов.
  • Таким образом – облако переводит для конечного пользователя CapEx в OpEx – пользователю не нужно тратить деньги на начальные инвестиции (CapEx) и он просто арендует те ресурсы, которые ему требуются, выплачивая помесячно стоимость только потребленных ресурсов (OpEx).
  • OpEx в облаках – фактически, рассрочка выплаты тех же денег, которые потратила бы компания на покупку железа и т.п. в течение 5 лет (обычно).
  • Эффективность переноса решения в облако Azure позволяет посчитать Total Cost Ownership (TCO) Calculator на сайте Azure.

В следующем видео – разбор вопросов AZ-900 по теме характеристики облака – эластичность, масштабируемость, высокая доступность, отказоустойчивость, аварийное восстановление.

Друге видео то теме Azure и ИТ-карьеры:

  • Доклады по серверным технологиям Microsoft Windows Server – http://bit.ly/WindowsServer_overview
  • ИТ-карьера: как стать ИТ-специалистом, основные шаги для успешной карьеры в ИТ – http://bit.ly/ITcarriera_

Microsoft Exam AZ-900 Azure Fundamentals–бесплатная подготовка к сертификационному экзамену, часть.01: общий обзор экзамена и как готовиться


Подписаться на канал ►►► http://bit.ly/iwalker2000_subs | Мой LinkedIn ►►► https://www.linkedin.com/in/iwalker2000/ | Подготовка к AZ-900 ►►► http://bit.ly/Exam-Az-900 | Как стать системным администратором ►►► http://bit.ly/ITProSysAdmin ИТ карьера – что для этого нужно ►►► http://bit.ly/ITcarriera_ | Загляните на мой блог ►►► http://iwalker2000.com | Обзор GPD P2 Max ►►► https://youtu.be/HZfN_geAvQI | Все обзоры Windows 10 ►►► http://bit.ly/Windows10_review | Про производительность дисков ►►► http://bit.ly/Disk_perf_p01
 

Я уже несколько раз начинал серию “серьёзных” видео про ИТ для системных администраторов и вообще 😉 Это была и серия про ИТ-карьеру – http://bit.ly/ITcarriera_  – в рамках которой я планировал перейти от простых рекомендаций по карьере в ИТ к техническим рекомендациям, и серия про Microsoft Azure для системных администраторов – http://bit.ly/WindowsServer_overview – где я планировал рассказать про Azure с точки зрения миграции ИТ-инфраструктур и гибридных решений. И обе эти серии тихо закрылись – ввиду малого интереса аудитории к ним и больших временных затрат на их подготовку – как бы – “если людям не интересно, то чего я буду тратить на это свое время”.

И вот, я таки снова решил начать новую серию – которая будет менее абстрактной, чем предыдущая, поскольку она будет отвечать конкретным задачам – не научить некоего “Васю-будущего админа облаков” чему-то вообще, а помочь в подготовке и сдаче достаточно специфического сертификационного экзамена Microsoft – Exam AZ-900: Microsoft Azure Fundamentals (Основы Microsoft Azure). И даже если вы не собираетесь сдавать сам экзамен, то я постараюсь построить материал так, чтобы вы могли получить современные и обширные знания по облачным технологиям вообще и технологиям Microsoft Azure в частности. И да, видео не будут иметь ограничений по уровню начальных знания – их можно (и нужно) смотреть и нетехническим людям в ИТ – для расширения кругозора и понимания того, что вы продаете и с чем каждый день сталкиваетесь в повседневной работе/жизни – например, как мне сказали “Облако – это OneDrive” 😉 Нет, это один из множества сервисов, которые предоставляет облако. И да, поскольку я пообещал этими видео помочь людям – я постараюсь оперативно создавать новые и закончить всю серию, охватив все очень обширные темы экзамена. Так что подписывайтесь на канал –http://bit.ly/iwalker2000_subs – продолжение следует. А между сериями будут другие обычные видео про гаджеты и т.п.


Exam AZ-900 Azure Fundamentals – подготовка к экзамену, ч.01: общий обзор экзамена и как готовиться



Для кого это серия видео про Azure?


  • Для всех, кто планирует сдать экзамен Exam AZ-900: Microsoft Azure Fundamentals – Основы Microsoft Azure.

      – Для тех, кто планирует подготовиться самостоятельно, но им тяжело сконцентрироваться на конкретных направлениях изучения ввиду того, что материал экзамена очень обширный.
      – Для тех, кто «не дружит» с английским языком на достаточном уровне и ищет в Интернете возможность поучиться на русском бесплатно.
      – Для тех, кто ищет в Интернете брейндампы данного экзамена бесплатно 😉 но хочет еще и понимать, что он там заучивает

  • Для моих бывших коллег из Microsoft, особенно из отделов продаж, которые ходят и рассказывают, какой классный Azure
    , но потом компания потребовала всех их сдать экзамен – и они его успешно провалили и обратились ко мне за помощью (а вы думали, я вас не потроллю? %) )

  • Для всех, кто собирается работать в ИТ (даже без экзаменов) по направлению облаков, и не обязательно Microsoft Azure
    – эта серия видео будет также идти, как часть моей серии «ИТ-карьера» –
    http://bit.ly/ITcarriera_ и http://bit.ly/itcar_post1

  • А! И для моего сына, которому нужно написать в его Slovenská technická univerzita v Bratislave (STU) курсовую по введению в облака
    😉 Останется только перевести на словацкий.

  • Планы на серию? Это примерно 20-25 роликов по 30-45 минут каждый, с детальным изложением одной из тем экзамена, с ориентировочными вопросами, практическими примерами и т.п.
    – будут выходить по 2-3 видео в неделю, т.е. в общем – около 2х месяцев 😉



Особенности экзамена AZ-900


  • Экзамен абсолютно дурацкий!

  • Это не технический в общем понимании экзамен…

  • В экзамене очень много всякого маркетингового булшита от Microsoft.

  • В экзамене много теоретических и абстрактных вопросов (типа authentication vs authorization, CapEx vs OpEx)

  • В экзамене много спорных вопросов, которые сам Microsoft озвучивает по разному, исходя из ситуации – например, снижения стоимости владения потому, что не нужно столько админов? – в жизни МС руководству рассказывает, что ДА – вы уменьшите потребность в персонале, в экзамене – он же для админов – НЕТ, админов сокращать не надо!

  • В экзамене много вопросов по подпискам, лицензированию, планам поддержки и прочим.

  • В экзамене много вопросов по международным регулятивным требованиям – типа GDPR, NIST, ISO – и сервисам для государственных учреждений.



Особенности экзамена AZ-900 – Если вы ТЕХНИЧЕСКИЙ СПЕЦИАЛИСТ, который работает с Azure, то вы имеете шанс НЕ СДАТЬ его потому, что:

az900-01-05

Особенности экзамена AZ-900 – Если вы НЕ ТЕХНИЧЕСКИЙ СПЕЦИАЛИСТ, а менеджер по продажам Microsoft, или другой «эффективный менеджер», особенно новомодный миллениал – то вы НЕ СДАДИТЕ:

az900-01-06

Основные группы вопросов на AZ-900

az900-01-07

Как подготовиться к сдаче сертификационного экзамена Microsoft AZ-900 Azure Fundamentals?

  • Набраться терпения и просмотреть все видео этой серии 😉
  • У меня на канале еще много видео по теме Azure, особенно здесь – http://bit.ly/WindowsServer_overview и здесь – http://j.mp/Azure_IaaS_2015
  • Подписаться на мой канал, поставить лайк и перешарить эти видео в соц.сетях – это +100 в карму, а карма, как известно, очень помогает на экзамене.
  • Почитать рекомендуемую литературу (см.дальше) и различные источники – я первоисточниками для подготовки буду делиться в следующих, более практических видео по AZ-900.
  • Официальные курсы? Если хотите – идите. Все зависит от самого тренера – как повезет. В мою бытность тренером я подстраивал материал курса под реальные вопросы экзаменов, потому как сам материал курса не предназначен для подготовки к экзамену.
  • Брейндампы? Да, если найдете – сейчас это очень прибыльный бизнес и «бесплатных» найти проблематично, тем более – с комментариями и рекомендациями.
  • Практическая работа – без более-менее внятного представления, как же выглядит Azure Portal и чем отличается Virtual Machine от Web App, сдать будет проблематично.
  • Начните с создания бесплатной подписки и страницы https://azure.microsoft.com/en-us/get-started/

Список книг для самоподготовки к экзамену AZ-900

  • Exam Ref AZ-900 Microsoft Azure Fundamentals – собственно, материалы официального курса Microsoft
  • Learn Microsoft Azure
  • Azure: Microsoft Azure Tutorial for Beginners
  • Microsoft Azure For Beginners: Getting Started with Microsoft Azure
  • Azure: Microsoft Azure Tutorial The Ultimate Beginners Guide
  • Hands-On Cloud Administration in Azure: Implement, monitor, and manage important Azure services and components including IaaS and PaaS

Новые Microsoft Surface – телефон Surface Duo, складной планшет Surface Neo, Surface Pro X на ARM


Итак, Microsoft, на прошедшем в среду, 2 октября 2019, мероприятии, посвященном своим новым устройства линейки Microsoft Surface, презентовала целую гамму новых устройств, которые, фактически, полностью закрывают всю инфраструктуру лептопов и мобильных устройств – лептоп Microsoft Surface 3, профессиональный планшет Surface Pro 7, его облегченную версию на ARM процессоре Surface Pro X, новый и ожидаемый складной планшет Surface Neo (ранее называемый Centaurus), работающий с новой версией Windows – Windows 10X – облегченной и “заточной” под работу с двумя экранами и, совершенно неожиданно – новый телефон-раскладушку с двумя экранами 5.6″ и под управлением Android с глубоко модифицированным UI – Microsoft Surface Duo. Также Microsoft показала беспроводные наушники-вкладыши, от одного вида которых хочется сказать НЕТ!, а услышав цену в 250уе – НЕТ, НЕТ И ЕЩЁ РАЗ НЕТ! НО – вернёмся к обзорам всех этих традиционных Surface Laptop 3, Surface Pro 7, Surface Pro X и раскладушек Surface Neo и Surface Duo.


Новые Microsoft Surface – телефон Surface Duo, складной планшет Surface Neo, Surface Pro X на ARM


Surface Laptop 3 –
https://youtu.be/eITjrh267vs?t=189 – довольно проходной девайс, здесь интересно то, что Microsoft вместе с AMD создал для новых моделей специальный процессор AMD RYZEN Microsoft Surface Edition, пересмотрел концепцию ремонтопригодности и замены комплектующих, расширил линейку моделью с большим размером экрана – 15″ и убрал эту ужасную тряпку на клавиатуре 😉 В общем – такой себе качественный и не очень дешевый ноутбук премиум класса с очень высокой ценой – https://www.microsoft.com/en-us/surface – цены появились на сайте МС уже ближе к утру – с максимальным ценником в 2900уе за i7/Ryzen R7 и 32ГБ ОЗУ – не взлетит, я думаю…
 

Еще более “проходным” оказался Surface Pro 7 –
https://youtu.be/eITjrh267vs?t=577 – улучшения настолько “бедные”, что даже сказать нечего… Типа, “ну вот мы добавили USB Type-C, и поменяли процессор, и…, и… – ах, ну да, новое перо, а еще мы пофиксили Эксель и теперь пером можно писать прямо в ячейках”…. Вау!!!! 😦 Но, надо отдать должное серии Microsoft Surface Pro – его улучшать – только портить. Достаточно просто менять компоненты. А так, начиная с Surface Pro 3 – шикарный девайс, пользуюсь уже 5 лет без всяких нареканий (кроме сдыхающей батарейки) – https://youtu.be/aI6He06ZHY8



Microsoft Surface Earbuds – таблетки АСС в уши? За такую цену? Нет и еще раз НЕТ!



Microsoft Surface Pro X – https://youtu.be/eITjrh267vs?t=844 – это, конечно, что-то такое, что очень хочется посмотреть и пощупать! Легкий и тонкий – при 13″ экрана и … полноценной Windows 10, но на ARM процессоре, который Microsoft разработал совместно с Qualcomm на базе их процессора Snapdragon 8cx – теперь это называется Microsoft SQ1 и имеет на борту модуль AI в 9TFLOPS. Слушая выступление, у меня сложилось чувство, что Microsoft и сам не знает, нафига в таком планшете такой модуль и как его использовать в реальных задачах – пример интеллектуального улучшения картинки в рельном времени как-то не очень нагляден. А вообще – при таком ценнике – МС решила не конкурировать с другими моделями Microsoft Surface Pro – и выставила одинаковый ценник и на Pro 7, и на Pro X – https://www.microsoft.com/en-us/p/surface-pro-x/8vdnrp2m6hhc – такой планшет выглядит очень привлекательно для тех, кто много бывает в разъездах. Кроме того – очень интересны мелкие инновации – типа стилуса, для которого предусмотрены контейнер и беспроводная зарядка прямо в клаве. В общем – это тот момент, когда количество переходит в качество, но, правда, не то, которое бы хотелось лично мне. Про свои “хотелки” к мобильным устройствам я писал тут – http://bit.ly/FutureGadgets01



И новые ультрамобильные устройства c двумя экранами в линейки Microsoft Surface – планшет-раскладушка Microsoft Neo – https://youtu.be/eITjrh267vs?t=1350 – под управлением Windows 10X (про которую никаких реальных деталей так и не рассказали – хотя бы потому, что она еще “не совсем готова”) и раскладушка-телефон Microsoft Duo – https://youtu.be/eITjrh267vs?t=1777 – этот под управлением Android с переточенной под работу с двумя экранами оболочкой от Microsoft (кстати, кто не вкурсе, у Microsoft есть отличный Microsoft Launcher для Android – пользуюсь им и очень доволен).

“Икспёрды” уже начали крик “зачем нам 2 экрана, что с ними делать?!” – хотите или нет – но 2 экрана и раскладушки – это тренд 3-5 лет – а для меня постоянная реальность, поскольку раскладушками – пусть и с экраном и клавой – пользуюсь все годы своей мобильной эпопеи… И могу сказать, что более продуктивного мобильного устройства, чем телефон-раскладушка с аппаратной клавой (или, как предлагает Microsoft – вирутальной, но все же привычной, в стиле мини-ноутбука) – лучший рабочий телефон.

Кстати, Microsoft на протяжении всей презентации говорила, что создает устройства для креативной части населения, которая будет создавать тот или иной контент при помощи их устройств. Я, кстати, создаю создаю контент в виде текста – по дороге на работу/с работы, в роскошном “золотом классе” метро Дубаи – можно отлично поработать 40 мин, чем я и пользуюсь – на ноутбуке не очень комфортно, а вот на мобиле-раскладушке Gemini PDA 4G или теперь – на мини ультрабуке GPD P2 Max – очень даже хорошо получается поработать. Например, этот текст и был как раз написан в метро по дороге на работу – как и многие другие – будь то документы или книги. 1.5 часа каждый день для креатива – это же отлично! Вы так не делаете, просто скролите картинки – вы не просто созданы быть креативным, вы только потреблять… Winking smile Большинство упомянутых выше “икспёрдов” – как раз из такой категории. Так что если вы ничего не создаете – вы для Microsoft – просто лишний баланс, поскольку не относитесь к креативному классу и устройства Surface – точно не для вас. Продолжайте молча, потреблять, а не рассуждать, кому же нужен телефон с двумя экранами – просто ввиду ограниченности вашей жизненной модели – вы даже не можете понять его назначение… Winking smile

Понравилось ли что-то из продемонстрированного Microsoft лично мне и что бы я себе купил?

Как я уже писал выше – очень интересно выглядит на презентации Microsoft Surface Pro X, хотя окончательное решение о покупке я бы принимал, только подержав Surface Pro X в руках и глянув на его экран. Вопрос вызывает и ARM архитектура процессора Surface Pro X, и, не смотря на заявления Microsoft о том, что там работает “полноценная” и “полностью совместимая” сборка Windows 10 – я бы все же протестировал бы некоторые приложения, работа которых может быть под вопросом.     

Microsoft Neo? Да, очень интересно, учитывая, что он появится только в следующем году – я успею “укатать” мой нынешний мини ультрабук GPD P2 Max – и с чистой совестью перейти на Microsoft Neo. Надеюсь, к тому времени его уже доведут до ума и хорошо попатчат, особенно новую ОС, а наличие нового процессора Intel 11 поколения как раз оправдывает такую покупку – сразу с Core m3-8100Y на 11 – отличный апгрейд. И, конечно же, еще хотелось бы клаву и стилус. То, что Microsoft придумал с совместным использованием аппаратной и виртуальной клавы/экрана в Surface Neo – выглядит куда интереснее и правильнее того же TouchBar в MacBook – куда больше сценариев применения. В общем – осталось подождать полгодика – и брать Winking smile

Microsoft Duo? я не уверен… Сейчас у меня отлично с поддержкой моего креатива справляется Gemini PDA 4G и мне очень нравится его аппаратная клавиатура. Именно аппаратная QWERTY – лучший инструмент для работы с текстом, даже круче двух экранов Winking smile. Хотя ему уже больше года, новый вариант Gemini – под названием Cosmo – не не особо нравится, так что, может, после выхода в следующем году пощупаю Microsoft Duo тут, в Дубаи (если буду продолжать жить и работать тут) и прикуплю себе. Особенно, если они добавят и в Microsoft Duo вариант аппаратной клавы-вкладыша, как у Microsoft Neo.

Что же разочаровывает в Surface Duo и, впрочем, в Surface Neo – это опять замкнутость на одном устройстве – печально, что никто не сказал ни слова про сценарии работы, подобные Continuum в Windows Mobile 10 – было бы очень круто иметь возможность использовать эти маленькие, но мощные устройства в режиме “обычного” десктопа – по проводам или без. И да, так классно начавшаяся тема того, что называется простым доступом к компонентам и возможность замены хранилищ в Surface Laptop 3 и Surface Pro X – не нашла продолжения в Surface Neo и Surface Duo. И тут я снова возвращаюсь к теме, “почему для меня Microsoft Duo – не “ВАУ!”?” – да потому, что устройство все же не стало изменением существующей на рынке парадигмы “все в одном – а потом просто выкините”… Sad smile Думаю, пора снова в руки брать Gemini PDA и на его аппаратной клаве настрочить новую статью про будущее мобильных гаджетов, развитие старой – http://bit.ly/FutureGadgets01 – с учетом современных реалий. 


И обзоры других гаджетов у меня на канале iWalker2000:

GPD P2 Max–отличный производительный дешевый мини ультрабук с Intel Core m3-8100Y/16GB/512GB NVMe–обзор, тестирование производительности и времени автономной работы


Компания GPD продолжает радовать хорошими компактными и мощными устройствами, продолжая совершенствовать и “железо”, и качество, и поддержку своих устройств. И лучшим устройством этого года у GPD, безусловно можно назвать новый производительный мини ультрабук (или еще UMPC, как называют подобный класс в англоязычной тусовке”) GPD P2 Max – отличное легкое и компактное мобильное устройство для “работы в полях”, при этом способное конкурировать по производительности с “большими” ноутбуками и планшетами, поскольку GPD P2 Max имеет на борту очень даже производительное железо – процессор Intel Core m3-8100Y 1.1GHz/3.4GHz , 16GB ОЗУ и хранилище 512GB на базе NVMe M.2. И после всех этих детальных тестов производительности GPD P2 Max и времени автономной работы, после просто использования GPD P2 Max в рабочих задачах – могу смело порекомендовать GPD P2 Max к приобретению тем, кому нужен действительно мобильный помощник. 


Подписаться на мой канал iWalker2000 ►►► http://bit.ly/iwalker2000_subs |
Купить GPD P2 Max ►►►
http://bit.ly/2ktSUZ0 |
Магазин GPD – проверено покупками ►►►
http://bit.ly/2PrZPke |
Мой LinkedIn ►►►
https://www.linkedin.com/in/iwalker2000/ |
Обзор Acer Predator Helios 300 ►►►
https://youtu.be/P-YFuA6ZmyY |
Все обзоры Windows 10 и полезных системных утилит ►►►
http://bit.ly/Windows10_review |
Azure для сисадминов ►►►
http://bit.ly/Azure_IaaS_p04 |
Про производительность дисков – как оценить скорость диска и как разогнать ваш ПК ►►►
http://bit.ly/Disk_perf_p01 |
Как стать системным администратором ►►►
http://bit.ly/ITProSysAdmin



И что вам таки сказать за новый GPD P2 Max?! Вот таки приехал, хотя в анонсе – https://youtu.be/VgJ-1NDZjCo и https://youtu.be/11RmnJplu4g – обещали доставку предзаказов только в сентябре 2019. Но компания GPD – http://bit.ly/2PrZPke – взяла на себя повышенные капиталистические обязательства и запустила первую серию GPD P2 Max на месяц раньше.

Хотя не обошлось и без шероховатостей – некоторые из пользователей репортили залипающие клавиши (как выяснилось – механическая проблема из-за избытка клея), синие экраны смерти под активной нагрузкой в виде игр и сверхчувствительный тачпад, который реагирует на касания, как на клик. Надо отдать должное GPD – на две последние проблемы они прореагировали моментально, выпустив свеженькое обновление BIOS и драйверов – и сразу стало все хорошо. Но, в любом случае – мой экземпляр GPD P2 Max был без каких-либо изъянов прямо из коробки (хотя я сразу и обновил BIOS) и я имею возможность наслаждаться отличным миниультрабуком сразу из коробки – например, этот текст я очень даже комфортно пишу на GPD P2 Max, пока еду на работу в метро, любуясь при этом из окна достопримечательностями утреннего Дубаи…




ГадЖеТы: достаем из коробки мини ультрабук GPD P2 Max с Intel Core m3 и 16ГБ ОЗУ


Что касается первых впечатлений от GPD P2 Max – то они самые, что ни на есть, приятные. Очень и очень хорошо скроенная машинка с хорошим качеством деталей и качеством сборки. GPD P2 Max своим качеством радует меня куда больше, чем тот же GPD Win 2 – https://youtu.be/Knq2ytzxE4g – компания с каждой новой моделью существенно улучшает качество своих продуктов. Алюминиевый корпус и крышка экрана чем-то, скорее, по тактильным ощущениям и внешнему виду, напомнила “дорогие сорта” ноутбуков Asus, только в уменьшенном виде. Корпус нигде не люфтит, не продавливается, не гнется и не скрипит, впрочем, как и экран. С экраном вообще такие впечатления, будто его крышка-подложка – это такая себе монолитная пластина металла миллиметра на 3-4, уж больно он негнущийся и “цельный”. Сам GPD P2 Max очень компактный – по площади чуть больше 8дюймогово планшета (в видео можно увидеть сравнение), в реальности – это лист А5 (сложенный пополам лист формата А4) и достаточно тонкий, но из-за небольшого отношения толщины к другим размерам – кажется «пузатеньким», хотя в реальности чуть тоньше, чем два iPhone XS, положенных друг на друга. И при этом GDP P2 Max – достаточно легкий, как и положено всем ультрабукам – 650 грамм, что делает его отличным инструментом для работы в коротких поездках в командировки или просто к заказчикам.



И, конечно же, главная особенность GPD P2 Max – в такой компактный корпус ребята из GPD впихнули отличное, по современным требованиям к работе, «железо» – процессор 8го поколения Intel Core m3-8100Y с рабочими частотами 1.1/1.6/3.4ГГц, 2 ядра/4 потока, встроенная графика Intel HD Graphics 615 300/900МГц, ОЗУ 16ГБ двухканальное DDR3L-1600 и 512ГБ хранилища NVMe M.2 (которое уже и SSD становится сложно назвать) и отличный экран 2560х1600 при размере 9” (картинку и читабельность текста при 200% скейлинга дает замечательную). Да, в мощные игрушки не поиграть (собственно, не для того и предназначается GPD P2 Max), но вот как рабочая админская машинка для удаленки и облачных консолей, утилит типа VS Code, виртуальных машин в том же Hyper-V, документов, браузинга и т.п. Но это не значит, что на GPD P2 Max нельзя «погонять чертиков» типа тех же Героев, Цивилизации, всяких КС и Танчиков с Корабликами на минимальных настройках. Про производительность и игры на GPD P2 Max будут, конечно же, отдельные видео.

И самый животрепещущий вопрос – где сейчас купить GPD P2 Max подешевле?! К сожалению, той халявы, которая была при предзаказе – https://igg.me/at/p2max/emal/16201645 – на Indiegogo уже нет, цена чуть ниже рыночной, но совсем не 500евро, как это было в начале. Так что – или покупаем по той, что есть, или ждем, когда GPD начнет продажи в своем магазине на AliExpress – http://bit.ly/2PrZPke – там в начале продаж или на разные праздники бывают хорошие скидки.


После недели использования – в основном в режиме тестирования (а ведь сложно использовать ноут «на полную», если надо, например, протестировать его время автономной работы) – можно уже с полной уверенностью сказать, что GPD P2 Max удался, как законченный оригинальный продукт, и представляет из себя очень интересный, удобный в повседневном использовании и достаточно мощный мини ультрабук.

Для меня GPD P2 Max – это отличный инструмент повседневной мобильной работы, которая включает в себя, кроме емейлов, документов, браузинга и прочей офисной возни (хотя современные браузеры – еще те прожорливые потворы, запросто поглощающие любое количество «железа»), еще и такие вещи, как создание и администрирование облачных инфраструктур заказчиков в Azure с применением всего набора возможностей Infrastructure-as-Code (про который я рассказывал уже на докладах – ) с применением различных ресурсожрущих утилит типа VS Code. И при этом – еще и достаточно часто надо работать вне офиса, на выездах (и не хочется таскать за собой по жаре тяжесть «обычного» ноута), проводить презентации и воркшопы – это когда приходится еще и показывать лабы, часто – с локальными виртуалками.

Так что именно мини ультрабук GPD P2 Max – с его размерами, весом и техническими характеристиками – стал для меня тем самым бескомпромиссным мобильным рабочим местом, который позволяет решать все мои задачи с требуемой производительностью и комфортом (хотя один компромисс все же есть – на GPD P2 Max не поиграешь в «тяжелые» игры, хотя я и не планировал ). Напомню основные технические характеристики этого чуда китайского миникомпьютеростроения:

  • Процессор: GPD P2 Max имеет на борту 8е поколение Intel Core m3 – 8100Y 1.1/1.6ГГц (макс 3.4ГГц), 2 ядра, 4 потока – вполне себе такой производительный – для офисной работы и рабочего места админа/скриптописателя – процессор. Причем не просто так, а с куллером, что позволяет ему работать в куда «разогнанном» режиме. И, кстати, те, кто писали в комментах, что «а вот у Apple Macbook на таком проце без куллера» – были жестоко на….. обмануты Apple по причине того, что плохо охлаждаемый процессор не показывает всей своей мощности ввиду троттлинга по температуре, что и видно в результатах тестов.
  • ОЗУ: 16ГБ – да-да, в этом мелком на вид GPD P2 Max – 16ГБ ОЗУ, которые, по моему личному мнению, являются сейчас тем самым рекомендуемым размером ОЗУ для нормальной работы. И да, минимумом для ноутов сейчас я считаю 8ГБ. Эти 16ГБ худо-бедно позволят мне запустить 3-4 виртуальные машины для различных лаб во время воркшопов и «быстрых» рабочих демо/PoC. И Google Chrome вполне хватает для работы.
  • Хранилище: 512ГБ NVMe M.2 – достаточно быстрое, как показали синтетические тесты и работа и при этом 512ГБ – вполне достаточно и для ОС, и для приложений, и для виртуальных машин (если не наглеть и диски-шаблоны хранить на внешнем диске). И да, всегда можно воспользоваться 3 портами USB – USB 3 и USB Type C, который используется и для зарядки. Кроме того, в пользовательских форумах уже пишут об успешных операциях замены в GPD P2 Max «родного» хранилища 512ГБ М.2 на такое же «родное китайское» 1ТБ М.2.
  • Экран: тачскрин 9 дюймов 2560х1600 с хорошей картинкой и вполне равномерной подсветкой. Экран небольшой, но вполне удобный для всех моих задач, да и глазки не ломает, даже если работать с ним в транспорте… А если вам нужен «большой» монитор – добро пожаловать – у GPD P2 Max есть microHDMI порт, который поддерживает подключение внешних мониторов до 4K. А если у вас нет под рукой монитора – можете использовать отличную утилиту SpaceDesk, которая позволяет расшаривать экраны других ПК/ноутов/планшетов/смартфонов (в том числе и под Android или iOS) как дополнительные экраны вашего ноута по сети.
  • И о размерах GPD P2 Max – это получился «настоящий» мини ультрабук или UMPC – размер составляет всего лишь половину альбомного листа A4 (210х150мм), что сравнимо с размерами обычного планшета 8 дюймов, правда, при этом GPD P2 Max будет значительно толще – до 14мм. Зато вес GPD P2 Max – всего 650 граммов, что при таком «железе» делает его самым лучшим в отношении мощность к весу 😉 Собственно – именно из-за компактных размеров и высокой производительности при этом – я и остановил свой выбор на GPD P2 Max, как на основном рабочем ноуте.

А в видео – я постарался развеять все «легенды» про «китайское происхождение» GPD P2 Max и прочие фантазии некоторых комментаторов в первом видео – https://youtu.be/upfqusJEKQI .



GPD P2 Max – подробный обзор производительного китайского мини ультрабука


Продолжаем тему про GPD P2 Maxhttp://bit.ly/2ktSUZ0в этом видео смотрите много цифр – сравнение производительности GPD P2 Max в различных синтетических тестах (PCmark, 3Dmark, GFXBench, Final Fantasy XIV/XV benchmark и прочих тестах браузеров – Octane, Kraken, JetStream, Speedometer Banchmark) с предыдущими моделями GPD – GPD Win, GPD Win 2 – и различными другими устройствами – Microsoft Surface Pro 3, Surface Pro 6 – так, чтобы понять место модели на рынке.

И что вам таки сказать? – в целом, в отношении цена/производительность – GPD P2 Max в настоящий момент – лучший выбор на рынке. И хотя GPD P2 Max не показывает производительности того же Surface Pro 6 с процессором Core i5 8gen, но при этом уступает только 16.5% в тесте PCmark Extended – по цене (особенно если говорить про предзаказ с ценой 500 евро) в 2 раза дешевле Surface Pro 6 8GB/256GB SSD (который с клавиатурой стоит 1100евро)… И даже 720евро нынешней цены GPD P2 Max – это 35% разницы в пользу GPD, при том, что проигрываем всего в 16% 🙂 Да, есть другие нюансы, почему стоит купить Surface Pro – качество устройства, стилус, стиль работы. Кстати, о качестве –  в тестах принимает участие и мой старенький Surface Pro 3 – которому уже 5 лет – и он все еще прекрасно (почти, если не считать додыхающую батарейку) себя чувствует и справляется с задачами проведения митингов с клиентами и рисованием красивых схем в процессе уточнения разных аспектов облачных проектов. А GPD P2 Max очень уверенно обгоняет Surface Pro 3 – что говорит о том, что в работе производительности GPD P2 Max будет вполне хватать. И единственное, что расстраивает в GPD P2 Max – это то, что ребята так и не выполнили своих начальных обещаний насчет активного дигитайзера в GPD P2 Max, потому привычно рисовать на нем пока не получается, но я над этим вопросом активно работаю – и если все получится, как ожидается – значит, GPD P2 Max будет для меня полноценной заменой 2х устройств – рабочего тяжелого ноутбука Lenovo ThinkPad T480 (от которого по характеристикам он отличается только процессором m3 vs i5) и старичка Surface Pro 3 (который у меня для “ручного рисования” всяких схем).


И самое интересное сравнение в этом видео – это сравнение производительности GPD Win 2 и
GPD P2 Max. Напомню, что GPD Win 2 – модель прошлого года – https://youtu.be/Knq2ytzxE4g – имеет на борту предыдущий Core m3 – 7Y30 и 8ГБ ОЗУ и представляет из себя весьма удачную игровую консольку под управлением Windows 10 для игр класса AAA. Сейчас GPD обновил GPD Win 2 –  http://bit.ly/2mjKTGp – теперь там стоит такой же Intel Core m3-8100Y, а стоит он на 120 евро дешевле, чем GPD P2 Max. Так вот, GPD все время говорила про то, что GPD Win 2 “слегка разгнаный” благодаря лучшей системе охлаждения и т.п. – и тесты показали, что таки ДА – разница между синтетикой у GPD Win 2 7Y30 и GPD P2 Max 8100Y практически не заметна – около 5%, если говорить об одинаковых разрешениях экрана, а так, на родном 720р экране GPD Win 2 успешно лидирует 😉 После этого сравнения мне даже захотелось прикупить обновленный GPD Win 2 – http://bit.ly/2mjKTGp – и посмотреть, что оно такое и насколько шустрее будет в “разгоночном корпусе”. А детальное сравнение GPD и некоторые другие синтетические тесты – смотрите в видео.



ГадЖеТы: поизводительность GPD P2 Max в синтетических тестах – PCmark, 3Dmark, FF XV bench и т.д.


И еще один очень “болезненый” вопрос о GPD P2 Max после собственно его производительности (тесты производительности GPD P2 Max смотрите здесь – https://youtu.be/djR5o0e6jQ4 ) с таким железом – сколько времени работает GPD P2 Max от батарейки? Ведь GPD P2 Max позиционируется, как ультрамобильное решение для работы “на ходу и в полях”, потому время автономной работы для GPD P2 Max – очень важно, а засунуть в компактный тонкий корпуc GPD P2 Max (обзор P2 Max смотрите здесь https://youtu.be/HZfN_geAvQI) батарею достаточного объема и небольшого веса – весьма проблематично.

Но у GPD это вполне получилось – что показывают тесты автономной работы. Я традиционно сделал свои “стандартные тесты” – замер длительности работы GPD P2 Max при проигрывании видео – получилось более 6 часов – и замер работы в браузере (когда специальный скрипт открывает 10 случайных вкладок в Microsoft Edge и дает им “поработать”) – получилось почти 5 часов. Также я решил расширить набор тестов еще и тем, что запустил Final Fantasy XV benchmark (про результаты самого теста производительности P2 Max я рассказывал в предыдущем видео – https://youtu.be/djR5o0e6jQ4 ) в зацикленном режиме, чтобы посмотреть, насколько долго проживет P2 Max в очень даже нагружающей его игре (хотя, если честно, особо играть в такие игры на P2 Max не стоит) – и результат тут не очень порадовал – 2.5часа – это не так и много, но, экстраполируя такой результат на более простые HoMM V/VI – это будет часа 4 игры… А более подробные выводы и результаты тестирования времени автономной работы GPD P2 Max смотрите в этом видео.



ГадЖеТы: GPD P2 Max – тест времени автономной работы в разных сценариях – видео, браузер, игры



И обзоры других гаджетов у меня на канале iWalker2000:

Как настроить нормальный масштаб интерфейса, размер фонтов в клиенте удаленного рабочего стола RDP при высоком разрешении экрана–самый простой и работоспособный вариант (Remote Desktop DPI scaling issues)


У меня появился новый ноутбук – можно сказать, классика рабочего жанра – Lenovo ThinkPad T580. В этом ноуте все отлично – и характеристики его железа (на канале будет отдельный обзор), и, собственно дизайн, вес и прочие эргономические вещи… И как главная плюшка – у ноута отличный 15” экран с разрешением 3840х2160 – 4К.

Но, как часто бывает – все эти плюшки не только приятны, но и имеют отрицательные стороны. Вы видели, какой масштаб PPI (DPI) стоит для таких вот 15” экранов 4К 3840х2160, подобных Lenovo ThinkPad T580?! – правильно, 250% по умолчанию! Т.е. именно настолько масштабируется изображение, чтобы текст на экране был читаемый глазом, а в элементы управления можно было попадать мышкой. Кто не знаком с эффектом DPI/PPI на маленьких экранах с большим разрешением (от 4К и выше) – рекомендую заглянуть в настройки дисплея в Windows и там поиграться в настройками Scaling’а. А для наглядности – вот вам картинка для сравнения вида интерфейса в масштабе 100% и 225%

100-225-comparison

При чем здесь DPI/PPI и масштабирование, спросите вы? А при том, что представьте себе, что у вас есть приложение, которое ничего не знает о том, в каком масштабе отображать картинку внутри себя и никакого масштабирования внутри такого приложения не происходит. В результате – внутри окна приложения будет все настолько мелким, насколько это выглядит таковым в приведенном выше примере (слева).

И таким вот нужным и часто используемым приложением, которое «не понимает масштабирования» для экранов с большим разрешением – является Microsoft Remote Desktop Client (да и многие прочие клиенты удаленного рабочего стола RDP). При подключении к удаленному компьютеру – рабочий стол этого компьютера в RDP выглядит катастрофически мелким, поскольку картинка RDP оттуда – отображается с масштабированием DPI удаленного сервера, которое может быть и 150%, и даже 100%. Работать с таким удаленным интерфейсом на экране 4К размером 15” – нереально, курсора мышки иногда просто не видно 😉

Так поменять масштабирование на удаленном сервере!!! – ага, сейчас, по умолчанию на сервере такая опция заблокирована – для изменения масштабирования интерфейса в сеансе RDP на сервере надо провести шаманские пляски (если у вас есть права на это), да и не будешь на каждом сервере это менять…

Итого, остается только вариант научить клиента удаленного рабочего стола RDP («родного» Microsoft’овского или какого либо другого) понимать масштабирование и учитывать это при соединении с удаленным сервером.

После достаточно длительного поиска в Инете и чтения разных «рецептов танцев с бубнами» вокруг проблемы масштабирования DPI/PPI в RDP, я пришел к выводу, что самым работоспособным рецептом решения проблемы является вариант, описанный в статье [Fix] Remote Desktop DPI scaling issues. Во избежание потери информации (если вдруг страницу или файлы удалят, сайт закроют) – сделаю вольный перевод предложенного материала/копию файлов и у себя на блоге.

Итак, метод лечения проблемы масштабирования интерфейса для стандартного RDP клиента Microsoft крайне прост и заключается в копировании специального файла-манифеста для RDP, который собственно и содержит в себе команду включения того самого масштабирования для удаленного подключения:

  1. Правим на локальной машине (где вы и используете RDP и где у вас, надеюсь, есть все права админа) реестр, указывая, что стандартный RDP клиент должен брать настройки из файла манифеста:
    1. Запускаем утилиту regedit и идем по следующему пути:
      HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\SideBySide
    2. Создаем новый параметр, кликнув на пустом поле справа правой кнопкой мышки NEW -> DWORD (32 bit) Value
    3. Вводим имя нового параметра PreferExternalManifest и жмем ENTER.
    4. Снова кликаем правой кнопкой мыши, теперь уже по записи PreferExternalManifest, и выбираем Modify.
    5. Вводим в Value Data значение 1 и выбираем пункт Decimal.
    6. Нажимаем в окошке OK.
    7. Закрываем Registry Editor.
      Результат должен выглядеть примерно следующим образом:
      Registry-RDP-manifest
  2. Далее, нужно создать файл самого манифеста под именем mstsc.exe.manifest и поместить его в папку %SystemRoot%\System32\mstsc.exe.manifest (обычно это C:\Windows\System32\mstsc.exe.manifest). Полный текст содержимого mstsc.exe.manifest приведен ниже, уже готовый файл mstsc.exe.manifest можете забрать здесь.

Далее – запускаем стандартный Microsoft клиент RDP (mstsc.exe) или перезапускаем его (если на момент изменений были открыты какие-то RDP сессии) и наслаждаемся соответствующим масштабу вашего локального экрана виду удаленного экрана. В реальности, данный фикс настроек RDP клиента работает очень просто – RDP клиент отправляет запрос на такое разрешение удаленного экрана, которое на соответствующий масштабу процент меньше, чем оригинальное у клиента – так что не удивляйтесь «странным» цифрам в разрешении удаленного рабочего стола. Например, если у меня разрешение 4К 3840х2160 при 225% масштаба, то разрешения удаленного стола будет установлено обновленным RDP клиентом для полноэкранной картинки как 1704х960 (как раз те самые 3840/2,25 и т.д.) – и все элементы удаленного интерфейса соответствуют масштабу.

<?xml version=”1.0″ encoding=”UTF-8″ standalone=”yes”?>

<assembly xmlns=”urn:schemas-microsoft-com:asm.v1″ manifestVersion=”1.0″ xmlns:asmv3=”urn:schemas-microsoft-com:asm.v3″>

<dependency>

<dependentAssembly>

<assemblyIdentity

type=”win32″

name=”Microsoft.Windows.Common-Controls”

version=”6.0.0.0″ processorArchitecture=”*”

publicKeyToken=”6595b64144ccf1df”

language=”*”>

</assemblyIdentity>

</dependentAssembly>

</dependency>

<dependency>

<dependentAssembly>

<assemblyIdentity

type=”win32″

name=”Microsoft.VC90.CRT”

version=”9.0.21022.8″

processorArchitecture=”amd64″

publicKeyToken=”1fc8b3b9a1e18e3b”>

</assemblyIdentity>

</dependentAssembly>

</dependency>

<trustInfo xmlns=”urn:schemas-microsoft-com:asm.v3″>

<security>

<requestedPrivileges>

<requestedExecutionLevel

level=”asInvoker”

uiAccess=”false”/>

</requestedPrivileges>

</security>

</trustInfo>

<asmv3:application>

<asmv3:windowsSettings xmlns=”http://schemas.microsoft.com/SMI/2005/WindowsSettings”&gt;

<ms_windowsSettings:dpiAware xmlns:ms_windowsSettings=”http://schemas.microsoft.com/SMI/2005/WindowsSettings”>false</ms_windowsSettings:dpiAware&gt;

</asmv3:windowsSettings>

</asmv3:application>

</assembly>

Немного дополнительных life-хаков о том, как:

 

И еще немного дополнительных материалов, посвященных ИТ тематике у меня на YouTube-канале iWalker2000 и тут на блоге. Надеюсь, сисадмины и те, кто ими собирается стать – найдут данные материалы тоже интересными для себя. Winking smile

Первые серии нового курса по использованию Azure IaaS:

 

Видео об ИТ-карьере – как стать ИТ-специалистом и заработать много денег:

И смотрите другие видео для ИТ-специалистов у меня на канале:

 

Видео про новые возможности дисков и дисковых массивов:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Конференция SysAdmin Day.Kharkiv 2018–о чем будем говорить и мое интервью Lenovo в предверии этого интересного ИТ-мероприятия в Харькове 13 июня 2018 года


Article - Topic - LinkedIn

13 июня при поддержке лидеров рынка Lenovo в Украине и Microsoft Ukraine в Харькове состоится яркая IT-конференция SysAdmin Day 2018. На этой конференции я выступаю, как эксперт по ИТ-инфраструктуре и буду рассказывать про миграцию в облака средних и малых предприятий, а также про использование облачных сервисов для управления локальными и мобильными устройствами и защитой данных. Также меня попросили дать небольшое интервью о тех перспективах и особенностях применения облачных технологий, которые современные технологии предоставляют для средних и малых компаний, а также – для карьеры системных администраторов.

Первый мой доклад на SysAdmin Day.Kharkiv 2018 будет называться “Стратегия миграции инфраструктуры малых и средних предприятий в облачные сервисы”. Вкратце об этом докладе смотрите в трейлере к докладу:

Второй доклад на SysAdmin Day.Kharkiv 2018 будет посвящен управлению мобильными устройствами и безопасностью и называтеся “Использование облачных сервисов Microsoft для управления локальными и мобильными устройствами, управление безопасностью данных в облаке и на мобильных устройствах”. И также предлагаю ознакомиться с трейлером к докладу:

 

И, собственно, возвращаемся к интервью для Lenovo в Украине:

  1. Что на сегодняшний день нужно IT-специалисту, системному администратору, чтобы развивать карьеру? В одном из видео вы перечисляли три must have пункта: подтвержденные знания в профессии, практический опыт и умение на простом языке доносить свои идеи потенциальным заказчикам. Хотелось бы подробнее об этом узнать.
    1. Я думаю, что подробнее рассказать об это в рамках данной беседы не получится – ведь мне для раскрытия этого вопроса понадобилось минимум 5 видео с длительность по 30 минут каждое. Могу просто порекомендовать всем посмотреть внимательно серию этих видео про ИТ-карьеру у меня на канале:

  2. На сегодняшний день в сфере IT огромная скорость изменений. Не теряют ли актуальность полученные сертификаты? Как часто IT-специалисту имеет смысл подтверждать свои знания сертификацией?
    1. Честно говоря, сейчас переломный момент именно для ИТ-специалистов (не путать с разработчиками) – технологии управления ИТ-инфраструктурой меняются кардинально ввиду развития облаков и, вполне возможно, в ближайшие 3-5 лет от ИТ специалистов будут требовать совсем другие навыки. Потому мои собственные предпочтения в этой области – сначала знания и навыки, потом экзамены (обычно, это требуется только работодателю) и мой ответ на подобный вопрос – «могу запросто доказать, что я обладаю более широкими знаниями, чем требует сертификация, а если вам нужен именно сертифицированный специалист, чтобы получить какой-то партнерский статус – сдам экзамен сразу, как только вы это оплатите»
  3. Как быть в ситуации, когда знания есть, идеи есть, а заказчика на их разработку нет? Какие есть возможности реализовать свои знания в практических проектах?
    1. Мир сейчас стал очень маленьким, поэтому не проблема найти нужный проект на том же портале Upwork, особенно, если устроить демпинг с ценами. Там попадаются иногда очень «креативные» запросы по скрещиванию бульдога с носорогом, сейчас, качественно и дешево 😉
  4. Умение переводить свои IT-знания и идеи на общечеловеческий язык и язык бизнеса — это врожденный талант, или его можно освоить? Как этого добиться?
    1. Работать над собой, понимать, что люди совершенно разные и людям не интересно копаться в настройках также, как это интересно вам. Людям (не обязательно бизнесу) свойственно мышление «черного ящика» – «делаю вот это с одной стороны, с другой стороны – получаю результат». Потому, разговаривая с людьми или бизнесом – представляйте себя магом (можно темным злым колдуном) – не надо рассказывать, как работает заклинание, просто показывайте результат, который людям будет полезен.
  5. За какими ресурсами и событиями нужно следить IT-специалисту, чтобы постоянно оставаться в курсе происходящего в сфере? Где получать свежие идеи и знания? Какие сайты, каналы, офлайн-мероприятия и конференции вы можете посоветовать?
    1. Если мы говорим о русскоязычных ресурсах (а с украиноязычными вообще все плохо) – то наблюдается тенденция их критического сокращения. Все больше специалистов уезжает в Европу и США, все меньше рынок (кол-во смотрящих) для таких ресурсов – потому ИТ-специалисту, который хочет развиваться, придется учить английский и работать с англоязычными ресурсами. Такими, как, например, Microsoft Virtual Academy – https://mva.microsoft.com/ – сборником виртуальных учебных курсов и теми же бесплатными книгами и учебными пособиями – https://mva.microsoft.com/ebooks/ . Лично я тоже стараюсь внести свой вклад в развитие ИТ-специалистов бывшей родины – периодически выпуская обзорные и технические видеоматериалы у себя на YouTube канале – http://bit.ly/WindowsServer_overview . Что же касается регулярного обновления знаний – то тут очень хорошо подойдут блоги компаний-разработчиков тех продуктов, которыми вы пользуетесь. Так, например, свежие новости про технологии Azure, связанные с ним события и прочее я читаю на https://azure.microsoft.com/en-us/blog/ . И, конечно же, профессиональные социальные сети – например, LinkedIn – главное, правильно выбирать контакты, ленту которых будешь читать. Опять же, лично я стараюсь на LinkedIn давать выборку интересных мне новостей – https://www.linkedin.com/in/iwalker2000/ – желающие могут подписываться (рекрутеров без конкретных предложений – не приглашаю).
  6. Расскажите о конференции SysAdmin Day, где вы будете участвовать. Почему IT-специалистам стоит туда ехать (кроме обширной фановой программы J) Что они смогут вынести оттуда?
    1. В своих докладах я всегда стараюсь дать стратегическую перспективу развития того или иного продукта или направления. Сейчас, как я уже говорил ранее – переломный момент в развитии навыков и умений системных администраторов. В своем недавнем докладе на Стальном Бубне я уже рассказывал про то, какие навыки необходимы системному администратору в будущем. На SysAdmin Day я продолжу эту тенденцию, и расскажу, как облачные технологии и сервисы критически изменяют работу ИТ-специалистов.
  7. Большинство из тем, заявленных на SysAdmin Day, касаются облачного хранения данных. Почему эта тема приобретает такую популярность? Каковы тенденции в этой сфере? Не случится ли, что популярность достигнет пика и схлынет, сервисы закроются и придется искать новые решения?
    1. Я бы не сказал, что именно облачного хранения данных, скорее, мы будем говорить про то, как облачные сервисы позволяют эффективно решать вопросы обмена данными, резервного копирования и даже защиты от сбоев целой инфраструктуры. Именно сценарии защиты от сбоев начинают приобретать широкую популярность, поскольку позволяют быстро стартовать копии всех ваших серверов в облаке с актуальными данными в случае сбоя питания, катастрофы, изъятия всего парка оборудования. Что же касается закрытия сервисов – это облака – это новый тренд в индустрии, который будет актуален лет 20 минимум. Просто выбирайте правильного поставщика сервисов, например, Microsoft Azure.
  8. Что касается гибридных решений: какое расширение функций дает дополнительное использование облачных сервисов, вдобавок к локальным хранилищам? Каким бизнесам больше подходит гибридный вариант, а каким — полный переход в облако?
    1. Я бы не говорил об облаках, как о хранилищах. Да, резервное копирование и защита от сбоев, которые мы уже обсудили ранее – одна из наиболее востребованных функций облаков для гибридной работы. Но – облака интересны тем, что вы можете вынести туда (стартовать там) те функции, которые ранее обслуживались локально – так, облачный пакет офисных сервисов Office 365 включает в себя облачный Exchange, SharePoint, AD, OneDrive, а в Azure присутствуют сервисы управления безопасностью мобильных устройств Intune, защиты данных на платформе RMS – Azure Information Protection, сервисы мониторинга серверов OMS и антивирусной безопасности Defender Advanced Threat Protection – про их применение я и буду рассказывать в своих докладах. Что же касается перехода в облако или гибридных сценариев – то тут много нюансов, про которые можно говорить часами, но базовые концепции, которым обязательно надо следовать, готовя проект миграции в облако – я изложу в своих докладах. Также материалы по сценариям миграции есть у меня на канале среди технических докладов, и особенно хочу обратить внимания тех, кто уже сейчас планирует миграцию в облака, на доклад «Первые 15 шагов по переходу в облака – что сделать до того, как мы залогинимся в портал AZURE» –  рекомендуется просмотреть еще до начала проекта по миграции в облака.
  9. Насколько безопасно облачное хранение данных?
    Защищена ли информация от несанкционированных проверок, взлома, слива данных третьим лицам?
    Стоит ли опасаться «ковровых» блокировок, вроде истории с Телеграммом, когда за компанию с мессенджером пострадал огромный кусок интернета.
    Есть ли у облачных провайдеров услуги защиты от ДДОС?
    Что происходит с данными, если сервер облачного хранилища отключился или поврежден? Куда они перемещаются?
    Какие предусмотрены способы защиты на случай падения связи? Есть ли резервные каналы для таких ситуаций?
    1. Тема слишком обширна и пересекается с моими докладами. Вкратце могу сказать, что все инструменты для защиты от несанкционированного доступа к вашим данным в том же Azure есть – и по умолчанию, и расширенный набор – про тот же Azure Site Recovery я уже упоминал выше. Защита данных при отказе серверов самого облака обеспечивается тем планом, который вы выбрали для хранения – готовы ли вы платить за репликации данных внутри одного ЦОД облака или даже между разными континентами. За канал связи с вашей стороны, понятно, отвечаете вы сами. Но существуют также и продукты, обеспечивающие кеширование и репликацию локальных хранилищ в облако, что позволяет работать с такими данными в оффлайн режиме.
  10. По каким критериям бизнесу нужно выбирать облачного провайдера? Какие провайдеры есть сейчас в Украине? На что обратить внимание, составляя договор с провайдером о предоставлении данных, чтобы обеспечить их максимальную защиту?
    1. Критерии выбора облачного провайдера очень и очень обширны и это тема для отдельного разговорам минимум на 30 минут. Вкратце – это бизнес-здоровье компании и ее позиция на рынке, административная поддержка и SLA, технологии, которые требуются вам и предоставляются провайдером, безопасность и доверие к провайдеру и т.п. В Украине нет облачных провайдеров в полном смысле этого слова – фактически, это обычные хостеры, предоставляющие услуги виртуальных машин и IaaS (Infrastructure as a Service) с консолями управления для клиентов – и даже называть, а тем более сравнивать данные «облака» с настоящими публичными облаками типа Microsoft Azure – нельзя. Но, сейчас, с появлением такого продукта, как Microsoft Azure Stack – позволяющего «приземлить» большую часть возможностей Azure, которые и делают облако «облаком», на серверах локального провайдера – некоторые из провайдеров начали двигаться в направлении «настоящих облаков», а не просто хостинга виртуальных машин. Хотите понять, перед вами «просто хостер» или действительно «облачный провайдер» – задайте специалистам данной компании простой вопрос – а какие шаблоны описания облачных инфраструктур поддерживаются данным провайдером, например, формата ARM templates? Какие сервисы вы получаете для размещения ваших нагрузок – виртуальные машины, сервисные фабрики, базы данных, средства автоматизации? Есть ли у провайдера механизмы автоматического масштабирования выбранных вами сервисов – scale up/scale out? В 99% случаев вы услышите ответ – вы будете использовать наши «гибкие» виртуальные машины, которые сами настроите из предоставленных образов.
  11. Предоставляют ли облачные провайдеры услуги системного администрирования и начальной развертки серверов для компаний, которые только что сформировались и в принципе не знакомы с облаками? Есть ли решения “под ключ” для таких компаний?
    1. Вообще-то, если говорить о «настоящем облаке», то все эти «услуги по развертыванию» не требуется. Современная парадигма облаков и новый подход к администрированию таких систем не требует интенсивного вмешательства в управление и опирается на декларативные описания инфраструктур, что позволяет развертывать целые инфраструктуры одним кликом на взятый из магазина решений шаблон – про это я как раз и рассказывал в своем предыдущем докладе про новые принципы работы администраторов. Если компания все же хочет разработать подобный шаблон «под себя», то для этого существует достаточно обширное предложение по консалтингу – собственно, компания, которую я возглавляю, и занимается таким консалтингом. Кроме того, я лично провожу тренинги по данному направлению нового администрирования, если требуется в проекте иметь команду уже подготовленных специалистов, которые готовы будут обслуживать и развивать инфраструктуру после сдачи проекта.
  12. В прошлом году инновационные решения для ЦОД Lenovo были названы лучшими по 46 показателям. Какие серверные решения этого бренда можно рекомендовать малому и среднему бизнесу, и почему?
    1. Я бы начал с того, что мало кто знает, что Microsoft сертифицировала Lenovo среди нескольких производителей серверов, как поставщика оборудования для решений Microsoft Azure Stack – копии облака Azure для локальных провайдеров – https://www3.lenovo.com/us/en/data-center/ThinkAgile-SX-for-Microsoft-Azure-Stack/p/WMD00000272 . Это говорит об очень высоком уровне надежности и производительности серверных решений Lenovo, а также о том, что в проектировании своих серверов серии ThinkAgile Lenovo опирается на самые современные аппаратные технологии, которые использует и Microsoft для построения ЦОД «большого облака» Azure. Такая сертификация – высочайший знак качества аппаратной серверной платформы от Lenovo. Что же касается «обычных» серверов, то мне сложно выделить какую-то модель из линейки Lenovo ThinkServer – тут стоит правильно учитывать потребности компании и задачи при выборе серверов, особенно, с учетом того, что часть инфраструктуры может быть вынесена в сервисы облака. И на что бы я еще обратил пристальное внимание компаний, которые планируют миграцию в облака – это на то, что с переносом сервисов в облака – «на земле» остается клиентская часть, и здесь у Lenovo есть великолепная линейка надежных производительных тонких (и не очень) клиентов серии Tiny – ThinkCentre Tiny/ThinkCentre Thin Client и ThinkStation Tiny – которые позволят компании эффективно трансформировать рабочие места для работы с облаками.

Обязательно к прочтению и изучению для тех систеных администраторов, которые планируют развивать свою карьеру – и не только в направлении облаков – SysAdmin vs DevOps–что разного и что общего–будущее системных администраторов на примере автоматизации развертывания и конфигурирования VM в Azure–Infrastructure as Code и инструменты DevOps, которыми сисадмин должен будет владеть в ближайшем будущем

 

Первые серии нового курса по использованию Azure IaaS и обо всем том, где будет рассмотрено подробно все то, о чем я буду упоминать в презентациях:

 

Видео об ИТ-карьере – как стать ИТ-специалистом и заработать много денег:

Немного ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

И смотрите другие видео для ИТ-специалистов у меня на канале:

Видео про новые возможности дисков и дисковых массивов:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Что нового в обновлении Windows 10 April 2018 Update 1803–очень длинный обзор самых интересных новых и улучшенных функций ОС и приложений…


imageИ, традиционно, после просто длинного видео с обзором новинок Windows 10 1803 на канале – еще более длинный пост на блоге! Осторожно, “многа букаф” про Windows 10! Итак, “прилетело” обновление Windows 10 April 2018 Update 1803, и в этом совсем некоротком видео – обзор наиболее интересных новинок и улучшений, которые появились в Windows 10 April 2018 Update 1803. Да-да, хотелось побольше рассказать в более коротком видео – но, получилось, как всегда – целая лекция только про некоторые новые возможности. И, конечно же, хочу напомнить, что если у вас Windows 10 до сих пор не показала обновления 1803 через штатную консоль – то вы можете принудительно обновить текущую версию Windows 10 через мастер обновлений, который можно скачать здесь – https://www.microsoft.com/en-us/software-download/windows10 .

Также хочу напомнить, что поменялся также и процесс обновления на тех устройствах, которые не имеют достаточно места для обновления на диске C: (кстати, как очистить диск С: под Windows от лишнего и ничего не сломать – смотрите в этом видео) и особенно это касается планшетов, у которых 32-64ГБ встроенного хранилища, один порт USB (через который также идет и зарядка) и только microSD кардридер. Теперь, в отличие от предыдущих сборок, Windows 10 не использует при обновлении свободное место на microSD, если microSD также используется Windows 10 – например, там установлены приложения или хранятся папки с документами/фото и т.п. – что, собственно, чаще всего и бывает, особенно, если места на хранилище всего 32ГБ. В таком случае – вам понадобиться переходник OTG для подключения к такому планшету обычной USB-флешки на 16-32ГБ и, желательно, очень быстрой. Почему очень быстрой? Да потому что в моем, например, планшете TECLAST X80 Plus – или OTG с флешкой, или зарядка – потому процесс выглядел достаточно сложно – сначала я на полном заряде и с подключенной к планшету флешке дожидался на минимальной яркости скачивания обновления, а после – указав перегрузить и выключить – заряжал планшет в выключенном состоянии, чтобы потом снова полностью заряженный планшет продолжил установку. На обновления за один раз его полной зарядки не хватало Winking smile Так что делюсь опытом в борьбе с подобными маломощными планшетами при установке. Кстати, многие спрашивают, как после обновления до Windows 10 1803скорость работы на слабых устройствах, например, с Intel Atom Z8300 и 2ГБ памяти? – могу сказать, что ни один из моих “слабаков” не показал заметного падения производительности относительно работы с предыдущей сборкой Windows 10 1709 – ни совсем старые AINOL Mini и Dell Venue 8 Pro, ни более новые TECLAST X80 Plus и TECLAST X16 Power, ни, тем более, “разогнанный” игровой мининоут GPD Win – можете смело ставить. Хотя сама установка на том же AINOL Mini продолжалась не менее 4х часов. Но вот некоторые мои товарищи по Facebook пишут насчет обновления до Windows 10 на старых ПК примерно следующее (цитата):

У меня совсем запущенный случай – Atom N455/2Gb. 😦 Правда, с SSD. При старте загрузка процессора 100% и так полчаса, пока он не прогрузится, не обновится и не закончит работу встроенный антивирус. Потом падает до 3-5%. Надо будет как-нибудь с тобой проконсультироваться на предмет того, как можно оптимизировать его работу (стоит Win10Pro). Может можно какие-то службы остановить безболезненно и/или понизить приоритеты некоторых процессов…

Что лично для меня нового в Windows 10 April 2018 Update 1803? Во-первых, я проапгрейдил саму редакцию сборки – с Windows 10 Education до Windows 10 Pro for Workstations. Почему только сейчас? Ну надо же было посмотреть, на какие грабли наступят пользователи Windows 10 Pro for Workstations за последние полгода. Вроде не наступили – потому и перешел. Кстати, процесс смены редакции крайне простой – просто ввел новый ключ активации от Windows 10 Pro for Workstations. Но, кстати, перегрузиться таки пришлось – без перезагрузки схема энергопотребления Ultimate Performance никак не хотела показываться, хотя файловая система ReFS стала доступна сразу после активации с новым ключом.

Зачем мне Windows 10 Pro for Workstaions? Кто не знает – у меня дома несколько серваков (некоторые уже совсем старые) – и основная машинка – это Dual Xeon c 72ГБ памяти на борту и стареньким уже RAID Adaptec к которому подключены 6 дисков. Основное применение этого “чуда” – лаборатории для развертывания виртуалок клиентов (прототипы и тесты их инфраструктуры), а также – конвертирование видео для того же канале и не только. В общем – это тот случай, когда компьютер работает 24/7 и я его практически не выключаю (и при этом желательна максимальная производительность – даже ночью, когда 90% нагрузки отдается на конвертацию). И вот именно ввиду тюнинга производительности в Windows 10 Pro for Workstations для сильно нагруженных ПК (фактически – маленьких серверов) и менялась редакция Windows 10.

И, как показало нагрузочное тестирование Windows 10 Pro for Workstations путем традиционного конвертирования виедо – таки да, наблюдается некоторый прирост производительности (хотя, может, это и оптимизация ядра системы в новой сборке) – примерно 5 процентов – на задаче конвертирования видео вместо 20 часов ушло около 19. Но в планах все равно есть желание поменять своего старичка на что-то с новым поколением Intel Xeon и 256ГБ ОЗУ к Новому, 2019, Году Winking smile


Windows 10 April 2018 Update 1803 – что нового и обзор самых интересных новинок и улучшений

А теперь, собственно, о важных обновленных функциях и новинках Windows 10 April 2018 Update 1803, о которых идет (или не идет, но стоит упомянуть) речь в видео:

  • новое в настройках безопасности – Windows Security – изменения и улучшения в системе защиты Windows 10, в основном, касающиеся использования новых аппаратных возможностей по защите ядра системы от современных атак.
  • улучшение системы управления настройками конфиденциальности – во-первых – появилась опция управления той диагностической информацией, которую собирает Windows 10 и отправляет в системы мониторинга Microsoft для реагирования на проблемы ОС в целом и угрозы безопасности, во-вторых – новая утилита Microsoft Diagnostic Data Viewer, которая позволяет вам покопаться в собственной диагностической информации, в-третьих – появились опции избирательного ограничения прав отдельных приложений на доступ к файловой системе (не путать со списками прав доступа пользователей на папки и файлы ACL самой файловой системы) в целом и на папки документов, фото, видео. Говоря “обычнфым языком” – теперь вы можете отобрать право у какого-то приложения, например – Skype, вообще что-либо читать и писать в папку ваших документов (ту, которая стандартная в Windows). Так, на всякий случай – а вдруг кто поломает Skype и начнет тянуть через него данные. При этом ваши собственные права на папку, будь вы хотьтрижды админом, никак не влияют на запрет доступа Skype, с одной стороны, а с другой – все другие приложения будут работать с документами в папке вполне себе нормально.
  • немного об удобствах – а именно – запуска приложений с правами администратора – теперь в командной строке Run вы можете сразу запустить введенную команду/приложение с правами администратора, нажав не просто Enter на клавиатуре, а комбинацию клавиш Ctrl+Shift+Enter . Удобно как раз для тех, кто привык (как я, например) все запускать Win+R и дальше строка команды – теперь в конце будет новая комбинация – буду привыкать. Жаль только, что такую же комбинацию не сделали для самого CMD и PowerShell – чтобы запускать команды с админом уже из них.
  • в опции Shared Experiences – позволяющей синхронизировать действия между разными устройствами Windows 10, работающими под одним Microsoft ID – появилась опция Nearby Sharing – теперь можно быстро поделиться файлом или страницей через опцию Share с другим своим (или любым, если там разрешен доступ для всех) устройством, находящимся в пределах доступа Bluetooth или общих WiFi сетей. Никаких других специальных настроек для такой передачи данных между двумя компьютерами с Windows 10 1803 не требуется – просто на одном компьютере отправил, указав компьютер-получатель, на втором – принял. Пользуюсь этой опцией с момента обновления Nearby Sharing – отлично заменяет перенос файлов и линков между несколькими ПК/планшетами путем флешек, записи в облачную папку или по почте/в мессенджере. Даже некоторые устройства переключил с ограниченного собственными устройствами в рамках одного Microsoft ID доступа на общий доступ (не все домашние/рабочие ПК у меня на одном ID).
  • Еще обно обновление – это Timeline – история вашей работы с приложениями Windows, документами и браузинга, которая пришла на замену “простому” экрану виртуальных рабочих столов (Task View). История синхронизируется между различными вашими ПК (добавленными под одним Microsoft ID) – что очень удобно, особенно когда вы пересаживаетесь с рабочей станции на лептоп или планшет, но основные документы хранятся в вашем облаке – вы можете продолжить работу с документом с того места, где остановились, но, что еще более важно – также воссоздать и среду работы – открыть все теже линки на немецкие документальные видео, из которых вы черпали вдохновение и знания, работая над своим текстом или таблицей данных Winking smile История синхронизируется, опять же, через Microsoft ID и вы можете отключить сбор данной информации или ее синхронизацию между ПК и мобильными устройствами. И да, синхронизация с мобильными устройствами тоже доступна – можете видеть свои действия на iOS/Android – при условии, что вы будете там пользоваться Microsoft Launcher и Microsoft Edge. Лично у меня на моем Xiaomi Mi6 стоит Microsoft Launcher в качестве стандартного браузера и я нахожу его более удобным ланчером, чем штатный MIUI от Xiaomi. Launcher стоит и на моем Gemini PDA 4G, но на этом аппарате я как раз пользуюсь только Microsoft Edge – он удобнее Chrome в таком разрешении и в горизонтальном экране, как на Gemini. Зачем тогда на Gemini установлен Launcher и почему я им не пользуюсь? – как раз Launcher криво работает при горизонтальном расположении экрана, но именно его службы синхронизируют данные для Timeline (в том числе и от Microsoft Edge) с облаком. А вообще – Microsoft активно работает на рынке приложений для iOS и Android – это многолетняя стратегия компании – создавать решения для других платформ, привязывая к своим базовым сервисам (а дальше – человек и сам пойдет смотреть и использовать более чем базовые продукты). Хотите посмотреть, чего Microsoft уже сделала для iOS и Android (кроме очень даже неплохого удобного Launcher) – устанавливайте утилиту-агрегатор Microsoft Apps – там есть все официальные продукты Microsoft для той или иной платформы. И да, если кому-то интересно – могу снять отдельные видео про те продукты Microsoft, которые я использую на Android и про синхронизацию Microsoft ПК и смартфонов на Android – пишите в комменты или в личку любой соц.сети, где вы видите мой аккаунт. Но лучше – в комменты к этому видео про новинки Windows 10 1803.
  • тотально переработали пункт Storage в настройках и вообще логику того, как Windows 10 управляет дисковым пространством и освобождает место (в том числе и автоматически). Существенно изменен пункт Временных файлов при подсчете и очистке места – теперь он включает в себя куда более общирное понятие “временности” и, фактически, стал равноценной заменой утилите очистки системного места Disk Cleanup, которая доступна в свойствах диска (про нее я рассказывал в видео про правильную очистку системного диска С: с Windows) – чистит теперь куда более качественно, но не забывайте и про то, что папка Installer никуда не делась и лучший способ очистки диска С: – перенос этой громадной папки (у меня сейчас около 17ГБ) на другой диск – про это я тоже рассказывал в этом видео. Кроме того – поменялись процедуры работы автоматической очистки дискового места Storage Sense – вы можете выставить частоту анализа “мусора” на диске, а также, отдельной опцией теперь идет срок жизни временных файлов приложений.
  • новая функция (и параметры) Focus Assist – это как раз для меня! Позволяет настроить вам логику появления всяких там уведомлений на экране, в том числе и автоматически – по времени, когда вы играете или когда ваш экран расшарен для других – а там вам любовница или шеф пишет все, что хочет с вами сделать Winking smile Но по названию, как вы видите, звучит более лояльно – помощь в фокусировке, а не для того, чтобы не палиться перед другими… Winking smile Хотя лично для меня, как, опять таки, показывает опыт короткой эксплуатации – это именно способ сфокусироваться, не отвлекаясь на постоянно валящиеся уведомления из различных источников.
  • обновились также и настройки графики в Windows 10 1803 – Display – хотя, по факту, Microsoft здесь скорее занимается правильным, но не особенно существенным делом – перелицовкой настроек дисплея, которые раньше были в соответствующей консоли Control Panel. Но в сборке 1803 появились и некоторые интересные новые функции (и не забывайте также о прошлой сборке с полезными функциями, типа Night Light – которой, оказывается, практически никто не пользуется, зато очень хвалят почему-то на телефонах) и наиболее интересная – это оптимизация производительности графического ядра под запросы отдельных приложений. В моем серваке нет встроенной графики в Xeon’ах и потому в примере этого явно не видно, но если у вас и встроенная, и дискретная графика – в Windows 10 1803 вы сможете четко указать, какой графический адаптер и в каком режиме будет использоваться для выбранного приложения – особенно, думаю, это будет полезно на ноутах с 2мя карточками и режимом автоматического выбора адаптера Windows – теперь пользователи смогут переопределять использование производительной графики для любимых игрушек, отдавая для остальных встроенную экономичную по потреблению энергии графику. Как протестировать эту функцию наглядно – пока не придумал Winking smile
  • для приложений из Microsoft Store и, что особенно важно – встроенных приложений Windows 10 типа Store, появились отдельные настройки, которые позволяют управлять не настройками самих приложений, а данными приложениями, как объектами Windows 10 – удалять, сбрасывать данные и востанавливать параметры по умолчанию и т.п. Насколько я понял – новые настройки являются ответом Microsoft на проблемы со встроенными приложениями – типа Store, Edge, Mail и т.п. – в предыдущих сборках… Помните, когда магазин обваливался и вам надо было ручками запускать какие-то страшные скрипты с правами админа и т.п. Теперь все настройки – по клику правой кнопкой на иконку приложения в меню Start и далее – More/App Settings – удобно Winking smile Даже сами Settings имеют собственные настройки… Плюс, теперь намного удобнее управлять и правами приложений на доступ к тем или иным данным или сервисам – типа геолокации, камеры, контактов, аутентификации и т.п. А также – немного разных других улучшений и косметических правок в настройках.
  • и, конечно же, изменения и улучшения в Microsoft Edge – которые появились и в прошлой сборке, но именно в Windows 10 1803 их “доточили”  до соответствующего удобства использования. Особенно радует переработанная в Edge встроенная читалка разных книг – PDF, EPUB, MOBI – которая делает из Edge вполне удобный и хорошо настраиваемый хаб для чтения, хранения и работы с электронными книгами. И, конечно же, добавьте сюда возможности голосового воспроизведения текста. Русский, конечно, звучит не очень для “нейтив спикера”, но вот английские тексты слушать, а не читать – особенно в дороге – очень удобно.

Это, конечно, только небольшая, но наиболее заметная (и на мой взгляд – полезная) часть улучшений и нововведений в Windows 10 April 2018 Update 1803, с которыми я бы рекомендовал бы ознакомиться “вживую” и начать использовать всем пользователям Windows 10 сразу по обновлению до сборки 1803. Что же касается типичного вопроса – “наверное все после обновления на новую сборку Windows 10 1803 все опять глючит и слетает?” могу поделиться личным опытом и опытом других моих подписчиков/друзей:

  • у меня лично наблюдался очень длительный процесс обновления до Windows 10 1803 старых планшетов с 32ГБ хранилищем и отсутствием свободного места – с использованием флешки получилось сделать только в 2 захода с промежуточной зарядки планшета (см.описание проблемы и процесса в начале поста);
  • там же – описание проблем с производительностью Windows 10 1803 на совсем-совсем старых ПК;
  • Процесс обновления ноутбука Lenovo ThinkPad W530 сопровождался “залипанием” установки обновления Windows 10 1803 на 41% – вылечилось путем переключения в BIOS графической карточки с дискретной NVIDIA на встроенный Intel HD Graphics. После этого обновление прошло успешно и потом снова вернул дискретную графику, как основную, в BIOS – все работает стабильно.
  • у одного из комментаторов после обновления до Windows 10 1803 ноутбук Lenovo 320S начал вываливаться в синий экран смерти с ошибкой MEMORY_MANAGEMENT. Пока только установили утилиту Lenovo Solution Center , но она не нашла каких-либо аппаратных проблем, драйверы/BIOS тоже не предложила обновить. Повторялись ли ошибки еще – я пока не знаю – у людей праздники.
  • у меня лично “починился” Microsoft Edge на Surface, который после установки плагина для управления жестами пера стабильно не работал с пером. Теперь, после обновления 1803 – все забегало ОК.
  • настройка Ultimate Preformance обеспечивает в моем сценарии примерно 5% прироста производительности (уменьшения времени конвертации видео – на суточных отрезках конвертации) на моем Dual Xeon. В Инете идет упорное обсуждение того, что настройка энергопотребления Максимальная Производительность повышает скорость работы и “обычных компов или ПК” и как “хакерскими” штучками включить ее не на Windows 10 Pro for Workstations – так вот, это для высоконагруженных многопроцессорных систем, которые будут “колбасить” задачи типа файловых сервисов, виртуализации, обработки видео и т.п. сутками, не уходя в слип и используя совсем другие задержки и аппаратные приоритеты. Только на таких системах будут заметны результаты. Так что менять в обычных ПК схему энергопотребления для того, чтобы увидеть пару FPS в игре – бесполезно. Купите себе пару Xeon – тогда точно заметите Winking smile

Будет ли продолжение обзоров Windows 10? – конечно будет… Особенно, если в комментариях к видео будет действительно что-то интересное, чему можно будет посвятить полезное и наглядное видео. Так что подписывайтесь на мой YouTube –канал iwalker2000.

Видео об ИТ-карьере – как стать ИТ-специалистом и заработать много денег:

Немного ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

И смотрите другие видео для ИТ-специалистов у меня на канале:

Видео про новые возможности дисков и дисковых массивов:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

СофТы: что делать, если "тормозит" комп–пошаговая инструкция по измерению, тестированию и оптимизации производительности дисковой подсистемы ПК/сервера для “разгона” компа…


Выполняя пожелания посетителей моего канала iWalker2000, нашел время таки упорядочить серии видео (особенно технических видео и Путевых Заметок) в виде законченных постов на блоге, содержащих все связанные между собой и релевантные видео. И первой под раздачу попала серия про то, как проверить, что именно у вас тормозит в ПК или сервере и если проблемы с дисковой подсистемой – как оптимизировать работу дисков или выбрать правильный диск, чтобы “ускорить” ПК или сервер.

  • Обзоры Gemini PDA 4G – смартфона с полноценной QWERTY-клавиатурой для работы ►►► http://bit.ly/GeminiPDA_reviews
  • Еще про диски – что такое NVMe, новые быстрые NVMe диски ►►► http://bit.ly/Entry_NVMe 
  • Все обзоры серверного “железа” от компании Entry ►►► http://bit.ly/Entry_servers_review
  • ИТ-карьера, как стать системным администратором ►►► http://bit.ly/ITProSysAdmin
  • Как восстановить “сдохшую” microSD, SD или USB флешку, которая не форматируется или не читается ►►► https://youtu.be/3BcisASmAe0
  • Почему сдыхают флешки/microSD ►►► http://bit.ly/why_microsd_died
  • IT-эмиграция, ИТшники рассказывают о том, как им живется и работается “за бугром” ►►► http://bit.ly/ITemig
  • Как эмигрировать из СНГ, как получить вид на жительства в Евросоюзе ►►► http://j.mp/slovgo

Если ваш ПК или сервер тормозит, то, скорее всего, причина медленной работы системы в целом или отдельной службы/приложения кроется в проблемах дисковой подсистемы. Как показывает личный опыт, именно медленный или очень нагруженный диск является причиной “тормозов” в 80% случаев. Так что данное видео позволяет вам понять, каким образом производительность вашего компьютера под управлением Windows зависит от диска, насколько диск нагружен сейчас, как провести тестирование максимальных возможностей диска и, самое главное – в данной серии видео подробно рассказано про все этапы анализа производительности ПК и выполнения процедур по оптимизации скорости работы дисков, планирования новых дисков и их массивов, и, как результат – укорения работы всего ПК в целом. Так что воспринимайте эту серию, как очень подробный учебный курс по производительности дисков, который вы можете прослушать бесплатно. Кстати, даже в платных учебных центрах Microsoft – вы не найдете такого обширного и детального курса по теме планирования, мониторинга, оптимизации и ускорения дисковой подсистемы Windows. Так что не забывайте благодарить автора, ставить лайки к видео, делиться ссылкой на эту статью и видео в социальных сетях и т.п. И, конечно же – подписывайтесь на мой канал iWalker2000.

Как и чем измерять текущую нагрузку/производительность диска

Итак, по многочисленным просьбам – давно обещанное техническое видео, посвященное управлению производительностью компьютеров – особенно – серверов. Данное видео – первое из серии видео, посвященных производительности дисковой подсистемы в компьютерах под управлением Windows (и не только).

В этой части смотрите про то, что является основным показателем производительности и загруженности диска и как определить, “тупит” ваш диск или нет. И, конечно же, как померять текущую нагрузку на диск и какие утилиты позволяют это сделать быстро и просто.

А также – как зажурналировать всю производительность вашего диска за определенно время, чтобы потом спокойно разобраться с тем, что же на самом деле у вас не так (с диском и по жизни 😉


СофТы: что делать, если “тормозит” комп – как и чем померять производительность диска, ч.01 

В следующих частях – смотрите про тестирование дисков – как оценить максимальные параметры производительности диска под разными задачами/нагрузками и, далее, конечно же – тюнинг производительности диска и дисковой подсистемы в целом.

 

Нагрузочное тестирование и измерение производительность диска с iometer, ч.02

Продолжаем тему измерения производительности дисков и ускорения работы сервера/ПК путем оптимизации и тюнинга дисковой подсистемы. В первой части я рассказал, что и как мерять, а в этой части смотрите, как генерировать тестовую нагрузку при помощи утилиты iometer.

Скачать утилиту iometer можете здесь – http://www.iometer.org/doc/downloads.html , а файл с шаблонами для iometer, в котором вы найдете в том числе и эмуляцию нагрузки файлового сервера (что позволяет понять, например, как будет вести дисковая подсистема при высокой нагрузке в виде виртуальных машин), можете забрать с моего OneDrive – https://1drv.ms/u/s!AM7EfLavPWLMq9cR . Также хочу напомнить, что если у вас сервер планируется под специфическую нагрузку – типа SQL Server или Exchange Server (или другие серверы, работающие именно с БД) – вы должны четко понимать, какими блоками данных оперирует при работе с диском – например, SQL Server оперирует блоками 64КБ при чтении/записи на диск.


СофТы: что делать, если “тормозит” комп – меряем производительность диска с iometer, ч.02 

Надеюсь, процедура тестирования производительности дисковой подсистемы при помощи iometer разжевана достаточно подробно и вы сможете прогнать свои диски на предмет “правильной” нагрузки и увидеть, что вы будете получать на выходе. И хочу напомнить пять вещей про тестирование дисков с iometer в реальной жизни под реальную задачу:

  • вы должны примерно понимать текущую нагрузку на систему – кол-во обращений, отношение чтения и записи, какими блоками данных оперируют приложения, которые будут работать с дисками;
  • есть большая разница между операциями непосредственно с “голым” диском и операциями с файловой системой, поэтому выбор и тестирование файловой системы и размера кластера на ней – может быть критичен для производительности;
  • правильно подбирайте длительность выполнения теста (особенно для тестов с файловой системой, где надо дождаться заполнения кеша и прочих “слоев” – т.е. 3-5 часов теста для реальной большой дисковой системы – это нормально), размер тестового файла (желательно – на размер планируемых данных), количество тестовых процессов Worker (например, каждый тестовый процесс может соответствовать виртуальной машине, которая будет работать с дисковой подсистемой), кол-во генерируемых ими IOPS и микшируйте несколько нагрузок/дисков в одном тесте, чтобы убедиться, что вы нагружаете и меряете не один диск, а реальную нагрузку на дисковую подсистему.
  • подбирайте и тестируйте нагрузку так, чтобы она дошла до критических показателей (основным из которых, как вы знаете из предыдущего видео про измерение производительности диска – является время отклика диска – желательно, чтобы показатель был ниже 30мс, а 20мс – это идеально) и фиксируйте именно этот полученный результат по основным показателям. Это и будет правильная производительность.
  • и, наконец, не верьте только iometer и его показателям – оценивайте производительность дисковой подсистемы “в целом”, по другим важным показателям, которые дает возможность собрать тот же Performance Monitor в режиме логирования (про это тоже смотрите в предыдущем видео про основные показатели/счетчики производительности дисков). При тестировании дисковых подсистем следует обратить внимание и на потребление памяти, и на нагрузку на процессор. Также – очень полезно использовать iometer в сетевом режиме тестирования, чтобы оценить не только скорость работы дисков, а и сетевого интерфейса.

Так что тестируем дисковую систему во всевозможных режимах и комбинациях нагрузки, особенно – перед покупкой. Обязательно попросите своего поставщика дать возможность прогнать аналогичную систему на тестовом стенде. Например, компания Entry – которая является многолетним поставщиком оборудования для тех же семинаров Microsoft, которые я провожу в Украине – предоставляет заказчикам такую возможность и даже поможет спроетировать “железо” для дисковой подсистемы.

 

Как выбрать оптимальный тип диска – SSD, NVMe SSD, SSHD, HDD – под конкретную задачу и имеющийся бюджет?

Продолжаем тему измерения производительности дисков и ускорения работы сервера/ПК путем оптимизации и тюнинга дисковой подсистемы. В первой части я рассказал, что и как мерять на компе, чтобы определить, что проблема низкой скорости работы ПК/сервера – в загруженности дисковой подсистемы или физически медленных жестких дисках, во второй части смотрите, как генерировать тестовую нагрузку при помощи утилиты iometer , а в этой части – смотрите немного теории о том, как и для каких задач выбирать диски в ПК. Сразу скажу, что это видео записано больше как ответ на многочисленные вопросы от посетителей (чаще всего – обычных пользователей) о том, что же им делать, чтобы разогнать систему (особенно старую) и какой новый диск купить на смену сдохшего “старичка”

В этом видео рассматриваются основные сценарии использования дисков в ПК – работа ОС, активные приложения, пишущие и читающие много и часто, горячие/теплые данные и холодные данные – и какие варианты дисков подходят для каждого из этих сценариев.


СофТы: что делать, если “тормозит” комп – как правильно и под какие задачи выбирать диск, ч.03 

И, конечно же, в этом видео – сравнение всех вариантов существующих на рынке хранилищ (будем все же называть их по традиции дисками):

  • преимущества и основные сценарии использования SSD (Solid State Drive)
  • что такое NVMe SSD и почему они не нужны обычным пользователям
  • сценарии использования гибридных дисков SSHD (Solid State Hybrid Drive) – HDD с дополнительным кешем на флешке (2-8ГБ) и как они работают под нагрузкой в разных сценариях
  • и, конечно же, HDD – меня очень часто спрашивают – что какой брать – HDD 5400 или 7200 оборотов и всегда упирают на цену.

И да, хочу сказать, что деньги тут в выборе – самое главное, поскольку современные ОС активно используют диск, особенно при малом объеме ОЗУ (до 4ГБ) – потому жесткие диски HDD даже с 7200 оборотами – не лучшее место для размещения на них ОС. Поэтому – для ОС SSD 128ГБ или SSHD (на худой конец и маленький бюджет) + обычный HDD 7200 на теплые и холодные данные (фильмы, музыку, всякое разное). И для подобных коллекций подойдет и HDD 5400 – можете сэкономить 10 баксов.

 

Оптимизация производительности файловой системы – отключение неиспользуемых атрибутов файлов, правильный размер кластера при форматировании и т.п.

Решил долго не затягивать с темой оптимизации производительности дисков и второй частью видео про то, как правильно выбирать и настраивать диски – потому быстренько записал обещанное продолжение, в котором вы узнаете, как оптимизировать файловую систему (особенно, если речь идет о нагруженных серверах или рабочих станциях).


СофТы: что делать, если “тормозит” комп – оптимизация производительности файловой системы, ч.03B 

В этом видео вы узнаете:

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Использование RAID для ускорения дисковой подсистемы – что такое RAID и рекомендации по применению аппаратных RAID на ПК

И снова видео про диски – для тех самых – любопытствующих и интересующихся – как “разогнать” свой ПК, почему именно диски являются основной проблемой производительности ОС и как ускорить работу дисковой подсистемы. В этом видео – немного теории о том, какие RAID бывают и что означают все это RAID 0, RAID 1, RAID 5, RAID 10 и прочие страйпы, зеркала и коды… Кроме того – пара практических рекомендаций по применению именно аппаратных RAID – особенно, учитывая наличие аппаратных RAID пользовательских материнских платах.


СофТы: что делать, если “тормозит” комп – что такое массивы дисков RAID и их использование на ПК, ч.04

И, традиционно – более детально в этом видео смотрите про:

 

Ускорение, оптимизация и защита от сбоев данных с использованием встроенного программного RAID в Windows

И снова видео про диски – для тех самых – любопытствующих и интересующихся – как “разогнать” свой ПК, почему именно диски являются основной проблемой производительности ОС и как ускорить работу дисковой подсистемы. В этом видео – практическое применение программного RAID в клиентской Windows. Напомню, что про сами RAID и их уровни вы можете посмотреть в предыдущем видео.

В клиентской Windows (начиная с Windows NT Workstation и далее – в Windows 2000 Professional, Windows XP и т.д.) есть встроенный программный RAID (не путать с более новой службой Storage Spaces, которая относится больше к SDS решениям, чем к локальным RAID), который позволяет достаточно эффективно работать с RAID для отдельных разделов, создавая RAID 0, RAID 1 конфигурации.

Кроме того, данный встроенный вариант программного RAID Windows позволяет защищать загрузочные и системные разделы Windows, используя зеркалирование RAID 1 для того же раздела с Windows. Так что кроме “разгона” ОС вы получите еще и некоторую надежность…

Почему некоторую? потому что зеркалирование будет применяться только к разделу с Windows, но в случае с современными системами с UEFI – надо будет зазеркалировать и тот же раздел UEFI, и раздел восстановления с “оригинального” диска – чтобы в случае полного выхода из строя основного диска – можно было бы стартовать с зеркала не только ОС, но и загрузчики UEFI и т.п.


СофТы: что делать, если “тормозит” комп – использование программного RAID в Windows для ускорения работы дисков и Windows, ч.05

И, традиционно – более детально в этом видео смотрите про:

 

Ускорение, оптимизация и защита от сбоев данных с использованием новой службы программно-определяемых хранилищ (ПОХ, оно же SDS) в Windows – Storage Spaces

УРА! Заключительная часть серии про то, как “разогнать” свой ПК, почему именно диски являются основной проблемой производительности ОС и как ускорить работу дисковой подсистемы. В этом видео – практическое применение новой службы управления дисковыми массивами Storage Spaces в клиентской Windows. Напомню, что про сами RAID и их уровни вы можете посмотреть в предыдущем видео, а про использование “родных” программных RAID в Windows смотрите здесь.

В клиентской Windows (начиная с Windows 8) кроме службы “обычных” RAID , о которых я рассказывал в прошлом видео, есть также служба Storage Spaces, которая предлагает не просто организацию RAID для отдельных разделов дисков, а подное управления программно-определяемым хранилищем (ПОХ), а прилично оно звучит на языке оригинала – Software Defined Storage (SDS).

Такое хранилище имеет массу преимуществ перед имеющимися встроенными RAID, как, например, работу с USB дисками, кеширования данных  на чтение и запись, создание слоев хранения данных на разных типах данных и т.п.

Минусом использования Storage Spaces в домашних условиях можно назвать необходимость выделения дисков (полностью) под Storage Pool – основной объект Storage Spaces, который объединяет все нужные физические диск в едуный объект хранения и управления, из которого уже “нарезаются” все необходимые виртуальные диски RAID, их слои и кеши. НО, учитывая возможность использования тех же дисков USB для Storage Pool – вы можете запросто не только расширить свое дисковое пространство за счет внешних USB, но и разогнать их производительность за счет RAID в Storage Space.


СофТы: что делать, если “тормозит” комп – использование Storage Spaces в Windows 10 для ускорения работы дисков и Windows, ч.06

Все этапы работы с Storage Spaces показаны в данном видео и здесь привожу примеры команд PowerShell:

  • Создание Storage Pool под именем SP1 из всех доступных физических дисков:
    • $PhysicalDisks = (Get-PhysicalDisk -CanPool $True)
    • New-StoragePool -FriendlyName SP1 -StorageSubsystemFriendlyName “Windows Storage*” -PhysicalDisks $PhysicalDisks -ResiliencySettingNameDefault Simple -ProvisioningTypeDefault Fixed -LogicalSectorSizeDefault 512 -Verbose

Напомню, что данная команда создает пул дисков с фиксированными размерами по умолчанию (для повышения их дальнейшей производительности) и с размером сектора 512 байт (если вы используете современные диски, ОС и приложения, можете смело поменять 512 на 4096 в команде).

  • Создание RAID0New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName “RAID0” -Size 12GB -Verbose – диск после создание потребуется проинициализировать, создать на нем раздел и отформатировать стандартными средствами Windows
  • Создание RAID1 (зеркала) с двумя копиями данных и дальнейшим автоматическим созданием раздела и форматированием на полученном диске – New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName “RAID1” -Size 8GB -ResiliencySettingName Mirror |Initialize-Disk -PassThru |New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem NTFS -FileSystemLabel “RAID1” -Verbose
  • Создание специального RAID1 с тремя копиями данных, напомню, что для создания такого тройного зеркала требуется минимум 5 дисков – New-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName “RAID1-3” -Size 12GB -ResiliencySettingName Mirror -NumberOfDataCopies 3 |Initialize-Disk -PassThru |New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem NTFS -FileSystemLabel “RAID1-3” -Verbose
  • Создание RAID5 – RAID0 с четностьюNew-VirtualDisk -StoragePoolFriendlyName SP1 -FriendlyName “RAID5” -Size 12GB -ResiliencySettingName Parity |Initialize-Disk -PassThru |New-Partition -AssignDriveLetter -UseMaximumSize | Format-Volume -FileSystem NTFS -FileSystemLabel “RAID5”

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

Видео об ИТ-карьере – как стать ИТ-специалистом и заработать много денег:

Немного ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

И смотрите другие видео для ИТ-специалистов у меня на канале:

Видео про новые возможности дисков и дисковых массивов:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Тестируем дешевые китайские скоростные microSD серии Samsung EVO Plus U3 на 64ГБ и 128ГБ с AliExpress–тесты скорости чтения/записи и “выживаемости”


Продолжаю тему “китайских” microSD – заказал себе на AliExpress китайскую версию Samsung EVO Plus U3 64ГБ по дешевке и вот теперь тестирую ее и на производительность, и выносливость Winking smile

И немного предыдущих видео, которые могут быть вам полезны для выбора и, особенно, восстановления сдохших microSD или USB флешек, которые не хотят форматироваться.

По производительности этот “китайский Samsung” показал фактически сравнимые – с отставанием на 3-5% – результаты с “словацким Samsung”, причем ни какой-нибудь, а дорогой Samsung PRO Plus U3 64ГБ, которую я тестировал 2 года назад и куда более лучшие результаты, нежели китайские “ноунейм”-microSD типа LonDisk, OV, Toshiba, купленных на AliExpress. При этом цена EVO Plus 64GB у китайцев в 2.5 раза ниже, чем цена PRO Plus 64GB в Словакии.


AliExpress: “китайская” дешевая microSD Samsung EVO Plus 64GB – тестирование производительности

В цифрах показатели производительности китайской Samsung EVO Plus U3 64ГБ выглядят следующим образом (напомню, вторая колонка цифр – это процент от скорости Samsung PRO Plus):

Показатели производительности китайской microSD Samsung EVO Plus U3 64GB в Crystal Disk Mark 5.0
image

Показатели производительности китайской microSD Samsung EVO Plus U3 64GB в в iometer
image

Что же касательно времени жизни и надежности, то хочется верить, что те 20ТБ (приблизительно 60МБ/с * 3600с * 96ч, 96 часов – это приблизительное время на все тесты, если считать, что все проходы iometer на разных кардридерах, по 8 часов каждый), которые я записал на карточку за время тестирования – явно продемонстрировали ее работоспособность, причем – в достаточно агрессивном режиме использования (надеюсь, это не скажется критически в дальнейшем на ее жизненном пути). Кстати, все упомянутые “китайцы” – LonDisk, OV, Toshiba, купленные на AliExpress –  продолжают активно работать и сейчас. Одна из них используется очень даже агрессивно – в видеокамере – для записи всех моих обзоров на канале и прочих Путевых Заметок.

 

Развитие темы предыдущего видео – тестирования дешевой китайской microSD Samsung EVO Plus U3 64GB – я, вдохновленный результатами тестирования (и тем, что карточка выжила после 20ТБ данных, записаных на нее буквально за 4 дня тестов) – заказал себе у того же продавца еще одну дешевую microSD на 64ГБ и старшую модель на 128ГБ – Samsung EVO Plus U3 128GB.


AliExpress: тестируем “еще одну китайскую” дешевую microSD – Samsung EVO Plus U3 – на 128GB

На AliExpress и собственно на упаковке Samsung EVO Plus U3 128GB было указано, что данная microSD показывает 100МБ/с на чтение и 90МБ/с на запись, что куда лучше, чем протестированая ранее Samsung EVO Plus U3 64GB с ее 100/60МБ/с и даже лучше, чем прошлогодняя “словацкая” Samsung PRO Plus U3 64GB. Поэтому, не смотря на то, что тесты предыдущей “китайской” Samsung EVO Plus показали ее полную пригодность для работы с 4К видео и вообще – полностью исчерпывающую скорость работы (живучесть ей еще придется доказывать в течение следующего года-двух) – я решил прогнать тесты и для Samsung EVO Plus U3 128GB – чтобы убедиться, насколько она лучше своих 64ГБ собратьев и действительно так ли быстра, как написано.

И вот, что показал мне iometer с его близким к реальной жизни тестом (это когда кроме линейной записи большими блоками – как пишется видео – карточку дергают еще иногда не очень активно другие процессы в случайном режиме). Первый столбец данных – абсолютные значения скорости чтения/записи Samsung EVO Plus U3 128GB, второй – процент от скорости PRO Plus 64GB, третий – процент от скорости EVO Plus 64GB:

image

И результаты “линейных” тестов Samsung EVO Plus U3 128GB в Crystal Disk Mark 6:

image

 

И еще тесты с использованием утилиты USB Flash Benchmark, которые просили сделать:

Плюс, поскольку все тесты предыдущих microSD делались исключительно в  CrystalDiskMark версии 5, я нашел себе силы, чтобы прогнать все имеющиеся у меня microSD Samsung и в CrystalDiskMark 6 – так сказать, для дальнейшей совместимости результатов с будущими тестами. А они еще точно будут – я еще по дешевке – буквально за 7баксов – заказал себе те самые “китайские ноунейм” OV Pro U3 64GB и мне самому интересно, насколько падение цены в 2 раза по сравнению с “китайским Samsung” повлияет на падение скорости.

image

Как видно из показателей последовательного чтения/записи – надписи на упаковке 100/90МБ/с у китайской Samsung EVO Plus U3 128GB практически не врут – по результатам тестов получилось 92/80 – что в пределах 10% отклонений, что очень даже хорошо Winking smile

И немного о производительности дисков – на этот раз на microSD, а “настоящих” HDD/SSD дисков, которые стоят в вашем сервере, ПК или ноутбуке. Очень рекомендуется данная серия для продвинутых пользователей, которые хотят понять причины медленной работы системы и каким образом можно оптимизировать и ускорить работу дисковой подсистемы компьютера:

 Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

Еще тесты производительности различных USB флешек/microSD/SSD дисков и т.п. у меня на канале смотрите здесь:

 

Отказоустойчивые кластеры Windows Server 2016 Failover Clustering–инструкция по базовому развертыванию, настройке ролей, а также–созданию гостевого кластера и кластера без подключения к Active Directory


Еще немного технических видео на канале… Нет, это видео не про Petya – про защиту от Petya смотрите здесь и читайте статьи здесь на блоге, и не про мониторинг производительность дисков (но обещанное продолжение про производительность тоже следует). Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

image

Меня тут уговорили сделать “краткую” инструкцию по развертыванию отказоустойчивого кластера Windows Server 2016 Failover Clustering – как развертывается, какие проблемы могут быть и почему не работает.

Хотя это видео про развертывание кластера Windows Server 2016 и получилось слегка длинным – но, на мой взгляд – удачным – тут и использование тиминга (NIC Teaming) сетевых интерфейсов для ускорения дисковых операций, и подключение к сетевым дискам iSCSI для общего хранилища кластера, и проблемы с правильным определением кластеров “нужных” сетевых интерфейсов с дальнейшим исправлением, и, конечно же – создание собственно отказоустойчивых ролей в кластере – таких, как высокопроизводительный отказоустойчивый файловый сервер Scale-out File Server и роль виртуальной машины Hyper-V, и вложенная/наследуемая виртуализация (nested virtualization) в Hyper-V, используемая для лабы.

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Надеюсь, это видео про основные шаги при развертывании отказоустойчивого кластера Windows Server 2016 Failover Cluster будет полезным для тех, кому “вот прямо срочно” требуется развернуть кластер на Windows Server 2016 и запустить в нем те или иные роли.


СофТы: как развернуть и настроить кластер Windows Server 2016 Failover Clustering, ч.01

Но я пообещал более подробно (кроме собственно, развертывания кластера) раскрыть эту тему – поэтому в следующем “длинном” видео смотрите более подробно про настройки параметров ролей в кластере, а также – о создании гостевого кластера (кластера внутри кластера) для еще более бесперебойной работы и высокой доступности приложений.

И немного о вирусе Petya и украинской “эпидемии”

Продолжение темы про отказоустойчивые кластеры Windows Server 2016 – на этот раз про настройки собственно отказоустойчивости и высокой доступности. А предыдущее видео – про установку и начальную настройку самого кластера Windows Server 2016 Failover Clustering – смотрите тут.

В этом видео про настройку ролей в отказоустойчивом кластере Windows Server 2016 Failover Clustering вы найдете:

  • как работает отказоустойчивость и высокая доступность в кластере Windows для “обычного” приложение – настройка количества сбоев, перезапуск/”переползание” приложения между узлами кластера, остановка приложения.
  • работа приложений, поддерживающих распределенный режим работы и позволяющий им работать на всех (нескольких) узлах кластера одновременно – на примере Scale-Out File Server.
  • Работа отказоустойчивой виртуальной машины Hyper-V в кластере.
  • Настройка параметров восстановления роли кластера в случае сбоя одного из узлов кластера – возврат роли на оригинальны узел после восстановления работоспособности роли, настройка общих приоритетов работы роли и преференций по работе роли на разных узлах кластера Windows Server 2016.
  • Настройка мониторинга отдельного сервиса внутри роли виртуальной машины кластера Hyper-V для мониторинга состояния отдельных процессов ВМ и ее общего здоровья, запущенной в кластере.
  • И, конечно же, демонстрация “падения” одно из узлов кластера Windows Server 2016 и реакция на это событие разных типов ролей – подолжение процесса копирования файлов на Scale-out File Server, старт общей роли на втором узле кластера, и перезапуск виртуальной машины, которая “обрушилась” при падении узла кластера.

Смотрим, учимся, разбираемся и планируем отказоустойчивую работу и высокую доступность необходимых приложений под управлением Windows Server 2016 Failover Clustering.


СофТы: настройка отказоустойчивых ролей в кластере Windows Server 2016 Failover Clustering, ч.02

В продолжение темы про отказоустойчивые кластеры Windows Server 2016 – в следующем видео смотрите про создание гостевого кластера из виртуальных машин Hyper-V внутри основного (физического) кластера Windows Server 2016. Зачем? чтобы гарантировать еще более высокую доступность и надежность приложения, запущенного на виртуальной машине в кластере (которое будет тоже в кластере). Так что улучшается доступность чуть ли не на порядок 😉

Видео об ИТ-карьере – как стать ИТ-специалистом и заработать много денег:

Заключительное видео в серии по теме отказоустойчивого кластера Windows Server 2016создание гостевого кластера из виртуальных машин внутри основного кластера – такая себе фукурума 😉

Особенностью данного видео и основным отличием от первого видео – просто развертывания кластера Windows Server 2016 – в том, что гостевой кластер создается не просто так, а в режиме “Active Directory-Detached Cluster” – отключенного от Active Directory кластера Windows.


СофТы: установка гостевого Hyper-V кластера Windows Server 2016 без Active Directory, ч.03

Подробную инструкцию по развертыванию гостевого кластера Windows Server 2016 без Active Directory вы найдете в этом видео, а основные шаги по развертыванию такого отключенного от AD кластера Windows приводятся ниже:

  • все узлы кластера должны быть зарегистрированы в каком-то из доменов (зон) DNS – для этого необходимо, чтобы DNS сервер поддерживал динамические обновления, суффиксы требуемого домена были прописаны в настройках серверов, а в настройках сетевых интерфейсов – стояли опции обязательной регистрации имени. Или вам потребуется создавать все записи в DNS зоне для узлов кластера, самого кластера и его ролей ручками.
  • настройки firewall должны разрешать обращаться всем узлам друг к другу.
  • на каждом из узлов будущего кластера должна существовать учетная запись-локальный администратор с общими одинаковым именем и паролем. Также, должен быть отключен сетевой фильтеринг в UAC – тот самый ключ в реестре – New-ItemProperty -Path HKLM:\SOFTWARE\Microsoft\Windows\CurrentVersion\Policies\System -Name LocalAccountTokenFilterPolicy -Value 1
    ВНИМАНИЕ! Помните, что такой кластер представляет собой потенциальную жертву для атак типа pth/ptt – которые использует тот же Petya и другие вирусы (и просто хакеры). Поэтому
    смотрите видео про защиту от подобных атак Pass-the-Hash/Pass-the-ticket и, конечно же, читайте статью, посвященную стратегии защиты ИТ-инфраструктуры Defense-in-Depth на примере защиты от Petya.

А поскольку мы развертываем гостевой кластер из виртуальных машин и ему требуется также общие диски для своей работы – смотрите в данном видео сценарии, каким образом вы можете создать и где разместить такие диски в виде специальны общих виртуальных дисков Hyper-V (Shared Disk – VHDX или VHD Set). И, пожалуйста, не монтируйте диски гостевого кластера на те же LUN SAN/iSCSI, которые уже используются “большим” основным кластером – это приведет к катастрофическим последствиям для обеих систем.

Думаю, что все 3 инструкции по кластерам Windows Server 2016 помогут вам освоиться с базовыми аспектами работы с отказоустойчивыми кластерами Windows Server 2016 и их вариациями – гостевым кластером из виртуальных машин Hyper-V и кластером Windows без использования Активного Каталога.

Поэтому данную тему будем пока считать закрытой… Хотя есть масса нюансов в обслуживании повседневном кластеров и, конечно же, есть команды PowerShell, которые позволят намного быстрее и гибче развертывать и управлять кластерами Windows… Но это тема уже другой серии видео про кластеры Windows Server 2016.

А в продолжении технических видео на канале – все та же производительность дисков – измерение скорости работы и ускорение дисковой системы.

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Немного ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

И смотрите другие видео для ИТ-специалистов у меня на канале:

Видео про новые возможности дисков и дисковых массивов:

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Вирус Petya и правильная комплексная защита от него и подобных следующих вирусов, которая должна была быть в каждой ИТ-инфраструктуре–то, что не сделали вовремя украинские CIO


А теперь послушайте страшную историю о том, что вы действительно должны были сделать, дорогие мои CIO – так сказать, «техническое алаверды» тому потоку негатива от обиженных CIO и “патриотов”, который последовал за публикацией предыдущего поста «про Petya» в ФБТрагедия и фарс–украинские CIO и 150долларовые админы,российский след и “атака ФСБ”,тотальный факап Microsoft Ukraine–все, что вам надо знать о причинах вчерашней вирусной атаки в Украине

Особенно «возбудились» почему-то некоторые «патриотические» деятели с дежурной фразой – «ты не живешь в Украине, какое право ты имеешь об этом писать!» – спасибо, повеселили, значит, мой «толстый» троллинг зацепил за живое…

Ладно, оставим лирику – все равно я всякое разное в ФБ комментах покилял, а самых ярых – заблокировал.

А мы посмотрим пошагово, чего же такого «провтыкали» CIO, что могло бы предотвратить эпидемию в украинских компаниях «на корню», что есть в базовых рекомендациях Defense-in-Depth https://msdn.microsoft.com/en-us/library/cc767969.aspx и реализовать которые не является большой проблемой. Напомню, требования Defense-in-Depth (DiD) достаточно простые и предусматривают реализацию тех или иных сервисов защиты на всех уровнях ИТ-инфраструктуры.

Уровень

Технологии

Данных

ACL/шифрование/классификация данных с RMS

Приложений

SDL, антивирусы, «бронирование» приложений и сервисов, App/Device Guard

Хостов

«Бронирование» ОС, аутентификация, управление обновлениями, FW, защита от вторжения (IDS), VBS, Device Guard

LAN

Сегментирование и изоляция (VLAN), шифрование (IPSec), защита от вторжения (NIDS)

Периметр

FW, контроль доступа, App FW, NAP

Физическая безопасность

Охрана, ограничение доступа, аппаратный контроль и аудит доступа, отслеживание устройств, камеры наблюдения

Люди, политики, процедуры

Документирование, тренинги, предупреждения и уведомления, наказания…

Есть и более «продвинутые» методы защиты, которые обеспечивают высокий уровень защиты от современных типов атак, которые в том числе, использовались и в Petya – Securing Privileged Access – http://aka.ms/privsec

Итак, начнем с первичного заражения. В данной эпидемии рассматривается 2 основных сценария – проникновение через почтовые сообщения в виде вложения к письму и через систему обновлений MEDoc, так называемую атаку «software supply chain attacks», когда взламывается поставщик ПО. Подробно, кто еще не прочитал – «разбор полетов» можете посмотреть здесь – https://blogs.technet.microsoft.com/mmpc/2017/06/27/new-ransomware-old-techniques-petya-adds-worm-capabilities/

При этом в первом сценарии запущенный пользователем из почты исполнимый файл атакует ОС через уязвимости SMBv1 (EternalBlue/EternalRomance) и получает все требуемые права, чтобы выполнить свои процессы – шифрование и распространение.

Какие методы противодействия Defense-in-Depth помогут от подобной атаки:

  • Периметр – сервис фильтрации почтовых сообщений (например, в Microsoft Exchange) – просто удаляющий все файлы, кроме разрешенных типов, антивирусная система для электронной почты, если нет чего-то подобного – аренда аналогичных облачных сервисов, например – Exchange Online Protection, «знания» которого не зависят от «расторопности» админов (время внедрения – 30 мин + обновление доменного имени).
  • Приложения – антивирусы, которые ловили Petya.A с самого начала эпидемии. Надо обновлять сигнатуры – нет, не слышали?
  • Хост – бронирование ОС – накатить готовые политики с рекомендованными настройками безопасности от Microsoft Security Compliance Manager или доточить их под рекомендации – например, отключить SMB v1 как класс и прочие ненужные устаревшие сервисы – плевое дело, управление обновлениями (совсем не сложно, особенно, если Windows не пиратская), с IDS сложнее, но даже тут – всего лишь подписка на Defender Advanced Thread Protection, который, как показала практика, ловит атаки подобного типа на корню.
  • ЛПП – обучение не открывать файлы, предупреждение об возможных атаках и наказание – вплоть до увольнения и судебных исков против запустивших вирус (ах, да – страна такая, законы не работают – тогда просто переломайте запустившему вирус ноги).

Так что в данном случае – сам факт заражения существенно снижается…

Сценарий второй – вирус «прилетел» через обновление той или иной LoB-системы и здесь пока почти без шансов – скорее всего компьютер будет заражен, поскольку код выполняется от прав системы.

Но не будем расстраиваться. Мы потеряли один компьютер и далее все зависит исключительно от устойчивости ИТ-инфраструктуры в целом.

Дальнейший сценарий распространения вируса Petya проходит по нескольким направлениям:

  • Механизм, использующий уязвимость SMBv1 (EternalBlue/EternalRomance) на находящихся в одной подсети с зараженным ПК компьютерах,
  • Или механизм pass-the-hash/pass-the-ticket, используя имеющиеся на зараженном ПК сеансы пользователей.

Первый вариант распространения вируса на соседние ПК блокируется очень просто с Defense-in-Depth:

  • LAN – сегментирование и изоляция (VLAN) – совсем просто, особенно учитывая кол-во накупленных в компаниях Cisco и прочего оборудования, надо только сесть и чуть подумать, какой же трафик куда должен ходить между сегментам пользовательских ПК (многочисленных и разнесенных тоже) и серверами приложений (тоже сегментированных между собой по типам приложений и требуемого сетевого доступа). Мы не говорим даже об NDIS – даже без обнаружения вторжения (хотя если Cisco – так чего бы не активировать?) – сегменты сетей стали бы непреодолимым барьером для проникновения вируса вне группы ПК.
  • Хост – с его firewall, который, как ни странно, сейчас включается в Windows по умолчанию и только дурацкий ответ на вопрос – «хотите ли вы расшарить свои файлы в сети» – «да, хочу!» – портит всю картину. Ну вот зачем, зачем пользовательскому ПК вообще что-то публиковать в сети? Зачем все админы так любят отключать firewall? Легче работать? А не легче ли написать правила в групповых политиках… И все, даже в рамках одного сегмента сети – такие ПК c firewall будут защищены от посягательств зараженного ПК. А что насчет контроллеров домена и прочих файловых помоек – читай выше, обязательных обновлений и «бронирования» и тут никто не отменял.
  • ЛПП – и да, не забываем о персональной ответственности админов и сетевиков за каждый следующий поломаный по сети комп.

Второй вариант распространения вируса чуть сложнее – Petya использует для атаки на другие ПК в сети наличие открытых пользовательских сеансов/кэшей паролей на зараженном ПК, а учитывая парадигму того, что многие админы на ПК используют один и тот же пароль локального администратора или учетную запись администратора домена для работы на любом ПК компании – здесь для Petya широкое поле деятельности с использованием механизмов атак pth/ptt. Имея на руках администраторские пароли и открытые «всем ветрам» порты соседних ПК – Petya успешно копирует себя через административные шары (Admin$) и запускает удаленно свой код на атакуемой машине.

НО, если обратиться к Defense-in-Depth, то можно обнаружить, что:

  • Хост – рекомендовано использование технологий VBS и Device Guard для защиты от кражи идентити подобными способами. Но – VBS есть только в Windows 10 – Ok, но никто не мешает познакомиться с рекомендациями по защите хостов от Pass-the-hash/pass-the-ticket атак для Windows 7 и т.д. – ничего сложного, кроме опять же – использования рекомендованных шаблонов безопасности (их же можно использовать и для Windows 10 без VBS/DG) – http://aka.ms/pth – начиная с отключения кеширования идентити при входе и т.п.
  • Хост – простейшая гигиена аутентификации, связанная с использованием уникальных администраторских паролей на каждой рабочей станции/сервере – утилита Local Administrator Password Solution (LAPS) – http://aka.ms/laps – избавит от головной боли «по запоминанию» каждого пароля, а далее – более сложные процедуры гигиены для администраторов, которые говорят, что для выполнения определенных действий на ПК должны быть использованы определенные учетные записи, не обладающие полнотой прав на уровне всей сети – https://docs.microsoft.com/en-us/windows-server/identity/securing-privileged-access/securing-privileged-access-reference-material (а что, никто не в курсе, что с доменным админом ходить по рабочим станциям категорически запрещено?).
  • Плюс – уже упомянутые выше механизмы обнаружения вторжения – тот же Defender ATP или Microsoft ATA («заточенный» как раз на обнаружение атак pth/ptt) и, безусловно – firewall и сегментирование сетей для того, чтобы завладевший теми или иными учетными записями вирус не смог подключиться к соседям.
  • ЛПП – а здесь уже может “прилететь” и админу компании в целом, если окажется, что его учетная запись “гуляет” почему-то по рабочим местам пользователей или используется на ПК совместно с такими гуляющими админами.

ВСЕ! Было «охренеть как сложно», мы потратили от силы 3 рабочих дня (24 часов и 24х75=1800евро денег высококвалифицированного специалиста) из предоставленных 43 дней с предыдущей атаки для того, чтобы защититься от разрушительного действия вируса типа Petya.

UPD 1: По просьбам комментаторов и просто друзей в Facebook и прочих социальных сетях – записал практическое видео с примером реальной лабы по заражению домена Petya.C с правильно настроенными политиками безопасности согласно требованиям Defense-in-Depth для защиты от современных типов угроз (типа того же Pass-the-Hash/Pass-tht-Ticket, которые использовал Petya.C) – при явном заражении одного ПК – влияние вируса на остальную лабу – нулевое:


СофТы: закрываем уязвимости ИТ-инфраструктуры от современных атак (типа Petya – pth/ptt)

Да, тут некоторые коллеги в комментах дискутировали насчет того, что «нельзя так просто взять и поделить сеть на подсети пользователей и банкоматов – есть моменты администрирования и удобства работы» – но, в любом случае, у CIO было еще минимуму 3-5 дней на подумать, а потом решить, что удобство работы перед угрозой полномасштабной вирусной атаки – отходит на второй план. В общем – даже не думали и не сделали НИЧЕГО.

Наши потери от Petya после принятых общих мер – мы потеряли, скорее всего, все машины, которые заразились путем приезда «обновления от MEDoc» (хотя, при использовании IDS типа Defender ATP – и эти потери могут быть сведены к минимуму), мы потеряли 10% от тех машин, которые получили «письма счастья», а компания – потеряла работавших на них сотрудников. ВСЕ! Никакой эпидемии, никаких отключившихся касс и банкоматов (!!!), никаких тысяч часов на восстановление ИТ-инфраструктуры. Осталось восстановить требуемые данные из бекапов (или вообще ничего не восстанавливать, кроме ОС на ПК – если ИТ-инфраструктура сделана правильно и все хранится и бекапится централизованно, к тому же – в облако).

Так что это было, добродии?! Почему Petya гулял по украинским сетям, вынося всех и вся (и не надо рассказывать, что «в Европе/России тоже пострадали», «это была спланированная атака на Украину») – как не лень, некомпетентность и пофигизм CIO попавших под раздачу организаций и полный пофигизм Microsoft Ukraine по отношению к наземной угрозе?!

Ах да, Microsoft и «облака наше все»… Сейчас пойдут разговоры о том, что если бы «все было в Azure», то ничего бы не было. Было бы – с тем же результатом – ваши виртуальные машины в Azure были бы в той же ситуации – локальная сеть, открытые порты и т.п. – потому что в гибридной инфраструктуре облачная часть IaaS по безопасности ну никак не отличается от наземной по необходимости настроек.

Таким же образом, через обновления, Petya успешно бы пролез и на виртуалки в Azure, дальше бы пошел гулять по виртуальным сетям Azure (которые вы бы не поделили на сегменты, не изолировали, не использовали firewall на каждой), а потом и через Site-to-Site VPN залез бы и на наземные ПК пользователей… Или наоборот – с тем же результатом в такой незащищенной от угрозы изнутри “обланой” инфраструктуре.

А то было бы и хуже – учитывая умение Petya считывать учетные записи админов и зная безалаберность этих админов – Petya.Cloud (с модулем работы в облаке – дописать в код пару строчек) давно бы уже имел административные права на ваши подписки в облаках и делал бы там все, что заблагорассудится, кидая вас еще и на деньги – например – поднимал бы виртуалки для майнинга или ботсетей в вашей облачной подписке, за которые вы бы потом платили по 100К-300К уе/мес.

И даже использование облачного Microsoft Office 365, который вроде как SaaS и его инфраструктура защищается Microsoft – при такой дырявой инфраструктуре на местах – не спасет – с тем же успехом вирус добирается до админского аккаунта O365, используя воровство учетных записей – и дальше подписка O365 уже «не ваша».

Вам об этом не сказали Microsoft, Google, Amazon – все, кто продает «облака»? Так это, им же продать надо, а не решать ваши проблемы – а все проблемы облаков – находятся «на местах», а туда особо уже и не продашь – значит, и инвестировать в наземные части заказчиков не стоит ни копейки – даже тренингами и семинарами… 

И всем – приготовиться – это была только следующая волна, ждем следующей, как только ребята найдут следующий механизм “заброски” и инфильтрации вируса в корпоративные сети. И этот вирус также не будет обнаруживаться антивирусами по сигнатурам и будет эксплуатировать свежие уязвимости сетей и незакрытые механизмы типа Pass-the-hash/Pass-the-ticket. И вот просто “перенести все в облака” вам не поможет, а подписка на облачные Microsoft ATA/Defender ATP в дополнение к описаным выше мерам – вполне.

И небольшой ликбез для тех, кому интересно (некоторые доклады – почти годичной давности):


Webcast: как противостоять современным информационным атакам при помощи Microsoft Advanced Threat Analytics – про Pass-the-hash/pass-the-ticket атаки 


О безопасности гибридной/облачной ИТ-инфраструктуры в Azure IaaS

 

И немного ссылок на другие материалы для тех, кто хочет стать просто ИТ-специалистом – смотрите первые шаги по созданию тестового рабочего места:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

И еще – немного ссылок про ИТ-карьеру и тренинги/обучающие материалы для ИТ-профессионалов и Системных Администраторов:

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

Это должен знать каждый перед тем, как вставлять microSD в телефон или камеру–почему “дохнут” флешки/microSD–и несколько простых советов, которые помогут вам сэкономить деньги и сохранить данные и время…


Ввиду многочисленных вопросов в комментах в видео про сдохшие microSD и прочие флешки – дописал еще одно – более теоретическое – почему вообще дохнут microSD и как с этим бороться. Это должен знать каждый – если не хочет покупать новые microSD карточки/USB-флешки каждые несколько месяцев и переживать о потерянных данных Winking smile

Подписаться на мой YouTube-канал iWalker2000 ►►►

Как восстановить microSD ►►►

Как проверить/разблокировать флешку ►►►

 Итак, в продолжение 2х предыдущих видео о борьбе с проблемами USB-флешек, microSD и т.п., которые не хотят форматироваться, находятся в режиме только чтение и т.п. – записал еще одно видео, которое расскажет о самих проблемах – почему “дохнут” флешки, и, особенно – карточки microSD – и методах, как сделать так, чтобы эти карточки microSD прожили у вас в телефоне/камере максимально долго.

Материал этого видео подготовлен по просьбам/вопросам с предыдущих видео про microSD, и в нем вы узнаете:


Подробно: почему и как “сдохла” microSD/SD, флешка в телефоне, камере и как с этим бороться 😉

Предыдущие видео о том, как восстановить флешку/microSD. В этих видео описаны детальные шаги восстановления microSD/USB флешки при возникновении той или иной проблемы:

Почему сдохла моя microSD/USB флешка – не открывается, не читается, не форматируется, на нее нельзя записать новые данные? Главные причины выхода из строя флешек, особенно – microSD – следующие:

Аппаратные проблемы самой карточки/флешки или устройств, к которых microSD работает:

  • Заводской брак самой карточки (или сама карточка изначально “очень китайская” и собрана из отбракованных элементов для продажи в страны 3го мира типа бывшего СНГ)
  • Сильный нагрев устройства, в котором стоит microSD, при работе – и как результат – нагрев и выход из строя microSD
  • Агрессивная среда эксплуатации/резкие смены температур
  • «Китайский» кардридер/устройство, не соблюдающие должным образом требования к вольтажу/силе токи, серьезные скачки/пики при работе
  • Окончание лимита перезаписи ячеек у карточки – у каждого устройства с флеш-памятью – есть лимит, сколько раз каждая ячейка может быть гарантированно быть перезаписана. Обычно – указывается как цифра, какой объем перезаписи от полного объема карточки в день допустим в течение гарантийного срока. Обычно у microSD – это около 0.2, т.е. карточка объемом 32ГБ может в день перезаписывать данных не более чем на 6ГБ 😉

Программные проблемы, когда ввиду тех или иных ошибок происходит повреждение логической структуры самой файловой системы:

  • Аппаратный сбой записывающего устройства при записи
  • Недостаточная производительность самой карточки – на нее пытаются записать быстрее, чем она может реально писать и как вариант – сбои записи с повреждением данных
  • Программные ошибки приложений при записи на карточку

Что с этим делать? Как уменьшить риск потери карточки/данных:

  • Проверяйте флешку сразу после покупки, китайцы часто «кидают» по размеру/скорости – обязательно посмотрите это видео – http://bit.ly/microSD_test – и используйте утилиту проверки/теста microSD перед эксплуатацией
  • Знайте особенности своего телефона и не злоупотребляйте нагревом – не “гоняйте чертиков”, которые “кипятят процессор” долго, если карточка в телефоне конструктивно – рядом с процом.
  • Знайте особенности своей флешки, особенно – по скорости и перезаписям – еще раз перечитайте статью/пересмотрите видео про маркировку карточек/тестирование их скорости – http://bit.ly/chmicroSDpost 
  • Ставьте microSD, соответствующие аппаратным требованиям устройства
  • Покупайте оборудование знакомых марок у знакомых поставщиков, поищите в Интернете обзоры и тесты “выщиваемости” различных марок/моделей microSD.
  • Видеокамеры и видеорегистраторы – гроза и убийцы microSD – особенно со сдохшим аккумулятором
  • Режимы работы камер типа Time Lapse – часто приводят к сбоям ввиду длительности нагрузки/нагрева
  • Не используйте “любимую” карточку с глючными устройствами/прошивками

Как правильно выбирать microSD,  подробнее о маркировке и реальной производительности различных microSD/SD, китайских и не очень – читайте пост здесь на блоге. А основные правила выбора “долгоживущей” microSD – очень простые:

  • Известные производители, проверенные поставщики, не продающие подделки
  • Требуемая спецификация для устройства и задач
  • 2х32ГБ лучше 1х64ГБ – если это возможно (например, для видео/фото). Кроме того, что в случае сбоя – вы потеряете только половину, есть еще один важный аспект – чем выше плотность хранения на карточке microSD (больше ее объем) – тем больше вероятность сбоя ее носителя (причем, вероятность выше, чем прямо процорциональная увеличению объема).
  • Обязательно – температурная защита у флешки и у телефона. И не только температурная – для современных “плотных” карточке microSD действительно может хватить и работающего рядом фена с его электромагнитным излучением Winking smile

Как восстановить сдохшую USB-флешку/карточку microSD – подробные шаги описаны в этом посте у меня на блоге – Как восстановить “сдохшую” microSD, SD или USB, которая не хочет форматироваться – а тут дальше приводятся главные проблемы при восстановлении и что делать, если что-то при следовании инструкции пошло не так:

  • В случае, если при команде LIST DISK в списке устройства нет/пишет No media
    • Скорее всего «сдох» контроллер флешки (в мусорник)
    • Попробуйте в другом, нормальном кардридере
  • Команда CLEAN выдает сообщение «ошибка записи устройства», «устройство не готово»
    • Вышел из строя носитель на флешке, перешел в состояние «только запись» по исчерпанию ресурса (в мусорник)
    • Попробуйте другой кардридер Winking smile 
  • Команда CLEAN проходит нормально, но после, при команде CREATE PARTITION выдается сообщение, что места для нового раздела – нет
    • Вероятнее всего – также вышел из строя носитель флешки, запись на него неустойчивая
  • Аналогично, флешка нормально работает после восстановления на компьютере, но не работает в устройстве – уровень сигнала на портах USB/кардридерах обычно выше, чем в смартфонах/камерах, потому в ПК запись устойчивее и носитель работает.

 Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 Мои тесты производительности различных USB флешек/microSD/SSD дисков и т.п. у меня на канале смотрите здесь:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

А обзоры всех моих китайских гаджетов, купленных на GearBest.com/TinyDeal.com/AliExpress, смотрите здесь:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

 

 

Обзоры Xiaomi Mi6, ч.02: синтетические тесты производительности и времени работы Xiaomi Mi6–результаты в AnTuTu, PCmark, 3Dmark, GFXbench, Octane Benchmark, Kraken и прочих тестах…


Продолжаем обзоры нового топового телефона Xiaomi Mi6 Ceramic, напомню, первый пост из этой серии – распаковка и начальный обзор Xiaomi Mi6 Ceramic – уже опубликован, смотрите/читайте, если пропустили.

Купить Xiaomi Mi6 Ceramic на GearBest ►►►

Подписаться на мой YouTube-канал iWalker2000 ►►►

А а в этом обзоре – традиционное видео в серии обзоров любого телефона – синтетическое тестирование производительности в разных тестах типа Antutu, PCmark, 3Dmark и прочих – на этот раз Xiaomi Mi6. А все обзоры этого аппарата – Xiaomi Mi6 Ceramic – и других устройств от Xiaomi смотрите у меня на канале в этом плейлисте.


Обзор Xiaomi Mi6, ч.02 – синтетические тесты производительности – AnTuTu, PCMark, 3Dmark и т.д.

Напомню, что Xiaomi Mi6 получил топовое на текущий момент железо, что позволяет ему конкурировать в производительности с самыми престижными моделями от Apple и Samsung.

Технические характеристики Xiaomi Mi6 у моей модели – у меня топовая комплектация – 6ГБ ОЗУ с максимальным размером хранилища – 128ГБ и в керамическом корпусе – радуют:

  • Главная особенность: флагманский телефон от Xiaomi под управлением Android 7.x 
  • Процессор: 8ми ядерный Qualcomm MSM8998 Snapdragon 835 – 4 ядра 1.9 GHz Kryo + 4 ядра 2.45 GHz Kryo
  • Графика: Adreno 540
  • Память: 6ГБ ОЗУ 
  • Встроенное хранилище: 128ГБ 
  • Слот для карт microSD: НЕТ 
  • Экран: IPS, 5,15″, 1080×1920 пикселей с закругленными краями
  • Камера: ДВЕ основные камеры 12МПкс, сенсор 1/2.9″, 1.25 µm ультрапиксели, OIS, автофокус, разное фокусное расстояние, двойная LED вспышка, видео 4К 2160p при 30fps + фронтальная 8МПкс  с видео 1080р
  • Аккумулятор: 3350 мА*ч, время работы в тесте PCmark – 10ч 
  • Размеры, вес: 145,2 x 70,5 x 7,5 мм, 182 г (для Xiaomi Mi6 в керамическом корпусе, в “обычном стекле” – 168г)
  • Брызгозащищенный корпус (не путать с водонепроницаемым – помещать в воду надолго не рекомендуется)

В реальности же – надо говорить спасибо не Xiaomi, а Qualcomm – именно благодаря новому процессору Snapdragon 835 мы видем отличную производительность Xiaomi Mi6, которая “закидывает” этот телефон сразу на первые места (во многих тестах – от 1го до 5го) различных тестовых рейтингов. Xiaomi здесь молодцы в том, что смогли оперативно – за полгода после анонса нового процессора – запустить в продажу хороший такой телефон на базе самого-самого процессора и снимать сливки с рынка высокопроизводительных устройств.

А теперь – о рейтингах производительности Xiaomi Mi6… Как показали все тесты Xiaomi Mi6 – рейтинг, который есть в справочных таблицах и реальные показатели “обычного” телефона, которым пользуется человек – как говорится – “две большие разницы”… Я, конечно, понимаю, что если удалить с телефона все, что хоть чуточку забирает процессорное время, память и батарею – то можно будет получить заявленные высоты, но в реальности, на телефоне, где много чего уже установлено – тесты показывают на 5-7% ниже производительность, чем заявлено.

Приведу некоторые значения из полученных результатов тестирования, а рядом с ними (в “серой” колонке) – то, что заявляет “официальная статистика”.

image

А более детально про эти и другие результаты – например, время работы от батареи – найдете в самом видео тестирования Xiaomi Mi6

Продолжение тестирования Xiaomi Mi6 – на этот раз в играх с их FPS – следует… Кстати, у вас есть пару дней (сегодня и завтра – 16-17.06), чтобы написать в комментариях к этому видео на YouTube, какие именно игры под Android погонять в тестах на Xiaomi Mi6. Пока в планах – World of Tanks, NFS, GTA, а дальше – уже по желанию публики… 😉

Предыдущие обзоры Xiaomi Mi6 вы найдете здесь:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Мои тесты производительности других телефонов и планшетов (на разном железе и ОС за последние пару лет) у меня на канале смотрите здесь:

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

А обзоры всех моих китайских гаджетов, купленных на GearBest.com/TinyDeal.com/AliExpress, смотрите здесь:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):

 

Эмиграция для ИТ-профессионалов в Европу! Оформление ВНЖ в Словакии, возможность работы со всеми странами ЕС, открытие фирм, ЧП с соответствующими видами деятельности, оформление документов для членов семьи. Быстро, качественно, дешево и абсолютно легально ВНЖ в Словакии. www.slovakiago.com
Не упустите свой шанс жить и работать в Евросоюзе!

 

 

Обзоры Xiaomi Mi6, ч.01: достаем из коробки топовый Xiaomi Mi6 в керамическом корпусе с 6GB/128GB


Итак, у меня новая игрушка на ближайший месяц – Xiaomi Mi6 Ceramic – и, ожидаемо, новая серия обзоров на моем YouTube-канале iWalker2000.

Купить Xiaomi Mi6 Ceramic на GearBest ►►►

Подписаться на мой YouTube-канал iWalker2000 ►►►

Да-да, это не ошибка – я завел себе телефон на Android… Smile И не просто телефон, а топовый от Xiaomi – Xiaomi Mi6 в керамическом корпусе с топовым 8миядерным Snapdragon 835, 6GB ОЗУ и 128Gb хранилища на борту. А еще у Xiaomi Mi6 двойная основная камера – 2х12МПкс с разным фокусным расстоянием и фронтальная камера в 8МПкс – и все восхищаются сделанными Xiaomi Mi6 фотками, особенно – портретными…

Все это я, конечно, протестирую – и производительность, и качество записи видео, и удобство работы – собственно, я уже занялся этим Winking smile А пока – смотрите первое видео из серии обзоров Xiaomi Mi6распаковка посылочки с Xiaomi Mi6 Ceramic из Китая, с GearBest.


ГаджеТы: достаем из коробки топовый Xiaomi Mi6 в керамическом корпусе с 6GB/128GB 

 

И НЕТ – это не значит, что я “переползаю” с Windows 10 Phone на Android – просто после кражи моей Lumia 950 нужен был какой-то телефон со средним по нынешним временам размером экрана (кто бы поверил 5 лет назад, что 5.15” экрана будут считаться «средненькими») – в основном, как карманная «умная звонилка» – на “перекантоваться” до выхода новых аппаратов от Microsoft. Вот я давно и приглядывался в продукции Xiaomi – зачем покупать “абы что”, если можно купить свеженькую модель и поделиться впечатлениями о ней, потестировать – а потом и махнуть назад на свеженький флагман с Windows 10 Mobile, как бы он там не назывался – Surface Phone, Surface PDA и т.п.

Вообще-то, у меня было много критериев выбора, по которым я принял решение о покупке именно данного аппарата – Xiaomi Mi6 в керамическом корпусе:

  • Почему именно Xiaomi? – как-то так сложилось, что я доверяю этому бренду, учитывая, что их первый планшет – Xiaomi Mi Pad – у меня до сих пор живет, процветает и очень шустро работает – уже 3 года, пора снимать видео про 3 года использования 😉
  • Почему не iPhone? – мне не интересна продукция данной фирмы. Я периодически «посматриваю» – так, у меня есть их iPod 5го поколения – и понимаю, что для меня это – «не то»… И для обзоров – аппараты уже «заобзорены» до нихочу, только самый ленивый не сделал обзор iPhone.
  • Возможность сделать интересные для посетителей канала обзоры – это тоже немаловажная составляющая выбора именно Xiaomi Mi6 – как свежей модели, которая появилась на рынке буквально 2 месяца тому, и многие из тем еще недостаточно раскрыты Winking smile
  • Xiaomi Mi6 полностью подходит по своим размерам/весу под задачи, которые на него мною возлагаются – быть подручным телефоном в заднем кармане джинсов.
  • Керамический корпус в топовой комплектации Xiaomi Mi6 Ceramic – если верить рекламе, то данный корпус невозможно сломать… Я не говорю о падениях (хотя, по идее, данный керамический корпус должен хорошо «держать» и такой «удар»), я говорю о том, что я очень часто просто сажусь на телефон, забывая, что он у меня в заднем кармане джинсов. Да и тестирование керамического корпуса и экрана Xiaomi Mi6 процессом эксплуатации – думаю, будет не лишним, учитывая, что я телефоны не берегу, защитных стекол не клею, чехлы практически не использую (исключая «лопаты»-фаблеты типа бывшего Lumia 1520 или нынешнего CUBE WP10 с его 7”) и вообще – отношусь к телефонам, как к расходному материалу, совершенно не берегу их, часто роняю, кладу в карман с ключами и т.д.
  • Камеры в Xiaomi Mi6 – очень интересно потестировать, особенно после топовых камер Lumia 1020 и Lumia 950 XL. Я еще не сравнивал, как снимают видео камеры в Lumia 950 XL и Xiaomi Mi6 (это будет отдельное видео, с участием и других оригинальных экспонатов типа Lumia 1020), но сама идея использования 2х основных камер с разным фокусным расстоянием в тех или иных сценариях – мне интересна. Фото, исходя из первых впечатлений, Xiaomi Mi6 тоже делает очень даже хорошие, хотя их «яркость» во многом обусловлена программной составляющей приложения камеры.
  • И процессор – немаловажную роль в выборе этой модели сыграл процессор – Qualcomm Snapdragon 835 недавно получил возможность запускать Windows-приложения в режиме эмуляции x86, что делает его одним из претендентов на получение сборки мобильной Windows следующего поколения. Почему именно Xiaomi Mi6, а не какой-то другой телефон с этим процессором? – потому что Xiaomi в прошлом демонстрировал достаточную гибкость к экспериментам и для того же Xiaomi Mi4/Mi5 имеется сборка Windows 10 Mobile.
  • И почему Android, а не Windows 10 Phone? Почему было не купить еще один аппарат Lumia 950? – это еще один аспект возможностей «написать обзоров» – в данном случае – сделать сравнение…
  • И ДА! – как уже сказано выше – после выхода нового поколения телефонов с Windows – я сразу планирую “переползти” назад, а что будет с Xiaomi Mi6 – посмотрим, может, будет сборка Windows Mobile и под него – будет отличное поле для экспериментов.

Кстати, о сравнении – давно планировал субъективно сравнить и удобство работы в двух системах – Windows 10 Mobile и Android, но вот так, не поработав с «в живую» с каждой, а просто сравнить «фичи» – было бы неправильно. Теперь, с появлением Xiaomi Mi6 – такая возможность у меня будет. И, кстати, первые субъективные впечатления от «постоянно» работы на Android уже появились:

  • После интерфейса Windows Phone/Windows Mobile – уже после первых часов работы – начинаешь понимать, насколько убог и неудобен интерфейс Android…
  • Забегая вперед, скажу, что удивило – в плохом слысле – также и “качество” работы ОС/приложений – только за вчера телефон перегрузился 3 раза – и это не аппаратные сбои, а глюки приложений (смог повторить), напрочь убивающих систему Sad smile
  • А еще, для тех, кто ругает Windows за постоянные обновления – могу сказать, что за 3 дня использования на Xiaomi Mi6 уже “прилетело” 2 обновления системы – одно поставилось в процессе включения/настройки, а другое – буквально минуты назад – пока я писал этот пост – с пометкой “улучшение стабильности системы” – может, перестанет крешиться в описанных выше случаях? Winking smile

А так да – Xiaomi Mi6 – по первым впечатлениям – телефон очень даже неплохой, ухатистый, эргономичный, действительно делает хорошие фотки и достаточно шустрый. Тесты уже активно греют процессор Snapdragon 835 и я собираю материал для следующего видео – тестирования производительности Xiaomi Mi6 в синтетических тестах. А потом – и в игровых…

Так что – продолжение обзоров Xiaomi Mi6 – следует

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

А обзоры всех моих китайских гаджетов, купленных на GearBest.com/TinyDeal.com/AliExpress, смотрите здесь:

 

Подписывайтесь на мой Youtube канал iWalker2000 – для подписки просто кликните сюда

 

Также, по просьбам посетителей – меня найти можно (добавляйтесь в друзья и подписчики):