Использование пользовательского стека VDI с Windows 10
МИТЧ: Джеймс, предположим, вам поручили использовать стек VDI из Cloudhouse, контейнеров профилей FSLogix, AppSense DataNow, специальной службы мониторинга и UniPrint для реализации решения VDI для вымышленного клиента, подобного этому:
Учитывая описанный выше сценарий, не могли бы вы пошагово рассказать нам о том, как вы могли бы реализовать решение VDI для этого клиента, используя ваш стек инструментов и сервисов? Вы можете держать свое прохождение на уровне перспективы с высоты птичьего полета, то есть не нужно слишком увлекаться мельчайшими деталями, но мы хотели бы понять, как вы могли бы подойти к такому проекту и какова общая серия. шагов должно быть, что привело бы его к успешному завершению.
ДЖЕЙМС: Ключевой частью этого всегда будут приложения. Нашей первой задачей будет оценка состояния приложения и начало процесса упаковки. На этом этапе мы будем искать приложения, которые могут вызывать проблемы (старые браузерные приложения, надстройки, 16-разрядные приложения и т. д.), чтобы быстро исправить и протестировать их. Обычно на этом этапе очень хорошей идеей является познакомить некоторых сотрудников клиента с процессом упаковки и позволить им начать делать это, чтобы они ознакомились с процессом, и мы обычно обнаруживаем, что они очень быстро осваиваются. и помогите нам ускорить весь этот этап. В то же время мы начали устанавливать некоторую инфраструктуру SCCM и работали над созданием базового образа Windows 10.
Как только приложения готовы, все начинает складываться для клиента и для нас самих. Как только этот конкретный клиент увидит, что приложения доставляются «по запросу» пользователям, а не устройствам, он сразу же сможет оценить преимущества, которые это приносит. На самом деле, в этой конкретной ситуации у меня возникло бы искушение также позволить им запускать виртуализированные приложения в существующем пространстве во время процесса миграции, потому что это дает им большую гибкость. Но очевидно, что на этом этапе мы начали бы внедрять тонкие клиенты (которые можно было бы купить новыми или просто перепрофилировать их существующие конечные точки) и начать использовать решение Windows 10 VDI в некоторых конкретных тестовых областях.
В образе Windows 10 у нас будут установлены соответствующие агенты (FSLogix, Cloudhouse, Uniprint, DataNow и наш демон мониторинга), и нам также потребуется расширить хотя бы один из них (мониторинг) на существующее имущество, чтобы мы могли начать сканирование нестандартных областей данных. Таким образом, «пилотный» этап будет включать тестирование приложений на новой платформе Windows 10 и сбор данных на старой платформе. По завершении этого этапа у нас будет информация о данных, профилях и печати, которую мы затем сможем преобразовать в объекты групповой политики, которые позволят выполнить миграцию в рабочую среду.
Затем мы можем начать фактическую миграцию. На этом этапе мы расширим клиент DataNow на существующее имущество и начнем синхронизировать пользовательские данные в фоновом режиме. Как только это будет завершено, пользователь будет помечен как готовый к миграции, и мы сможем добавить его в группу, которая инициирует процесс (конечно, области «класса» можно делать поэтапно, так как не будет пользовательских данных для переноса). быть управляемым). На этом этапе их машины будут заменены или перепрофилированы, и при следующем входе в систему они запустят виртуальный рабочий стол Windows 10. Когда они входят в систему, их приложения будут виртуализированы на конечной точке, их профиль будет смонтирован на виртуальном жестком диске по сети, их данные будут представлены в виде оверлеев, которые будут синхронизироваться либо по запросу, либо в фоновом режиме, а их принтер ( s) должны быть отображены, как и ожидалось.
Я ожидаю, что в такой среде области «класса» будут намного проще, чем области «бэк-офиса», поэтому это можно было бы сделать в два отдельных этапа, если ресурсы на стороне клиента были ограничены. Конечно, всегда будет этап «зачистки». Любой, кто утверждает, что у них есть технология, которая делает миграцию такого рода бесшовной, явно лжет! Но с технологиями такого типа зачистка становится проще. Если вам нужно повторно создать образ, приложения, данные и профиль пользователя будут готовы к повторному внедрению, как только завершится сборка SCCM, и поскольку у нас не будет много приложений в образе (вероятно, только офис и браузер, а также необходимые агенты), то последовательность задач становится намного проще и быстрее. Кроме того, благодаря автоматическому мониторингу ИТ-отдел может просто реагировать на предупреждения о проблемах, вместо того чтобы тратить время на их активное сканирование.
Все дело в простоте и устойчивости. В этой ситуации, как только эта миграция завершится, они могут легко подключиться к двухуровневому каналу обновлений Microsoft и поддерживать актуальность, не беспокоясь о последствиях — им просто нужно тестировать свои приложения по мере появления новых версий. И это хорошо, потому что вместо того, чтобы постоянно бороться с проблемами, ИТ-отделы должны быть свободны делать то, что они должны делать — находить новые способы улучшения бизнеса и добавления ценности. В этом случае я ожидаю, что такое решение позволит им изучить удаленную работу и «дистанционное обучение» в качестве новых источников дохода, используя для этого их VDI Windows 10.
МИТЧ: Не могли бы вы немного показать нам, как все это работает?
ДЖЕЙМС: Не понимаю, почему бы и нет. Вот, позвольте мне запустить лабораторию компании… Ладно, поехали.
Здесь мы упаковываем приложение, используя в качестве базы конечную точку Windows XP x86, потому что это упрощает работу с устаревшими приложениями (и даже такими сложными приложениями, как ArcGIS!):
Вот фактическое приложение, упакованное в автономный файл:
А вот пакет загружается на портал Azure для распространения среди удаленных клиентов:
Вот упакованное приложение, работающее с удаленной конечной точки, которое можно запустить прямо из меню «Пуск» или напрямую с портала Azure:
Здесь пользователь получает свой профиль, персонализированный контейнерами профилей FSLogix во внутреннем экземпляре Windows 10, а AppSense DataNow доставляет файлы (обозначены зелеными накладками):
Здесь мы видим, как легко настроить FSLogix (и DataNow, если на то пошло), просто используя простую настройку GPO:
Вот устройство Linux, на котором работает инфраструктура DataNow, которую легко импортировать в виртуальную инфраструктуру:
Пользователь также может легко воспользоваться преимуществами защищенной печати через UniPrint:
И может легко выбирать принтеры для добавления в свою сессию без просмотра или поиска:
МИТЧ: Фантастика, спасибо, Джеймс. А теперь давайте поговорим о самых больших проблемах, с которыми вам пришлось столкнуться при переходе клиентов на решения Windows 10 VDI? Я уверен, что вы, должно быть, сталкивались с несколькими головными болями, которые заставляли вас либо чесать подбородок, либо в отчаянии рвать на себе волосы.
ДЖЕЙМС: Это касается не только Windows 10 VDI — мы также сталкиваемся с проблемами физического имущества при переходе на Windows 10. У VDI действительно есть проблемы, связанные с тем, что хранилище и сети должны быть гораздо более совершенными, а мониторинг среды становится случаем концентрации внимания. столько же на стороне клиента, сколько на сервере, в сети и в хранилище. Вы должны быть осторожны, чтобы не внедрять слишком много сложных технологий для поддержки стека VDI — возьмите «традиционного» клиента и соедините его с Citrix XenDesktop, Provisioning Services, чем-то вроде AppSense или RES и, возможно, даже с App-V, и вы создали монстра требований к ресурсам в отношении высококлассных технических навыков. Это то, чего мы стараемся избегать — если вам нужны некоторые «сложные» биты для соответствия решению, либо убедитесь, что вы уменьшите количество сложных битов, либо используйте что-то, с чем у вас уже есть навыки или знакомство. Наш предпочтительный стек — это простота.
Я думаю, что основная проблема заключается в том, чтобы убедить людей по-новому взглянуть на управление, развертывание и тестирование. Люди традиционно сопротивляются виртуализации большинства (или всех) ваших приложений. Они боятся неизвестного и беспокоятся о том, что могут оказаться в поместье, где есть мешанина из технологий, требующих специальных навыков. Но я думаю, что это меняется — простота виртуализации даже сложных приложений — это то, что всегда впечатляло людей. И убеждение людей в том, что внедрение инструмента мониторинга до того, как они выполнят проект миграции, все еще сводит меня с ума — я не могу понять, почему мониторинг и базовый план всегда кажутся последними на всех радарах.
Конечно, в идеальном мире каждый запускал бы свои приложения через какого-нибудь облачного провайдера, и наша жизнь была бы намного проще. Но опять же у людей есть реакция на это, врожденное недоверие к облачным сервисам. Попытка найти способ убедить их в том, что они, вероятно, сэкономят деньги, разместив свои приложения в Azure, а не в локальном решении, — это то, с чем у нас возникают проблемы. И, конечно же, есть отрасли, в которых регулирование и безопасность делают их особенно чувствительными к местоположению данных и суверенитету, поэтому иногда нам приходится в конечном итоге использовать локальные маршруты.
И всегда есть настоящие приложения PITA, которые означают, что вам нужно немного усложнить решение. Браузерные приложения на базе IE6 — особая проблема. Для этих приложений, зависящих от IE6, нам часто приходится поддерживать устаревшую инфраструктуру либо через Citrix XenApp, либо через ферму приложений, размещенных на виртуальных машинах. Это не идеальное решение, но, к счастью, таких приложений, использующих исключительно IE6, становится все меньше. IE7 и более поздние версии достаточно просты для такой технологии, как Cloudhouse — проблема возникает из-за всего, что было раньше.
Медицинское программное обеспечение также может быть особенно проблематичным. В основном потому, что они привязаны к экзотическому, необычному и дорогому оборудованию, а поставщик выпускает обновление только в случае сбоя оборудования. Мы видели приложения, работающие в очень старых операционных системах MS (2000 и NT, в недавней памяти) просто потому, что это была основная ОС, когда было написано программное обеспечение, и поставщик не видит причин менять ее, потому что аппаратное обеспечение будет работать годами и годы и годы. К счастью, такие случаи становятся все более и более редкими, но они по-прежнему связаны с некоторыми настоящими инновациями и головокружением, когда мы сталкиваемся с ними.
И, наконец, нам нужно отучить группы поддержки заниматься исключительно повседневными проблемами и научиться концентрироваться на тестировании и исправлении приложений. «Полёты» сборок Windows 10 Insider несколько облегчают задачу, когда мы переходим на Windows 10, но всё равно влечет за собой кардинальные изменения в том, как они подходят к своим повседневным рабочим нагрузкам. Командам поддержки нужно немного изменить свой подход — возможно, они не совсем DevOps, а скорее TestOps в мире на базе Windows 10.
МИТЧ: Спасибо, Джеймс. Как насчет того, чтобы мы закончили, позволив вам немного рассказать обо всем, что вы хотите, касающемся технологий и ИТ-профессии, например, о будущих тенденциях, самых больших заботах, вашем любимом приложении для смартфона или о чем угодно.
ДЖЕЙМС: Мне нравится пытаться предсказать будущие тенденции (обычно довольно плохо). Я думал, что «рефакторинг приложений» (программное обеспечение, позволяющее изменять внешний вид приложений для работы на таких форм-факторах, как мобильные телефоны и планшеты) будет иметь большое значение, но похоже, что он исчезает, так что я знаю?
Но я думаю, что контейнеризация и виртуализация приложений, наконец, станут массовыми в этом году, я думаю, до такой степени, что традиционно развернутые приложения действительно не будут иметь значения ни для чего, кроме самых распространенных приложений (браузеров, офисного программного обеспечения и т. д.). Контейнеризация приложений и сервисы будут большими — я думаю, именно к этому движется Windows, и именно к этому мы должны быть.
Я также думаю, что персонал ИТ-поддержки станет более сосредоточенным на «доставке», а не просто на «поддержании освещения». Я видел удивительные вещи, сделанные людьми, которые использовали Amazon Echo вместе с Octoblu для создания серверов и устройств, просто попросив их. Со старым представлением о «группе поддержки», создающей вещи и тушащей пожары, покончено — теперь мы должны проводить тестирование, исправление, взаимодействие с поставщиками в рамках потока «доставки».
Хотя я думаю, что это все захватывающе. Мы возвращаемся к разработке новых функций, к оркестровке и автоматизации, а не просто к исправлению того, что не работает, и это означает, что я думаю, что моя работа может стать более интересной. Интересно всегда хорошо!
МИТЧ: Спасибо, Джеймс, за то, что нашли время ответить на мои вопросы на таком уровне глубины!
ДЖЕЙМС: Не за что!