понедельник, 8 декабря 2014 г.

Запуск Windows Server 2012 R2 Hyper-V и VMware vSphere 5.5 внутри виртуальной машины (VM) запущенной на VMware vSphere 5.5

Недавно столкнулись с задачей создания полигона Windows Server 2012 R2 Hyper-V и Microsoft System Center 2012 R2.

Свободных физических серверов у нас не оказалось, зато есть серверная ферма на VMware vSphere 5.5.
Для экономии ресурсы развёртываем Windows Server 2012 R2 Hyper-V внутри виртуальной машины (VM) запущенной на VMware vSphere 5.5.

Для этого нужно в настройках созданной виртуальной машины с Windows Server 2012 R2 Hyper-V сделать следующие настройки:

  1. в разделе Virtual Hardware -> CPU выбрать checkbox "Expose hardware-assisted virtualization to the guest operating system"
  2. в раздел VM Options -> Advanced -> Edit Configuration добавить записи:
    vhv.enable = "TRUE"
    hypervisor.cpuid.v0 = "FALSE"
    mce.enable = "TRUE"
К слову, для запуска VMware vSphere 5.5 внутри виртуальной машины запущенной на VMware vSphere 5.5 нужно:
  1. версия Virtual Hardware виртуальной машины должна быть не ниже версии 9 или 10
  2. в разделе Virtual Hardware -> CPU выбрать checkbox "Expose hardware-assisted virtualization to the guest operating system".
Источники:
Enable Nested Windows Server 2012 R2 Hyper-V on VMware vSphere 5.5
Running Nested VMs

вторник, 2 декабря 2014 г.

Бесплатный курс "Знакомство с технологиями и оборудованием NetApp"

Компания Гелиос ИТ проводит бесплатный курс для технических специалистов "Знакомство с технологиями и оборудованием NetApp".

Курс будет проходить в Москве 4 декабря 2014 года, с утра 10 до 18 вечера.

Мы совместно с коллегами из компании Netwell и Veeam будем рассказывать много интересного.

Краткая программа мероприятия:

1. NetApp – позиции на рынке СХД, стратегическое видение
2.Системы хранения данных (Обзорно):
   a. Системы хранения FAS Series
   b. Системы хранения E-Series
   c. Системы хранения EF-Series
   d. Диски и дисковые полк
   e. Использование Flash - Flash Cache/Flash Pool
   f. Модули расширения
3. Технологии, заложенные в NetApp FAS Series (Обзорно):
   a. Clustered Data ONTAP
   b. RAID-DP
   c. Aggregate
   d. WAFL
   e. FlexVol, InfiniVol
   f. Snapshots - SnapRestore, FlexClone, SnapManager
   g. Connectivity – FC, iSCSI, FCoE, CIFS, NFS
   h. DR & Archiving – MetroCluster, SnapMirror, SnapVault
   i. Hypervisors integration (ESX, Hyper-V, XenServer)
4. Новые возможности операционной системы NetApp Data ONTAP 8.3.
5. Новости с NetApp Insight 2014.
6. Новые возможности Veeam Backup and Replication v8 и его возможности интеграции с СХД NetApp FAS Series.
  
Для регистрации на семинар необходимо выслать заявку на адрес a_kuznetsova@hbc.ru с указанием ФИО, название организации, должности, контактного телефона и E-Mail. 

Информация о месте проведение будет предоставлена после регистрации.

четверг, 16 октября 2014 г.

NetApp: Переключение Unified Target Adapter в Fiber Channel Mode

При инсталляции NetApp Cluster Data ONTAP с нуля UTA адаптер работает в CNA режим.

Если вы хотите использовать UTA адаптер в режиме Fiber Channel нужно произвести следующие действия:
отключить порты адаптера командами:
fcp adapter modify -node fascl-01 -adapter 0c -state down
fcp adapter modify -node fascl-01 -adapter 0d -state down

изменить режим адаптера на Fiber Channel командами:
ucadmin modify -node fascl-01 -adapter 0c -mode fc -type target
ucadmin modify -node fascl-01 -adapter 0d -mode fc -type target

перезагрузить контроллер:
system node reboot -node fascl-01

Заходим на 2-й контроллер и даём команду giveback на втором контроллере
giveback -ofnode fascl-01

включить порты адаптера командами:
fcp adapter modify -node fascl-01 -adapter 0c -state up
fcp adapter modify -node fascl-01 -adapter 0d -state up

Тоже самое повторяем для второго контроллера:
fcp adapter modify -node fascl-02 -adapter 0c -state down
fcp adapter modify -node fascl-02 -adapter 0d -state down
ucadmin modify -node fascl-02 -adapter 0c -mode fc -type target
ucadmin modify -node fascl-02 -adapter 0d -mode fc -type target

system node reboot -node fascl-02

fcp adapter modify -node fascl-02 -adapter 0c -state up
fcp adapter modify -node fascl-02 -adapter 0d -state up

где:
fascl-01 - контроллер A СХД
fascl-02 - контроллер B СХД
0c и 0d - UTA порты

NetApp: Удаление недоступного (потереного) aggregate созданного в 7-mode из cDOT

При проведении тестирования у одного из Заказчиков была замечена одна проблем:
На тестовой системе с Cluster Data ONTAP приехавшей на тестирование была подключена дисковая полка с агрегатом созданным из 7-mode.
Всё бы ничего, но удалить данный аггрегат командой строки как Cluster Shell так и Node Shell невозможно.
В Cluster Shell выдаёт ошибку Error: command failed: Aggregate "aggr1_sata1t" does not exist.
В Node Shell по умолчанию попросту нет команды delete или destroy.
В Maintaince mode аггрегат не виден.

Решить проблему можно следующим способом - добавить опцию destroy в Node Shell.

system node run -node
options nodescope.reenabledcmds "aggr=destroy"                            
aggr destroy                                                                                                             options nodescope.reenabledcmds ""

затем проверяем:
что агрегат удалился - "aggr show"

Источники:
http://community.netapp.com/t5/Data-ONTAP-Discussions/Zero-erase-reuse-disks-with-7-mode-aggregate-in-cDOT-cmode/td-p/74467
http://wiki.krogloth.de/wiki/NetApp_cDOT/Aggregate

вторник, 26 августа 2014 г.

Тестирование СХД NetApp E5412

Не так давно меня как-то спросили - какая СХД нужна для бекапов с копированием 20 ТБ данных ежедневно, за небольшое окно резервного копирования?
Вроде бы задача не сложная.
Я ответил что подойдут почти все Low-End массивы, но всё же решил проверить взяв на тестирование СХД E5412 с 12 дисками NL-SAS 3ТБ.

Основная сложность в расчёте производительности СХД - это справится ли контроллер.
Что справятся жёсткие диски сомнения нет, тем более что производительность SAS и NL-SAS дисков при последовательных операциях ввода-вывода отличается минимально.

Т.к. у меня был под рукой калькулятор расчёт производительность для NetApp E5412 (https://eseries-sizer.netapp.com/), то встала задача стоит ли верить цифрам которые он выдаёт.

Калькулятор при расчёта заданной конфигурации примерно выдаёт 873 МБ/с.

Конфигурация полигона:
Физический сервер:
Cisco B200M3
ОЗУ 64 ГБ
Boot From iSCSI (LUN расположен на FAS3240) с этого диска копировали файл.
LAN Cisco VIC 1280 10 GBE
SAN Cisco VIC 1280 8 GB (FCoE внутри 10GBE)

На физическом сервере была установлена виртуальная машина с Windows Server 2012 R2 с которой производилось копирования больших файлов (размер каждого файла был 11 ГБ) в 16 потоков. 

СХД откуда копировали файл:
NetApp FAS3240
20x600 GB SAS RAID-DP
Flash Cache 256 Gb
LAN 2x10 GBE
SAN 2x8 GB FC (FCoE внутри 10GBE)

СХД куда копировали файл (тестовый массив):
NetApp E5412
12x3 Tb NL-SAS RAID5
SAN 1x8 GB FC СХД NetApp E5412

Я получил следующие результаты тестирования:


По графику видно:
·        Максимальная производительность 900 МБ/с.

·        Средняя  производительность 720 МБ/с.

Вывод:
калькулятор расчёт производительность для NetApp E5412 ( https://eseries-sizer.netapp.com/ ) показывает правильные цифры и ему можно верить. 

понедельник, 25 августа 2014 г.

Cisco UCS 6324 Fabric Interconnect

Недавно были анонсированы Cisco UCS 6324 Fabric Interconnect

Предназначен Cisco UCS 6324 Fabric Interconnect для удалённых офисов, либо очень небольших внедрений.
Вкратце UCS 6324 - это Fabric Interconnect устанавливаемые прямо в корзину Cisco UCS 5108 вместо FEX (Fabric Extender).

Внешне Cisco UCS 6324 Fabric Interconnect выглядит как обычный switch в шасси серверов.


К Fabric Interconnect UCS 6324 можно подключить:

  • до 15 серверов (8 лезвий и 7 стоечных серверов)
  • СХД NetApp или EMC



Если у вас много таких комплектов серверов, то всеми ими можно управлять централизовано с помощью продуктами:




Более подробная информация по адресу
http://www.cisco.com/c/en/us/products/collateral/servers-unified-computing/ucs-6300-series-fabric-interconnects/datasheet-c78-732207.html

Cisco UCS Manager Plugin for VMware vCenter

Меня часто интересует тема с разными плагинами управления оборудования для VMware vCenter Server.

Недавно мне на глаза попался плагин Cisco UCS Manager Plugin for VMware vCenter.

Это плагин для VMware vCenter Web Client.
по описанию он обладает следующими возможностями:

Вид физической иерархии Cisco UCS.

  • Общее состояние сервера и других компонентов инфраструктуры.
  • Связи UCS серверы в ESX хостов.
  • Перечень оборудования, установленых прошивок, ошибки, статистика по питанию и температуре  для каждого сервера / ESX хоста.
  • Запуск KVM для всех ESX и не ESX серверов.
  • Включение и выключение светодиода локатора и запустить UCSM GUI для каждого сервера.
  • Инструмент регистрации для регистрации плагин с vCenter.
  • Выполните основные действия на ESX серверах и не ESX серверах.
  • Возможность просмотра: Service профилей, шаблонов Service профилей, пулов серверов, пакетов Firmware для каждого хоста UCS домена.
  • Управление Firmware сервера с помощью узла Firmware Pack.
  • Наличее разделов управления UCS доменом - списки доступных Service профилей службы, шаблонов Service профелей, пулов серверов, наборы обновлений Firmware для хостов.
  • Поддержка следующих действий с UCS доменом:
    • Перезагрузить UCS домен;
    • Ассоциированный пул Сервер для SP шаблоны;
    • Ассоциировать набор Firmware для хостов с обновлениями шаблонов Service профилей;
    • Создание Service профиля из шаблона Service профиля.
  • Поддержка следующих действий для ESX и не ESX серверов в UCS домене:
    • Создание оборудования или шаблона на основе Service профиля;
    • Ассоциация и дисассоциация Service профилей;
    • Управление связями политик BIOS и измена настроек BIOS;
    • Управление наборами обновлений Firmware для хостов.
  • Отображение профилей серверов UCS в списке ESX серверов в VMware vCenter Web Client.


Поддерживается vSphere Web Client 5.1 and 5.5

На практике, сразу после установки у меня в инфраструктуре часть функционала у меня работать не захотела, так что буду разбираться подробней

Более подробно прочитать про него и скачать дистрибутив и инструкцию по установки можно по ссылке
https://communities.cisco.com/docs/DOC-36989

Подключение NFS тома c NetApp к Windows Server для копирования данных.

Для подключения NFS тома c NetApp к Windows Server для копирования данных необходимо сделать следующее:

1. на Windows Serve установить компоненты Windows:

  • Клиент NFS 
    • в Windows Server 2008 клиент включён в службу Service for Network File System;
    • в Windows Server 2012 это отдельный клиент Client for NFS;
  • Service for Network File System Managment Tools.
Cделать это можно из Server Manager или через PowerShell.
Из GUI для Windows Server 2008 это можно сделать так:

Для установки через PowerShell выполните команды:
Для Windows Server 2008 (NFS клиент включён в сервер NFS для Windows):
Import-Module ServerManager
Add-WindowsFeature -Name FS-NFS-Services -IncludeAllSubFeature
Add-WindowsFeature -Name RSAT-NFS-Admin -IncludeAllSubFeature

Для Windows Server 2012 (NFS клиент устанавливается отдельно):
Import-Module ServerManager
Add-WindowsFeature -Name NFS-Client -IncludeAllSubFeature
Add-WindowsFeature -Name RSAT-NFS-Admin -IncludeAllSubFeature

2. На сервере на котором установили NFS клиент в реестре по пути:
HKEY_LOCAL_MACHINE\SOFTWARE\Microsoft\ClientForNFS\CurrentVersion\Default
добавить два dword 32 ише ключа AnonymousUid и AnonymousGid со значением 0

потом перезапустить nfs клиент через команды:
nfsadmin client stop
nfsadmin client start

3. на сервере с NFS клиентов в командной строке дать команду:
mount \\NetApp_IP\vol\VOL_NAME\ Z:

Где:
NetApp_IP - ip адрес NFS на NetApp
VOL_NAME - имя тома с учётом регистра
Z: - буква диска на которую подключать NFS том.

суббота, 15 февраля 2014 г.

Увеличиваем disk timeout для Linux

Недавно во время проблем у одного из заказчиком выяснилось что на Linux начиная с ядра 2.6 значение disk timeout равно 30 секундам что иногда мало для перестроения путей в SAN.

Немного поискав выяснилось что что проблема довольно известная и различные производители систем хранения и систем виртуализации рекомендуют устанавливать различные значения такие как 60, 180 и 190 секунд.

Я считаю нужно использовать максимальное значение в 190 секунд так как ничего плохого в том что ОС немного подождёт диски не вижу.

Почему это важно?
Если в пределах timeout ОС Linux не увидят диски, то после их появления они будут доступны в режиме read-only.

Ниже прилагаю скрипт ссылки на проблему и её решение от производителей и на блоге, а так же скрипт который поставляется вместе с NetApp Virtual Storage Console.

VMware (статья содержит команды как исправить disk timeout)

Hitachi Data Systems

Блог Frank Denneman по виртуализации


Ссылка на скрипт устанавливающий в Linux disk timeout для всех дисков 190 секунд:

Тот же самый скрипт в виде ISO образа для подключения в виртуальные машины:

понедельник, 3 февраля 2014 г.

Интересное решение от NetApp - Stretch MetroCluster на основе нового стандарта Optical SAS

В обновлённом документе "MetroCluster Design and Implementation Guide" описано довольно интересное решение Stretch MetroCluster на основе нового стандарта Optical SAS.
Это стандарт работает на 150 метрах по оптике multimode 


и 500 метров по singlemode оптике.


Ссылка на документ http://www.netapp.com/us/media/tr-3548.pdf
Описание решения на стр.23-24.


воскресенье, 2 февраля 2014 г.

Интерфейс EMC XtremIO

Плагины интеграции VMware vSphere и СХД IBM

Ссылка на плагины интеграции VMware vSphere и СХД IBM

http://pic.dhe.ibm.com/infocenter/strhosts/ic/index.jsp?topic=%2Fcom.ibm.help.strghosts.doc%2Fvcplugin-homepage.html

IBM Upwards Integration Modules for VMware vSphere

Ссылка на загрузку на плагин интеграции серверов IBM Systemx c VMware vSphere
(IBM Upwards Integration Modules for VMware vSphere)

https://www-947.ibm.com/support/entry/myportal/docdisplay?lndocid=migr-vmware

Интернет-магазина IBM ServicePac

Интернет-магазина IBM ServicePac

На этом ресурсе вы можете заказать необходимый вам пакет продления гарантии или расширения сервисного уровня для Вашего оборудования.
При этом имеется возможность проверить гарантийный статус оборудования и проверить правильность подбора пакета.

Все заказы будут автоматически отправлены в группу поддержки IBM. Если вы укажете при заказе предпочтительного дилера (например компанию Микротест), то заказ будет направлен именно ему. В ином случае, заказ будет отправлен ближайшему авторизованному дилеру в Вашем городе.

Ссылка на Интернет-магазин

Видео про интеграцию Lenovo ThinkServer TS440 с Microsoft System Center Operation Manager (SCOM)

Видео про интеграцию Lenovo ThinkServer TS440 с Microsoft System Center Operation Manager (SCOM)



VDI - как пользователю выдать права локального администратора на виртуальном рабочем месте

При работе над одним из проектов появилась задача - выдать права пользователю который заходит на виртуальное рабочее место права локального администратора.
При этом этот пользователь не должен был быть администратором на других виртуальных рабочих местах (только на на этом), так что вариант с добавлением группы доступа в локальные администраторы, и включением в эту группу пользователей мне не очень подходил.

После некоторых поисков нашёл решение:

  1. Создаём групповую политику
  2. Отключаем отработку пользовательских настроек политики.
  3. Открываем редактор политик
  4. Переходим в Конфигурацию компьютера -> Preferences -> Control Panel Settings -> Local Users and Groups.
  5. Нажимаем правую кнопку мыши и выбираем New -> Local Group.
  6. Теперь в поле Group Name установите значение Administrators (built-in),  и выберете действие - "Update". 
  7. Не выбирайте никаких "галок"
  8. Нажмите 
    1. для ОС на Английском языке Add и введите INTERACTIVE, выберете "Add to this group" . (при выборе вы не сможете выбрать эту группу).
    2. для ОС на Русском языке Add и введите ИНТЕРАКТИВНЫЕ, выберете "Add to this group" . (при выборе вы не сможете выбрать эту группу).
  9. Переидите в закладку "Common" и установите "Apply once and do not reapply", что бы групповая политика отрабатывала один раз, а не при каждой перезагрузке ПК.
  10.  

Источник:
http://community.spiceworks.com/how_to/show/45583-make-all-users-local-admins-on-only-their-current-computer