Cách thế nào để cấu hình VMware vSwitch từ ESX / ESXi Command Line


 

Trong cả hai VMware ESX và ESXi host, vSwitches có thể được cấu hình hoặc từ giao diện hoặc từ dòng lệnh.

  • vSwitch được hiểu là thiết bị Switch ảo tiêu chuẩn
  • Các cấu hình CLI là rất hữu ích khi bạn đang cài đặt nhiều máy chủ ESXi và có kế hoạch triển khai nhiều cấu hình PortGroup cho vSwitch.

Làm thế nào để cấu hình vSwitch từ CLI bằng lệnh esxcfg-vswitch.

 

Liệt kê tất cả vSwitches

Trên ESXi: Để xem tất cả các vSwitches hiện trong máy chủ ESXi, sử dụng tùy chọn -l như hình dưới đây. Điều này sẽ hiển thị cả các chuyển đổi và thông tin portgroup.

# esxcfg-vswitch -l
Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks
vSwitch0         128         3           128               1500    vmnic0

PortGroup Name        VLAN ID  Used Ports  Uplinks
Management Network    0        1           vmnic0

image

 

Trên ESXi: thay vì esxcfg-vSwitch, bạn cũng có thể sử dụng lệnh esxcli vào danh sách vSwitches trong ESXi như hình dưới đây. Theo mặc định, mỗi host ESXi có một switch ảo được gọi là vSwitch0.

image

Thêm một vSwitch mới

Để thêm một vswitch mới, sử dụng tùy chọn -a như hình dưới đây. Trong ví dụ này, một switch mới vswitch1 ảo được tạo ra:

# esxcfg-vswitch -a vSwitch1

Nếu bạn đang trên ESXi host, bạn cũng có thể sử dụng lệnh esxcli như hình dưới đây để thêm một switch mới.

# esxcli network vswitch standard add -v vSwitch1

Số mặc định của các cổng logic trên vswitch là 56.

Số lượng tối đa của vSwithces có thể được tạo ra trên một máy chủ ESXi duy nhất là 127.

Khi hai hoặc nhiều máy ảo kết nối với vswitch cùng các lưu lượng giữa chúng được định tuyến tại Local và bất cứ khi nào nó cần phải kết nối với mạng bên ngoài, giao thông được định tuyến thông qua adapter uplink cơ bản một cổng NIC gắn vào switch ảo.

 

Thêm một Port trong vSwitch

Trên ESX: Chúng ta vừa tạo switch ảo. Nhưng, để kết hợp một cổng mạng (thêm một đường lên) để chuyển đổi ảo này, sử dụng cú pháp sau:

 esxcfg-vswitch -L <primary NIC> <vswitch name>

Ví dụ:

# esxcfg-vswitch -L vmnic1 vSwitch1

# esxcfg-vswitch -l
Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks 
vSwitch0         128         3           128               1500    vmnic0

PortGroup Name        VLAN ID  Used Ports  Uplinks
Management Network    0        1           vmnic0

Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks
vSwitch1         128         2           128               1500    vmnic1

PortGroup Name        VLAN ID  Used Ports  Uplinks

Trên ESXi, thực hiện lệnh sau để thêm UpLink:

# esxcli network vswitch standard uplink add -u vmnic1 -v vSwitch1
Tạo PortGroups trong vSS

Tiếp theo chúng ta sẽ làm thế nào để tạo ra các Port Group. Port Group là một nhóm cổng trên vSwitch. Đây cũng là phân khúc logic của vSwitch. Mỗi Port Group có một tên gọi là Label Network. Đây là mạng lưới thiết bị đầu cuối cho các máy ảo của bạn.

Trong ví dụ sau đây, bạn sẽ thấy để tạo ra các Port Group và gán các VLAN cho port groups. Nói chung, VLAN ID 0 là để vô hiệu gắn thẻ VLAN trên Port Group.

Cú pháp để thêm một Port Group mới là:

esxcfg-vswitch -A <Port Group Name> <vSwitch name>

Gán VLAN ID vào PortGroups

Cú pháp để gán một VLAN vào Port Group gồm:

esxcfg-vswitch <vSwitch name> –v <VLAN ID> –p “<Port groupname>”
  • It may be necessary to restart the host’s management agents if network connectivity is not restored despite a correct configuration:

services.sh restart

 

Dùng Excel để tạo Script nhân bản nhanh các lệnh

Vận dụng Excel để tạo script nhanh và nhân bản thành nhiều dòng lệnh

image

copy dán sang notepad để đảm bảo không có ký tự sai, khoảng trắng…

image

Cuối cùng copy các dòng lệnh trên vào PuTTy để thực thi

image

Chúc các bạn thành công !

Cách dùng ổ cứng thường “giả” ổ SSD chuẩn bị cho VSAN ?


Trong vSphere 5, có một tính năng mới gọi là Host cache cho phép một người sử dụng để giảm tải file swap của máy ảo lưu vào ổ SSD dành riêng cho hiệu suất tốt hơn. Điều này được thực hiện bằng cách tạo ra một khối Volume VMFS trên ổ SSD được phát hiện bởi SATP (Storage adapter type Plugin) và cho phép một người dùng để thêm và cấu hình một kho dữ liệu VMFS cho máy chủ sử dụng bộ nhớ đệm.

image

Trong vSphere 5, tôi đã thử nghiệm các tính năng mới khác nhau bao gồm Host Caching nhưng không có quyền truy cập vào một hệ thống với ổ SSD trong khi cập nhật và tạo ra một vài kịch bản mới. Sau một số nghiên cứu, tôi thấy rằng nếu một quy tắc SATP mặc định là chưa có để xác định một ổ SSD đặc biệt, đó là một quy tắc mới có thể được tạo ra có chứa một một loạt meta data xml “siêu dữ liệu” đặc biệt xác định nó là một ổ  SSD.

Trong ví dụ sau, tôi sẽ có một đĩa ảo của Local Host ( mpx.vmhba1: C0: T2: L0 ) trong VMware ESXi 5 và “lừa” ESXi truy xuất và nhận dạng nó là một ổ SSD.

image

Chúng ta sẽ cần phải sử dụng esxcli cho dù đó là trực tiếp trên ESXi Shell hoặc sử dụng VMA và / hoặc phiên bản remote PowerCLI esxcli của VMware.

Lưu ý: Sau đây tôi giả định đã có một khối volume VMFS tạo trênổ cứng bạn muốn sử dụng, hiển thị như là một ổ SSD, nếu bạn không làm như vậy, hãy tạo ra một khối volume VMFS trước khi tiếp tục.

Trước tiên, bạn sẽ cần phải tạo ra một quy tắc SATP mới xác định ổ SSD của bạn và chỉ rõ “enable_ssd” giá trị như là một phần của tham số  –option:

~ # esxcli storage nmp satp rule add -s VMW_SATP_LOCAL -d mpx.vmhba1:C0:T2:L0 -o enable_ssd                                                   

Bạn có thể xác minh rằng quy tắc của bạn đã được tạo ra giá trị bằng cách chọn một danh sách theo các quy tắc SATP:

~ #  esxcli storage nmp satp rule list | grep enable_ssd
VMW_SATP_LOCAL       mpx.vmhba1:C0:T2:L0                                                enable_ssd                  user

Tiếp theo, bạn sẽ cần phải đòi lại ổ cứng của bạn để các quy định mới được áp dụng:

~ # esxcli storage core claiming reclaim -d mpx.vmhba1:C0:T2:L0

Bây giờ ta có thể dùng lệnh dướI đây để biết ổ cứng đã được ESXi nhận là ổ cứng SSD chưa:

~ # esxcli storage core device list -d mpx.vmhba1:C0:T2:L0
mpx.vmhba1:C0:T2:L0
Display Name: Local VMware Disk (mpx.vmhba1:C0:T2:L0)
Has Settable Display Name: false
Size: 5120
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/mpx.vmhba1:C0:T2:L0
Vendor: VMware
Model: Virtual disk
Revision: 1.0
SCSI Level: 2
Is Pseudo: false
Status: on
Is RDM Capable: false
Is Local: true
Is Removable: false
Is SSD: true
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unsupported
Other UIDs: vml.0000000000357d795311313a373a39

Bạn đã thấy dòng Is SSD báo True, nó đã nhận ổ cứng thường là SSD.

Bây giờ bạn nên làm mới các phân vùng lưu trữ trên vSphere Client hoặc bạn dùng lệnh sau để cho chúng hiển thị mới:

~ #vim-cmd hostsvc/storage/refresh

Bây giờ nếu bạn quay trở lại với vSphere Client ở mục “Configure Host Cache” bạn sẽ thấy các ổ SSD giả mớI xuất hiện để bạn có thể lựa chọn và bạn chỉ cần cấu hình nó và Host Cache được kích hoạt cho các ổ cứng SSD này.

image

 

VớI phần Host Cache ứng dụng bằng ổ cứng “giả” SSD như vậy, ngoàI ra bạn cũng có thể dùng nó trong môi trường Labs dựng VSAN “tất nhiên bạn phảI đám ứng đầy đủ các yêu cầu chuẩn bị cho VSAN”

như:

  1. Tối thiểu 3 máy chủ Host.
  2. Tối thiểu mỗI Host có 1 ổ SSD và mỗI Host cũng phảI có tốI thiểu 1 ổ HDD thường.
  3. Tối thiểu 3 host đều có 1 VMkernel Port Uplink (card 1Gbps – 10Gbps) trên 1vSS hoặc 1 vDS.
  4. Dĩ nhiên các ổ SSD và ổ HDD phảI có độ trống từ 2GB trở lên.
  5. Ổ HDD phảI chạy chính theo chuẩn RAID 0 hoặc 1 ,5, 6, 10,50,60.

 

Mục đích: Vậy là chí ít, tôi đã thử nghiệm được phần giả SSD để giúp các bạn có thể làm Labs VSAN khâu giảm chi phí ổ SSD giúp các bạn mạnh mẽ hơn trong việc đưa công nghệ ảo hoá SAN vào Labs, tiến đến khai thác và dùng thật cho VDI, Labs ảo hoá máy chủ, máy trạm, ứng dụng dùng trên công nghệ VSAN hiệu quả, an toàn và nhanh hơn SAN vật lý (chưa tính đến dùng RAM Disk).

 

Các bạn đã có chứng chỉ VCP550, đã có kinh nghiệm triển khai ảo hoá hạ tầng và đang chuẩn bị tìm hiểu, học hỏi và chuẩn bị cho triển khai VDI.

Tốt nhất nên đăng ký với ROBUSTA để được đích mục sở thị cùng tôi – 20 giờ đồng hồ học hỏi, trao đổi kinh nghiệm thực tiễn, phương pháp thực tế, thiết bị chuẩn cao cấp để có VSAN, Virtual SAN, SoftSAN, SAN Cluster…

 

Chúc các bạn thành công !

Tại sao mô hình SharePoint Farm lại chạy ổn định hơn trên nền ảo hóa VMware vSphere ?


Tôi xin giới thiệu qua mô hình SharePoint Farm bằng một vài hình ảnh sau:

1. Mô hình chuẩn của SharePoint Farm theo vật lý:

WP_20150121_001

2. Cấu trúc 3 tier Model cho SharePoint Farm:

WP_20150121_002_2

3. Cấu trúc Chức năng để triển khai SharePoint Farm:

clip_image004

4. Cấu trúc dữ liệu vật lý của SharePoint Farm:

clip_image006

5. Tổng kết mô hình SharePoint Farm trên nền ảo hóa VMware:

5.1. Hệ thống được vận hành trên vSphere:

Thực tế việc triển khai SharePoint Farm trên nền ảo hóa của VMware vSphere nhằm đảm bảo:

1. Tính năng Physical High Available (HA) và có cân bằng tải nguồn tài nguyên các máy ảo (CPU, Memory, Datastorage – DRS).

2. vMotion – HA để đảm bảo di chuyển tự động và không gây gián đoạn khi gặp sự cố của các máy chủ vật lý.

3. vSphere DRSDataStorage DRS giúp tự động cân bằng tải nguồn tài nguyên và chống sự cố thiếu tài nguyên các máy chủ ảo.

4. vSphere Data Protection Replicate giúp backup/restore và đồng bộ dữ liệu giữa Site Master (là Cluster Data chính đang chạy các máy chủ SharePoint Farm) với Site Backup (là Cluster Data chuyên lưu trữ và khôi phục các máy chủ SharePoint Farm).

5.2. Vì sao không nên dùng Microsoft Cluster Fail ?

Với 4 tính năng quan trọng trên, chúng ta sẽ không cần đến mô hình Cluster Fail truyền thống của Microsoft hay các hãng khác, vì:

1. Lãng phí hệ thống tài nguyên vật lý do phải có 2 cặp máy chủ vật lý có cấu hình giống hệt nhau.

2. Cấu hình Cluster Fail phức tạp, vận hành và duy trì phức tạp, tốn kém thời gian sửa chữa, gián đoạn hệ thống vẫn có khả năng xẩy ra.

3. Cluster fail vật lý thường là chế độ Active – Standby / Active – Passive, do đó không có tính năng Load Balancing “cân bằng tải” cho các dịch vụ ứng dụng, hoặc chia tải các dịch vụ cho từng máy chủ chạy chức năng độc lập. ví dụ: SQL Server 2008 Cluster Fail 2 Notes (thực tế chỉ chạy 1 máy chủ SQL cho tất cả các chức năng: DB, Index, Crawling, Search, Query…đồng thời còn phải thêm chức năng đồng bộ dữ liệu sang máy chủ SQL note 2, khi máy chủ SQL Note 1 – máy chính báo lỗi thì máy chủ SQL note 2 mới đổi thành SQL note chính – điều này chỉ giúp không gián đoạn / mất dữ liệu cho dịch vụ).

SharePoint nâng cao: Phần 5 – Cấu hình hệ thống báo cáo động và dịch vụ báo cáo trên SharePoint 2010


1.  Cấu hình hệ thống Báo cáo Report Services:

image

 

2. Download phần mềm Microsoft® SQL Server® 2008 R2 Reporting Services Add-in for Microsoft SharePoint® Technologies 2010

Link download: http://www.microsoft.com/en-us/download/details.aspx?id=622

Bấm click đúp vào rsSharePoint để chạy.

image

 

3. Các bước cài Reporting Services Add-in for SharePoint 2010

image

 

image

 

image

 

image

 

4. Kiểm tra tình trạng hoạt động của Report Services:

image

 

Chúc các bạn thành công !

Kết thúc phần 5 – các bạn sẽ dựng được toàn bộ hệ thống Report service tích hợp từ MS SQL Server 2008 R2 sang với giao diện, webpart và Report Design thiết kế báo cáo động trên web (một phần nền tảng công cụ hỗ trợ phát triển Business Intelligent – B).

Mời các bạn đón đọc phần tiếp theo – SharePoint nâng cao – Phần 6: Phát triển Development Dashboard trên máy chủ SharePoint 2010

Một số lỗi khi dùng vMotion di chuyển các máy VM giữa các Host khi các ESXi Host bị vượt tải hoặc lỗi Physical


 

1. Tại sao khi mở Network lại báo VMNIC interfaces in Standby on the vSwitch

Nếu các mạng vmnic của các máy chủ Host ESXi không được bật đủ,

Ví dụ:

– Máy Host A có 2 vmnic, máy Host B chỉ có 1 vmnic, máy Host C có 4 vmnic

khi di chuyển 1 VM từ máy host C sang A hoặc B sẽ bị cảnh bảo và lỗi này có thể không được bỏ qua, yêu cầu người quản trị phải cấu hình đủ các vmnic cho 2 host A và B.

Vậy phải cấu hình vmnic ảo cho 2 máy A và B như sau:

Mở phần Tab Configuration > Networking

Standby

 

Chọn Properties >

Edit_vSwitch0

Chọn vSwitch0 Properties, chọn vSwitch : 120 Ports và bấm nút Edit

Move_ActiveAdapters

Hãy bấm chọn vmnic1 đang bị đặt ở Standby Adapters và bấm nút Move Up/ Move Down để di chuyển lên nhóm Active Adapters.

Sau đó bấm OK và bấm Close để hoàn thành chỉnh sửa.

 

2. Lỗi khi định nghĩa đích đến khi di chuyển VM:

image

Bấm Next

image

Bắt đầu xuất hiện 1 loạt lỗi sau:

3.  Lỗi báo card mạng cho dải vMotion không đạt tốc độ tương thích full duplex / 1000 Mbps:

vMotion interface ‘<vMotion Network, iSCSI>’ on the Destination host ‘192.1.0.3’ does not have the recommended capacity (full duplex / 1000 Mbps) to properly support vMotion.

– vMotion interface ‘<vMotion Network, Storage Network>’ on the Source host ‘192.1.0.2’ does not have the recommended capacity (full duplex / 1000 Mbps) to properly support vMotion.

 

 

 

4. Lỗi  Currently connected network interface ‘Network adapter 1’ cannot use network ‘Fence Network’, because the destination network on the destination host is configured for different offload or security policies than the source network on the source host.

Tôi đã tra cứu lỗi trên mạng KB article của VMware:

Troubleshooting Migration compatibility error: Currently connected network interface uses network, which is configured for different offload or security policies (1003834)

Và nhớ ra việc đã cấu hình VM Network Properties trong máy chủ Destination host, chế độn enabled Promiscuous Mode.

err2

Sau khi tôi ngắt chọn chế độ Promiscuous Mode của máy Destination host mọi việc đã sửa xong lỗi này.

 

5. Lỗi không tương thích CPU xử lý cho phép điều khiển Cluster vMotion:

The virtual machine requires hardware features that are unsupported or disabled on the target host:
* Carryless multiply (PCLMULQDQ) (see KB 1034926)
* AES instructions (AES-NI) (see KB 1034926)

If possible, use a cluster with Enhanced vMotion Compatibility (EVC) enabled; see KB article 1003212.

CPUID details: incompatibility at level 0x1 register ‘ecx’.
Host bits: 0000:0000:1001:1000:0010:0010:0000:0001
Required:  x000:x01x:10×1:1xx0:xx10:xx1x:xx0x:xx11

Tôi đã tạo ra 1 DataCluster và thêm 2 máy chủ và cũng đã enabled EVC.

Theo như lưu ý của vSphere Essentials 5.5

Tôi truy cập vCenter, vùng data centre và chọn Host server.

Bấm phải chuột vào Cluster -> Edit Setting -> Select Vmware EVC -> Change EVC mode…

Hãy chuyển sang chế độ Enable.

image

Lưu ý:  Chỉ có 2 dòng chíp AMD và Intel sau mới support vMotion:

image

image

Phần 3. Cài đặt và cấu hình phần mềm Openfiler dùng cho VMware ESXi để chia sẻ lưu trữ theo kiểu NFS hoặc iSCSI


Khi bạn tạo ra môi trường ảo hoá máy chủ hoặc máy trạm trên nền VMware. Bạn muốn làm việc với các công cụ bảo vệ dữ liệu và vận hành ổn định hiệu quả như: di chuyển máy ảo tự động vMotion và độ sẵn sàng cao, bạn sẽ cần sử dụng hệ thống chỉa sẻ tài nguyên “Share Storage” nó phải được kết nối và vận hành trong môi trường ảo hoá của bạn.

Openfiler cũng là một lựa chọn tốt để bạn cài đặt và cấu hình miễn phí hệ thống lưu trữ đóng gói nhằm cung cấp dịch vụ chia sẻ lưu trữ dữ liệu với 2 chuẩn NFS hoặc iSCSI.

Bài này tôi giới thiệu cách cài Openfiler 2.99. Bạn có thể download nhiều dạng triển khai khác nhau như: copy vmdk, copy file zar hoặc file ISO hoặc ovf để triển khai theo template sẵn sàng chuẩn VMware files…

Tôi download bộ cài ISO file tại địa chỉ: www.openfiler.com. phiên bản 2.99 (openfileresa-2.99.1-x86_64-disc1.iso)

Để bắt đầu bạn cần tạo 1 máy ảo  virtual machine có thể chạy trên nền ảo hoá máy chủ ESXi Hypervisor miễn phí hoặc ảo hoá máy trạm Workstation, đưa file ISO vào ổ đĩa CD/DVD ảo và chọn chế độ power on. Hệ điều hành OS dạng: Other Linux 64 bit.

Note Kích thước ổ nhỏ nhất là: 10GB mới đảm bảo đủ kích thước tối thiểu trước khi cài  Openfiler.

Yêu cầu của hệ thống:

Openfiler tương thích 64-bit đạt chuẩn tương thích với các máy chủ phần cứng. Nó có thể được cài vào môi trường máy chủ ảo, máy trạm ảo theo nền tảng VMware vSphere.

Theo như dòng sản phẩm phát triển chạy trên nền hỗ trợ ảo hoá hoặc theo cấu hình cơ bản, khuyến cáo nên dùng CPU chip 64-bit Intel Xeon hoặc AMD Opteron đạt hiệu quả tốt nhất.

Cấu hình cài cơ bản

Khuyến cáo
  • 64-bit 1.6GHz or higher performance processor
  • 2GB or higher of RAM
  • 2GB disk space for memory swap area
  • 8GB disk space for Openfiler OS installation
  • 1Gb Ethernet network interface
  • Separate storage volumes/disks for data export
  • Hardware RAID controller

Cấu hình cài ảo hoá

VMware specifications
  • 64-bit VMware hypervisor
  • VMware Player, VMware Server, VMware ESX compatible
  • Symbios or Buslogic virtual SCSI disk driver
  • IDE virtual disk driver
  • 2GB minimum virtual RAM
  • Virtual network interface

Tip

Bước 1. đầu tiên là cài Hệ điều hành trên 1 ổ cứng và sau khi cài xong có thể bổ sung thêm các ổ cứng khác sẽ liên quan tới phân hoạch ổ cứng kiểu NFS và iSCSI. không cần tắt nguồn của máy ảo khi định thêm ổ cứng cho NAS. Bạn có thể thêm ổ cứng cho NAS, NFS… khi đang bật nguồn cho ESXi và Openfiler sẽ tự động xác định ra ổ cứng mới thêm.

Khi bạn khởi động máy ảo VM bằng bộ cài ISO (xem hình dưới). Hãy nhấn phím Enter để bắt đầu cài.

Openfiler boot cd

Các bước cài tiếp theo chủ yếu tôi chụp hình ảnh và  sẽ đưa các ý kiến chú thích các vấn đề quan trọng cần bạn lưu ý khi thực hiện.

Trong lúc cài đặt sẽ phải thiết lập ổ cứng rỗng và bạn sẽ có thể tự động phân vùng, định dạng ổ cứng theo HĐH. Bạn có 2 ổ cứng và mỗi ổ bạn muốn chạy theo 2 công nghệ khách nhau : một ổ chạy theo NFS  và một ổ chạy theo iSCSI.

Openfiler disk selection

Mạng ngầm định sẽ được cấu hình tự động theo DHCP. Nếu bạn muốn cấu hình tĩnh IP thì bạn có thể cấu hình sau khi truy cập vào Web based có giao diện quản lý hoặc bạn làm theo từng bước ở phần đang cài đặt sau:

Openfiler IP configuration

Trong quá trình cài đặt hệ thống yêu cầu mật khẩu root. Đây chỉ là tài khoản root dùng làm quản trị hệ thống Openfiler, Lưu ý rằng mật khẩu này sẽ không phải là mật khẩu mà bạn sẽ sử dụng để quản lý thiết bị từ giao diện người dùng dựa trên web.

Openfiler root password

Khi các bước cài xong, hệ thống kết thúc và yêu cầu khởi động lại máy chủ . Bạn sẽ nhìn thấy địa chỉ web URL để điều khiển quản lý Openfiler.

Openfiler appliance after first boot

Bước 2. Lần đầu truy cập web base bạn sẽ thấy có 1 màn thông báo chữ ký số là chưa được tin tưởng, do máy chủ ảo tự tạo ra chữ ký số SSL cho giao thức HTTPS, đây là thông báo bình thường và bạn có thể tiếp tục thực hiện.

Đăng nhập vào web Openfiler bạn sẽ cần xác thực bằng tài khoản:

Tài khoản ngầm định: openfiler

Mật khẩu ngầm định: password

Sau khi bận đăng nhập lần đầu để thay đổi mật khẩu cho Administrator của máy ảo. Hệ thống yêu cầu bạn đăng nhập lại màn quản trị bằng mật khẩu mới. (Trong Labs thay thành:  VMware1!

Openfiler change administrator password

Bước tiếp theo cần bật các dịch vụ cần thiết cho NFS, iSCSI khởi động.

Enable and start Openfiler services

Bước 3. để cấu hình từ máy chủ hoặc mạng đang cài Openfiler. bạn có thể cung cấp các địa chỉ IP tĩnh cho máy chủ Openfiler. ví dụ: tất cả các máy chủ này đều nằm ở dải mạng: 192.168.1.0/24 sẽ có thể truy cập hệ thống chia sẻ lưu trữ này .

Openfiler network access configuration

Sau bước 3, bạn nên thêm ổ cứng ảo tới máy chủ ảo mà bạn muốn  dùng làm lưu trữ dạng NFS và iSCSI data. Bạn có thể làm điều này trong lúc các máy chủ ảo đang bật và Openfiler sẽ tự động xác định ra chúng.

Bước 4. truy xuất vào Tab Volumes và chọn Block Devices  từ menu bên phải để quản lý định dạng ổ cứng của bạn. Chúng ta bắt đầu từ ổ thứ 1 (/dev/sdb). Bấm vào hyperlink để xác lập device và để thêm 1 định dạng ổ partition.

Openfiler block devices add partition

Phần tiếp theo cần tạo 1 ổ volume mới trong ổ cứng ảo. Thực hiện hành động này cho tất cả các ổ cứng nào bạn muốn dùng. (Trường hợp này tôi chỉ dùng đĩa /dev/sdc.)

Openfiler add partiiton to device

Bước 5. tạo 1 Volume group. Tại thời điểm này tôi bắt đầu tạo ra toàn bộ cấu hình NFS và khi điều đó được thực hiện xong, tôi sẽ tạo ra tiếp các đĩa iSCSI và cấu hình chúng .

Bước 6. Cấu hình NFS Volume

Trong tab Volumes  chọn  Volume Groups từ menu bên phải.

Openfiler add new volume group for NFS

Tiếp theo bấm Add Volume là đường liên kết bên menu bên phải. Xác định tên cho voulme, nhập miêu tả và chọn amount cho vùng ổ trống từ kiểu phân vùng định dạng partition để sử dụng. File ngầm định được sử dụng ở đây là XFS, bạn cũng có thể chọn ext4 hoặc các kiểu định dạng khác nhưng quan trọng nhất là chúng ta cần hệ thống truy xuất và chia sẻ dữ liệu qua NFS do vậy những định dạng này thực sự không phải là quan trọng.

Add volume to Openfiler volume group

Bước 7. bây giờ chúng ta đã có cấu hình NFS-volume và cần phải tạo 1 cấu hình thông tin chia sẻ để giúp chúng ta đưa nó vào hệ thống máy chủ  ESXi Hypervisor. Bấm vào tab Shares và bấm link NFS-volume bạn chỉ cần nhập tên thư mục cần tạo trong volume đó.

Openfiler NFS volume add folder

Tên thư mục này về sau sẽ chính là tên Share name. Bấm foler và bấm nút  Make Share có trên cửa sổ con vừa khai báo.

Openfiler add share to NFS folder

Bước 8. nên phân quyền và giới hạn quyền truy cập các thư mục có trong Volume ổ cứng vừa cấu hình để đảm bảo an toàn dữ liệu chia sẻ trong ESXi.

Bạn cần cấu hình 1 nhóm chính Primary Group và chọn quyền ReadWrite khi truy cập NFS trên máy chủ.

Openfiler Share controled access

Cấu hình NFS-configuration trên máy chủ Openfiler giờ đã xong. Chúng ta chỉ việc quay sang máy chủ ESXi-host để thiết lập hệ thống kết nối chia sẻ.

Lưu ý: Nếu muốn dùng cho cả user Anonymous User để ESXi Host kết nốI NFS bạn cần cấu hình chọn

image

Bước 9. Bạn mở  vSphere Client (Configuration > Storage > Add Storage)  ở màn vSphere Web Client (bạn chọn máy chủ, Related Objects > Datastores và bấm biểu tượng create a new datastore).

Bạn có thể nhập địa chỉ IP hoặc tên máy chủ Openfiler nếu bạn đã cấu hình DNS.

Tip Tên datastore name nên đặt giống cùng với tất cả các máy chủ ESXi-servers trong cùng khối cluster sẽ giúp cho các máy ảo đó có thể chạy trong tất cả các máy chủ ESXi hosts khác ví dụ nếu VM dùng NFS với vMotion và High Availability.

Add datastore on ESXi from vSphere Web Client

 

Bước 10. Cấu hình iSCSI

Để cấu hình iSCSI chúng ta cần volume khác trong  volume group. Mở  web Openfiler và chọn Volumes-tab và tiếp tục chọn menu bên phải bấm vào Volume Groups. Bây giờ bạn có thể tạo ra  volume group mới trong đó có ổ cứng rỗng (ví dụ: /dev/sdc).

Openfiler add iSCSI volume group

Bước 11. Bấm Add Volume. Nếu các Volume group mới bạn vừa tạo ra không được chọn thì ngay sáu đó bạn sẽ phải chọn từ danh sách thả xuống và cần chọn lấy để bấm nút Change.

Openfiler select volume group

Bước 12. Bây giờ ta lại cần thêm volume mới để đưa vào chính volume group này. Bước quan trọng nhất đó là chọn  block-type để có thể sử dụng nó trong iSCSI-target disk.

Openfiler create iSCSI volume

Bây giờ ổ đĩa ảo đã sẵn sàng bây giờ cấu hình iSCSI-target. Từ Volumes-tab chọn iSCSI targets từ menu bên phải. Bạn lựa chọn duy nhất là tạo ra một cái mới

Openfiler add iscsi target

Bấm nút “Add” để tạo 1 iqn cho iSCSI Target

image

image

Bấm nút “Update” để lưu thông số của iSCSI.

Bước 13. tiếp theo bạn bấm sang Tab “LUN Mapping” để ánh xạ  1 LUN tới Volumes.

Openfiler LUN mapping for ISCSI target

Bấm nút “Map” ở dòng và cột cuối “Map LUN” và bước cuối cùng là cho phép truy cập đến iSCSI target này bằng tab “Network ACL”.

Openfiler network access for iSCSI

Bước 14. bây giờ bạn cần cấu hình truy cập  tới iSCSI-target từ máy chủ ESXi-host.

Hãy mở vShere Client (Configuration > Storage Adapters – bấm Add)  hoặc bạn cũng có thể tạo từ vSphere Web Client.

Openfiler add iSCSI software adapter to ESXi in vSphere Web Client

Một khi bạn đã thêm vào các bộ chuyển đổi nó sẽ hiển thị trong danh sách các bộ điều khiển lưu trữ Storage Adapter như VMHBA33 hoặc cao hơn. Trong ví dụ này bạn có thể thấy rằng nó là bộ chuyển đổi VMHBA37. Trong iSCSI Target nhấp vào tab Add để thêm iSCSI target của bạn. Bạn sẽ cần phải cung cấp địa chỉ IP hoặc tên máy chủ cho máy chủ Openfiler của bạn. Cổng port mặc định của 3260.

Openfiler add iSCSI target to ESXi

Sau khi thêm target bạn sẽ nhận được cảnh báo rằng bạn cần phải bấm nút Rescan the adapter để có thể nhìn thấy thiết bị vừa thêm vào có giá trị.

Openfiler ESXi rescan iSCSI HBA

Bây giờ bạn sẽ tìm thấy ở mục  Devices của  iSCSI software adapter , bạn sẽ nhìn thấy tên của iSCSI target tương ứng với tên đã có trong máy chủ Openfiler server.

Openfiler ESXi devices available

Tại thời điểm này bạn đã có 1 VMFS file system. Thao tác cuối cùng mở vSphere Client (Configuration > Storage – bấm Add Storage) hoặc mở từ vSphere Web Client (bạn chọn máy chủ, Related Objects-tab – Datastores và bấm biểu tượng create a new datastore).

Tip Bạn chỉ cần tạo ra kho dữ liệu này một lần. Nếu bạn kích hoạt iSCSI Target trên máy chủ ESXi host khác thì các máy chủ ESXi host đó sẽ tự động xác định ra các VMFS datastorage mới khi bậm bấm nút rescan.

 

Sử dụng xác thực bằng CHAP authentication

Trong trường hợp bạn cần bảo mật khi cấu hình chia sẻ lưu trữ cho các máy khác bằng  phần mềm iSCSI software. Bạn sẽ cần phải thêm kiểu chứng thực bằng giao thức Challenge Handshake Authentication Protocol để cài iSCSI.

Trong cấu hình Openfiler truy xuất vào Volumes và chọn CHAP Authentication. Nó sẽ yêu cầu username và password. Username sẽ dùng để truy xuất vào iSCSI initiator name hoặc bí danh có trong ESXi-host.

Openfiler add CHAP

Tiếp theo bạn cần thêm CHAP-authentication tới iSCSI-adapter có trong ESXi.

Openfiler add CHAP to ESXi

Chọn Use unidirectional CHAP theo danh sách kéo xuống. Tiếp theo bạn cần quyết định dùng thiết bị nào làm ổ chứng iSCSI-target.

Openfiler configure CHAP secret on ESXi