Category Archives: vSS

Cách thế nào để cấu hình VMware vSwitch từ ESX / ESXi Command Line


 

Trong cả hai VMware ESX và ESXi host, vSwitches có thể được cấu hình hoặc từ giao diện hoặc từ dòng lệnh.

  • vSwitch được hiểu là thiết bị Switch ảo tiêu chuẩn
  • Các cấu hình CLI là rất hữu ích khi bạn đang cài đặt nhiều máy chủ ESXi và có kế hoạch triển khai nhiều cấu hình PortGroup cho vSwitch.

Làm thế nào để cấu hình vSwitch từ CLI bằng lệnh esxcfg-vswitch.

 

Liệt kê tất cả vSwitches

Trên ESXi: Để xem tất cả các vSwitches hiện trong máy chủ ESXi, sử dụng tùy chọn -l như hình dưới đây. Điều này sẽ hiển thị cả các chuyển đổi và thông tin portgroup.

# esxcfg-vswitch -l
Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks
vSwitch0         128         3           128               1500    vmnic0

PortGroup Name        VLAN ID  Used Ports  Uplinks
Management Network    0        1           vmnic0

image

 

Trên ESXi: thay vì esxcfg-vSwitch, bạn cũng có thể sử dụng lệnh esxcli vào danh sách vSwitches trong ESXi như hình dưới đây. Theo mặc định, mỗi host ESXi có một switch ảo được gọi là vSwitch0.

image

Thêm một vSwitch mới

Để thêm một vswitch mới, sử dụng tùy chọn -a như hình dưới đây. Trong ví dụ này, một switch mới vswitch1 ảo được tạo ra:

# esxcfg-vswitch -a vSwitch1

Nếu bạn đang trên ESXi host, bạn cũng có thể sử dụng lệnh esxcli như hình dưới đây để thêm một switch mới.

# esxcli network vswitch standard add -v vSwitch1

Số mặc định của các cổng logic trên vswitch là 56.

Số lượng tối đa của vSwithces có thể được tạo ra trên một máy chủ ESXi duy nhất là 127.

Khi hai hoặc nhiều máy ảo kết nối với vswitch cùng các lưu lượng giữa chúng được định tuyến tại Local và bất cứ khi nào nó cần phải kết nối với mạng bên ngoài, giao thông được định tuyến thông qua adapter uplink cơ bản một cổng NIC gắn vào switch ảo.

 

Thêm một Port trong vSwitch

Trên ESX: Chúng ta vừa tạo switch ảo. Nhưng, để kết hợp một cổng mạng (thêm một đường lên) để chuyển đổi ảo này, sử dụng cú pháp sau:

 esxcfg-vswitch -L <primary NIC> <vswitch name>

Ví dụ:

# esxcfg-vswitch -L vmnic1 vSwitch1

# esxcfg-vswitch -l
Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks 
vSwitch0         128         3           128               1500    vmnic0

PortGroup Name        VLAN ID  Used Ports  Uplinks
Management Network    0        1           vmnic0

Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks
vSwitch1         128         2           128               1500    vmnic1

PortGroup Name        VLAN ID  Used Ports  Uplinks

Trên ESXi, thực hiện lệnh sau để thêm UpLink:

# esxcli network vswitch standard uplink add -u vmnic1 -v vSwitch1
Tạo PortGroups trong vSS

Tiếp theo chúng ta sẽ làm thế nào để tạo ra các Port Group. Port Group là một nhóm cổng trên vSwitch. Đây cũng là phân khúc logic của vSwitch. Mỗi Port Group có một tên gọi là Label Network. Đây là mạng lưới thiết bị đầu cuối cho các máy ảo của bạn.

Trong ví dụ sau đây, bạn sẽ thấy để tạo ra các Port Group và gán các VLAN cho port groups. Nói chung, VLAN ID 0 là để vô hiệu gắn thẻ VLAN trên Port Group.

Cú pháp để thêm một Port Group mới là:

esxcfg-vswitch -A <Port Group Name> <vSwitch name>

Gán VLAN ID vào PortGroups

Cú pháp để gán một VLAN vào Port Group gồm:

esxcfg-vswitch <vSwitch name> –v <VLAN ID> –p “<Port groupname>”
  • It may be necessary to restart the host’s management agents if network connectivity is not restored despite a correct configuration:

services.sh restart

 

Dùng Excel để tạo Script nhân bản nhanh các lệnh

Vận dụng Excel để tạo script nhanh và nhân bản thành nhiều dòng lệnh

image

copy dán sang notepad để đảm bảo không có ký tự sai, khoảng trắng…

image

Cuối cùng copy các dòng lệnh trên vào PuTTy để thực thi

image

Chúc các bạn thành công !

Advertisements

Cách dùng ổ cứng thường “giả” ổ SSD chuẩn bị cho VSAN ?


Trong vSphere 5, có một tính năng mới gọi là Host cache cho phép một người sử dụng để giảm tải file swap của máy ảo lưu vào ổ SSD dành riêng cho hiệu suất tốt hơn. Điều này được thực hiện bằng cách tạo ra một khối Volume VMFS trên ổ SSD được phát hiện bởi SATP (Storage adapter type Plugin) và cho phép một người dùng để thêm và cấu hình một kho dữ liệu VMFS cho máy chủ sử dụng bộ nhớ đệm.

image

Trong vSphere 5, tôi đã thử nghiệm các tính năng mới khác nhau bao gồm Host Caching nhưng không có quyền truy cập vào một hệ thống với ổ SSD trong khi cập nhật và tạo ra một vài kịch bản mới. Sau một số nghiên cứu, tôi thấy rằng nếu một quy tắc SATP mặc định là chưa có để xác định một ổ SSD đặc biệt, đó là một quy tắc mới có thể được tạo ra có chứa một một loạt meta data xml “siêu dữ liệu” đặc biệt xác định nó là một ổ  SSD.

Trong ví dụ sau, tôi sẽ có một đĩa ảo của Local Host ( mpx.vmhba1: C0: T2: L0 ) trong VMware ESXi 5 và “lừa” ESXi truy xuất và nhận dạng nó là một ổ SSD.

image

Chúng ta sẽ cần phải sử dụng esxcli cho dù đó là trực tiếp trên ESXi Shell hoặc sử dụng VMA và / hoặc phiên bản remote PowerCLI esxcli của VMware.

Lưu ý: Sau đây tôi giả định đã có một khối volume VMFS tạo trênổ cứng bạn muốn sử dụng, hiển thị như là một ổ SSD, nếu bạn không làm như vậy, hãy tạo ra một khối volume VMFS trước khi tiếp tục.

Trước tiên, bạn sẽ cần phải tạo ra một quy tắc SATP mới xác định ổ SSD của bạn và chỉ rõ “enable_ssd” giá trị như là một phần của tham số  –option:

~ # esxcli storage nmp satp rule add -s VMW_SATP_LOCAL -d mpx.vmhba1:C0:T2:L0 -o enable_ssd                                                   

Bạn có thể xác minh rằng quy tắc của bạn đã được tạo ra giá trị bằng cách chọn một danh sách theo các quy tắc SATP:

~ #  esxcli storage nmp satp rule list | grep enable_ssd
VMW_SATP_LOCAL       mpx.vmhba1:C0:T2:L0                                                enable_ssd                  user

Tiếp theo, bạn sẽ cần phải đòi lại ổ cứng của bạn để các quy định mới được áp dụng:

~ # esxcli storage core claiming reclaim -d mpx.vmhba1:C0:T2:L0

Bây giờ ta có thể dùng lệnh dướI đây để biết ổ cứng đã được ESXi nhận là ổ cứng SSD chưa:

~ # esxcli storage core device list -d mpx.vmhba1:C0:T2:L0
mpx.vmhba1:C0:T2:L0
Display Name: Local VMware Disk (mpx.vmhba1:C0:T2:L0)
Has Settable Display Name: false
Size: 5120
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/mpx.vmhba1:C0:T2:L0
Vendor: VMware
Model: Virtual disk
Revision: 1.0
SCSI Level: 2
Is Pseudo: false
Status: on
Is RDM Capable: false
Is Local: true
Is Removable: false
Is SSD: true
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unsupported
Other UIDs: vml.0000000000357d795311313a373a39

Bạn đã thấy dòng Is SSD báo True, nó đã nhận ổ cứng thường là SSD.

Bây giờ bạn nên làm mới các phân vùng lưu trữ trên vSphere Client hoặc bạn dùng lệnh sau để cho chúng hiển thị mới:

~ #vim-cmd hostsvc/storage/refresh

Bây giờ nếu bạn quay trở lại với vSphere Client ở mục “Configure Host Cache” bạn sẽ thấy các ổ SSD giả mớI xuất hiện để bạn có thể lựa chọn và bạn chỉ cần cấu hình nó và Host Cache được kích hoạt cho các ổ cứng SSD này.

image

 

VớI phần Host Cache ứng dụng bằng ổ cứng “giả” SSD như vậy, ngoàI ra bạn cũng có thể dùng nó trong môi trường Labs dựng VSAN “tất nhiên bạn phảI đám ứng đầy đủ các yêu cầu chuẩn bị cho VSAN”

như:

  1. Tối thiểu 3 máy chủ Host.
  2. Tối thiểu mỗI Host có 1 ổ SSD và mỗI Host cũng phảI có tốI thiểu 1 ổ HDD thường.
  3. Tối thiểu 3 host đều có 1 VMkernel Port Uplink (card 1Gbps – 10Gbps) trên 1vSS hoặc 1 vDS.
  4. Dĩ nhiên các ổ SSD và ổ HDD phảI có độ trống từ 2GB trở lên.
  5. Ổ HDD phảI chạy chính theo chuẩn RAID 0 hoặc 1 ,5, 6, 10,50,60.

 

Mục đích: Vậy là chí ít, tôi đã thử nghiệm được phần giả SSD để giúp các bạn có thể làm Labs VSAN khâu giảm chi phí ổ SSD giúp các bạn mạnh mẽ hơn trong việc đưa công nghệ ảo hoá SAN vào Labs, tiến đến khai thác và dùng thật cho VDI, Labs ảo hoá máy chủ, máy trạm, ứng dụng dùng trên công nghệ VSAN hiệu quả, an toàn và nhanh hơn SAN vật lý (chưa tính đến dùng RAM Disk).

 

Các bạn đã có chứng chỉ VCP550, đã có kinh nghiệm triển khai ảo hoá hạ tầng và đang chuẩn bị tìm hiểu, học hỏi và chuẩn bị cho triển khai VDI.

Tốt nhất nên đăng ký với ROBUSTA để được đích mục sở thị cùng tôi – 20 giờ đồng hồ học hỏi, trao đổi kinh nghiệm thực tiễn, phương pháp thực tế, thiết bị chuẩn cao cấp để có VSAN, Virtual SAN, SoftSAN, SAN Cluster…

 

Chúc các bạn thành công !

Di chuyển máy ảo bằng chức năng Migration vMotion trong vSphere 5.x với nhiều card NIC


Câu hỏi: Làm thế nào để bạn cài đặt nhiều card mạng vật lý cho việc tăng công suất di chuyển máy ảo vMotion?

Tôi đã từng gặp trường hợp này khi hỗ trợ các Doanh nghiệp thực tế cần chuyển từ hạ tầng Vật lý sang hệ thống ảo hóa, và vừa kết thúc buổI dạy tuần qua học viên của tôi làm tại Doanh nghiệp Dịch vụ Thanh toán Ngân hàng cũng gặp phải trường hợp trên đây.

Tôi nghĩ đây là vấn đề có giá trị và tôi cần giải thích làm thế nào để làm điều này (cách làm này là nhiều người gặp phải hoặc ít tương tự như cách bạn sẽ thiết lập iSCSI với nhiều vmknic)

Nhiều hay ít card mạng và vmkernel-nic là có một sự khác biệt rõ rệt.

Các bạn nên tham khảo bàI viết trên VMware KB bài viết đã được xuất bản có kèm video.

Cách thực hiện cho trường hợp dùng virtual Standard Switch “vSS”:

Bạn sẽ cần phải ràng buộc mỗi Interface VMkernel (vmknic) kết nốI port group tới một card mạng NIC vật lý (Uplink).

Nói cách khác:

  • Tạo một giao diện VMkernel và cung cấp cho nó với cái tên “vMotion1”.
  • Mở các thiết lập của Portgroup này và cấu hình 1 NIC vật lý cho phép kết nốI với cổng portgroup đó ở trạng thái hoạt động “Active” card Nic vật lý còn lạI ta chuyển sang trạng tháI chờ “stand by” (xem ảnh chụp màn hình dưới đây làm ví dụ).
  • Tạo một VMkernel Giao diện thứ hai và đặt tên cho nó “vMotion2”.
  • Mở thêm tiếp các thiết lập của Portgroup thứ 2 và cấu hình 1 NIC vật lý khác cho phép kết nốI vớI cổng portgroup đó ở trạng tháI hoạt động “Active” và card Nic vật lý còn lạI chuyển sang chế độ chờ “standby”.

 

Bây giờ thì bạn có thể  bắt đầu sử dụng chạy tính năng vMotion vớI nhiều NIC cùng được sử dụng đồng thời (Hãy nhớ rằng ngay cả khi bạn di chuyển vMotion chỉ 1 máy ảo thì cả hai liên kết vMotion đó sẽ được sử dụng).

Ngoài ra, nếu bạn không có các liên kết chuyên dùng cho vMotion bạn có thể muốn xem xét việc sử dụng mạng I/O điều khiển. vMotion có thể bão hòa một liên kết và ít nhất là khi bạn đã thiết lập Mạng I/O điều khiển và giao đúng số lượng cổ phần từng loại của lưu lượng truy cập sẽ được gán với từng card mạng cụ thể.

image

Video tham khảo: https://youtu.be/7njBRF2N0Z8 

 

Cách thực hiện cho trường hợp dùng virtual Distribution Switch “vDS”:

Đối với những người sử dụng dvSwitches: Bạn sẽ cần phải tạo ra hai dvPortgroups. Những portgroup đó cũng sẽ cần kết nốI vớI Card NIC vật lý “hoạt động / chế độ chờ”  kiểu tương tự với vSS vàlà hình thức cấu hình mạng (Teaming và Failover).

Sau đó bạn sẽ cần phải tạo ra hai adapter ảo và kết nốI từng card NIC trong số này đến một dvPortgroup cụ thể.

Video tham khảo: https://youtu.be/n-XBof_K-b0

 

Chúc các bạn thành công !

%d bloggers like this: