Làm thế nào để cấu hình Nested ESXi 6.0 có thể hỗ trợ bật EVC Clusters


Hiện trạng:

– Các trung tâm đào tạo CNTT, viễn thông và các ngành đào tạo liên quan tới việc áp dụng trang thiết bị CNTT đều vướng vào việc phải đầu tư phòng Labs.

– Các mô hình Labs thực hành truyền thống đều vướng tới giải pháp phần cứng, phần mềm từ đơn giản đến chuyên biệt.

– Các thiết bị phần cứng thì đầu tư phải phù hợp với số lượng người học,cấu hình phải tối ưu và có thể co giãn “sizing” thu hẹp hoặc tăng trưởng đáp ứng với lượng người học và yêu cầu của phần mềm.

– Các phần mềm đầu tư phải đáp ứng nhu cầu người học trong nhiều giai đoạn vận hành (có đầu tư thay thế mới, có bản quyền, có người quản trị vận hành chuyên nghiệp, có chuyên gia am hiểu và có kỹ năng vận hành các phần mềm…)

– Chi phí tiền điện, điều hòa, hạ tầng và chi phí duy trì hệ thống máy chủ, máy trạm người dùng và các thiết bị mạng cũng không có gì là nhẹ nhàng, gánh nặng chi phí cho Doanh nghiệp khi vận hành.

– Chạy theo các đối tác tiêu chuẩn đạt “Quốc tế”  mà ngày nay người ta gọi là “hố đen hay cạm bẫy thời Công nghệ”.

Giải pháp của thế giới:

– Ảo trong ảo “VMware ESXi Nested”.

 

Các trung tâm đào tạo Viet nam:

  • Doanh nghiệp Việt nam nói chung là tư duy cởi và mở, luôn xác định phải hoành tráng để cạnh tranh được với các “đối thủ khác” thì phải có phòng Labs hoành.
  • Máy chủ, máy trạm phải hoành, cấu hình “khủng”.
  • Tiền chi phí điện, điều hòa làm mát, tất nhiên sẽ phải “Khủng”.
  • Chi phí chiêu sinh nhiều lúc cũng phải “siêu thấp, phá giá để các đối thủ mất khách, cơ hội về mình cao hơn…”.

Tóm lại:

– Nhìn vào mấy gạch đầu dòng trên, tôi nghĩ tưởng ngay đến việc các trung tâm đào tạo Việt nam đang đầu tư theo kiểu: đầu vào chi phí lớn, đầu ra doanh thu nhỏ và tự làm nó teo tóp, bấp bênh.

– Vậy Công nghệ thông tin các bạn Doanh nghiệp cho nó đi đâu về đâu rồi, giải pháp trong ngành đào tạo ở Việt Nam coi như không áp dụng, hay chỉ là bề ngoài phòng Labs hoành tráng phù phiếm.

 

Luận thuyết:

Gần đây tôi đã viết một số bài về việc chạy ESXi lồng nhau “nặp tổ” hay còn gọi là “Nested ESXi” nhưng tất cả đều vướng vấn đề vMotion EVC (Enhanced vMotion Compatibility). Trong vSphere 4.x, bạn không thể join các máy chủ ESXi lồng nhau thành một cụm với EVC kích hoạt. Với vSphere 5, có thực sự là một cách dễ dàng để kết nối lồng nhau giữa 2 hoặc nhiều máy chủ ESXi 5.x ? để một cụm EVC kích hoạt và vẫn còn tổng hợp sức mạnh trên nền 64bit  GuestOSes. Bữa nay tôi viết chi tiết bài này nhằm cấu hình kích hoạt EVC trên tổ hợp các máy chủ ESXi Host 6.0 đã được lồng nhau. Theo bạn chúng có khoai chiên hơn không ?

 

Mục đích chính:

Hiện tại chúng tôi đang giảng dạy hệ thống ảo hóa trên cả các máy chủ Vật lý  Pi / pServer và máy chủ ảo trong ảo ESXi Nested (mục đích giảm giá thành các khóa học Công nghệ cao, cần ảo hóa và tối ưu nhằm tăng thêm được nhiều bài thực hành trong các lĩnh vực khoa học khác nhau)  .

Tôi phải cảm ơn các bạn học trò, các bạn học viên đã cùng tôi học các bộ môn chính khóa ảo hóa của VMware ICM 5.5 / 6.0 và các giảng viên, các trợ giảng và các kỹ sư thực hành trong các Doanh nghiệp đã cùng nêu ra các vấn đề tồn tại, vướng mắc của công nghệ ảo hóa, những ý kiến vô cùng cần thiết nhằm giúp tôi kiên định theo đuổi và tìm ra những kẽ hở, lỗi và những vướng mắc cần vượt qua.

Điều khẳng định:

– Vẫn như mọi khi, những thứ vướng mắc này đều không nằm trong những gì dạy dỗ hay bài giảng chính thức của VMware.

– Các bạn sẽ gặp phải các nguy cơ rủi ro của riêng bạn.

 

Dưới đây là các bước thực hiện:

Bước 1. Bạn phải chạy vSphere 6, tạo một cụm tối thiểu 2 máy chủ ESXi 6 lồng nhau.

Lưu ý: Các máy chủ ESXi host 6.0 lồng nhau cần phải bật cả chế độ VT/HT trước khi bật chạy, hãy xem bài:

Lỗi dựng hệ thống vCenter Server Appliance 64bit trên nền ESXi Host Nested 6.x

Bước 2. Tạo mới một cụm EVC kích hoạt hoặc sử dụng một cụm CPUID hiện có để giúp bạn chọn lựa nhanh cái bạn muốn và nhấp vào “Current CPUID chi tiết” trong cài đặt cluster.

image

Chọn mục VMware EVC

image

 

 

eax 0000:0000:0000:0001:0000:0110:1010:0100

ecx 0000:0000:1001:1000:1110:0010:0011:1101

edx 1000:1111:1110:1011:1111:1011:1111:1111

ecx 0000:0000:0000:0000:0000:0000:0000:0001

edx 0010:1000:0001:0000:0000:1000:0000:0000

eax 0000:0000:0000:0000:0000:0000:0000:0000

ecx 0000:0000:0000:0000:0000:0000:0000:0000

edx 0000:0000:0000:0000:0000:0000:0000:0000

 

 

Bước 3. Sao chép các lá cờ “flag” có trong CPUID Mask của cụm EVC đã được kích hoạt trên vào 1 file txt để bạn có thể dùng nó trong các bước tiếp theo

image

Bước 4. Shutdown các máy chủ ESXi 6 đã chạy ảo trong ảo “lồng nhau” và bắt đầu chỉnh sửa các thiết lập của VM, chọn “Options” tab, kích vào “CPUID Mask-> Advanced”.

– Phải shutdown ESxi host 6.0 trước khi cấu hình CPUID

image

– Bấm nút Advanced để cấu hình các lá cờ “Flags” của CPUID Mask theo đúng EVC đã được sao chép ra file text.

image

 

Bước 5. Bắt đầu copy / paste các thông số từ file text (lưu ý phải đúng vị trí các Flags tương ứng).

image

Bước 6.

Sau khi đã đưa các thông số CPUID mask vào cho từng máy chủ ESXi 6 Nested rồi, bạn hãy bật các máy chủ ESXi host đó lên.

Hãy dùng vSphere Client 6 hoặc Web Sphere client 6 để cấu hình Clusted cụm các máy chủ ESXi host 6 Nested, bật VMware EVC nên và chạy các tính năng vMotion EVC.

 

Bạn biết đấy, bây giờ thì tôi đang ngồi chờ đợi trước màn kết quả của các bạn rồi Nụ cười.

Đấy đúng không phải là công nghệ VMware ;( .

Chúc bạn thành công !

Advertisements

Lỗi không thể cấu hình enable EVC trên vCenter Appliance 6.0


Tình huống lỗi như sau:  Từ khi nâng cấp vCenter Server Appliance 5.5 lên VCVA 6.0, toàn bộ 3 máy chủ ESXi host có Chip Set Intel Core i7- E-2653 v3 giống hệt nhau

của hạ tầng tôi quản trị bị mất tính năng EVC, mặt dù làm theo đúng hướng dẫn của VMware hoặc của thầy dậy đều không tài nào bật được EVC.

image

Câu trả lời đơn giản:

Do VCVA 6 được nâng cấp nhưng các ESXi Host chưa được nâng cấp từ 5.5 lên ESXi 6.0

Cụ thể tính huống:

Theo như bạn viết, chúng tôi phân tích và cho rằng lí do VCVA 6 được nâng cấp nhưng các ESXi Host chưa được nâng cấp từ 5.5 lên ESXi 6.0

Như vậy sẽ dẫn tới các chỉ số CPUID trên các ESXi Host sẽ khác với chỉ số renew mới về CPUID có trên phiên bản VCVA 6 (thông thườn lỗi này là do bạn đã không nâng cấp từ VCVA 5.5 lên VCVA 6.0 mà do bạn cài mới vcenter VCVA do vậy bản version 6.0 không có thông số CPUID cũ, hệ thống tạo mới và CPUID này # với CPU ID có trong các máy ESXi 5.5)

Biện pháp đơn giản là , bạn nên upgrade nâng cấp từng ESXi Host từ 5.5 lên 6.0 sau đó vào lại phần Cluster của các Host và bật tính năng EVC lên.

image

 

image

 

Chúc bạn thành công !

Di chuyển máy ảo bằng chức năng Migration vMotion trong vSphere 5.x với nhiều card NIC


Câu hỏi: Làm thế nào để bạn cài đặt nhiều card mạng vật lý cho việc tăng công suất di chuyển máy ảo vMotion?

Tôi đã từng gặp trường hợp này khi hỗ trợ các Doanh nghiệp thực tế cần chuyển từ hạ tầng Vật lý sang hệ thống ảo hóa, và vừa kết thúc buổI dạy tuần qua học viên của tôi làm tại Doanh nghiệp Dịch vụ Thanh toán Ngân hàng cũng gặp phải trường hợp trên đây.

Tôi nghĩ đây là vấn đề có giá trị và tôi cần giải thích làm thế nào để làm điều này (cách làm này là nhiều người gặp phải hoặc ít tương tự như cách bạn sẽ thiết lập iSCSI với nhiều vmknic)

Nhiều hay ít card mạng và vmkernel-nic là có một sự khác biệt rõ rệt.

Các bạn nên tham khảo bàI viết trên VMware KB bài viết đã được xuất bản có kèm video.

Cách thực hiện cho trường hợp dùng virtual Standard Switch “vSS”:

Bạn sẽ cần phải ràng buộc mỗi Interface VMkernel (vmknic) kết nốI port group tới một card mạng NIC vật lý (Uplink).

Nói cách khác:

  • Tạo một giao diện VMkernel và cung cấp cho nó với cái tên “vMotion1”.
  • Mở các thiết lập của Portgroup này và cấu hình 1 NIC vật lý cho phép kết nốI với cổng portgroup đó ở trạng thái hoạt động “Active” card Nic vật lý còn lạI ta chuyển sang trạng tháI chờ “stand by” (xem ảnh chụp màn hình dưới đây làm ví dụ).
  • Tạo một VMkernel Giao diện thứ hai và đặt tên cho nó “vMotion2”.
  • Mở thêm tiếp các thiết lập của Portgroup thứ 2 và cấu hình 1 NIC vật lý khác cho phép kết nốI vớI cổng portgroup đó ở trạng tháI hoạt động “Active” và card Nic vật lý còn lạI chuyển sang chế độ chờ “standby”.

 

Bây giờ thì bạn có thể  bắt đầu sử dụng chạy tính năng vMotion vớI nhiều NIC cùng được sử dụng đồng thời (Hãy nhớ rằng ngay cả khi bạn di chuyển vMotion chỉ 1 máy ảo thì cả hai liên kết vMotion đó sẽ được sử dụng).

Ngoài ra, nếu bạn không có các liên kết chuyên dùng cho vMotion bạn có thể muốn xem xét việc sử dụng mạng I/O điều khiển. vMotion có thể bão hòa một liên kết và ít nhất là khi bạn đã thiết lập Mạng I/O điều khiển và giao đúng số lượng cổ phần từng loại của lưu lượng truy cập sẽ được gán với từng card mạng cụ thể.

image

Video tham khảo: https://youtu.be/7njBRF2N0Z8 

 

Cách thực hiện cho trường hợp dùng virtual Distribution Switch “vDS”:

Đối với những người sử dụng dvSwitches: Bạn sẽ cần phải tạo ra hai dvPortgroups. Những portgroup đó cũng sẽ cần kết nốI vớI Card NIC vật lý “hoạt động / chế độ chờ”  kiểu tương tự với vSS vàlà hình thức cấu hình mạng (Teaming và Failover).

Sau đó bạn sẽ cần phải tạo ra hai adapter ảo và kết nốI từng card NIC trong số này đến một dvPortgroup cụ thể.

Video tham khảo: https://youtu.be/n-XBof_K-b0

 

Chúc các bạn thành công !

Một số lỗi khi dùng vMotion di chuyển các máy VM giữa các Host khi các ESXi Host bị vượt tải hoặc lỗi Physical


 

1. Tại sao khi mở Network lại báo VMNIC interfaces in Standby on the vSwitch

Nếu các mạng vmnic của các máy chủ Host ESXi không được bật đủ,

Ví dụ:

– Máy Host A có 2 vmnic, máy Host B chỉ có 1 vmnic, máy Host C có 4 vmnic

khi di chuyển 1 VM từ máy host C sang A hoặc B sẽ bị cảnh bảo và lỗi này có thể không được bỏ qua, yêu cầu người quản trị phải cấu hình đủ các vmnic cho 2 host A và B.

Vậy phải cấu hình vmnic ảo cho 2 máy A và B như sau:

Mở phần Tab Configuration > Networking

Standby

 

Chọn Properties >

Edit_vSwitch0

Chọn vSwitch0 Properties, chọn vSwitch : 120 Ports và bấm nút Edit

Move_ActiveAdapters

Hãy bấm chọn vmnic1 đang bị đặt ở Standby Adapters và bấm nút Move Up/ Move Down để di chuyển lên nhóm Active Adapters.

Sau đó bấm OK và bấm Close để hoàn thành chỉnh sửa.

 

2. Lỗi khi định nghĩa đích đến khi di chuyển VM:

image

Bấm Next

image

Bắt đầu xuất hiện 1 loạt lỗi sau:

3.  Lỗi báo card mạng cho dải vMotion không đạt tốc độ tương thích full duplex / 1000 Mbps:

vMotion interface ‘<vMotion Network, iSCSI>’ on the Destination host ‘192.1.0.3’ does not have the recommended capacity (full duplex / 1000 Mbps) to properly support vMotion.

– vMotion interface ‘<vMotion Network, Storage Network>’ on the Source host ‘192.1.0.2’ does not have the recommended capacity (full duplex / 1000 Mbps) to properly support vMotion.

 

 

 

4. Lỗi  Currently connected network interface ‘Network adapter 1’ cannot use network ‘Fence Network’, because the destination network on the destination host is configured for different offload or security policies than the source network on the source host.

Tôi đã tra cứu lỗi trên mạng KB article của VMware:

Troubleshooting Migration compatibility error: Currently connected network interface uses network, which is configured for different offload or security policies (1003834)

Và nhớ ra việc đã cấu hình VM Network Properties trong máy chủ Destination host, chế độn enabled Promiscuous Mode.

err2

Sau khi tôi ngắt chọn chế độ Promiscuous Mode của máy Destination host mọi việc đã sửa xong lỗi này.

 

5. Lỗi không tương thích CPU xử lý cho phép điều khiển Cluster vMotion:

The virtual machine requires hardware features that are unsupported or disabled on the target host:
* Carryless multiply (PCLMULQDQ) (see KB 1034926)
* AES instructions (AES-NI) (see KB 1034926)

If possible, use a cluster with Enhanced vMotion Compatibility (EVC) enabled; see KB article 1003212.

CPUID details: incompatibility at level 0x1 register ‘ecx’.
Host bits: 0000:0000:1001:1000:0010:0010:0000:0001
Required:  x000:x01x:10×1:1xx0:xx10:xx1x:xx0x:xx11

Tôi đã tạo ra 1 DataCluster và thêm 2 máy chủ và cũng đã enabled EVC.

Theo như lưu ý của vSphere Essentials 5.5

Tôi truy cập vCenter, vùng data centre và chọn Host server.

Bấm phải chuột vào Cluster -> Edit Setting -> Select Vmware EVC -> Change EVC mode…

Hãy chuyển sang chế độ Enable.

image

Lưu ý:  Chỉ có 2 dòng chíp AMD và Intel sau mới support vMotion:

image

image