Chế độ Promiscuous dùng ở Mạng ảo VMware


Truy cập được bảo mật như thế nào?

Author:
Le Toan Thang

Date: April 2019

Theo lý thuyết thiết kế mạng truyền thống ở 7 tầng network (7 Layers) sẽ có phân bố cấu trúc gói tin như sơ đồ sau:


 

Bên cạnh đó, việc thiết kế cơ chế Security cho Network cũng được bố trí ở mức layer 2 trong VMware như hình sau:



hoặc trong vSwitch


Chính vì các cấu hình lựa chọn trên là mặc định và chúng đúng trong các trường hợp kiến trúc mạng logic, topology thông thường không có Nested, không có Stack switch, hâu như không có sự thay đổi cấu hình Security Network.

Vậy Promiscuous mode sẽ bị thay đổi từ Reject sang Accept khi nào?

Thực chất Promiscuous mode là trạng thái liên lạc giữa Portgroup khác nhau hoặc giữa 2 vSwitch khác nhau hoặc giữa 2 cấp độ vSwitch khác nhau

(Mô hình: 1 ESXi có vSwitch và lại cấp Port group cho 1 VM Nested ESXi có 1 vSwitch ở trong và cần kết nối thông ra vSwitch ngoài), xem 2 mô hình sau:


Hoặc mô hình Nested:


Tham khảo: https://en.wikipedia.org/wiki/Promiscuous_mode

 

Nhu cầu điều chỉnh cấu hình Promiscuous Mode sang Accept là có và cần thiết, đặc biệt trong môi trường Virtual Labs, Nested, Backup Restore Local DC…

Sau đây là các bước cài, cấu hình trên VMware:

Cấu hình Promiscuous cho VMware Port Group:


Bước 1     Chọn máy chủ ESXi thông qua Web vSphere client. Chọn cấu hình à Networking, và sau đó chọn Tab Virtual switches và bấm nút Add standard virtual switch.


Bước 2     The Add standard virtual swicth Wizard xuất hiện. Nhập tên vSwitch, MTU, Add uplink nếu muốn chạy Redundancy network.


Bước 3 ở mục Security, bấm mũi tên và chọn Accept 3 mục như: Promiscuous mode, MAC address changes và Forged transmits


    
 

Bước 4 Bấm nút Add để kết thúc việc tạo vSwitch.    


Bước 5     Tạo Port groups hoặc VMkernel NICs để sử dụng trên vSwitch vừa tạo có cấu hình Promiscuous mode accept.



Bước 6 Tạo Port group cho VM Nested có thể sử dụng     promiscuous traffic, chọn nút Add port group.


Bước 7

Nhập tên Port group, chọn đúng tên vSwitch đã tạo, mục Security để cấu hình thừa hướng theo cấu hình Security của vSwicth đã tạo và bấm nút Add để kết thúc.

   

Bước 8

Để sử dụng lại Port group cho VM Nested, chúng ta sẽ sửa cấu hình Network Port của vmNIC trong máy ảo


Chọn lại tên Network Adapter



 

Ghi chú: Phiên bản HTML5 của vSphere 6.x rất hay bị lỗi mỗi khi ra lệnh Edit Setting, nên thường chúng ta sẽ có màn hình lỗi báo Memory, bạn sẽ cần cancel màn hình edit setting, rồi chọn F5 làm refresh lại màn hình Web vSphere client rồi làm lại bước edit setting VM nói trên.

 

Cấu hình Promiscuous cho VMware VMkernel Port:

Do tính chất bảo mật khác nhau và đảm bảo network performance, nên khi triển khai vSwitch, chúng ta sẽ nên tách các dạng Port group, VMkernel port sẽ nằm trên các vSwitch khác.



Chỉ có 1 lý do duy nhất, vì thiếu card mạng vật lý thì chúng ta mới dùng chung vSwitch như hình dưới:

Bước 1

Chọn máy chủ ESXi thông qua Web vSphere client. Chọn cấu hình à Networking, và sau đó chọn Tab Virtual switches và bấm nút Add standard virtual switch.

The Add standard virtual swicth Wizard xuất hiện. Nhập tên vSwitch, MTU, Add uplink nếu muốn chạy Redundancy network.

ở mục Security, bấm mũi tên và chọn Accept 3 mục như: Promiscuous mode, MAC address changes và Forged transmits


Bước 2

Bấm nút Add để kết thúc việc tạo vSwitch.

Bước 3


 

Tạo VMkernel NICs để sử dụng trên vSwitch vừa tạo có cấu hình Promiscuous mode accept.

Bước 4 Tạo Port group cho VM Nested có thể sử dụng promiscuous traffic, chọn nút Add VMkernel NIC    

Nhập tên Port group, chọn đúng tên vSwitch đã tạo, mục Security để cấu hình thừa hướng theo cấu hình Security của vSwicth đã tạo và bấm nút Add để kết thúc

Bước 5 Nhập IPv4 tĩnh để thiết lập

Giảm kích thước ổ cứng của máy ảo VMware vSphere như thế nào?


Tôi đã chạy WSUS trên máy chủ 2012R2, Windows 10 và ổ đĩa nơi các bản cập nhật có xu hướng tăng dung lượng nhiều. Trên máy ảo, tôi đã tăng kích thước nhầm cho ổ đĩa c: \, đắng nhẽ tôi phải tăng ở ổ dữ liệu và các phần mềm lưu cần cập nhật thường xuyên.

 

Như vậy là tôi đã tăng nhầm ổ C từ 64GB ban đầu thành 260GB, và đắng nhẽ ổ F logic cần tăng lên 260GB. Bây giờ tôi sẽ phải tìm cách hạ kích thước (giảm) ổ C từ 260GB quay về 64GB như lúc trước.

Mở Disk management của máy chủ windows 2012:

 

Bây giờ cách xử lý sẽ như sau:

Bước 1:

  • Ở trạng thái VM đang bật, bạn cần vào HĐH và chạy chế độ Disk de-fragment để chống phân mảnh dữ liệu.
  • Tắt máy ảo VM và xã định đúng vị trí Host và Datastore mà VM đang vận hành, chúng ta cần điều chỉnh ESXi Host cấu hìanh và bật enabled SSH, Shell ESXi và tìm vị trí nơi VM location.

Tham khảo bài viết trước của minh về vấn đề giảm/ thay đổi kích ổ cứng lưu trữ cho VM

Bước 2: Dùng WinSCP (chỉ nhìn thấy file cấu hình ổ cứng .vmdk (kích thước 1KB) trên WINSCP)

Không tìm thấy hoặc không nhìn thấy file cấu hình .vmdk trên WebSphere Client

Bước 3. Lúc này mở file .vmdk bằng Notepag++:

Cấu tạo của vùng mặt đĩa dùng làm nơi chứa dữ liệu:

Bước 4. Sau khi sửa lại thông tin số Sectors

Sau khi lưu lại file .vmdk bạn dùng WINSCP upload lại để cập nhật cấu hình của máy ảo,

Chúng ta có thể tiếp tục việc vMotion Storage để di chuyển máy ảo sang một Datastore khác.

Bước 5. Xem lại cài đặt của vm và lưu ý kích thước đĩa mới đã được thay đổi?


Bước 6. Bật máy ảo và mở Disk Management để kiểm tra kích thước VD thay đổi:


Lưu ý: Có 3 cách để có thể kiểm tra việc thay đổi thành công (giảm kích thước ổ cứng ảo):

  1. Dùng Veeam backup and Replicate Server hoặc Veeam Agent for windows để sao lưu lại máy ảo trên sau khi đã thay đổi giảm kích thước ổ cứng ảo.
  2. Dùng vMotion để di chuyển máy ảo nói trên (sau khi đã thay đổi giảm kích thước ổ cứng ảo) đến Host ESXi khác.
  3. Dùng cách tắt máy ảo sau đó Unregistry VM để gỡ cấu hình VMX, sửa và cập nhật file .VMDK, sau đó lại vào Data Store và Registry VM (add inventory) lại VM.

 

Hãy làm labs để thực hành những bài kỹ thuật phức tạp trên, trước khi đem nó vào thực tiễn.

Chúc các bạn thành công năm 2018!

Bài Labs: triển khai mô hình HA và SSO cho PSC với vCenter site A (Hà nội) và vCenter Site B (HCMC)


Những phiên bản vSphere 5.5 trở về trước chung ta chưa bao giờ xử lý cấu hình và tiết kiểm được chi phí license của vCenter với các ESXi Host của từng hệ thống DC hay còn gọi là từng chi nhánh “site”.

Trong phiên bản từ vSPhere 6.0 trở lên, chúng ta hoàn toàn có thể giải quyết các vướng mắc và tiết kiệm chi phí license khi dựng 1 hệ thống vCenter có nhiều chi nhánh DC ở nhiều hơn 1 site.

Ở đây tôi xin giới thiệu cơ bản về mô hình cấu hình vSphere 6 với 2 site A( đặt tại Hà nội)  và Site B (đặt tại HCMC) thông qua mô hình cấu hình Hệ thống Quản trị trung gian “External PSC”:

Trong đó PSC là Platform Service Controller chỉ có từ vSphere 6.x. Mô hình này tôi dựng toàn bộ là các máy chủ VM Appliance để giảm chi phí license cài trên Windows OS server và MS SQL Server.

Tận dụng tối đa license Open GLN của VMware xây dựng trên Linux SuSe Enterprise Server 11 x64.

image

Một số yêu cầu quan trọng phải chuẩn bị trước:

1. Luôn phải có tới thiểu 1 DNS server để cấu hình các bản ghi A (Host) để forward và PTR để reverse lookup zones.

2. Trong 1 Site A tối thiểu sẽ có 2 máy ảo VM để deployed, 1 là máy  ảo PSC và 1 cái khác là  vCenter nằm trên cùng node.

3. Tất cả 2 máy VM trên đều phải là IPv4 địa chỉ IP tĩnh và có thông tin tên máy theo dạng FQDN (có định danh tên host + tên domain khớp với DNS Server đã khải ở trên bản ghi A, PTR) 

I. Triển khai Platform Services Controller – PSC tại Site A:

Bước 1.

image

Bước 2.

image

Bước 3.

image

*Ghi chú*  Nếu bạn có một domain hiện có trong AD hoạt động ví dụ: xyz.vn.  Bạn đừng nên  sử dụng tên miền này cho vCenter vì miền đó sẽ làm SSO và sẽ khiến bạn nhầm lẫn giữa SSO của vCenter với AD user của bạn khi quản lý thêm hoặc phân quyền người dùng dưới tên miền xyz.com trong vCenter  Administrators.

Bước 4.

image

Bước 5.

image

Bước 6.

image

Bước 7.

image

Bước 8.

image

Bước 9.

image

Bước 10.

image

II. Cài và cấu hình vCenter Appliance tại Site A  (VCVA – Site A):

Bước 1.

image

Bước 2.

image

Bước 3.

image

Bước 4.

image

Bước 5.

image

Bước 6.

image

Bước 7.

image

Bước 8.

image

Bước 9.

image

Bước 10.

image

Bước 11.

image

Bước 12.

image

Bước 13.

image

Bước 14.

image

 

III. Cài đặt và cấu hình vCenter Appliance site B (chi nhánh) chỉ có vCenter và kết nối qua mạng WAN/Internet tới Site A thông qua PSC

Các bước chuẩn bị trước khi cài vCenter tại site B (HCMC):
– Đây là cách cấu hình mở rộng cho phép kết nối PSC từ vCenter 6.x, đây cũng là kiểu cấu hình cho phép nhiều vCenter Servers có thể kết nối tới 1 PSC.
  1. Các vCenter không nằm trên cùng hệ thống với PSC sẽ phải có cấu hình DNS Server (có bản ghi A, PTR của máy chủ vCenter trước khi cài vCenter).
  2. Phải đảm bảo là quản trị site B của HCMC phải biết thông tin chính xác về địa chỉ IP, tên máy chủ và FQDN của PSC tại Hà nội, user admin SSO, mật khẩu và mở NAT cổng 443 của PSC .
  3. Hệ thống mô hình này cũng cho phép có nhiều PSC hơn 1 máy tại HCMC giống với ở Hà nội.
  4. Giải pháp trên cũng hỗ trợ cho vCenter Windows Server.

ví dụ mô hình nhiều vCenter cùng kết nối tới 1 PSC

image

Bước 1.

image

Bước 2.

image

Bước 3.

image

Bước 4.

image

Bước 5.

image

Bước 6.

image

Bước 7

image

Như vậy là chúng ta đã cài đặt xong mô hình mở rộng PSC cho phép kết nối và SSO giữa 2 site A (hà nội) và site B (HCMC).

Chúc các bạn thành công !

IBM Domino Lotus và Lotus Notes Client chạy trên nền Private Cloud như thế nào ?


Phần 1. Cài Domino Lotus 8.5 trên Windows Server 2008 R2:

image

image

image

image

image

 

image

image

image

image

image

image

image

image

image

Bước 2. Chạy khởi động Lotus Domino lần đầu tiên:

image

Bước 3. Điều khiển màn Console Lotus Domino:

image

Màn điều khiển Console Lotus sau khi khởi động lại lần 2

image

 

Phần 2. Cài và Cấu hình Lotus Administrator:

Lưu ý:

– Trước khi cấu hình: phải đảm bảo máy chủ Windows Server 2008 R2 đã cài Domino Lotus sẽ không cài và chạy IIS trên đó.

hoặc nếu đã cài IIS/ Apache Tomcat hoặc PHP Server thì phải cấu hình các Port Web Default chuyển sang port khác 80 (để nhằm tránh conflict với các cổng và dịch vụ của Lotus Domino cài lên).

image

Bước 4. Cài Lotus Administrator

image

image

image

image

image

image

image

Phần 3. Cấu hình Lotus Administrator kết nối Lotus Domino trên các máy chủ ảo

image

image

image

Lưu ý:

– Trước đó bạn cần phải download các key ID của Admin về máy đã cài Lotus Notes Client.

image

– Máy chủ windows Server 2008 R2 cần mở firewall Port (Lotus Domino RPC 1352)

image

Tiếp tục phần cấu hình IBM Lotus Notes 8.5.2 trên máy chủ AT-BOX Media

image

image

Sau khi kết nối thành công với máy chủ IBM Lotus Domino thông qua cổng TCP 1352

image

Chúng ta cần Key ID của Admin để tạo cấu hình kết nối

image

image

Nhập mật khẩu Admin đã cài trên máy chủ Lotus Domino ở phần 1

image

Tiếp theo, nếu bạn đã có máy chủ SameTime Lotus thì cần phải mở cổng 1533 TCP/IP

ở đây tôi không dùng SameTime nên bỏ qua

image

Khai báo Mail

image

image

image

image

image

image

Bên màn hình của Lotus Domino Server bạn sẽ thấy

image

Bên màn hình của Lotus Notes Client 8.5.2 sẽ thấy

image

Phần 4. Mọi thứ vận hành trên máy chủ

– Người dùng chỉ có Trình duyệt web, mọi hệ điều hành và thiết bị khác nhau đều dùng được.

– Không cài Notes Client trên máy cá nhân vì An ninh , an toàn thông tin, mọi thứ có trên máy chủ.

– Máy cá nhân là các thiết bị đồng bộ, cấu hình không cần cao, có thể di động như Smartphone, NUC, Compute Stick..

Mô hình kiến trúc đó là:

 

ECORAIL_LotusDomino

 

Chúc các bạn thành công, tìm ra được công nghệ mới trên Cloud để cải tổ công nghệ sản phẩm và ứng dụng nó vào đời thực tế hoạt động của Doanh nghiệp mình !

 

Trân trọng cảm ơn các bạn đã theo dõi !

Sửa như thế nào khi gặp lỗi không cấu hình thêm Storage DISK/LUN cho ESXi host 5.x ?


Trong khi làm việc với vSphere 5.5 trong phòng Labs hàng ngày, tôi đã cố gắng để tạo ra một Data Storage mới từ chuẩn ổ cứng SATA theo định dạng của ESXi 5.x VMFS5 local.

Mỗi lần tôi cố gắng để làm điều đó thì toàn là nhận được màn báo lỗi sau:

Call “HostDatastoreSystem.CreateVmfsDatastore” for object “ha-datastoresystem” on ESXi “ip của ESXi host” failed.

image

Sau một hồi lâu mò mẫm các vấn đề lỗi xung quanh, tôi đã nghĩ đến ổ cứng này đã được dùng cho một số việc khác trước đó đã có dữ liệu phân vùng như: MBR, ext2,3 … Như vậy, tôi cần phải làm sạch sẽ lại cái ổ cứng này trước khi cho nó về phân vùng ESXi VMFS5.

Điều đó đã thực sự giải quyết được vấn đề. Lỗi này có thể xảy ra nếu bạn có một hệ thống tập tin trên mà LUN / Disk của ESXi không hiểu, không thể ghi đè lên hoặc nếu bạn không có một quyền truy cập đầy đủ vào Disk / LUN.

Cách xử lý:

Lưu ý: Trong các phiên bản trước của ESXi, lệnh fdisk đã được sử dụng thường xuyên trong một số tình huống như vậy, mặc dù nếu bạn thử nó trong vSphere 5.x, bạn sẽ nhận được thông báo lỗi sau đây:

*** The fdisk command is deprecated: fdisk does not handle GPT partitions. Please use partedUtil ***

image

Tôi đã tìm ra được lỗi và cách sử dụng tool bằng lệnh partedUtil thay vì fdisk để lau sạch đĩa đó để có thể sử dụng nó cho ESXi.

Chỉ cần gõ một dòng lệnh sẽ lau sạch đĩa đó:

#PartedUtil mklabel /dev/disks/<disk id> msdos

ví dụ:

#partedUtil mklabel /dev/disks/t10.ATA____WDC_WD5000AK52000UU340___________WD2DWCAYU6597660 msdos

image

Lưu ý: trong trường hợp bạn cần tìm ra id disk trước khi format, tất cả t chỉ cần chạy lệnh sau đây để hiển thị ra id disk:

#ls /dev/disks

Sau khi xóa được các format trong LUN / Disk sạch sẽ, bây giờ bạn sẽ có thể sử dụng nó để tạo ra VMFS 5 cho datastore mới vào ESxi Host bằng cách thêm nó thông qua vSphere Client.

Hy vọng điều này sẽ giúp đỡ các bạn đang gặp khó khăn.

 

Tham khảo KB của VMware: http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2007328 

 

Ngoài phương pháp xử lý lỗi trên, còn có trường hợp nâng cấp phiên bản ESXi 5.5 lên ESXi 6.0

P.S: Rất tiếc phần này chỉ công bố trong chương trình đào tạo RICM 6.x.

Các bạn hãy đăng ký tham gia các khóa học của http://robusta.vn để được trải nghiệm, hỗ trợ và thực hành tốt hơn.

Chúc các bạn thành công !

Làm thế nào để cấu hình Nested ESXi 6.0 có thể hỗ trợ bật EVC Clusters


Hiện trạng:

– Các trung tâm đào tạo CNTT, viễn thông và các ngành đào tạo liên quan tới việc áp dụng trang thiết bị CNTT đều vướng vào việc phải đầu tư phòng Labs.

– Các mô hình Labs thực hành truyền thống đều vướng tới giải pháp phần cứng, phần mềm từ đơn giản đến chuyên biệt.

– Các thiết bị phần cứng thì đầu tư phải phù hợp với số lượng người học,cấu hình phải tối ưu và có thể co giãn “sizing” thu hẹp hoặc tăng trưởng đáp ứng với lượng người học và yêu cầu của phần mềm.

– Các phần mềm đầu tư phải đáp ứng nhu cầu người học trong nhiều giai đoạn vận hành (có đầu tư thay thế mới, có bản quyền, có người quản trị vận hành chuyên nghiệp, có chuyên gia am hiểu và có kỹ năng vận hành các phần mềm…)

– Chi phí tiền điện, điều hòa, hạ tầng và chi phí duy trì hệ thống máy chủ, máy trạm người dùng và các thiết bị mạng cũng không có gì là nhẹ nhàng, gánh nặng chi phí cho Doanh nghiệp khi vận hành.

– Chạy theo các đối tác tiêu chuẩn đạt “Quốc tế”  mà ngày nay người ta gọi là “hố đen hay cạm bẫy thời Công nghệ”.

Giải pháp của thế giới:

– Ảo trong ảo “VMware ESXi Nested”.

 

Các trung tâm đào tạo Viet nam:

  • Doanh nghiệp Việt nam nói chung là tư duy cởi và mở, luôn xác định phải hoành tráng để cạnh tranh được với các “đối thủ khác” thì phải có phòng Labs hoành.
  • Máy chủ, máy trạm phải hoành, cấu hình “khủng”.
  • Tiền chi phí điện, điều hòa làm mát, tất nhiên sẽ phải “Khủng”.
  • Chi phí chiêu sinh nhiều lúc cũng phải “siêu thấp, phá giá để các đối thủ mất khách, cơ hội về mình cao hơn…”.

Tóm lại:

– Nhìn vào mấy gạch đầu dòng trên, tôi nghĩ tưởng ngay đến việc các trung tâm đào tạo Việt nam đang đầu tư theo kiểu: đầu vào chi phí lớn, đầu ra doanh thu nhỏ và tự làm nó teo tóp, bấp bênh.

– Vậy Công nghệ thông tin các bạn Doanh nghiệp cho nó đi đâu về đâu rồi, giải pháp trong ngành đào tạo ở Việt Nam coi như không áp dụng, hay chỉ là bề ngoài phòng Labs hoành tráng phù phiếm.

 

Luận thuyết:

Gần đây tôi đã viết một số bài về việc chạy ESXi lồng nhau “nặp tổ” hay còn gọi là “Nested ESXi” nhưng tất cả đều vướng vấn đề vMotion EVC (Enhanced vMotion Compatibility). Trong vSphere 4.x, bạn không thể join các máy chủ ESXi lồng nhau thành một cụm với EVC kích hoạt. Với vSphere 5, có thực sự là một cách dễ dàng để kết nối lồng nhau giữa 2 hoặc nhiều máy chủ ESXi 5.x ? để một cụm EVC kích hoạt và vẫn còn tổng hợp sức mạnh trên nền 64bit  GuestOSes. Bữa nay tôi viết chi tiết bài này nhằm cấu hình kích hoạt EVC trên tổ hợp các máy chủ ESXi Host 6.0 đã được lồng nhau. Theo bạn chúng có khoai chiên hơn không ?

 

Mục đích chính:

Hiện tại chúng tôi đang giảng dạy hệ thống ảo hóa trên cả các máy chủ Vật lý  Pi / pServer và máy chủ ảo trong ảo ESXi Nested (mục đích giảm giá thành các khóa học Công nghệ cao, cần ảo hóa và tối ưu nhằm tăng thêm được nhiều bài thực hành trong các lĩnh vực khoa học khác nhau)  .

Tôi phải cảm ơn các bạn học trò, các bạn học viên đã cùng tôi học các bộ môn chính khóa ảo hóa của VMware ICM 5.5 / 6.0 và các giảng viên, các trợ giảng và các kỹ sư thực hành trong các Doanh nghiệp đã cùng nêu ra các vấn đề tồn tại, vướng mắc của công nghệ ảo hóa, những ý kiến vô cùng cần thiết nhằm giúp tôi kiên định theo đuổi và tìm ra những kẽ hở, lỗi và những vướng mắc cần vượt qua.

Điều khẳng định:

– Vẫn như mọi khi, những thứ vướng mắc này đều không nằm trong những gì dạy dỗ hay bài giảng chính thức của VMware.

– Các bạn sẽ gặp phải các nguy cơ rủi ro của riêng bạn.

 

Dưới đây là các bước thực hiện:

Bước 1. Bạn phải chạy vSphere 6, tạo một cụm tối thiểu 2 máy chủ ESXi 6 lồng nhau.

Lưu ý: Các máy chủ ESXi host 6.0 lồng nhau cần phải bật cả chế độ VT/HT trước khi bật chạy, hãy xem bài:

Lỗi dựng hệ thống vCenter Server Appliance 64bit trên nền ESXi Host Nested 6.x

Bước 2. Tạo mới một cụm EVC kích hoạt hoặc sử dụng một cụm CPUID hiện có để giúp bạn chọn lựa nhanh cái bạn muốn và nhấp vào “Current CPUID chi tiết” trong cài đặt cluster.

image

Chọn mục VMware EVC

image

 

 

eax 0000:0000:0000:0001:0000:0110:1010:0100

ecx 0000:0000:1001:1000:1110:0010:0011:1101

edx 1000:1111:1110:1011:1111:1011:1111:1111

ecx 0000:0000:0000:0000:0000:0000:0000:0001

edx 0010:1000:0001:0000:0000:1000:0000:0000

eax 0000:0000:0000:0000:0000:0000:0000:0000

ecx 0000:0000:0000:0000:0000:0000:0000:0000

edx 0000:0000:0000:0000:0000:0000:0000:0000

 

 

Bước 3. Sao chép các lá cờ “flag” có trong CPUID Mask của cụm EVC đã được kích hoạt trên vào 1 file txt để bạn có thể dùng nó trong các bước tiếp theo

image

Bước 4. Shutdown các máy chủ ESXi 6 đã chạy ảo trong ảo “lồng nhau” và bắt đầu chỉnh sửa các thiết lập của VM, chọn “Options” tab, kích vào “CPUID Mask-> Advanced”.

– Phải shutdown ESxi host 6.0 trước khi cấu hình CPUID

image

– Bấm nút Advanced để cấu hình các lá cờ “Flags” của CPUID Mask theo đúng EVC đã được sao chép ra file text.

image

 

Bước 5. Bắt đầu copy / paste các thông số từ file text (lưu ý phải đúng vị trí các Flags tương ứng).

image

Bước 6.

Sau khi đã đưa các thông số CPUID mask vào cho từng máy chủ ESXi 6 Nested rồi, bạn hãy bật các máy chủ ESXi host đó lên.

Hãy dùng vSphere Client 6 hoặc Web Sphere client 6 để cấu hình Clusted cụm các máy chủ ESXi host 6 Nested, bật VMware EVC nên và chạy các tính năng vMotion EVC.

 

Bạn biết đấy, bây giờ thì tôi đang ngồi chờ đợi trước màn kết quả của các bạn rồi Nụ cười.

Đấy đúng không phải là công nghệ VMware ;( .

Chúc bạn thành công !

Di chuyển máy ảo bằng chức năng Migration vMotion trong vSphere 5.x với nhiều card NIC


Câu hỏi: Làm thế nào để bạn cài đặt nhiều card mạng vật lý cho việc tăng công suất di chuyển máy ảo vMotion?

Tôi đã từng gặp trường hợp này khi hỗ trợ các Doanh nghiệp thực tế cần chuyển từ hạ tầng Vật lý sang hệ thống ảo hóa, và vừa kết thúc buổI dạy tuần qua học viên của tôi làm tại Doanh nghiệp Dịch vụ Thanh toán Ngân hàng cũng gặp phải trường hợp trên đây.

Tôi nghĩ đây là vấn đề có giá trị và tôi cần giải thích làm thế nào để làm điều này (cách làm này là nhiều người gặp phải hoặc ít tương tự như cách bạn sẽ thiết lập iSCSI với nhiều vmknic)

Nhiều hay ít card mạng và vmkernel-nic là có một sự khác biệt rõ rệt.

Các bạn nên tham khảo bàI viết trên VMware KB bài viết đã được xuất bản có kèm video.

Cách thực hiện cho trường hợp dùng virtual Standard Switch “vSS”:

Bạn sẽ cần phải ràng buộc mỗi Interface VMkernel (vmknic) kết nốI port group tới một card mạng NIC vật lý (Uplink).

Nói cách khác:

  • Tạo một giao diện VMkernel và cung cấp cho nó với cái tên “vMotion1”.
  • Mở các thiết lập của Portgroup này và cấu hình 1 NIC vật lý cho phép kết nốI với cổng portgroup đó ở trạng thái hoạt động “Active” card Nic vật lý còn lạI ta chuyển sang trạng tháI chờ “stand by” (xem ảnh chụp màn hình dưới đây làm ví dụ).
  • Tạo một VMkernel Giao diện thứ hai và đặt tên cho nó “vMotion2”.
  • Mở thêm tiếp các thiết lập của Portgroup thứ 2 và cấu hình 1 NIC vật lý khác cho phép kết nốI vớI cổng portgroup đó ở trạng tháI hoạt động “Active” và card Nic vật lý còn lạI chuyển sang chế độ chờ “standby”.

 

Bây giờ thì bạn có thể  bắt đầu sử dụng chạy tính năng vMotion vớI nhiều NIC cùng được sử dụng đồng thời (Hãy nhớ rằng ngay cả khi bạn di chuyển vMotion chỉ 1 máy ảo thì cả hai liên kết vMotion đó sẽ được sử dụng).

Ngoài ra, nếu bạn không có các liên kết chuyên dùng cho vMotion bạn có thể muốn xem xét việc sử dụng mạng I/O điều khiển. vMotion có thể bão hòa một liên kết và ít nhất là khi bạn đã thiết lập Mạng I/O điều khiển và giao đúng số lượng cổ phần từng loại của lưu lượng truy cập sẽ được gán với từng card mạng cụ thể.

image

Video tham khảo: https://youtu.be/7njBRF2N0Z8 

 

Cách thực hiện cho trường hợp dùng virtual Distribution Switch “vDS”:

Đối với những người sử dụng dvSwitches: Bạn sẽ cần phải tạo ra hai dvPortgroups. Những portgroup đó cũng sẽ cần kết nốI vớI Card NIC vật lý “hoạt động / chế độ chờ”  kiểu tương tự với vSS vàlà hình thức cấu hình mạng (Teaming và Failover).

Sau đó bạn sẽ cần phải tạo ra hai adapter ảo và kết nốI từng card NIC trong số này đến một dvPortgroup cụ thể.

Video tham khảo: https://youtu.be/n-XBof_K-b0

 

Chúc các bạn thành công !