Sửa như thế nào khi gặp lỗi không cấu hình thêm Storage DISK/LUN cho ESXi host 5.x ?


Trong khi làm việc với vSphere 5.5 trong phòng Labs hàng ngày, tôi đã cố gắng để tạo ra một Data Storage mới từ chuẩn ổ cứng SATA theo định dạng của ESXi 5.x VMFS5 local.

Mỗi lần tôi cố gắng để làm điều đó thì toàn là nhận được màn báo lỗi sau:

Call “HostDatastoreSystem.CreateVmfsDatastore” for object “ha-datastoresystem” on ESXi “ip của ESXi host” failed.

image

Sau một hồi lâu mò mẫm các vấn đề lỗi xung quanh, tôi đã nghĩ đến ổ cứng này đã được dùng cho một số việc khác trước đó đã có dữ liệu phân vùng như: MBR, ext2,3 … Như vậy, tôi cần phải làm sạch sẽ lại cái ổ cứng này trước khi cho nó về phân vùng ESXi VMFS5.

Điều đó đã thực sự giải quyết được vấn đề. Lỗi này có thể xảy ra nếu bạn có một hệ thống tập tin trên mà LUN / Disk của ESXi không hiểu, không thể ghi đè lên hoặc nếu bạn không có một quyền truy cập đầy đủ vào Disk / LUN.

Cách xử lý:

Lưu ý: Trong các phiên bản trước của ESXi, lệnh fdisk đã được sử dụng thường xuyên trong một số tình huống như vậy, mặc dù nếu bạn thử nó trong vSphere 5.x, bạn sẽ nhận được thông báo lỗi sau đây:

*** The fdisk command is deprecated: fdisk does not handle GPT partitions. Please use partedUtil ***

image

Tôi đã tìm ra được lỗi và cách sử dụng tool bằng lệnh partedUtil thay vì fdisk để lau sạch đĩa đó để có thể sử dụng nó cho ESXi.

Chỉ cần gõ một dòng lệnh sẽ lau sạch đĩa đó:

#PartedUtil mklabel /dev/disks/<disk id> msdos

ví dụ:

#partedUtil mklabel /dev/disks/t10.ATA____WDC_WD5000AK52000UU340___________WD2DWCAYU6597660 msdos

image

Lưu ý: trong trường hợp bạn cần tìm ra id disk trước khi format, tất cả t chỉ cần chạy lệnh sau đây để hiển thị ra id disk:

#ls /dev/disks

Sau khi xóa được các format trong LUN / Disk sạch sẽ, bây giờ bạn sẽ có thể sử dụng nó để tạo ra VMFS 5 cho datastore mới vào ESxi Host bằng cách thêm nó thông qua vSphere Client.

Hy vọng điều này sẽ giúp đỡ các bạn đang gặp khó khăn.

 

Tham khảo KB của VMware: http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2007328 

 

Ngoài phương pháp xử lý lỗi trên, còn có trường hợp nâng cấp phiên bản ESXi 5.5 lên ESXi 6.0

P.S: Rất tiếc phần này chỉ công bố trong chương trình đào tạo RICM 6.x.

Các bạn hãy đăng ký tham gia các khóa học của http://robusta.vn để được trải nghiệm, hỗ trợ và thực hành tốt hơn.

Chúc các bạn thành công !

Phương pháp đo tốc độ VMs trong hạ tầng VDI truy xuất ổ cứng trên Storage SAN/NAS


Nhiều bạn thắc mắc về vấn đề kiểm soát tốc độ truy cập ổ cứng của các VMs hoặc đưa ra khá nhiều câu hỏi như:

  1. Mức độ chịu tải truy cập của 1 ổ cứng SSD, HDD, IDE, SATA I/II/III trên hệ thống Share Storage , NAS, SAN được tính toán như thế nào ?
  2. Làm thế nào biết được có bao VMs chạy được cùng đồng thời trên các ổ cứng SSD, IDE, SAS, SATA ?
  3. Làm thế nào đo được mức độ tối ưu “Performance Virtual disk” khi triển khai các máy ảo trên hạ tầng VDI ?

Để trả lời cho các câu hỏi dạng tính toán tối ưu nói trên rất phức tạp, thậm chí là khó chính xác, xong để đi tới tận cùng của đáp án, chúng ta phải bắt đầu tư logic căn bản nhất, đó là sử dụng công cụ tính toán mô phỏng và ra đáp số cho từng câu hỏi trên.

Tôi xin giới thiệu công cụ tính toán mô phỏng giữa lý thuyết và thực hành để giải đáp phần nào các câu hỏi của các bạn, thực tế nó cũng chính là những bước làm việc nghiên cứu căn bản trước khi triển khai VDI của chúng tôi.

1. Mô hình tính toán tốc độ và tối ưu hệ thống VDI:

Công cụ cung cấp tính toán đo lường được hiệu suất VDI, nó chính là chìa khóa để hiểu

I/O thực hiện khi tạo cấu trúc VDI.

– Iometer được coi là công cụ tiêu chuẩn khi bạn muốn kiểm tra tải trọng trên một hệ thống lưu trữ. Trong khi có rất nhiều công cụ có sẵn, cân bằng giữa khả năng sử dụng của Iometer và chức năng đo lường. Tuy nhiên, Iometer có phương pháp mô phỏng rất nhanh gọn và dễ dùng và tôi xin viết ngắn gọn để hiển thị một cách chính xác làm thế nào bạn nên sử dụng Iometer để có được kết quả tốt nhất, đặc biệt là khi thử nghiệm cho các môi trường VDI.

Ngoài ra, Tôi cũng sẽ cho bạn thấy làm thế nào để ngăn cản khả năng một ai đó đang cố tình sử dụng Iometer để đưa ra các kết quả đánh lừa bạn.

Iometer không đòi hỏi cơ sở hạ tầng ngoài 2 phần mềm chạy trên OS, bạn có thể sử dụng nó để nhanh chóng xác định hiệu suất hệ thống lưu trữ. Trong trạng thái cài đặt và chạy ngay lập tức trên một máy tính để bàn (thuộc hệ thống VDI hoặc RDS).

– Thông tin phân tích về  I/O sẽ được tính trên hai thông số chính R/W tức là tốc độ đọc/ghi của ổ cứng  (khoảng 80% /20% ghi / đọc; 80%/20% ngẫu nhiên / tuần tự và cuối cùng là thông tin về khối kích thước của đọc / viết sẽ được tính trong khối 4k/8k tương đương như xem phim Full HD 4K / 8k của youtube). Kích thước khối trong một cửa sổ khối lượng công việc thực hiện khác nhau giữa 512B và 1MB, nhưng phần lớn sẽ được ở 4K/8K.

– Nhưng Iometer không cho phép một kích thước khối hỗn hợp trong quá trình thử nghiệm, nên tôi sẽ sử dụng một dạng khối 4K liên tục (không dùng 8K hoặc hơn).

Tóm lại: Điều đó cho thấy rằng, khi dùng Iometer là tốt cho việc phân tích hiệu suất hệ thống lưu trữ, nếu bạn cần mô phỏng một khối lượng công việc lớn hơn trong thực tế cho môi trường VDI của bạn, tôi khuyên bạn nên sử dụng công cụ này được cài đặt tương thích trong Login VSI hoặc DeNamik.

2. Sơ đồ Thực nghiệm:

Tắc nghẽn “thắt cổ chai” cho ra phép tính hiệu suất trong VDI

Iometer thường được chạy từ bên trong một cửa sổ của máy trạm được cài “sử dụng ổ cứng”  trên những hệ thống lưu trữ như: DAS, NAS, SAN thông qua các giao thức như: FC, FCoE, iSCSI, NFS, SMB. Điều này có nghĩa rằng có rất nhiều lớp giữa nó và lưu trữ như chúng ta thấy dưới đây:

image

Nếu chúng ta muốn kiểm tra hiệu năng của việc lưu trữ, lưu trữ phải là nút cổ chai. Điều này có nghĩa là phải có nguồn lực đủ lớn “dạng lũ ống” trong tất cả các lớp khác để xử lý lưu lượng truy cập.

Tác động hiệu quả của “Công nghệ tự định hướng và đề xuất” giúp đo lường Hiệu suất lưu trữ

Nếu máy ảo VM của bạn được cấp quyền sử dụng thông qua công nghệ ảo Citrix Provisioning Services (PVS), Citrix máy Dịch vụ kiểm soát (MCS) hoặc VMware View Clones Link, bạn sẽ nhận được phương pháp thực nghiệp “bottlenecked” bằng “công nghệ tự đề xuất” mà tôi đang nói đến.

– Bạn thử nghiệm với Iometer so sánh trên chính các ổ Virtual Disk cài OS bootable ví dụ: C: ổ đĩa của một máy ảo được cung cấp duy nhất, bạn sẽ không có được cái nhìn đầy đủ về hiệu suất lưu trữ khi các lượng lưu trữ thay đổi hoặc có các I/O Workload được xử lý.

Bạn không thể đo lượng IOPS tối đa từ một máy ảo duy nhất, hoặc 1 ổ cứng bootable OS duy nhất trên 1 VM vì ngoài tham số trực tiếp trên 1 VM bạn sẽ gặp các vấn đề về tranh chấp tài nguyên giữa các VM khi chúng cùng cố gắng để lưu trữ “stress-test”.

– Tôi sẽ luôn luôn thêm một ổ đĩa thứ hai vào máy ảo và kiểm tra Iometer chống lại một ổ đĩa cứng thứ hai như thể sẽ có khả năng by-passes qua được các vấn đề áp dụng cho PVS / MCS / VMware view Linked Clones.

Tóm lại: Trong 99% các trường hợp tôi sẽ thực sự kiểm nghiệm chứ không phải kiểm tra đối phó để tìm ra kết quả thông thường trên VM có OS Windows 7. Bởi điều này có nghĩa là một máy ảo mới được cài đặt từ đầu, không join domain và chỉ có các công cụ hypervisor thích hợp cài đặt như: VMware Tool Installer, VM Hyper-V Tool.

Hãy nhớ rằng, Iometer được thiết kế để kiểm tra lưu trữ. Bằng cách kiểm tra với một VM nằm trong môi trường ảo VDI, bạn sẽ có đường cơ sở phân tích hiệu suất lõi của VDI. Từ đó bạn có thể vào thử nghiệm một máy ảo cấu hình đầy đủ; và bây giờ bạn có thể hiểu được tác động của các trình điều khiển lọc AV, được cung cấp bởi các dòng liên kết, hoặc phần mềm / agent/ plug-in khác v.v.  nhằm xác định chính xác hiệu suất lưu trữ.

3. Sử dụng Iometer để thử nghiệm VDI: lợi thế và nhược điểm

Trước khi chúng ta chuyển sang các thiết lập cấu hình thực tế bằng Iometer, tôi muốn nói một chút về các tập tin thử nghiệm mà Iometer tạo để tạo “lũ ống” cho I/O. Tập tin này được gọi là iobw.tst và là lý do tại sao tôi khoái cũng là ghét Iometer. Nó là nguồn gốc để hình thành lên Iometers, lỗi lớn nhất và cũng là lợi thế lớn nhất của nó.

1. Lợi thế: Iometer có thể tạo ra bất kỳ kích thước của tập tin thử nghiệm mà bạn thích để đại diện cho các kịch bản thử nghiệm mà bạn cần. Khi chúng ta nói về một hệ thống VDI duy nhất có 100 máy ảo Win 7, hoặc 8 máy chủ ảo dòng  RDS, kích thước của các I/O ‘làm việc thiết lập “phải là ở mức tối thiểu, kích thước tổng thể của các bộ nhớ phân trang pagefiles: vì đây sẽ là một tập hợp các dữ liệu duy nhất mà luôn được sử dụng.

Vì vậy, nếu 1 VDI có 100 máy ảo Win 7 có cấu hình 1GB RAM, kiểm tra tập tin này sẽ có ít nhất 100GB và  cộng thêm 8 máy chủ ảo RDS có cấu hình 10GB RAM, nó sẽ có ít nhất 80GB.

Các thiết lập làm việc thực tế của dữ liệu có thể sẽ cao hơn nhiều so với điều này, nhưng tôi chỉ xin nói về mức tối thiểu.

Điều này có nghĩa rằng nó sẽ rất khó khăn cho một Storage array hoặc RAID để giữ làm việc thiết lập trong bộ nhớ cache.

Iometer cho phép chúng ta thiết lập các tập tin thử nghiệm với một kích thước bất kỳ sẽ bắt chước như một thiết lập làm việc bình thường. Trong thực tế, tôi đã tìm thấy rằng một tập tin thử nghiệm 10-20GB là đủ để bắt chước một cách chính xác lưu lượng trên máy VDI duy nhất. Nếu bạn vẫn cần nhận được kết quả lớn hơn từ lưu trữ của bạn, chúng ta hoàn toàn có thể tăng kích thước của tập tin thử nghiệm này.

2. những bất lợi: iobw.tst có thể bị lỗi. Nếu bạn thay đổi kích thước các tập tin mà không xóa, nó không thay đổi kích thước (nó chưa có lỗi) và nếu bạn xóa các tập tin mà không đóng “Close Iometer”, Iometer sẽ bị treo.

Ngoài ra, nếu bạn không chạy Iometer as administrator, Windows 7 sẽ đặt các tập tin iobw.tst trong hồ sơ cá nhân “user profile data” thay vì thư mục gốc của C :. OK, đó không phải là về mặt kỹ thuật lỗi căn bản của Iometer, nhưng nó vẫn còn gây phiền nhiễu nếu bạn không làm đúng quỳ trình.

 

4. Cấu hình khuyến cáo dùng Iometer tính toán VDI:

image

 

Số lượng Workers chủ yếu là số lượng các threads được sử dụng để tạo ra các yêu cầu I/O, tuyển thêm Workers sẽ bổ sung độ trễ, nó cũng sẽ bổ sung thêm một lượng nhỏ amount trong tổng số I/O. Chúng ta chỉ xem xét 4 works để có sự cân bằng tốt nhất giữa độ trễ và IOPS.

Chọn máy tính có nghĩa là tất cả các Workers đều được cấu hình cùng một lúc, bạn có thể kiểm tra xem các Workers được cấu hình một cách chính xác bằng cách chọn từng workers riêng lẻ để kiểm tra.

Các ổ đĩa thứ hai nên được sử dụng để tránh các vấn đề với trình điều khiển lọc AV / dự phòng v.v. trên ổ C: (mặc dù Iometer luôn luôn nên được chạy trong một cấu hình cài đặt ngầm định).

Số lượng các thành phần cung cấp cho bạn kích thước của tập tin thử nghiệm, điều này là cực kỳ quan trọng như được đề cập ở trên. Bạn có thể sử dụng các trang web sau đây để xác định các chuẩn kích thước GB sectors:

http://www.unitconversion.org/data-storage/blocks-to-gigabytes-conversion.html

Các kích thước được sử dụng trong ví dụ để có được 10-20GB là 21.943.040  – 41.943.040 sectors.

Lý do cho việc cấu hình vượt  trên 16 I/O tương tự như số lượng Workers  tăng I/O sẽ làm tăng độ trễ trong khi tăng nhẹ IOPS. Như với việc tăng Workers, tôi nghĩ rằng 16 là một sự thỏa hiệp tốt. Bạn cũng có thể tham khảo bài viết sau đây liên quan đến con số I/O ngon lành: http://communities.vmware.com/docs/DOC-3961

Network Target Tab: không có gì thay đổi.

Thông số truy cập:

image

Để cấu hình một khối lượng công việc bắt chước một máy tính để bàn, chúng ta cần phải tạo ra một đặc điểm kỹ thuật mới.

image

Các thông số kỹ thuật truy cập mới cần phải có các cài đặt sau. Điều này đảm bảo rằng các mô hình thử nghiệm là thống nhất và phù hợp nhất có thể trong một khối lượng workload của VDI. Các thiết lập là:

 

  • 80% Viết

  • 80% Random

  • Block 4K

  • Ranh giới truy cập tới hạn mức 128K, điều này có lẽ là quá mức cần thiết và 4K sẽ là tốt, nhưng nên loại bỏ bất kỳ vấn đề chỉnh đĩa.

  • Những tham số trên là phức tạp, bạn có thể tìm hiểu qua link:  http://www.atlantiscomputing.com/win7iops 

    image

    Sau đó, bạn nên thêm các thông số kỹ thuật truy cập cho việc quản lý.

    image

     

    Lưu ý: Tôi chỉ cấu hình thử nghiệm để chạy trong vòng 30 giây, kết quả sẽ được nhận sau khoảng thời gian đó. Quan trọng hơn, nếu bạn đang thử nghiệm trên SAN, Iometer khi cấu hình một cách chính xác sẽ sơi tất cả các hiệu suất SAN của bạn. Vì vậy, nếu bạn đang có khối lượng công việc khác trên SAN của bạn, chạy Iometer trong một thời gian dài sẽ ảnh hưởng nghiêm trọng tới chúng.

    image

     

    Thiết lập Update Frequency (seconds) để xem kết quả diễn ra.

    Thiết lập ‘Results Since’ để chọn ‘Start of Test’ bạn sẽ nhận được các giá trị tính a reliable average.

    Cả 2 giá trị Read và Write tính giá trị trung bình. response times (Latency) là rất cần thiết.

    Bạn nên lưu kết quả ra 1 file csv, nó sẽ lưu tất cả các kết quả mà bạn đang cần thực nghiệm.

    Lưu cấu hình

    Bạn nên lưu lại cấu hình để sử dụng sau này bằng cách nhấn vào biểu tượng ổ đĩa. Điều này sẽ tiết kiệm cho bạn phải cấu hình lại Iometer mỗi lần chạy thử nghiệm mà bạn làm. Các tập tin được lưu dưới dạng * .icf ở một vị trí lựa chọn của bạn.

    Giải thích kết quả

    iometer_result

    Các giá trị nói về IOPS càng cao thì càng tốt, chính là dòng “Total I/Os per Second” và nó phải được tính toán trên một độ trễ hợp lý, bất kỳ điều gì được thực hiện dưới < 5ms là vô cùng tốt.

    Đối với IOPS tối đa có thể cho một trục số trễ là 200ms, bạn nên kiểm tra kỹ kết quả đừng đi theo suy đoán, dự đoạn giá trị. ví dụ: Đối với một ổ SSD, bạn có thể có được từ 3 – 15.000 IOPS tuỳ thuộc vào độ trống rỗng của ổ cứng đó, nó sẽ như thế nào với việc sử dụng và mức độ tốn kém tới đâu khi phải phục vụ nhiều VM trong VDI ? do vậy, bạn nên kiểm tra kỹ lưỡng hiệu suất sử dụng và lưu trữ.

    Bạn không cần phải chia IOPS cho bao nhiêu máy VM hoặc kiểm tra thông lượng, lượng đọc, ghi v.v. vì chúng ta đã biết fix IOmeter đọc 20%, ghi 80% rồi (phần cấu hình ở trên).

     

    Làm thế nào bạn có thể kiểm tra một người nào đó sử dụng công cụ nào đó để lừa bạn về hiệu suất Lưu trữ ?

    –  Nếu các bạn không để mắt đến chuyện hiệu suất “Performance and sizing” hoặc bạn chưa bao giờ được ROBUSTA đào tạo, hoặc nói thẳng bạn chưa bao giờ có ý định học hỏi ở chúng tôi, bạn sẽ không có nhiều kỹ năng, chia sẻ kinh nghiệm, Bạn sẽ luôn nhận được kết quả  hiển thị chữ “thất bại” làm đại diện cho bạn.

    – Dưới đây là một danh sách những thứ để kiểm tra khi có ai đó đang hiển thị cho bạn một kết quả trong mơ.

  • Điều gì làm nên kích thước của các tập tin thử nghiệm có trong Windows Explorer / Linux Explorer ?
  • – Nó cần phải được thử nghiệm rất lớn (tối thiểu 10- 20GB) bởi ảo hoá đồng nghĩa sẽ có các file VMDK, VHD siêu lớn.

  • Làm thế nào xác định tuần tự các khối lượng công việc Workloads cho các bộ vi xử lý CPU ?
  • – Chúng nên xử lý tuần tự, dễ dàng hơn đó là để hiển thị kết quả tốt hơn cho IOPS và kiểu Passthrough. (Nó nên được đặt ở mức tối thiểu là 75% – 80% so với ngẫu nhiên)

  • Kích thước khối “block size” là gì?
  • – Windows có một kích thước khối 4K, VMware VMFS có kích thước 8K – 18K, bất cứ điều gì khác không phải là một cách kiểm tra có liên quan và có thể giúp chúng ta xác định đúng các nhà cung cấp thiết bị chuẩn.

     

    Chúc các bạn tiến bộ không ngừng ở ngành CNTT VDI !

    Làm thế nào để cấu hình Nested ESXi 6.0 có thể hỗ trợ bật EVC Clusters


    Hiện trạng:

    – Các trung tâm đào tạo CNTT, viễn thông và các ngành đào tạo liên quan tới việc áp dụng trang thiết bị CNTT đều vướng vào việc phải đầu tư phòng Labs.

    – Các mô hình Labs thực hành truyền thống đều vướng tới giải pháp phần cứng, phần mềm từ đơn giản đến chuyên biệt.

    – Các thiết bị phần cứng thì đầu tư phải phù hợp với số lượng người học,cấu hình phải tối ưu và có thể co giãn “sizing” thu hẹp hoặc tăng trưởng đáp ứng với lượng người học và yêu cầu của phần mềm.

    – Các phần mềm đầu tư phải đáp ứng nhu cầu người học trong nhiều giai đoạn vận hành (có đầu tư thay thế mới, có bản quyền, có người quản trị vận hành chuyên nghiệp, có chuyên gia am hiểu và có kỹ năng vận hành các phần mềm…)

    – Chi phí tiền điện, điều hòa, hạ tầng và chi phí duy trì hệ thống máy chủ, máy trạm người dùng và các thiết bị mạng cũng không có gì là nhẹ nhàng, gánh nặng chi phí cho Doanh nghiệp khi vận hành.

    – Chạy theo các đối tác tiêu chuẩn đạt “Quốc tế”  mà ngày nay người ta gọi là “hố đen hay cạm bẫy thời Công nghệ”.

    Giải pháp của thế giới:

    – Ảo trong ảo “VMware ESXi Nested”.

     

    Các trung tâm đào tạo Viet nam:

    • Doanh nghiệp Việt nam nói chung là tư duy cởi và mở, luôn xác định phải hoành tráng để cạnh tranh được với các “đối thủ khác” thì phải có phòng Labs hoành.
    • Máy chủ, máy trạm phải hoành, cấu hình “khủng”.
    • Tiền chi phí điện, điều hòa làm mát, tất nhiên sẽ phải “Khủng”.
    • Chi phí chiêu sinh nhiều lúc cũng phải “siêu thấp, phá giá để các đối thủ mất khách, cơ hội về mình cao hơn…”.

    Tóm lại:

    – Nhìn vào mấy gạch đầu dòng trên, tôi nghĩ tưởng ngay đến việc các trung tâm đào tạo Việt nam đang đầu tư theo kiểu: đầu vào chi phí lớn, đầu ra doanh thu nhỏ và tự làm nó teo tóp, bấp bênh.

    – Vậy Công nghệ thông tin các bạn Doanh nghiệp cho nó đi đâu về đâu rồi, giải pháp trong ngành đào tạo ở Việt Nam coi như không áp dụng, hay chỉ là bề ngoài phòng Labs hoành tráng phù phiếm.

     

    Luận thuyết:

    Gần đây tôi đã viết một số bài về việc chạy ESXi lồng nhau “nặp tổ” hay còn gọi là “Nested ESXi” nhưng tất cả đều vướng vấn đề vMotion EVC (Enhanced vMotion Compatibility). Trong vSphere 4.x, bạn không thể join các máy chủ ESXi lồng nhau thành một cụm với EVC kích hoạt. Với vSphere 5, có thực sự là một cách dễ dàng để kết nối lồng nhau giữa 2 hoặc nhiều máy chủ ESXi 5.x ? để một cụm EVC kích hoạt và vẫn còn tổng hợp sức mạnh trên nền 64bit  GuestOSes. Bữa nay tôi viết chi tiết bài này nhằm cấu hình kích hoạt EVC trên tổ hợp các máy chủ ESXi Host 6.0 đã được lồng nhau. Theo bạn chúng có khoai chiên hơn không ?

     

    Mục đích chính:

    Hiện tại chúng tôi đang giảng dạy hệ thống ảo hóa trên cả các máy chủ Vật lý  Pi / pServer và máy chủ ảo trong ảo ESXi Nested (mục đích giảm giá thành các khóa học Công nghệ cao, cần ảo hóa và tối ưu nhằm tăng thêm được nhiều bài thực hành trong các lĩnh vực khoa học khác nhau)  .

    Tôi phải cảm ơn các bạn học trò, các bạn học viên đã cùng tôi học các bộ môn chính khóa ảo hóa của VMware ICM 5.5 / 6.0 và các giảng viên, các trợ giảng và các kỹ sư thực hành trong các Doanh nghiệp đã cùng nêu ra các vấn đề tồn tại, vướng mắc của công nghệ ảo hóa, những ý kiến vô cùng cần thiết nhằm giúp tôi kiên định theo đuổi và tìm ra những kẽ hở, lỗi và những vướng mắc cần vượt qua.

    Điều khẳng định:

    – Vẫn như mọi khi, những thứ vướng mắc này đều không nằm trong những gì dạy dỗ hay bài giảng chính thức của VMware.

    – Các bạn sẽ gặp phải các nguy cơ rủi ro của riêng bạn.

     

    Dưới đây là các bước thực hiện:

    Bước 1. Bạn phải chạy vSphere 6, tạo một cụm tối thiểu 2 máy chủ ESXi 6 lồng nhau.

    Lưu ý: Các máy chủ ESXi host 6.0 lồng nhau cần phải bật cả chế độ VT/HT trước khi bật chạy, hãy xem bài:

    Lỗi dựng hệ thống vCenter Server Appliance 64bit trên nền ESXi Host Nested 6.x

    Bước 2. Tạo mới một cụm EVC kích hoạt hoặc sử dụng một cụm CPUID hiện có để giúp bạn chọn lựa nhanh cái bạn muốn và nhấp vào “Current CPUID chi tiết” trong cài đặt cluster.

    image

    Chọn mục VMware EVC

    image

     

     

    eax 0000:0000:0000:0001:0000:0110:1010:0100

    ecx 0000:0000:1001:1000:1110:0010:0011:1101

    edx 1000:1111:1110:1011:1111:1011:1111:1111

    ecx 0000:0000:0000:0000:0000:0000:0000:0001

    edx 0010:1000:0001:0000:0000:1000:0000:0000

    eax 0000:0000:0000:0000:0000:0000:0000:0000

    ecx 0000:0000:0000:0000:0000:0000:0000:0000

    edx 0000:0000:0000:0000:0000:0000:0000:0000

     

     

    Bước 3. Sao chép các lá cờ “flag” có trong CPUID Mask của cụm EVC đã được kích hoạt trên vào 1 file txt để bạn có thể dùng nó trong các bước tiếp theo

    image

    Bước 4. Shutdown các máy chủ ESXi 6 đã chạy ảo trong ảo “lồng nhau” và bắt đầu chỉnh sửa các thiết lập của VM, chọn “Options” tab, kích vào “CPUID Mask-> Advanced”.

    – Phải shutdown ESxi host 6.0 trước khi cấu hình CPUID

    image

    – Bấm nút Advanced để cấu hình các lá cờ “Flags” của CPUID Mask theo đúng EVC đã được sao chép ra file text.

    image

     

    Bước 5. Bắt đầu copy / paste các thông số từ file text (lưu ý phải đúng vị trí các Flags tương ứng).

    image

    Bước 6.

    Sau khi đã đưa các thông số CPUID mask vào cho từng máy chủ ESXi 6 Nested rồi, bạn hãy bật các máy chủ ESXi host đó lên.

    Hãy dùng vSphere Client 6 hoặc Web Sphere client 6 để cấu hình Clusted cụm các máy chủ ESXi host 6 Nested, bật VMware EVC nên và chạy các tính năng vMotion EVC.

     

    Bạn biết đấy, bây giờ thì tôi đang ngồi chờ đợi trước màn kết quả của các bạn rồi Nụ cười.

    Đấy đúng không phải là công nghệ VMware ;( .

    Chúc bạn thành công !

    Lỗi dựng hệ thống vCenter Server Appliance 64bit trên nền ESXi Host Nested 6.x


    Sau khi cài xong vCenter, nhiều bạn gặp báo lỗi sau:

    HT_enabled0

     

    Đây là lỗi khi cài ESXi Host 6.0 Nested đã không cho phép kích hoạt chế độ chạy VT/HT

    Như vậy các bạn cần phải truy cập vào web của vCenter:  https://x.x.x.x

    Login bằng user domain AD SSO của các bạn:

    Sau đó phải shutdown máy ảo ESXi của các bạn và edit setting lại cấu hình

    ở mục CPU như hình dưới đây:

    HT_enabled

    Sau khi đánh dấu Hardware Virtualization

    Cần phải tạo độ trễ cho boot BIOS để máy chủ ESXi có thể nhận VT:

    HT_enabled1

    Sau động tác sửa Edit setting, các bạn bấm ok để lưu thay đổi cấu hình và bắt đầu cho Power On máy chủ VM ESXi host 6.

    Rồi dùng vsphere client điều khiển ESXi host 6 để bật máy chủ VM vCenter 6 đã deploy trên đó.

     

    Chúc các bạn thành công !

    Làm thế nào có thể reset mật khẩu của user root trong ESXi Host 5.5 ?


    Chúng ta không nên để mất tài khoản superuser trên bất kỳ hệ điều hành đặc biệt là trên VMware ESXi.Tuy nhiên vẫn có thể có một vài trường hợp mất mật khẩu root do bất cẩn hoặc bị lỗi bàn phím quản trị hệ thống. Nếu bạn quên mật khẩu root của ESXi host, sau đó không có cách nào để khôi phục lại nó .VMware không cung cấp tiện ích hoặc các phương pháp để khôi phục mật khẩu root ban đầu của một ESX / ESXi host. Nếu bạn thử với một số phương pháp khác có thể dẫn đến sự thất bại root bị khóa hoặc cấu hình không được hỗ trợ do kiến trúc phức tạp của ESXi theo VMware KB đưa ra. Tuy nhiên tôi đã đặt lại mật khẩu root của VMware ESXi sử dụng bằng cách khởi động từ linux DVD. Trước khi định cài đặt lại ESXi, bạn chỉ có thể thử phương pháp này như một lựa chọn cuối cùng kể từ khi bạn không có gì để mất, không còn khẩ năng nhớ ra mật khẩu của Root.

    VMware ESXi Version: 5.5

    Ở đây bạn có thể nhìn thấy, tôi không thể đăng nhập vào máy chủ ESXi.

    image

    Đăng nhập root VMware ESXi thất bại.

    Theo một thứ tự để khôi phục mật khẩu root, bạn cần ubuntu Desktop Hệ điều hành DVD.

    1.Halt máy chủ VMware ESXi từ giao diện điều khiển (phần cứng giao diện điều khiển bất cứ điều gì bạn có) kể từ khi chúng ta không thể đăng nhập vào máy chủ ESXi để tắt máy tính, máy chủ bằng cách nhấn F12.

    2.Boot các máy chủ từ ubuntu Desktop DVD. Ở đây tôi đang sử dụng ubuntu 14.04 Desktop (Phiên bản mới nhất) vì nó sẽ làm việc như Live CD.

    3. Sau khi Ubuntu là khởi động máy lên, nó sẽ yêu cầu hai tùy chọn. Bạn chỉ cần chọn “Try Ubuntu”. Chúng ta không muốn cài đặt nó.

    image

    chỉ chọn Try Ubuntu

    4.Từ vùng desktop Ubuntu, Click vào biểu tượng tìm kiếm và tìm kiếm các thiết bị đầu cuối.

    image

    Ubuntu Desktop – Search

    Ở đây bạn Double nhấp vào biểu tượng thiết bị đầu cuối.

    image

    Tìm tool Terminal

    5.Trong terminal , chỉ cần truy cập lại được user root bằng cách dùng lệnh sudo  fdisk để list ra các ổ cứng hoạt động.

    image

    VMware ESXi root disk

    6.Thông thường /dev/sda sẽ là root disk của VMware ESxi . Trên hình có dòng sda thoe dạng GPT partition và nó không hỗ trợ fdisk .Tôi đang cố thử dùng tool Gparted.

    image

    Tìm gparted và mở tool này

    Gparted xuất hiện màn hình sau.

    image

    Gparted – /dev/sda

    7.Bạn cần mount /dev/sda5 để khôi phục mật khẩu của VMware ESXi. Bạn cần phải xác định cả về quy mô, kích thước và dấu hiệu.khi bạn đã gắn kết các ổ, bạn có thể xem các tập tin như hình bên dưới.

    image

    Mount /dev/sda5

    8.Sao chép file “state.tgz” tới thư mục /tmp . Sau đó giải nén file state.tgz sẽ tạp ra tệp tin gọi là local.tgz.

    image

    Giải nén file state.tgz

    9.Giải nén file local.tgz và nó sẽ tạo ra thực mục có tên “etc”.

    image

    Giải nén file local.tgz

    10.Chuyển vào thư mục “etc” và sửa file có tên gọi “shadow” dùng bộ tool vi editor. Bạn cần phải xóa các chuỗi giữa dấu : đầu tiên tới dấu : thứ hai.(chính là mật khẩu đã bị mã hóa).

    image

    Xóa mật khẩu của root VMware ESXi

    11.Ta cần cập nhật “etc” trở lại file local.tgz và file local.tgz cần nén trở lại state.tgz. Sau khi update file tar , tôi đang sao chép cập nhật vào file state.tgz tới thư mục  /mnt nơi chúng ta sẽ mount VMware ESXi root.

    image

    sao chép file tgz đã được cập nhật tới ESXi root FS

    12.Bỏ mount thư mực /mnt và khởi động lại. Hãy đảm bảo rằng bạn phải loại bỏ DVD “ubuntu Desktop”  từ máy chủ ảo. Vì vậy, nó có thể khởi động từ đĩa cứng cục bộ.

    image

    bỏ mount & khởi động lại ubuntu

    13.Khi VMware ESXi 5.5 khởi động được, chỉ cần đăng nhập như là user root mà không cần mật khẩu.

    image

    Đăng nhập vào VMware Esxi

    14.Hãy chắc chắn rằng bạn đang thiết lập mật khẩu của user root mới và lưu trữ nó một cách bí mật. Đừng đánh mất nó thêm một lần nữa.

    image

    Thay mật khẩu của user root VMware Esxi

    Như vậy, chúng ta đã hoàn thành khôi phục / reset lại mật khẩu của user root trong VMware ESXi 5.5 host.

     

    Chúc các bạn thành công và luôn luôn an toàn trong quản trị hạ tầng ảo hóa VMware !