Category Archives: VMware ESXi

Khôi phục cấu hình cho ESXi Host như thế nào mới thành công ?


Phần lớn các chương trình chỉ nói tới việc cài, cấu hình và sao lưu backup cấu hình cho ESXi Host chạy thành công mà không nói chi tiết việc khôi phục cấu hình của máy chủ ESXi Host sao cho thành công !

Các trao đổi và hướng dẫn sau sẽ cho bạn thấy rõ việc làm thế nào để có thể khôi phục cấu hình thành công (Nếu bạn cảm thấy cần).

Tình huống khôi phục cấu hình ESXi Host thực tế có 2 tình huống:

Tình huống 1. Cấu hình hoặc phần mềm khởi động HĐH Firmware Bootable của ESXi Host bị lỗi không khởi động, hoặc

bị xóa nhầm cấu hình Network layers, xóa nhầm vSS, Ports group…

Muốn khôi phục lại bằng bản đã sao lưu backup cấu hình:

Bước 1.

Kiểm tra lại bản file cấu hình đã được backup.

  • Khi đã dùng lệnh backup và download về được file backup, thì phải đổi tên file vừa backup thành đúng tên “configBundle.tgz” và lưu ở chỗ an toàn

Bước 2.

  • Dùng WINSCP upload file configBundle.tgz vào thư mục /tmp/ của máy chủ ESXi Host.

Bước 3.

  • Mở PuTTy kết nối, đăng nhập user root và nhập lệnh restore sau:
  • vim-cmd hostsvc/maintenance_mode_enter
  • vim-cmd hostsvc/firmware/restore_config /tmp/configBundle.tgz

Máy chủ ESXi Host sẽ khởi động lại với cấu hình cũ vừa được khôi phục. Bây giờ bạn có thể thoát khỏi chế độ bảo trì và sử dụng máy chủ ESXi.

 

Tình huống 2. ESXi Host bị lỗi hoàn toàn ổ cứng Bad Sector phân vùng Bootable, hỏng ổ cứng khởi động hoặc cài ESXi cho máy chủ mới.

Ghi chú: mỗi máy chủ ESXi Host khi cài lần đầu đều tự sinh ra 1 mã số HostUuID ngẫu nhiên theo thuật toán GAU, là duy nhất trong 1 hệ thống LAN/WAN/Internet.

Khi ta chạy hệ thống lệnh backup thì file configBundle.tgz cũng sinh ra 1 bundleUuid mới, ngẫu nhiên và lưu cả HostUuID của máy chủ ESXi Host vừa được backup.

Do vậy, khi chúng ta dùng bản lưu cấu hình đó cho máy chủ ESXi Host mới, sẽ có hiện tượng lỗi xuất hiện khi thực hiện 3 bước giống như tình huống 1 và sau khi chạy 2 lệnh:

vim-cmd hostsvc/maintenance_mode_enter

vim-cmd hostsvc/firmware/restore_config /tmp/configBundle.tgz

Lỗi báo hostUuid trong bản backup cấu hình là khác với hostUuid có trong máy chủ ESXi Host hiện thời đang cần khôi phục cấu hình.

 

Bước 4. Bạn nên chuẩn bị công cụ 7.z để giải nén, giải mã và sửa các nội dung có trong file nén tgz.

Chúng ta mở file configBundle.tar bằng 7.z, sau cùng là mở file nội dung Manifest.txt bằng notepad

Bước 5. Ở đây, bạn copy chuỗi GAUID sau thông số HostUuid đã hiển thị ở màn PuTTy (bẩm phải chuột để copy) và dán / thay thế giá trị sau dấu = của tham số GAUUID đến trước ký tự “K” trong cụm tham số KERNELOPTS.

Ví dụ:

Bước 6. Lưu lại các thay đổi của file Manifest, file configBundle.tar và file configBundle.tgz

Bước 7. Copy file đã sửa vào trở lại thư mục /tmp/ (file cũ cần xóa đi trước khi copy trở lại thư mục /tmp ).

Bước 8. Chạy lại lệnh khôi phục:

vim-cmd hostsvc/firmware/restore_config /tmp/configBundle.tgz

Máy chủ ESXi Host sẽ khởi động lại với cấu hình cũ vừa được khôi phục. Bây giờ bạn có thể thoát khỏi chế độ bảo trì và sử dụng máy chủ ESXi.

Lưu ý: nếu có nhiều hơn 1 ESXi Host mà bạn dùng cách restore cấu hình nói trên thì chúng sẽ có Management Network, Host Name giống hệt. Do vậy, sau khi khởi động lại ESXI Host bạn cần dùng màn Console thay lại IP, Host Name khác với cấu hình ban đầu để tránh conflict IP.

Chúc các bạn thành công !

Thắng.Lê

Advertisements

How to reset ESXi v6 root password when forget password


Disclaimer: VMware doesn’t suggest any other method but to reinstall the ESXi host!!! If you follow this tutorial – I’m not responsible for any/all possible damages!!!
We used this version of ESXi to reset the password:
ESXi ISO image (Includes VMware tools) 2016-03-15 | 6.0U2 |
(VMware ESXi 6.0.0 VMKernel Release Build 3620759)
You will need a physical access to ESXi host in order to be able to reset the password because you cannot shutdown/reboot (F12) without the password.
Download Kali linux distribution, burn it and boot from it:
https://www.kali.org/downloads/ )

ESXi stores passwords in /etc/shadow file and once the machine is down it’s saved in state.tgz So we need to find it. It’s usually either on sda5 or sda6:
root@kali:~# fdisk -l
You should see sda5 and sda6 partitions.
Create the mounting points:
root@kali:~# mkdir /mnt/sda5
root@kali:~# mkdir /mnt/sda6

Mount them:
root@kali:~# mount /dev/sda5 /mnt/sda5
root@kali:~# mount /dev/sda6 /mnt/sda6

Look for state.tgz file
root@kali:~# ls -l /mnt/sda5 | grep state
in my case state.tgz file was on this partition, so I’m skipping sda6
Copy this file to your home folder, extract it and edit the shadow file
root@kali:~# cp /mnt/sda5/state.tgz state.tgz
root@kali:~# gzip -d state.tgz
root@kali:~# tar -xvf state.tar
root@kali:~# gzip -d local.tgz
root@kali:~# tar -xvf local.tar
root@kali:~# cd /etc
root@kali:/etc# vi shadow
 
image

make changes, save, exit and put it back:
root@kali:/etc# cd ..
root@kali:~# tar -czvf local.tgz etc
root@kali:~# tar -czvf state.tgz local.tgz
root@kali:~# cp state.tgz /mnt/sda5/state.tgz
root@kali:~# umount /mnt/sda5
root@kali:~# umount /mnt/sda6

Once you reboot – you should be able to login without a password and set a new one

image

VMFS vs RDM là gì ? dùng RDM trong Oracle như thế nào ?


Phần 1. VMFS vs RDM là gì ?

Lưu trữ là một trong những thành phần quan trọng nhất của hệ thống cơ sở hạ tầng để vận hành, đặc biệt trong phần ứng dụng CSDL. Hầu hết các DBA và quản trị viên cũng ý thức được điều này. Trong hầu hết các câu chuyện với Doanh nghiệp và khách hàng của chúng tôi đều được hỏi một số câu rất phổ biến trong giai đoạn phân tích thiết kế:

Tôi nên dùng VMFS, RDM, hay in-guest Storage” ?

Câu hỏi đề cập đến loại hình lưu trữ “Storage presentation types”. Trình lưu trữ là các phương pháp lưu trữ sử dụng để xử lý các khối lượng dữ liệu và lưu trữ từ ứng dụng gửi tới. Dưới đây là một số tuỳ chọn lưu trữ có sẵn:

1. VMFS-5

2. NFS

3. RDM-V ( RDM – Virtual)

4. RDM-P (RDM – Physical Pass-thought)

5. in-Guest

Tôi rất để ý và thích thú với câu hỏi thẳng này, vì đơn giản nó dẫn chúng ta vượt ra xa khỏi cách sử dụng bình thường. Nó sẽ giúp bạn quyết định dùng những công cụ phân tích đo đạc tối ưu, trước khi vận dụng thực tế. Bạn sẽ dùng SAN cấp độ Snapshot ? Các tập tin CSDL sẽ tồn tại trên khối lượng Volumes mà trong quá trình vận hành bạn vẫn có thể dùng các công cụ nhân bản/sao chép SAN Clone để sao lưu ?  Bạn sẽ dùng VMware SRM  (Site Recovery Management) ? VDP (vSphere Data Protection) ? vSphere Fault Tolerance mới có 4vCPU trên 1 VM/1Host ? vCloud Data Director ? Oracle DB RAC ? tất cả chúng đều phải được xem xét để chọn được kiểu Storage Presentation.

Vấn đề 1. Hiệu suất:

Trước khi có nhận xét cụ thể về các loại lưu trư, chúng ta nên nói về Hiệu suất. Theo kinh nghiệm của nhiều người kỹ thuật, các dạng lưu trữ đề cập ở trên đều là dạng Hiệu suất cấp độ 1 “Tier-1”.  Công đoạn triển khai thực hiện chính là yếu tố quan trọng cho việc xác định 1 loại lưu trữ có Hiệu suất tốt. Hiểu biết về thiết bị và thực hành tốt các thiết bị của nhà cung cấp sẽ là cơ sở để bạn thực hiện triển khai tốt.

Ví dụ: iSCSI, NFS được tối ứu hoá để cho sử dụng Jumbo Frames. Bỏ qua chế độ cho phép khung Jumbo Frame hệ thống lưu trữ của bạn sẽ chỉ chạy ở 1/2 thông số khả năng của nó.

image

Việc so sánh giữa 2 môi trường, môi trường vật lý truyền thống với lưu trữ chuyênd dụng và không được chia sẻ, để tích hợp hoặc làm việc với nhiều môi trường dữ liệu ứng dụng khác hoặc mở rộng lớn hơn là bất lợi.

VMware vsphere là môi trường được thiết lập để chia sẻ lưu trữ cho nhiều máy ảo. Đây là khái niệm căn bản, và là nơi chúng ta tìm ra nhiều điểm yếu, mạnh, sai sót và hợp lý của vsphere để xây dựng và củng cố những thứ riêng, đọc quyền… Đừng hiểu nhầm thông điệp của tôi – Xây dựng để phân tích và tổng hợp các kiến trúc tập chung hạng nặng là cách tuyệt vời để xây dựng các cụm vSphere Clusters.

Tuy nhiên đối với các thể loại Tier-1 Workloads thì không phải thuần tuý như vậy, bạn phải suy nghĩ tính toán cẩn thận ví dụ: dùng GPU, CUDA cho xử lý tính toán HPC… Các loại hàm thủ tục tương tự/tuần tự hoặc các cơ chế tính toán Tỷ lệ hợp nhất sẽ không thể luôn luôn làm việc có thể phù hợp với kiểu vận hành SLA quan trọng.

Vấn đề 2. Dụng cụ (Công cụ đo đạc và hiệu chỉnh Tunning):

Chúng tôi luôn xem xét về 2 tiêu chí Khi xem xét quyết định sử dụng: 1. Hiệu suất (thảo luận trên) và dụng cụ.

Đối với dụng cụ, VMFS cung cấp các dụng cụ tối đa liệu có thể là không có giới hạn, Khi nhìn vào vSphere hoặc các sản phẩm bổ sung của nó như VMware SRM hoặc vCloud Director. Các dạng lưu trữ CSDL Trình RDMs được tùy chọn. Tuy nhiên, chúng ta sẽ gặp hạn chế trên VMware. Ví dụ: nếu dùng VMware Fault Tolerance. VMware FT hiện chỉ được hỗ trợ với VMFS. Mới có 4 vCPU trên 1 VM/1 Host.

Dưới đây là một sơ đồ LTT, CTO của Trung tâm nghiên cứu và phát triển sản phẩm VEEAM Backup.

Nó đơn giản chỉ hiển thị bốn loại trình lưu trữ chính.

QUAN TRỌNG: Điều này không có nghĩa đó Một trong những loại thuyết trình lưu trữ là thực tế chỉ tốt nhất hoặc một chỉ đơn giản là sai cho tổ chức CNTT của bạn. Trong thực tế, tôi viết bài này để hỗ trợ việc triển khai đã sử dụng một trong mỗi loại lưu trữ. nguyên tắc chung của tôi là thích dùng hệ thống định dạng loại VMFS trên tất cả các tùy chọn lưu trữ khác vì nó thống nhất hầu hết các kỹ thuật và nó dẫn tôi đến được hầu hết các loại kỹ thuật khác.

image

1. VMware vSphere VMFS-5 dùng cho ổ đĩa ảo của VM – virtual machine disk (viết tắt: VMDK) là kiểu chuẩn Tier-1 cho trình lưu trữ “storage presentation”.

– VMDK được mệnh danh là công cụ lưu trữ tối đa hoá của vSphere storage.

2. Raw Device Mapping (viết tắt: RDM) liên quan tới cấu hình dạng “mâm xôi” và chi phí vận hành liên tục so với VMFS. RDMs có thể vận hành theo kiểu tương thích chế độ Ảo – virtual compatibility mode (viết tắt: RDM-V) hoặc kiểu tương thích chế độ Vật lý – physical compatibility mode (viết tắt: RDM-P).

2.1. Chế độ tương thích Ảo: RDM-V, cung cấp một số tính năng tương thích với  vSphere storage RDM, kết nối giao thức iSCSI, định dạng VMDK…

2.2. Chế độ tương thíc Vật lý: RDM-P, cho phép phương thức này tiếp cận toàn diện về mảng ổ cứng lưu trữ vật lý, RAID vật lý, truy cập trong suốt với hệ thống  lưu trữ qua mạng Vật lý. Điều này thể hiện cách tiếp cận xuất phát với giá trị vật lý, thậm chí có rất ít liên quan tới ảo hoá bằng vSphere Storage.

3. Chế độ in-guest:  hay còn hiểu là kiểu lưu trữ gắn trực tiếp – Direct-attached storage (lưu trữ ổ cứng cắm trực tiếp trên các Host).

Tóm lại, sự khác nhau thực sự giữa RDM-V và RDM-P là gì ?

 

Phần 2. Dùng RDM trong Oracle như thế nào ?

Bạn có thể cấu hình RDMs trong chế độ ảo tương thích (viết tắt: RDM-V), hoặc chế độ tương thích vật lý (viết tắt: RDM-P).
RDM-V hay còn gọi là chế độ tương thích ảo, quy định cụ thể ảo hóa đầy đủ các thiết bị ánh xạ tới hệ thống lưu trữ.

Trong chế độ RDM-V hypervisor sẽ chịu trách nhiệm cho các lệnh SCSI giao thức kết nối. Với hypervisor giống như HĐH điều khiển các lệnh SCSI, một tập hợp lớn hơn của các dụng cụ ảo hóa có sẵn.
Trong chế độ RDM-P tương thích vật lý, các lệnh SCSI điều khiển được đấu nối trực tiếp thông qua hypervisor không thay đổi gì. Điều này cho phép SAN quản lý trực tiếp LUN. Bất lợi của RDM-P là mất khả năng dùng công cụ vSphere snapshot.

Lưu ý: Một thực hiện chung cho việc sử dụng RDM-P là các công nghệ sử dụng SCSI như:

– Microsoft Clustering là một cách cho một máy chủ dành độc quyền truy cập một LUN trong một cấu hình lưu trữ chia sẻ thoe gioa thức SCSI.
– Oracle Cluster Services không sử dụng SCSI reservation. Oracle dựa trên các cơ chế cấu hình RAC thay vì phần mềm riêng của mình để bảo vệ sự toàn vẹn của lưu trữ chia sẻ. Hob khuyến cáo nên dùng Oracle RAC cấu hình trên lớp lưu trữ ứng dụng chứ không phải dùng RDM-V hay RDM-P, cũng như không dùng VMDK. Nhưng ngược lại, RDM-P lại cho phép dùng SAN truy cập công cụ để lưu trữ hoặc tận dụng công cụ Snapshot từ lớp API Management của SAN, chúng giỉa quyết được sự năng nề của LUN, như vậy có thể bị cám dỗ để cấu hình RDM-P.
Cuối cùng, tôi để lại cho bạn một sự so sánh giữa RDM-P vs RDP-V trên vSphere:

image

Xem tiếp phần sau gồm 2 bài: 

Phần 3. Bài thực hành cấu hình Oracle RDM trên nền VMware vSphere:

Phần 4. Bài thực hành cấu hình VEEAM Backup sao lưu máy ảo Oracle RDM:

Bài Labs: triển khai mô hình HA và SSO cho PSC với vCenter site A (Hà nội) và vCenter Site B (HCMC)


Những phiên bản vSphere 5.5 trở về trước chung ta chưa bao giờ xử lý cấu hình và tiết kiểm được chi phí license của vCenter với các ESXi Host của từng hệ thống DC hay còn gọi là từng chi nhánh “site”.

Trong phiên bản từ vSPhere 6.0 trở lên, chúng ta hoàn toàn có thể giải quyết các vướng mắc và tiết kiệm chi phí license khi dựng 1 hệ thống vCenter có nhiều chi nhánh DC ở nhiều hơn 1 site.

Ở đây tôi xin giới thiệu cơ bản về mô hình cấu hình vSphere 6 với 2 site A( đặt tại Hà nội)  và Site B (đặt tại HCMC) thông qua mô hình cấu hình Hệ thống Quản trị trung gian “External PSC”:

Trong đó PSC là Platform Service Controller chỉ có từ vSphere 6.x. Mô hình này tôi dựng toàn bộ là các máy chủ VM Appliance để giảm chi phí license cài trên Windows OS server và MS SQL Server.

Tận dụng tối đa license Open GLN của VMware xây dựng trên Linux SuSe Enterprise Server 11 x64.

image

Một số yêu cầu quan trọng phải chuẩn bị trước:

1. Luôn phải có tới thiểu 1 DNS server để cấu hình các bản ghi A (Host) để forward và PTR để reverse lookup zones.

2. Trong 1 Site A tối thiểu sẽ có 2 máy ảo VM để deployed, 1 là máy  ảo PSC và 1 cái khác là  vCenter nằm trên cùng node.

3. Tất cả 2 máy VM trên đều phải là IPv4 địa chỉ IP tĩnh và có thông tin tên máy theo dạng FQDN (có định danh tên host + tên domain khớp với DNS Server đã khải ở trên bản ghi A, PTR) 

I. Triển khai Platform Services Controller – PSC tại Site A:

Bước 1.

image

Bước 2.

image

Bước 3.

image

*Ghi chú*  Nếu bạn có một domain hiện có trong AD hoạt động ví dụ: xyz.vn.  Bạn đừng nên  sử dụng tên miền này cho vCenter vì miền đó sẽ làm SSO và sẽ khiến bạn nhầm lẫn giữa SSO của vCenter với AD user của bạn khi quản lý thêm hoặc phân quyền người dùng dưới tên miền xyz.com trong vCenter  Administrators.

Bước 4.

image

Bước 5.

image

Bước 6.

image

Bước 7.

image

Bước 8.

image

Bước 9.

image

Bước 10.

image

II. Cài và cấu hình vCenter Appliance tại Site A  (VCVA – Site A):

Bước 1.

image

Bước 2.

image

Bước 3.

image

Bước 4.

image

Bước 5.

image

Bước 6.

image

Bước 7.

image

Bước 8.

image

Bước 9.

image

Bước 10.

image

Bước 11.

image

Bước 12.

image

Bước 13.

image

Bước 14.

image

 

III. Cài đặt và cấu hình vCenter Appliance site B (chi nhánh) chỉ có vCenter và kết nối qua mạng WAN/Internet tới Site A thông qua PSC

Các bước chuẩn bị trước khi cài vCenter tại site B (HCMC):
– Đây là cách cấu hình mở rộng cho phép kết nối PSC từ vCenter 6.x, đây cũng là kiểu cấu hình cho phép nhiều vCenter Servers có thể kết nối tới 1 PSC.
  1. Các vCenter không nằm trên cùng hệ thống với PSC sẽ phải có cấu hình DNS Server (có bản ghi A, PTR của máy chủ vCenter trước khi cài vCenter).
  2. Phải đảm bảo là quản trị site B của HCMC phải biết thông tin chính xác về địa chỉ IP, tên máy chủ và FQDN của PSC tại Hà nội, user admin SSO, mật khẩu và mở NAT cổng 443 của PSC .
  3. Hệ thống mô hình này cũng cho phép có nhiều PSC hơn 1 máy tại HCMC giống với ở Hà nội.
  4. Giải pháp trên cũng hỗ trợ cho vCenter Windows Server.

ví dụ mô hình nhiều vCenter cùng kết nối tới 1 PSC

image

Bước 1.

image

Bước 2.

image

Bước 3.

image

Bước 4.

image

Bước 5.

image

Bước 6.

image

Bước 7

image

Như vậy là chúng ta đã cài đặt xong mô hình mở rộng PSC cho phép kết nối và SSO giữa 2 site A (hà nội) và site B (HCMC).

Chúc các bạn thành công !

Cách xuất các VM từ VirtualBox Machine sang VMware thành công


Chúng ta đã dùng khá nhiều VM trên các nền HĐH khác nhau, Virtual Box, MS Hyper-V cũng vậy, xong hầu hết xu hướng của người quản trị/ người dùng/ lập trình viên đều ,muốn quản lý chúng 1 cách tập trung, cần nhiều tài nguyên hơn để thử nghiệm, nâng cấp. Do vậy, chúng ta cần chuyển chúng sang vSphere Hypervisor VMware hoặc vSphere ESXi.

Các version software mà chúng ta dùng:

  • VirutualBox >= 4.3
  • vSphere Client >= 5.0
  • VMware ESXi Hypervisor >= 5.0
Xuất ra Vm từ Virtual Box:
Để xuất ra được VM, bạn phải shut down máy ảo và chọn menu  “File” > “Export Appliance”. Tiếp theo đặt tên máy ảo 

image

On the following screen, select a destination for the output file and choose the OVA format and choose “OVF 1.0” format from the drop down and check the write manifest file box.

image

Click “Next” and then click “Export”. Depending on the size of the machine this could take a while.

image

Preparing to Import the VM

image

Once the export is complete you can try deploy the OVA to ESXi but you will receive the following error, “The OVF package requires unsupported hardware. Details: Line 25: Unsupported hardware family ‘virtualbox-2.2’.”.

image

Cách 1:

Chủ động làm lại ổ cứng ảo VMDK, nếu có bộ cài iSO để cài lại trên chuẩn ổ cứng VMDK.

image

Lưu ý: do 1 số HĐH là cũ như Linux Kernel 2.2/2.4 32/64bit không tương thích với các giao thức mới (SATA/ SCSI) của Computer Machine, thường chỉ chạy với chuẩn cũ IDE

image

Hãy tắt các device không cần thiết như: audio, serial ports, usb, share folder:

image

image

image

image

Bước tiếp theo là stop máy VM và chọn Export Appliance

image

Bước cuối cùng cần sửa lại nội dung cho file OVF tương thích với việc Deploy vào ESXi Host:

Giải nén file OVA bằng 7z tạo thành thư mục chứa 2 files: ovf và vmdk, hãy mở nội dung file ovf bằng notepad++

image

Sửa tham số  virtualbox-2.2 thành  vmx-07.

Lưu ý: một số OS như: Linux OpenSuSe x64 thì chỉ có VMX-11 mới support. hoặc bạn sẽ phải chỉnh General trong Virtualbox cấu hình thành Other Linux x64 để khi sang vSphere chỉnh lại HĐH tương thích sau.

image

Lưu lại file OVF sau khi sửa:

image

Cuối cùng là mở vSphere ESXi và deploy VM bằng file ovf.

———————————————————-

Cách 2: cách cũ và hay bị phát sinh việc sửa cấu hình VM trong virtualbox

Dùng 7Zip” để giải nén “extract the OVA”. bấm “OK” để giải nén và bỏ qua các lỗi.

image

image

Tạo 1 bản sao lưu tránh sửa nhầm lệnh trong OVF file và dùng notepad++.

thay đổi dòng nội dung:

image

<vssd:VirtualSystemType>virtualbox-2.2</vssd:VirtualSystemType>

thành dòng:

<vssd:VirtualSystemType>vmx-07</vssd:VirtualSystemType>

Deploy VM trên vSphere client:

Hãy chọn file “Deploy OVF Template”.”đảm bảo là chọn OVF file không chọn OVA file”.

Nếu bạn nhận được các lỗi sau: hardware error: “The OVF package requires unsupported hardware. Details: Line 74: OVF hardware element ‘ResourceType’ with instance ID ‘6’. No support for the virtual hardware device type ’35’.”

hardware error

Để fix lỗi này, mỡ lại file OVF file và xóa <item> có viết cả đoạn tham số XML liên quan tới sound card:

    <Item>
        <rasd:AddressOnParent>3</rasd:AddressOnParent>
        <rasd:AutomaticAllocation>false</rasd:AutomaticAllocation>
        <rasd:Caption>sound</rasd:Caption>
        <rasd:Description>Sound Card</rasd:Description>
        <rasd:ElementName>sound</rasd:ElementName>
        <rasd:InstanceID>6</rasd:InstanceID>
        <rasd:ResourceSubType>ensoniq1371</rasd:ResourceSubType>
        <rasd:ResourceType>35</rasd:ResourceType>
    </Item>

image

Còn lỗi message khác : Line 66: OVF hardware element ‘ResourceType’ with instance ID ‘5’: No support for the virtual hardware device type ’20’

Bạn vẫn phải mở lại file OVF và sửa lại nội dung ở item Instance 5:

<Item>
<rasd:Address>0</rasd:Address>
<rasd:Caption>sataController0</rasd:Caption>
<rasd:Description>SATA Controller</rasd:Description>
<rasd:ElementName>sataController0</rasd:ElementName>
<rasd:InstanceID>5</rasd:InstanceID>
<rasd:ResourceSubType>AHCI</rasd:ResourceSubType>
<rasd:ResourceType>20</rasd:ResourceType>
</Item>

Cần phải chuyển kiểu kết nối ổ cứng ảo SATA controllers, sang dạng SCSI (Instance Id needs to be unique for all the elements):

<Item>
     <rasd:Caption>scsiController0</rasd:Caption>
     <rasd:Description>SCSI Controller</rasd:Description>
     <rasd:InstanceId>12</rasd:InstanceId>
     <rasd:ResourceType>6</rasd:ResourceType>
     <rasd:ResourceSubType>lsilogic</rasd:ResourceSubType>
     <rasd:Address>1</rasd:Address>
     <rasd:BusNumber>1</rasd:BusNumber>
 </Item>

Hãy thay đổi kiểu kết nối ổ cứng ảo bằng ID của SCSI controller:

<Item>
     <rasd:Caption>disk1</rasd:Caption>
     <rasd:Description>Disk Image</rasd:Description>
     <rasd:InstanceId>11</rasd:InstanceId>
     <rasd:ResourceType>17</rasd:ResourceType>
     <rasd:HostResource>/disk/vmdisk1</rasd:HostResource>
     <rasd:Parent>12</rasd:Parent>
     <rasd:AddressOnParent>0</rasd:AddressOnParent>
 </Item

Sau khi đã sửa xong nội dung file OVF, bạn có thể chạy lại deploy vSphere client để cấu hình VM:

ovf import

Máy ảo của bạn sẽ trải qua 4 lần bấm Next:

  • Bấm “Next” nhập tên máy ảo

  • Bấm “Next” và định dạng đúng kiểu ổ Virtual Disk formatting bạn muốn

  • Bấm “Next” và kiểm tra mạng

  • Bấm “Next” và bấm “Finish”

Bạn sẽ cần vài phút để deploy VM, có thể bạn phải chỉnh Memory, CPU, Network để đảm bảo phù hợp tài nguyên cho VM.

adjust machine settings

Bây giờ thì các VM hoàn toàn có thể tắt trên VirtualBox, và hãy để chúng chạy trên vSphere VMware với sự tương thích của nhiều OS, chạy VM trên VMware là lợi thế của bạn,

Chúc bạn thành công và  tận dụng cơ hôi ảo hóa tập trung.

Cách thế nào để cấu hình VMware vSwitch từ ESX / ESXi Command Line


 

Trong cả hai VMware ESX và ESXi host, vSwitches có thể được cấu hình hoặc từ giao diện hoặc từ dòng lệnh.

  • vSwitch được hiểu là thiết bị Switch ảo tiêu chuẩn
  • Các cấu hình CLI là rất hữu ích khi bạn đang cài đặt nhiều máy chủ ESXi và có kế hoạch triển khai nhiều cấu hình PortGroup cho vSwitch.

Làm thế nào để cấu hình vSwitch từ CLI bằng lệnh esxcfg-vswitch.

 

Liệt kê tất cả vSwitches

Trên ESXi: Để xem tất cả các vSwitches hiện trong máy chủ ESXi, sử dụng tùy chọn -l như hình dưới đây. Điều này sẽ hiển thị cả các chuyển đổi và thông tin portgroup.

# esxcfg-vswitch -l
Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks
vSwitch0         128         3           128               1500    vmnic0

PortGroup Name        VLAN ID  Used Ports  Uplinks
Management Network    0        1           vmnic0

image

 

Trên ESXi: thay vì esxcfg-vSwitch, bạn cũng có thể sử dụng lệnh esxcli vào danh sách vSwitches trong ESXi như hình dưới đây. Theo mặc định, mỗi host ESXi có một switch ảo được gọi là vSwitch0.

image

Thêm một vSwitch mới

Để thêm một vswitch mới, sử dụng tùy chọn -a như hình dưới đây. Trong ví dụ này, một switch mới vswitch1 ảo được tạo ra:

# esxcfg-vswitch -a vSwitch1

Nếu bạn đang trên ESXi host, bạn cũng có thể sử dụng lệnh esxcli như hình dưới đây để thêm một switch mới.

# esxcli network vswitch standard add -v vSwitch1

Số mặc định của các cổng logic trên vswitch là 56.

Số lượng tối đa của vSwithces có thể được tạo ra trên một máy chủ ESXi duy nhất là 127.

Khi hai hoặc nhiều máy ảo kết nối với vswitch cùng các lưu lượng giữa chúng được định tuyến tại Local và bất cứ khi nào nó cần phải kết nối với mạng bên ngoài, giao thông được định tuyến thông qua adapter uplink cơ bản một cổng NIC gắn vào switch ảo.

 

Thêm một Port trong vSwitch

Trên ESX: Chúng ta vừa tạo switch ảo. Nhưng, để kết hợp một cổng mạng (thêm một đường lên) để chuyển đổi ảo này, sử dụng cú pháp sau:

 esxcfg-vswitch -L <primary NIC> <vswitch name>

Ví dụ:

# esxcfg-vswitch -L vmnic1 vSwitch1

# esxcfg-vswitch -l
Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks 
vSwitch0         128         3           128               1500    vmnic0

PortGroup Name        VLAN ID  Used Ports  Uplinks
Management Network    0        1           vmnic0

Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks
vSwitch1         128         2           128               1500    vmnic1

PortGroup Name        VLAN ID  Used Ports  Uplinks

Trên ESXi, thực hiện lệnh sau để thêm UpLink:

# esxcli network vswitch standard uplink add -u vmnic1 -v vSwitch1
Tạo PortGroups trong vSS

Tiếp theo chúng ta sẽ làm thế nào để tạo ra các Port Group. Port Group là một nhóm cổng trên vSwitch. Đây cũng là phân khúc logic của vSwitch. Mỗi Port Group có một tên gọi là Label Network. Đây là mạng lưới thiết bị đầu cuối cho các máy ảo của bạn.

Trong ví dụ sau đây, bạn sẽ thấy để tạo ra các Port Group và gán các VLAN cho port groups. Nói chung, VLAN ID 0 là để vô hiệu gắn thẻ VLAN trên Port Group.

Cú pháp để thêm một Port Group mới là:

esxcfg-vswitch -A <Port Group Name> <vSwitch name>

Gán VLAN ID vào PortGroups

Cú pháp để gán một VLAN vào Port Group gồm:

esxcfg-vswitch <vSwitch name> –v <VLAN ID> –p “<Port groupname>”
  • It may be necessary to restart the host’s management agents if network connectivity is not restored despite a correct configuration:

services.sh restart

 

Dùng Excel để tạo Script nhân bản nhanh các lệnh

Vận dụng Excel để tạo script nhanh và nhân bản thành nhiều dòng lệnh

image

copy dán sang notepad để đảm bảo không có ký tự sai, khoảng trắng…

image

Cuối cùng copy các dòng lệnh trên vào PuTTy để thực thi

image

Chúc các bạn thành công !

IBM Domino Lotus và Lotus Notes Client chạy trên nền Private Cloud như thế nào ?


Phần 1. Cài Domino Lotus 8.5 trên Windows Server 2008 R2:

image

image

image

image

image

 

image

image

image

image

image

image

image

image

image

Bước 2. Chạy khởi động Lotus Domino lần đầu tiên:

image

Bước 3. Điều khiển màn Console Lotus Domino:

image

Màn điều khiển Console Lotus sau khi khởi động lại lần 2

image

 

Phần 2. Cài và Cấu hình Lotus Administrator:

Lưu ý:

– Trước khi cấu hình: phải đảm bảo máy chủ Windows Server 2008 R2 đã cài Domino Lotus sẽ không cài và chạy IIS trên đó.

hoặc nếu đã cài IIS/ Apache Tomcat hoặc PHP Server thì phải cấu hình các Port Web Default chuyển sang port khác 80 (để nhằm tránh conflict với các cổng và dịch vụ của Lotus Domino cài lên).

image

Bước 4. Cài Lotus Administrator

image

image

image

image

image

image

image

Phần 3. Cấu hình Lotus Administrator kết nối Lotus Domino trên các máy chủ ảo

image

image

image

Lưu ý:

– Trước đó bạn cần phải download các key ID của Admin về máy đã cài Lotus Notes Client.

image

– Máy chủ windows Server 2008 R2 cần mở firewall Port (Lotus Domino RPC 1352)

image

Tiếp tục phần cấu hình IBM Lotus Notes 8.5.2 trên máy chủ AT-BOX Media

image

image

Sau khi kết nối thành công với máy chủ IBM Lotus Domino thông qua cổng TCP 1352

image

Chúng ta cần Key ID của Admin để tạo cấu hình kết nối

image

image

Nhập mật khẩu Admin đã cài trên máy chủ Lotus Domino ở phần 1

image

Tiếp theo, nếu bạn đã có máy chủ SameTime Lotus thì cần phải mở cổng 1533 TCP/IP

ở đây tôi không dùng SameTime nên bỏ qua

image

Khai báo Mail

image

image

image

image

image

image

Bên màn hình của Lotus Domino Server bạn sẽ thấy

image

Bên màn hình của Lotus Notes Client 8.5.2 sẽ thấy

image

Phần 4. Mọi thứ vận hành trên máy chủ

– Người dùng chỉ có Trình duyệt web, mọi hệ điều hành và thiết bị khác nhau đều dùng được.

– Không cài Notes Client trên máy cá nhân vì An ninh , an toàn thông tin, mọi thứ có trên máy chủ.

– Máy cá nhân là các thiết bị đồng bộ, cấu hình không cần cao, có thể di động như Smartphone, NUC, Compute Stick..

Mô hình kiến trúc đó là:

 

ECORAIL_LotusDomino

 

Chúc các bạn thành công, tìm ra được công nghệ mới trên Cloud để cải tổ công nghệ sản phẩm và ứng dụng nó vào đời thực tế hoạt động của Doanh nghiệp mình !

 

Trân trọng cảm ơn các bạn đã theo dõi !

Phần 1. Cách nâng cấp ESXi Host từ version 6.0 lên 6.2


 

Bước 1. Mở WinSCP kết nối tới máy chủ ESXi Host 6.0

image_thumb2

Bước 2. Mở Putty kết nối tới máy chủ ESXi Host 6.0 và dùng 2 lệnh sau:

image_thumb511

esxcli network firewall ruleset set -e true -r httpClient

esxcli software profile update -p ESXi-6.0.0-20160302001-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml

 

Bước 3. Reboot lại máy chủ ESXi Host 6.

 

Bước 4. Kiểm tra kết quả update thông qua vSphere Client

image_thumb9

Tham khảo link: https://esxi-patches.v-front.de/ESXi-6.0.0.html để biết các số hiệu phiên bản cần nâng cấp.

 

Tham khảo thêm: Một số lỗi có thể xảy ra khi nâng cấp

image_thumb14[1]

Bạn cần phải sửa lỗi định dạng phân vùng: altbootbank partition.

Hãy cho chạy lệnh: xác định device for /altbootbank:
vmkfstools -P /altbootbank

Bạn sẽ nhìn thấy bảng danh sách LUN:
mpx.vmhba2:C0:T0:L0:6

image_thumb20

Hãy nhập lệnh sau để sửa định dạng ổ cứng: altbootbank partition:
dosfsck -a -w /dev/disks/device_name
ví dụ: gõ lệnh
dosfsck -a -w /dev/disks/mpx.vmhba2:C0:T0:L0:6

Sau khi chạy lệnh trên có màn kết quả:

image_thumb23

Sau bước sửa lỗi altbootbank partition, ta tiếp tục chạy lệnh nâng cấp version của ESXi host như ở bước 2.

image_thumb27

 

Sau khi nâng cấp thành công, màn PuTTy sẽ hiển thị trong kết quả dòng tình trạng:  Reboot Required: True.

Bạn sẽ phải gõ lệnh: reboot để khởi động lại máy chủ ESXi Host đã nâng cấp nói trên.

 

Chúc các bạn nâng cấp thành công ESXi Host lên 6.0 u2 !

Cách 2: làm cách nào có thể giảm “Shrink a file VMDK” ổ cứng của máy ảo ?


Trong quá trình giảng dạy và trong thực tế hoạt động của Doanh nghiệp, Tôi thường có một số bài tập, một số yêu cầu trái quy luật, các bạn học viên đều phải làm thế nào để giảm kích thước phân bổ của Thick ổ đĩa ảo được cung cấp cho máy ảo.

Tăng kích thước VMDK có thể được thực hiện trong GUI của vSphere client/ Web Sphere, nhưng để giảm kích thước của VMDK lại không được phép.

Trong hầu hết các trường hợp, Đối với máy ảo đĩa cứng thu nhỏ có thể được thực hiện thông qua các tool như: P2V, V2V, VMware Converter Freeware. Đây là phương pháp an toàn nhất để làm giảm kích thước máy ảo VMDK, nhưng có một phương pháp đơn giản khác giúp tiết kiệm rất nhiều so với P2V, V2V.

Phương pháp dưới đây được thử nghiệm trên HĐH Windows 2008 nhưng nó có thể làm hỏng dữ liệu của bạn vì vậy tôi sẽ đề nghị chuẩn bị kế hoạch trước khi thực hiện giảm kích thước các đĩa ảo.

Một điều lưu ý nữa để thực hiện việc thu hẹp đĩa là thực hiện một bước làm gián đoạn hoạt động của máy ảo từ phía hệ điều hành sử dụng tính năng Shrink trong Windows 2008 và sau đó làm theo các bước dưới đây.

Bước 1: Bật ESXi Shell và SSH port 22 trong máy chủ ESXi Host

Sử dụng WINSCP/ SCP hoặc PuTTy để truy cập vào đường dẫn của ESXi Host

cd /vmfs/volumes/Datastore_name/VM_Name

Bước 2: Chỉnh sửa các tập tin VM_Name.vmdk sử dụng lệnh Nano hoặc trình soạn thảo vi,

ví dụ: Dưới đây là nội dung của file vmdk.

image

Chú thích: Trong hình trên, Kích thước của đĩa RW: 83886080. nó được tính toán như thế nào ? Nó là gì con số thể hiện điều gì ? sao nó lại tính ra là: 42.949.672.960 –> test-flat.vmdk (nghĩa là = 40 GB).

Công thức:  40 GB = 40 * 1024 * 1024 * 1024/512 = 83.886.080

Các bên dưới giao diện chụp xác nhận rằng VM có 40 GB vmdk ..

Như vậy, theo công thức này cho phép ta tính tiếp nếu 50 GB = 50 * 1024 * 1024 * 1024/512 = 104.857.600

image

Theo mô tả mức độ thay thế giá trị giữa RW _ _ _ _ _ VMFS * -flat.vmdk. Trong trường hợp của tôi nó là 40GB đĩa được sử dụng và do đó giá trị là 83886080. Tôi muốn giảm bớt 10 GB để cho kích thước vmdk thu nhỏ xuống 30GB.

Sử dụng các phép tính nói trên sẽ tính toán được:

30 GB = 30* 1024 * 1024 * 1024 / 512 = 62.914.560

Chỉnh sửa các tập tin mô tả bằng lệnh vi VM_Name.vmdk   (ví dụ: gõ lệnh vi test.vmdk)

Sửa lại giá trị trong nội dung file theo giá trị vừa tính và lưu lại file vừa sửa.

image

Bây giờ mở vSphere client> chọn lại máy ảo và bấm chuột phải chọn mục Edit Settings

image

Hãy cẩn thận trước khi làm theo cách đơn giản này ? hãy backup trước khi định quậy phá Smile.

Chúc các bạn thành công !

Cách cấu hình NFS/SMB NAS trên Windows 2012 R2 để kết nối NAS với ESXi Host 6.0


Nếu bạn đã có một số phần cứng được ảo hóa mạng, lưu trữ cũng được ảo hóa rồi, Windows Server 2012 có thể là một giải pháp tuyệt vời cho một thiết bị lưu trữ ảo.

Bây giờ bạn có thể làm cả hai khối (iSCSI) và NAS (NFS kết hợp SMB) trên cùng một máy chủ ảo hoặc nhiều máy chủ ảo nằm trên các ESXi Host khác nhau thuận tiện cho việc làm các cấu trúc lưu trữ failover-cluster, cũng như có một hệ điều hành để cài đặt một số ứng dụng quản lý lưu trữ trên đó.

Trong bài thực hành này của tôi, chúng ta sử dụng máy chủ quản lý lưu trữ để chạy VDP/ Veeam Backup cho các sao lưu VMs, màn hình mạng PRTG để theo dõi băng thông, cũng như sử dụng máy chủ windows 2012 R2 này cho việc sử dụng NFS/SMB gắn kết với vSphere ESXi Host.

Bước 1. Cài NFS Server, giao thức SMB và tính năng quản lý nguồn tài nguyên:

Mở “Server Manager” và chọn đường dẫn: “Add roles and features”.

image

Chọn 1 “role-based or feature-based installation”

image

Chọn máy chủ bạn cần cài thêm tính năng NFS.

image

Hãy kéo xuống mục File and Storage Services và chọn trong danh sách Roles để thêm:

  • File Server Resource Manager
  • Server for NFS

image

Tiếp tục đến mục chọn tính năng “Features”

Hãy kéo danh sách xuống và chọn:

  • Enhanced Storage
  • Multipath I/O
  • SMB Bandwidth Limit
  • Telnet Client
  • Desktop Experience

image

image

Cuối cùng bạn xem lại cửa sổ xác nhận và cài đặt

image

 

Bước 2. Cấu hình NFS/SMB Quota, kích hoạt SMB và kết nối ESXi Host với NAS :

Mở “Server Manager”, chọn Menu “Tools”, chọn “File Server Resource Manager”:

image

Các bạn nên tạo ra các mẫu Quota giới hạn kích thước sử dụng NAS khác nhau để linh hoạt trong quản lý sử dụng kích thước tài nguyên NAS. Hệ thống hiện tại chỉ có một vài mẫu quản lý giới hạn chính, bạn nên copy để tạo mẫu riêng

image

Bấm chọn mục “Quota Templates” và chọn một dòng mẫu (ví dụ: 100 MB Limit) và Bấm phải chuột chọn menu pop-bar “Edit Template Properties…”

Lần đầu tiên, bạn nên bấm nút “Copy” để sao chép một Quota mới giống như mẫu đã có, sau đó sửa các thông số như: Template name:, Space limit, chọn Hard quota vì giới hạn về kích thước người dùng nên chính xác.

image

ví dụ:

image

Sau động tác khai thông số và bấm “OK” bạn sẽ nhận được thông báo áp dụng Quota mới này cho cả những cấu hình trước khi khởi tạo Quota này hay chỉ áp dụng mới.

image

Kiểm tra danh sách Quota đã có rule mới:

image

Bước 3: Tạo NFS Share để map Folders Share và Quota:

Mở My Computer bằng Windows Explorer:

Tạo 1 thư mục để làm lưu trữ NFS, bấm phải chuột vào thư mục này và chọn Properties

Quay lại màn hình Server Manager

image

Bấm vào mục Shares > Bấm TASKS và chọn menu pop-bar “New Share…”

image

Bấm chọn mục “NFS Share – Quick” trong cửa sổ “New Share Wizard”

image

Chọn ổ cứng, thư mục cần Share

image

Remote path to share: chính là thông số đường dẫn để ESXi Host kết nối tới

image

Đánh dấu chọn các chuẩn xác thực của Windows Authenticate, UNIX, Linux

image

Mục phân quyền truy cập thư mục Share, bạn có thể cho phép hoặc chặn các quyền của bất cứ Host, Computer name, PC client, ESXi Host theo IP và quyền “no access”, read only, Read/Write.

ví dụ: Tôi không chặn tất cả mạng LAN

image

Tiếp theo chọn Next

image

Tiếp tục làm thao tác tới phần xác nhận trước khi khởi tạo NFS Share

image

 

Trường hợp để tạo thư mục và tạoNFS Share, bạn cũng có thể thao tác trên My Computer

Chọn tiếp tab “NFS Sharing”, tiếp theo chọn nút “Manage NFS Sharing…”

image

Nhấp vào nút “Permission” để cho phép quyền readwrite trên thư mục đã được cấu hình NFS Share.

image

Bạn có thể Xóa Name: ALL MACHINES và chỉ cho add các máy chủ ESXi host (tên / IP chính xác) để hạn chế quyền truy cập của các máy trong mạng LAN kết nối tới NFS này.

Xin lưu ý: Các bước vừa xong không chia sẻ các thư mục theo Server Message Block (SMB) như bạn có thể được sử dụng để làm cho tiêu chuẩn của Windows File Shares. Đây chỉ là thiết lập NFS Sharing.

Bạn cũng có thể áp dụng Quota cho thư mục vừa cấu hình NFS/SMB bằng cách mở lại Server Manager > File and Storage Services > Shares

image

Chọn thư mục đã cấu hình NFS Share, chuyển xuống màn QUOTA

chọn TASKS > chọn configure Quota…

Tham khảo: http://www.techrepublic.com/blog/data-center/how-to-create-a-quota-template-in-windows-server-2012/ 

 

Bước 4: Tạo NFS Share để map Folders Share và Quota:

Dùng vSphere Client mở ESXi host

image

Chọn Tab “Configuration” > Chọn Storage và bấm mục “Add Storage…”

image

Chọn Network File System (chính là kết nối tới NAS)

image

Lưu ý:

– Bạn có thể cấu hình 2 card mạng ở phần máy chủ NFS và dùng cấu hình Nic Teaming để sinh ra 1 IP bond, điều chỉnh MTU từ 1500 –> Enable Jumbo Frame và MTU đổi lên 9000 giúp an toàn và tốc độ cân bằng tải, nhanh trong kết nối giữa ESXi Host và NAS.

– Bạn nên kiểm tra phần Folder Share theo vị trí và đúng chính xác tên chữ hoa chữ thường khi cấu hình máy NFS Server (nên cho thành chữ thường đỡ nhầm lẫn).

Kết quả sau khi kết nối đúng:

image

 

 

Chúc các bạn thành công !

%d bloggers like this: