Category Archives: VMware

How to reset ESXi v6 root password when forget password


Disclaimer: VMware doesn’t suggest any other method but to reinstall the ESXi host!!! If you follow this tutorial – I’m not responsible for any/all possible damages!!!
We used this version of ESXi to reset the password:
ESXi ISO image (Includes VMware tools) 2016-03-15 | 6.0U2 |
(VMware ESXi 6.0.0 VMKernel Release Build 3620759)
You will need a physical access to ESXi host in order to be able to reset the password because you cannot shutdown/reboot (F12) without the password.
Download Kali linux distribution, burn it and boot from it:
https://www.kali.org/downloads/ )

ESXi stores passwords in /etc/shadow file and once the machine is down it’s saved in state.tgz So we need to find it. It’s usually either on sda5 or sda6:
root@kali:~# fdisk -l
You should see sda5 and sda6 partitions.
Create the mounting points:
root@kali:~# mkdir /mnt/sda5
root@kali:~# mkdir /mnt/sda6

Mount them:
root@kali:~# mount /dev/sda5 /mnt/sda5
root@kali:~# mount /dev/sda6 /mnt/sda6

Look for state.tgz file
root@kali:~# ls -l /mnt/sda5 | grep state
in my case state.tgz file was on this partition, so I’m skipping sda6
Copy this file to your home folder, extract it and edit the shadow file
root@kali:~# cp /mnt/sda5/state.tgz state.tgz
root@kali:~# gzip -d state.tgz
root@kali:~# tar -xvf state.tar
root@kali:~# gzip -d local.tgz
root@kali:~# tar -xvf local.tar
root@kali:~# cd /etc
root@kali:/etc# vi shadow
 
image

make changes, save, exit and put it back:
root@kali:/etc# cd ..
root@kali:~# tar -czvf local.tgz etc
root@kali:~# tar -czvf state.tgz local.tgz
root@kali:~# cp state.tgz /mnt/sda5/state.tgz
root@kali:~# umount /mnt/sda5
root@kali:~# umount /mnt/sda6

Once you reboot – you should be able to login without a password and set a new one

image

Cách thêm nhiều Domain Multi-tenant đăng nhập 1 lần trên vCenter


image

image

 

image

image

Bên cạnh các máy chủ AD có cấu hình kết nối thông qua giao thức LDAP, chúng ta vẫn có thể cấu hình thêm 1 kiểu kết nối AD – Active Directory (Integrated Windows Authentication)

image

 

Sau khi đã phân quyền các users/ group thuộc các Domain AD đó thành công.

Mỗi user có quyền thuộc các AD khác nhau đều có thể truy cập vào cùng vCenter với các kiểu đăng nhập sau:  kiểu tên miền\user name  hoặc  username@tên miền

image

 

hoặc domain khác:

image

Chúc các bạn thành công !

VMFS vs RDM là gì ? dùng RDM trong Oracle như thế nào ?


Phần 1. VMFS vs RDM là gì ?

Lưu trữ là một trong những thành phần quan trọng nhất của hệ thống cơ sở hạ tầng để vận hành, đặc biệt trong phần ứng dụng CSDL. Hầu hết các DBA và quản trị viên cũng ý thức được điều này. Trong hầu hết các câu chuyện với Doanh nghiệp và khách hàng của chúng tôi đều được hỏi một số câu rất phổ biến trong giai đoạn phân tích thiết kế:

Tôi nên dùng VMFS, RDM, hay in-guest Storage” ?

Câu hỏi đề cập đến loại hình lưu trữ “Storage presentation types”. Trình lưu trữ là các phương pháp lưu trữ sử dụng để xử lý các khối lượng dữ liệu và lưu trữ từ ứng dụng gửi tới. Dưới đây là một số tuỳ chọn lưu trữ có sẵn:

1. VMFS-5

2. NFS

3. RDM-V ( RDM – Virtual)

4. RDM-P (RDM – Physical Pass-thought)

5. in-Guest

Tôi rất để ý và thích thú với câu hỏi thẳng này, vì đơn giản nó dẫn chúng ta vượt ra xa khỏi cách sử dụng bình thường. Nó sẽ giúp bạn quyết định dùng những công cụ phân tích đo đạc tối ưu, trước khi vận dụng thực tế. Bạn sẽ dùng SAN cấp độ Snapshot ? Các tập tin CSDL sẽ tồn tại trên khối lượng Volumes mà trong quá trình vận hành bạn vẫn có thể dùng các công cụ nhân bản/sao chép SAN Clone để sao lưu ?  Bạn sẽ dùng VMware SRM  (Site Recovery Management) ? VDP (vSphere Data Protection) ? vSphere Fault Tolerance mới có 4vCPU trên 1 VM/1Host ? vCloud Data Director ? Oracle DB RAC ? tất cả chúng đều phải được xem xét để chọn được kiểu Storage Presentation.

Vấn đề 1. Hiệu suất:

Trước khi có nhận xét cụ thể về các loại lưu trư, chúng ta nên nói về Hiệu suất. Theo kinh nghiệm của nhiều người kỹ thuật, các dạng lưu trữ đề cập ở trên đều là dạng Hiệu suất cấp độ 1 “Tier-1”.  Công đoạn triển khai thực hiện chính là yếu tố quan trọng cho việc xác định 1 loại lưu trữ có Hiệu suất tốt. Hiểu biết về thiết bị và thực hành tốt các thiết bị của nhà cung cấp sẽ là cơ sở để bạn thực hiện triển khai tốt.

Ví dụ: iSCSI, NFS được tối ứu hoá để cho sử dụng Jumbo Frames. Bỏ qua chế độ cho phép khung Jumbo Frame hệ thống lưu trữ của bạn sẽ chỉ chạy ở 1/2 thông số khả năng của nó.

image

Việc so sánh giữa 2 môi trường, môi trường vật lý truyền thống với lưu trữ chuyênd dụng và không được chia sẻ, để tích hợp hoặc làm việc với nhiều môi trường dữ liệu ứng dụng khác hoặc mở rộng lớn hơn là bất lợi.

VMware vsphere là môi trường được thiết lập để chia sẻ lưu trữ cho nhiều máy ảo. Đây là khái niệm căn bản, và là nơi chúng ta tìm ra nhiều điểm yếu, mạnh, sai sót và hợp lý của vsphere để xây dựng và củng cố những thứ riêng, đọc quyền… Đừng hiểu nhầm thông điệp của tôi – Xây dựng để phân tích và tổng hợp các kiến trúc tập chung hạng nặng là cách tuyệt vời để xây dựng các cụm vSphere Clusters.

Tuy nhiên đối với các thể loại Tier-1 Workloads thì không phải thuần tuý như vậy, bạn phải suy nghĩ tính toán cẩn thận ví dụ: dùng GPU, CUDA cho xử lý tính toán HPC… Các loại hàm thủ tục tương tự/tuần tự hoặc các cơ chế tính toán Tỷ lệ hợp nhất sẽ không thể luôn luôn làm việc có thể phù hợp với kiểu vận hành SLA quan trọng.

Vấn đề 2. Dụng cụ (Công cụ đo đạc và hiệu chỉnh Tunning):

Chúng tôi luôn xem xét về 2 tiêu chí Khi xem xét quyết định sử dụng: 1. Hiệu suất (thảo luận trên) và dụng cụ.

Đối với dụng cụ, VMFS cung cấp các dụng cụ tối đa liệu có thể là không có giới hạn, Khi nhìn vào vSphere hoặc các sản phẩm bổ sung của nó như VMware SRM hoặc vCloud Director. Các dạng lưu trữ CSDL Trình RDMs được tùy chọn. Tuy nhiên, chúng ta sẽ gặp hạn chế trên VMware. Ví dụ: nếu dùng VMware Fault Tolerance. VMware FT hiện chỉ được hỗ trợ với VMFS. Mới có 4 vCPU trên 1 VM/1 Host.

Dưới đây là một sơ đồ LTT, CTO của Trung tâm nghiên cứu và phát triển sản phẩm VEEAM Backup.

Nó đơn giản chỉ hiển thị bốn loại trình lưu trữ chính.

QUAN TRỌNG: Điều này không có nghĩa đó Một trong những loại thuyết trình lưu trữ là thực tế chỉ tốt nhất hoặc một chỉ đơn giản là sai cho tổ chức CNTT của bạn. Trong thực tế, tôi viết bài này để hỗ trợ việc triển khai đã sử dụng một trong mỗi loại lưu trữ. nguyên tắc chung của tôi là thích dùng hệ thống định dạng loại VMFS trên tất cả các tùy chọn lưu trữ khác vì nó thống nhất hầu hết các kỹ thuật và nó dẫn tôi đến được hầu hết các loại kỹ thuật khác.

image

1. VMware vSphere VMFS-5 dùng cho ổ đĩa ảo của VM – virtual machine disk (viết tắt: VMDK) là kiểu chuẩn Tier-1 cho trình lưu trữ “storage presentation”.

– VMDK được mệnh danh là công cụ lưu trữ tối đa hoá của vSphere storage.

2. Raw Device Mapping (viết tắt: RDM) liên quan tới cấu hình dạng “mâm xôi” và chi phí vận hành liên tục so với VMFS. RDMs có thể vận hành theo kiểu tương thích chế độ Ảo – virtual compatibility mode (viết tắt: RDM-V) hoặc kiểu tương thích chế độ Vật lý – physical compatibility mode (viết tắt: RDM-P).

2.1. Chế độ tương thích Ảo: RDM-V, cung cấp một số tính năng tương thích với  vSphere storage RDM, kết nối giao thức iSCSI, định dạng VMDK…

2.2. Chế độ tương thíc Vật lý: RDM-P, cho phép phương thức này tiếp cận toàn diện về mảng ổ cứng lưu trữ vật lý, RAID vật lý, truy cập trong suốt với hệ thống  lưu trữ qua mạng Vật lý. Điều này thể hiện cách tiếp cận xuất phát với giá trị vật lý, thậm chí có rất ít liên quan tới ảo hoá bằng vSphere Storage.

3. Chế độ in-guest:  hay còn hiểu là kiểu lưu trữ gắn trực tiếp – Direct-attached storage (lưu trữ ổ cứng cắm trực tiếp trên các Host).

Tóm lại, sự khác nhau thực sự giữa RDM-V và RDM-P là gì ?

 

Phần 2. Dùng RDM trong Oracle như thế nào ?

Bạn có thể cấu hình RDMs trong chế độ ảo tương thích (viết tắt: RDM-V), hoặc chế độ tương thích vật lý (viết tắt: RDM-P).
RDM-V hay còn gọi là chế độ tương thích ảo, quy định cụ thể ảo hóa đầy đủ các thiết bị ánh xạ tới hệ thống lưu trữ.

Trong chế độ RDM-V hypervisor sẽ chịu trách nhiệm cho các lệnh SCSI giao thức kết nối. Với hypervisor giống như HĐH điều khiển các lệnh SCSI, một tập hợp lớn hơn của các dụng cụ ảo hóa có sẵn.
Trong chế độ RDM-P tương thích vật lý, các lệnh SCSI điều khiển được đấu nối trực tiếp thông qua hypervisor không thay đổi gì. Điều này cho phép SAN quản lý trực tiếp LUN. Bất lợi của RDM-P là mất khả năng dùng công cụ vSphere snapshot.

Lưu ý: Một thực hiện chung cho việc sử dụng RDM-P là các công nghệ sử dụng SCSI như:

– Microsoft Clustering là một cách cho một máy chủ dành độc quyền truy cập một LUN trong một cấu hình lưu trữ chia sẻ thoe gioa thức SCSI.
– Oracle Cluster Services không sử dụng SCSI reservation. Oracle dựa trên các cơ chế cấu hình RAC thay vì phần mềm riêng của mình để bảo vệ sự toàn vẹn của lưu trữ chia sẻ. Hob khuyến cáo nên dùng Oracle RAC cấu hình trên lớp lưu trữ ứng dụng chứ không phải dùng RDM-V hay RDM-P, cũng như không dùng VMDK. Nhưng ngược lại, RDM-P lại cho phép dùng SAN truy cập công cụ để lưu trữ hoặc tận dụng công cụ Snapshot từ lớp API Management của SAN, chúng giỉa quyết được sự năng nề của LUN, như vậy có thể bị cám dỗ để cấu hình RDM-P.
Cuối cùng, tôi để lại cho bạn một sự so sánh giữa RDM-P vs RDP-V trên vSphere:

image

Xem tiếp phần sau gồm 2 bài: 

Phần 3. Bài thực hành cấu hình Oracle RDM trên nền VMware vSphere:

Phần 4. Bài thực hành cấu hình VEEAM Backup sao lưu máy ảo Oracle RDM:

Bài Labs: triển khai mô hình HA và SSO cho PSC với vCenter site A (Hà nội) và vCenter Site B (HCMC)


Những phiên bản vSphere 5.5 trở về trước chung ta chưa bao giờ xử lý cấu hình và tiết kiểm được chi phí license của vCenter với các ESXi Host của từng hệ thống DC hay còn gọi là từng chi nhánh “site”.

Trong phiên bản từ vSPhere 6.0 trở lên, chúng ta hoàn toàn có thể giải quyết các vướng mắc và tiết kiệm chi phí license khi dựng 1 hệ thống vCenter có nhiều chi nhánh DC ở nhiều hơn 1 site.

Ở đây tôi xin giới thiệu cơ bản về mô hình cấu hình vSphere 6 với 2 site A( đặt tại Hà nội)  và Site B (đặt tại HCMC) thông qua mô hình cấu hình Hệ thống Quản trị trung gian “External PSC”:

Trong đó PSC là Platform Service Controller chỉ có từ vSphere 6.x. Mô hình này tôi dựng toàn bộ là các máy chủ VM Appliance để giảm chi phí license cài trên Windows OS server và MS SQL Server.

Tận dụng tối đa license Open GLN của VMware xây dựng trên Linux SuSe Enterprise Server 11 x64.

image

Một số yêu cầu quan trọng phải chuẩn bị trước:

1. Luôn phải có tới thiểu 1 DNS server để cấu hình các bản ghi A (Host) để forward và PTR để reverse lookup zones.

2. Trong 1 Site A tối thiểu sẽ có 2 máy ảo VM để deployed, 1 là máy  ảo PSC và 1 cái khác là  vCenter nằm trên cùng node.

3. Tất cả 2 máy VM trên đều phải là IPv4 địa chỉ IP tĩnh và có thông tin tên máy theo dạng FQDN (có định danh tên host + tên domain khớp với DNS Server đã khải ở trên bản ghi A, PTR) 

I. Triển khai Platform Services Controller – PSC tại Site A:

Bước 1.

image

Bước 2.

image

Bước 3.

image

*Ghi chú*  Nếu bạn có một domain hiện có trong AD hoạt động ví dụ: xyz.vn.  Bạn đừng nên  sử dụng tên miền này cho vCenter vì miền đó sẽ làm SSO và sẽ khiến bạn nhầm lẫn giữa SSO của vCenter với AD user của bạn khi quản lý thêm hoặc phân quyền người dùng dưới tên miền xyz.com trong vCenter  Administrators.

Bước 4.

image

Bước 5.

image

Bước 6.

image

Bước 7.

image

Bước 8.

image

Bước 9.

image

Bước 10.

image

II. Cài và cấu hình vCenter Appliance tại Site A  (VCVA – Site A):

Bước 1.

image

Bước 2.

image

Bước 3.

image

Bước 4.

image

Bước 5.

image

Bước 6.

image

Bước 7.

image

Bước 8.

image

Bước 9.

image

Bước 10.

image

Bước 11.

image

Bước 12.

image

Bước 13.

image

Bước 14.

image

 

III. Cài đặt và cấu hình vCenter Appliance site B (chi nhánh) chỉ có vCenter và kết nối qua mạng WAN/Internet tới Site A thông qua PSC

Các bước chuẩn bị trước khi cài vCenter tại site B (HCMC):
– Đây là cách cấu hình mở rộng cho phép kết nối PSC từ vCenter 6.x, đây cũng là kiểu cấu hình cho phép nhiều vCenter Servers có thể kết nối tới 1 PSC.
  1. Các vCenter không nằm trên cùng hệ thống với PSC sẽ phải có cấu hình DNS Server (có bản ghi A, PTR của máy chủ vCenter trước khi cài vCenter).
  2. Phải đảm bảo là quản trị site B của HCMC phải biết thông tin chính xác về địa chỉ IP, tên máy chủ và FQDN của PSC tại Hà nội, user admin SSO, mật khẩu và mở NAT cổng 443 của PSC .
  3. Hệ thống mô hình này cũng cho phép có nhiều PSC hơn 1 máy tại HCMC giống với ở Hà nội.
  4. Giải pháp trên cũng hỗ trợ cho vCenter Windows Server.

ví dụ mô hình nhiều vCenter cùng kết nối tới 1 PSC

image

Bước 1.

image

Bước 2.

image

Bước 3.

image

Bước 4.

image

Bước 5.

image

Bước 6.

image

Bước 7

image

Như vậy là chúng ta đã cài đặt xong mô hình mở rộng PSC cho phép kết nối và SSO giữa 2 site A (hà nội) và site B (HCMC).

Chúc các bạn thành công !

Cách xuất các VM từ VirtualBox Machine sang VMware thành công


Chúng ta đã dùng khá nhiều VM trên các nền HĐH khác nhau, Virtual Box, MS Hyper-V cũng vậy, xong hầu hết xu hướng của người quản trị/ người dùng/ lập trình viên đều ,muốn quản lý chúng 1 cách tập trung, cần nhiều tài nguyên hơn để thử nghiệm, nâng cấp. Do vậy, chúng ta cần chuyển chúng sang vSphere Hypervisor VMware hoặc vSphere ESXi.

Các version software mà chúng ta dùng:

  • VirutualBox >= 4.3
  • vSphere Client >= 5.0
  • VMware ESXi Hypervisor >= 5.0
Xuất ra Vm từ Virtual Box:
Để xuất ra được VM, bạn phải shut down máy ảo và chọn menu  “File” > “Export Appliance”. Tiếp theo đặt tên máy ảo 

image

On the following screen, select a destination for the output file and choose the OVA format and choose “OVF 1.0” format from the drop down and check the write manifest file box.

image

Click “Next” and then click “Export”. Depending on the size of the machine this could take a while.

image

Preparing to Import the VM

image

Once the export is complete you can try deploy the OVA to ESXi but you will receive the following error, “The OVF package requires unsupported hardware. Details: Line 25: Unsupported hardware family ‘virtualbox-2.2’.”.

image

Cách 1:

Chủ động làm lại ổ cứng ảo VMDK, nếu có bộ cài iSO để cài lại trên chuẩn ổ cứng VMDK.

image

Lưu ý: do 1 số HĐH là cũ như Linux Kernel 2.2/2.4 32/64bit không tương thích với các giao thức mới (SATA/ SCSI) của Computer Machine, thường chỉ chạy với chuẩn cũ IDE

image

Hãy tắt các device không cần thiết như: audio, serial ports, usb, share folder:

image

image

image

image

Bước tiếp theo là stop máy VM và chọn Export Appliance

image

Bước cuối cùng cần sửa lại nội dung cho file OVF tương thích với việc Deploy vào ESXi Host:

Giải nén file OVA bằng 7z tạo thành thư mục chứa 2 files: ovf và vmdk, hãy mở nội dung file ovf bằng notepad++

image

Sửa tham số  virtualbox-2.2 thành  vmx-07.

Lưu ý: một số OS như: Linux OpenSuSe x64 thì chỉ có VMX-11 mới support. hoặc bạn sẽ phải chỉnh General trong Virtualbox cấu hình thành Other Linux x64 để khi sang vSphere chỉnh lại HĐH tương thích sau.

image

Lưu lại file OVF sau khi sửa:

image

Cuối cùng là mở vSphere ESXi và deploy VM bằng file ovf.

———————————————————-

Cách 2: cách cũ và hay bị phát sinh việc sửa cấu hình VM trong virtualbox

Dùng 7Zip” để giải nén “extract the OVA”. bấm “OK” để giải nén và bỏ qua các lỗi.

image

image

Tạo 1 bản sao lưu tránh sửa nhầm lệnh trong OVF file và dùng notepad++.

thay đổi dòng nội dung:

image

<vssd:VirtualSystemType>virtualbox-2.2</vssd:VirtualSystemType>

thành dòng:

<vssd:VirtualSystemType>vmx-07</vssd:VirtualSystemType>

Deploy VM trên vSphere client:

Hãy chọn file “Deploy OVF Template”.”đảm bảo là chọn OVF file không chọn OVA file”.

Nếu bạn nhận được các lỗi sau: hardware error: “The OVF package requires unsupported hardware. Details: Line 74: OVF hardware element ‘ResourceType’ with instance ID ‘6’. No support for the virtual hardware device type ’35’.”

hardware error

Để fix lỗi này, mỡ lại file OVF file và xóa <item> có viết cả đoạn tham số XML liên quan tới sound card:

    <Item>
        <rasd:AddressOnParent>3</rasd:AddressOnParent>
        <rasd:AutomaticAllocation>false</rasd:AutomaticAllocation>
        <rasd:Caption>sound</rasd:Caption>
        <rasd:Description>Sound Card</rasd:Description>
        <rasd:ElementName>sound</rasd:ElementName>
        <rasd:InstanceID>6</rasd:InstanceID>
        <rasd:ResourceSubType>ensoniq1371</rasd:ResourceSubType>
        <rasd:ResourceType>35</rasd:ResourceType>
    </Item>

image

Còn lỗi message khác : Line 66: OVF hardware element ‘ResourceType’ with instance ID ‘5’: No support for the virtual hardware device type ’20’

Bạn vẫn phải mở lại file OVF và sửa lại nội dung ở item Instance 5:

<Item>
<rasd:Address>0</rasd:Address>
<rasd:Caption>sataController0</rasd:Caption>
<rasd:Description>SATA Controller</rasd:Description>
<rasd:ElementName>sataController0</rasd:ElementName>
<rasd:InstanceID>5</rasd:InstanceID>
<rasd:ResourceSubType>AHCI</rasd:ResourceSubType>
<rasd:ResourceType>20</rasd:ResourceType>
</Item>

Cần phải chuyển kiểu kết nối ổ cứng ảo SATA controllers, sang dạng SCSI (Instance Id needs to be unique for all the elements):

<Item>
     <rasd:Caption>scsiController0</rasd:Caption>
     <rasd:Description>SCSI Controller</rasd:Description>
     <rasd:InstanceId>12</rasd:InstanceId>
     <rasd:ResourceType>6</rasd:ResourceType>
     <rasd:ResourceSubType>lsilogic</rasd:ResourceSubType>
     <rasd:Address>1</rasd:Address>
     <rasd:BusNumber>1</rasd:BusNumber>
 </Item>

Hãy thay đổi kiểu kết nối ổ cứng ảo bằng ID của SCSI controller:

<Item>
     <rasd:Caption>disk1</rasd:Caption>
     <rasd:Description>Disk Image</rasd:Description>
     <rasd:InstanceId>11</rasd:InstanceId>
     <rasd:ResourceType>17</rasd:ResourceType>
     <rasd:HostResource>/disk/vmdisk1</rasd:HostResource>
     <rasd:Parent>12</rasd:Parent>
     <rasd:AddressOnParent>0</rasd:AddressOnParent>
 </Item

Sau khi đã sửa xong nội dung file OVF, bạn có thể chạy lại deploy vSphere client để cấu hình VM:

ovf import

Máy ảo của bạn sẽ trải qua 4 lần bấm Next:

  • Bấm “Next” nhập tên máy ảo

  • Bấm “Next” và định dạng đúng kiểu ổ Virtual Disk formatting bạn muốn

  • Bấm “Next” và kiểm tra mạng

  • Bấm “Next” và bấm “Finish”

Bạn sẽ cần vài phút để deploy VM, có thể bạn phải chỉnh Memory, CPU, Network để đảm bảo phù hợp tài nguyên cho VM.

adjust machine settings

Bây giờ thì các VM hoàn toàn có thể tắt trên VirtualBox, và hãy để chúng chạy trên vSphere VMware với sự tương thích của nhiều OS, chạy VM trên VMware là lợi thế của bạn,

Chúc bạn thành công và  tận dụng cơ hôi ảo hóa tập trung.

Cách thế nào để cấu hình VMware vSwitch từ ESX / ESXi Command Line


 

Trong cả hai VMware ESX và ESXi host, vSwitches có thể được cấu hình hoặc từ giao diện hoặc từ dòng lệnh.

  • vSwitch được hiểu là thiết bị Switch ảo tiêu chuẩn
  • Các cấu hình CLI là rất hữu ích khi bạn đang cài đặt nhiều máy chủ ESXi và có kế hoạch triển khai nhiều cấu hình PortGroup cho vSwitch.

Làm thế nào để cấu hình vSwitch từ CLI bằng lệnh esxcfg-vswitch.

 

Liệt kê tất cả vSwitches

Trên ESXi: Để xem tất cả các vSwitches hiện trong máy chủ ESXi, sử dụng tùy chọn -l như hình dưới đây. Điều này sẽ hiển thị cả các chuyển đổi và thông tin portgroup.

# esxcfg-vswitch -l
Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks
vSwitch0         128         3           128               1500    vmnic0

PortGroup Name        VLAN ID  Used Ports  Uplinks
Management Network    0        1           vmnic0

image

 

Trên ESXi: thay vì esxcfg-vSwitch, bạn cũng có thể sử dụng lệnh esxcli vào danh sách vSwitches trong ESXi như hình dưới đây. Theo mặc định, mỗi host ESXi có một switch ảo được gọi là vSwitch0.

image

Thêm một vSwitch mới

Để thêm một vswitch mới, sử dụng tùy chọn -a như hình dưới đây. Trong ví dụ này, một switch mới vswitch1 ảo được tạo ra:

# esxcfg-vswitch -a vSwitch1

Nếu bạn đang trên ESXi host, bạn cũng có thể sử dụng lệnh esxcli như hình dưới đây để thêm một switch mới.

# esxcli network vswitch standard add -v vSwitch1

Số mặc định của các cổng logic trên vswitch là 56.

Số lượng tối đa của vSwithces có thể được tạo ra trên một máy chủ ESXi duy nhất là 127.

Khi hai hoặc nhiều máy ảo kết nối với vswitch cùng các lưu lượng giữa chúng được định tuyến tại Local và bất cứ khi nào nó cần phải kết nối với mạng bên ngoài, giao thông được định tuyến thông qua adapter uplink cơ bản một cổng NIC gắn vào switch ảo.

 

Thêm một Port trong vSwitch

Trên ESX: Chúng ta vừa tạo switch ảo. Nhưng, để kết hợp một cổng mạng (thêm một đường lên) để chuyển đổi ảo này, sử dụng cú pháp sau:

 esxcfg-vswitch -L <primary NIC> <vswitch name>

Ví dụ:

# esxcfg-vswitch -L vmnic1 vSwitch1

# esxcfg-vswitch -l
Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks 
vSwitch0         128         3           128               1500    vmnic0

PortGroup Name        VLAN ID  Used Ports  Uplinks
Management Network    0        1           vmnic0

Switch Name      Num Ports   Used Ports  Configured Ports  MTU     Uplinks
vSwitch1         128         2           128               1500    vmnic1

PortGroup Name        VLAN ID  Used Ports  Uplinks

Trên ESXi, thực hiện lệnh sau để thêm UpLink:

# esxcli network vswitch standard uplink add -u vmnic1 -v vSwitch1
Tạo PortGroups trong vSS

Tiếp theo chúng ta sẽ làm thế nào để tạo ra các Port Group. Port Group là một nhóm cổng trên vSwitch. Đây cũng là phân khúc logic của vSwitch. Mỗi Port Group có một tên gọi là Label Network. Đây là mạng lưới thiết bị đầu cuối cho các máy ảo của bạn.

Trong ví dụ sau đây, bạn sẽ thấy để tạo ra các Port Group và gán các VLAN cho port groups. Nói chung, VLAN ID 0 là để vô hiệu gắn thẻ VLAN trên Port Group.

Cú pháp để thêm một Port Group mới là:

esxcfg-vswitch -A <Port Group Name> <vSwitch name>

Gán VLAN ID vào PortGroups

Cú pháp để gán một VLAN vào Port Group gồm:

esxcfg-vswitch <vSwitch name> –v <VLAN ID> –p “<Port groupname>”
  • It may be necessary to restart the host’s management agents if network connectivity is not restored despite a correct configuration:

services.sh restart

 

Dùng Excel để tạo Script nhân bản nhanh các lệnh

Vận dụng Excel để tạo script nhanh và nhân bản thành nhiều dòng lệnh

image

copy dán sang notepad để đảm bảo không có ký tự sai, khoảng trắng…

image

Cuối cùng copy các dòng lệnh trên vào PuTTy để thực thi

image

Chúc các bạn thành công !

IBM Domino Lotus và Lotus Notes Client chạy trên nền Private Cloud như thế nào ?


Phần 1. Cài Domino Lotus 8.5 trên Windows Server 2008 R2:

image

image

image

image

image

 

image

image

image

image

image

image

image

image

image

Bước 2. Chạy khởi động Lotus Domino lần đầu tiên:

image

Bước 3. Điều khiển màn Console Lotus Domino:

image

Màn điều khiển Console Lotus sau khi khởi động lại lần 2

image

 

Phần 2. Cài và Cấu hình Lotus Administrator:

Lưu ý:

– Trước khi cấu hình: phải đảm bảo máy chủ Windows Server 2008 R2 đã cài Domino Lotus sẽ không cài và chạy IIS trên đó.

hoặc nếu đã cài IIS/ Apache Tomcat hoặc PHP Server thì phải cấu hình các Port Web Default chuyển sang port khác 80 (để nhằm tránh conflict với các cổng và dịch vụ của Lotus Domino cài lên).

image

Bước 4. Cài Lotus Administrator

image

image

image

image

image

image

image

Phần 3. Cấu hình Lotus Administrator kết nối Lotus Domino trên các máy chủ ảo

image

image

image

Lưu ý:

– Trước đó bạn cần phải download các key ID của Admin về máy đã cài Lotus Notes Client.

image

– Máy chủ windows Server 2008 R2 cần mở firewall Port (Lotus Domino RPC 1352)

image

Tiếp tục phần cấu hình IBM Lotus Notes 8.5.2 trên máy chủ AT-BOX Media

image

image

Sau khi kết nối thành công với máy chủ IBM Lotus Domino thông qua cổng TCP 1352

image

Chúng ta cần Key ID của Admin để tạo cấu hình kết nối

image

image

Nhập mật khẩu Admin đã cài trên máy chủ Lotus Domino ở phần 1

image

Tiếp theo, nếu bạn đã có máy chủ SameTime Lotus thì cần phải mở cổng 1533 TCP/IP

ở đây tôi không dùng SameTime nên bỏ qua

image

Khai báo Mail

image

image

image

image

image

image

Bên màn hình của Lotus Domino Server bạn sẽ thấy

image

Bên màn hình của Lotus Notes Client 8.5.2 sẽ thấy

image

Phần 4. Mọi thứ vận hành trên máy chủ

– Người dùng chỉ có Trình duyệt web, mọi hệ điều hành và thiết bị khác nhau đều dùng được.

– Không cài Notes Client trên máy cá nhân vì An ninh , an toàn thông tin, mọi thứ có trên máy chủ.

– Máy cá nhân là các thiết bị đồng bộ, cấu hình không cần cao, có thể di động như Smartphone, NUC, Compute Stick..

Mô hình kiến trúc đó là:

 

ECORAIL_LotusDomino

 

Chúc các bạn thành công, tìm ra được công nghệ mới trên Cloud để cải tổ công nghệ sản phẩm và ứng dụng nó vào đời thực tế hoạt động của Doanh nghiệp mình !

 

Trân trọng cảm ơn các bạn đã theo dõi !

Phần 1. Cách nâng cấp ESXi Host từ version 6.0 lên 6.2


 

Bước 1. Mở WinSCP kết nối tới máy chủ ESXi Host 6.0

image_thumb2

Bước 2. Mở Putty kết nối tới máy chủ ESXi Host 6.0 và dùng 2 lệnh sau:

image_thumb511

esxcli network firewall ruleset set -e true -r httpClient

esxcli software profile update -p ESXi-6.0.0-20160302001-standard -d https://hostupdate.vmware.com/software/VUM/PRODUCTION/main/vmw-depot-index.xml

 

Bước 3. Reboot lại máy chủ ESXi Host 6.

 

Bước 4. Kiểm tra kết quả update thông qua vSphere Client

image_thumb9

Tham khảo link: https://esxi-patches.v-front.de/ESXi-6.0.0.html để biết các số hiệu phiên bản cần nâng cấp.

 

Tham khảo thêm: Một số lỗi có thể xảy ra khi nâng cấp

image_thumb14[1]

Bạn cần phải sửa lỗi định dạng phân vùng: altbootbank partition.

Hãy cho chạy lệnh: xác định device for /altbootbank:
vmkfstools -P /altbootbank

Bạn sẽ nhìn thấy bảng danh sách LUN:
mpx.vmhba2:C0:T0:L0:6

image_thumb20

Hãy nhập lệnh sau để sửa định dạng ổ cứng: altbootbank partition:
dosfsck -a -w /dev/disks/device_name
ví dụ: gõ lệnh
dosfsck -a -w /dev/disks/mpx.vmhba2:C0:T0:L0:6

Sau khi chạy lệnh trên có màn kết quả:

image_thumb23

Sau bước sửa lỗi altbootbank partition, ta tiếp tục chạy lệnh nâng cấp version của ESXi host như ở bước 2.

image_thumb27

 

Sau khi nâng cấp thành công, màn PuTTy sẽ hiển thị trong kết quả dòng tình trạng:  Reboot Required: True.

Bạn sẽ phải gõ lệnh: reboot để khởi động lại máy chủ ESXi Host đã nâng cấp nói trên.

 

Chúc các bạn nâng cấp thành công ESXi Host lên 6.0 u2 !

Làm thế nào có thể Reset được mật khẩu của user Root trong máy chủ vCenter Server Appliance 5.5


Sau gần 5 năm giảng dạy về công nghệ ảo hóa hạ tầng, Cloud, HPC và ảo hóa ứng dụng. Mình để ý thấy càng ngày học viên Việt nam càng hỏi những câu lợi hại, sâu sắc hơn trước.

Hãy xem xét làm thế nào để thiết lập lại mật khẩu Root bị quên trong khi dùng VMware vCenter Server Appliance (VCSA).

Lưu ý: VCSA là một máy chủ ảo đã sẵn sàng chạy với một hệ điều hành Linux SuSe 11 Enterprise x64, đã cài đặt và cấu hình vCenter Server cùng với các dịch vụ bổ sung như Admin SSO. 

Trong quá trìnhsử dụng có thể chúng ta đã quên mất mật khẩu của tài khoản Root, vì vậy chúng ta phải biết cách thiết lập lại mật khẩu root trong Linux Suse (tất nhiên là nó đang được vận hành, cấu hình xong suôi, và không thể đơn giản là cài lại vCenter Server Appliance khi đã đem vào vận hành được – các bạn rất hay quên hoặc không chú ý đến câu hỏi ”làm thế nào có thể backup/restore lại các cấu hình và dữ liệu trên vCenter Server Appliance ?” .

Cách reset mật khẩu của tài khoản Root cho máy chủ VCSA 5,5 làm như sau:

  1. Khởi động lại máy ảo VCSA từ vSphere Client
  2. Khi cửa sổ GRUB xuất hiện, hãy ấn phím “SPACEBAR” để làm chậm khởi động.

image

3. Nhấn phím “P” để hiển thị lại màn thiết lập khởi động

4. Nhập mật khẩu GRUB  (nó chính là mật khẩu đúng của Root.

–  Nếu là lần đầu tiên khởi động vCenter thì user Root sẽ có mật khẩu: vmware (do Virtual Appliance Management Interface – VAMI quản lý).

–  Nhưng nếu bạn đã thay mật khẩu và quên rồi thì đương nhiên bạn sẽ gõ mật khẩu sai ở đây, bạn có thể gõ mật khẩu: blabla…

image

Sau lần gõ lệnh thất bại này, bạn sẽ di chuyển con trở lên xuống bằng bàn phím để tạo thêm độ chễ và màn hình sẽ hiện hướng dẫn sau

image

5. Lúc này bạn sẽ bấm phím “e” để chuyển chế độ chọn hệ điều hành hoặc phân vùng chứa Boot CMD có trong ổ cứng của máy chủ VCSA 5.5

image

6. Sau khi bấm phím E, bạn sẽ chọn mục thứ 2 “Kernel /vmlinuz-3.0.80-0.7-default root=/dev/sda3 append” đây chính là phân vùng “Lõi” chứa boot khi khởi động VCSA

7. Sau khi di con trỏ chọn phân vùng “lõi” bạn ấn phím e để sửa lệnh boot.

image

8. Thêm dòng lệnh init = / bin / bash để các thông số khởi động lại theo Kernel.

9. Nhấn phím Enter, sau đó vào menu GRUB xuất hiện trở lại

image

10. Nhấn phím B để khởi động lại hệ thống VCSA.

11. Sau khi khởi động lại màn hình VCSA đen như sau

image

12. Ở màn hình Console Black windows, bạn sẽ phải thay mật khẩu của user Root bằng lệnh passwd root.

image

Lưu ý: sau lần thay password root này, bạn lại quên mật khẩu là khó có thuốc chữa đấy.

13. Sau khi thay mật khẩu của Root, bạn có thể đánh lệnh Reboot để khởi động lại VCSA 5.5

14. Vì mỗi một tài khoản Root luôn có chính xách “Policy” với thời hạn 90 ngày, bạn có thể thay đổi thời hạn trên trình duyệt web IE/FF mở https://ip-vcsa:5480/ và đăng nhập bằng user: root, mật khẩu vừa thay và chọn tab Admin để thay

image

 

Chúc các bạn luôn thành công !

Năm mới bớt quên quên nhớ nhớ nhưngx cái quan trọng trong hệ thống CNTT nhé.

Cách 2: làm cách nào có thể giảm “Shrink a file VMDK” ổ cứng của máy ảo ?


Trong quá trình giảng dạy và trong thực tế hoạt động của Doanh nghiệp, Tôi thường có một số bài tập, một số yêu cầu trái quy luật, các bạn học viên đều phải làm thế nào để giảm kích thước phân bổ của Thick ổ đĩa ảo được cung cấp cho máy ảo.

Tăng kích thước VMDK có thể được thực hiện trong GUI của vSphere client/ Web Sphere, nhưng để giảm kích thước của VMDK lại không được phép.

Trong hầu hết các trường hợp, Đối với máy ảo đĩa cứng thu nhỏ có thể được thực hiện thông qua các tool như: P2V, V2V, VMware Converter Freeware. Đây là phương pháp an toàn nhất để làm giảm kích thước máy ảo VMDK, nhưng có một phương pháp đơn giản khác giúp tiết kiệm rất nhiều so với P2V, V2V.

Phương pháp dưới đây được thử nghiệm trên HĐH Windows 2008 nhưng nó có thể làm hỏng dữ liệu của bạn vì vậy tôi sẽ đề nghị chuẩn bị kế hoạch trước khi thực hiện giảm kích thước các đĩa ảo.

Một điều lưu ý nữa để thực hiện việc thu hẹp đĩa là thực hiện một bước làm gián đoạn hoạt động của máy ảo từ phía hệ điều hành sử dụng tính năng Shrink trong Windows 2008 và sau đó làm theo các bước dưới đây.

Bước 1: Bật ESXi Shell và SSH port 22 trong máy chủ ESXi Host

Sử dụng WINSCP/ SCP hoặc PuTTy để truy cập vào đường dẫn của ESXi Host

cd /vmfs/volumes/Datastore_name/VM_Name

Bước 2: Chỉnh sửa các tập tin VM_Name.vmdk sử dụng lệnh Nano hoặc trình soạn thảo vi,

ví dụ: Dưới đây là nội dung của file vmdk.

image

Chú thích: Trong hình trên, Kích thước của đĩa RW: 83886080. nó được tính toán như thế nào ? Nó là gì con số thể hiện điều gì ? sao nó lại tính ra là: 42.949.672.960 –> test-flat.vmdk (nghĩa là = 40 GB).

Công thức:  40 GB = 40 * 1024 * 1024 * 1024/512 = 83.886.080

Các bên dưới giao diện chụp xác nhận rằng VM có 40 GB vmdk ..

Như vậy, theo công thức này cho phép ta tính tiếp nếu 50 GB = 50 * 1024 * 1024 * 1024/512 = 104.857.600

image

Theo mô tả mức độ thay thế giá trị giữa RW _ _ _ _ _ VMFS * -flat.vmdk. Trong trường hợp của tôi nó là 40GB đĩa được sử dụng và do đó giá trị là 83886080. Tôi muốn giảm bớt 10 GB để cho kích thước vmdk thu nhỏ xuống 30GB.

Sử dụng các phép tính nói trên sẽ tính toán được:

30 GB = 30* 1024 * 1024 * 1024 / 512 = 62.914.560

Chỉnh sửa các tập tin mô tả bằng lệnh vi VM_Name.vmdk   (ví dụ: gõ lệnh vi test.vmdk)

Sửa lại giá trị trong nội dung file theo giá trị vừa tính và lưu lại file vừa sửa.

image

Bây giờ mở vSphere client> chọn lại máy ảo và bấm chuột phải chọn mục Edit Settings

image

Hãy cẩn thận trước khi làm theo cách đơn giản này ? hãy backup trước khi định quậy phá Smile.

Chúc các bạn thành công !

%d bloggers like this: