Category Archives: VMFS

VMFS vs RDM là gì ? dùng RDM trong Oracle như thế nào ?


Phần 1. VMFS vs RDM là gì ?

Lưu trữ là một trong những thành phần quan trọng nhất của hệ thống cơ sở hạ tầng để vận hành, đặc biệt trong phần ứng dụng CSDL. Hầu hết các DBA và quản trị viên cũng ý thức được điều này. Trong hầu hết các câu chuyện với Doanh nghiệp và khách hàng của chúng tôi đều được hỏi một số câu rất phổ biến trong giai đoạn phân tích thiết kế:

Tôi nên dùng VMFS, RDM, hay in-guest Storage” ?

Câu hỏi đề cập đến loại hình lưu trữ “Storage presentation types”. Trình lưu trữ là các phương pháp lưu trữ sử dụng để xử lý các khối lượng dữ liệu và lưu trữ từ ứng dụng gửi tới. Dưới đây là một số tuỳ chọn lưu trữ có sẵn:

1. VMFS-5

2. NFS

3. RDM-V ( RDM – Virtual)

4. RDM-P (RDM – Physical Pass-thought)

5. in-Guest

Tôi rất để ý và thích thú với câu hỏi thẳng này, vì đơn giản nó dẫn chúng ta vượt ra xa khỏi cách sử dụng bình thường. Nó sẽ giúp bạn quyết định dùng những công cụ phân tích đo đạc tối ưu, trước khi vận dụng thực tế. Bạn sẽ dùng SAN cấp độ Snapshot ? Các tập tin CSDL sẽ tồn tại trên khối lượng Volumes mà trong quá trình vận hành bạn vẫn có thể dùng các công cụ nhân bản/sao chép SAN Clone để sao lưu ?  Bạn sẽ dùng VMware SRM  (Site Recovery Management) ? VDP (vSphere Data Protection) ? vSphere Fault Tolerance mới có 4vCPU trên 1 VM/1Host ? vCloud Data Director ? Oracle DB RAC ? tất cả chúng đều phải được xem xét để chọn được kiểu Storage Presentation.

Vấn đề 1. Hiệu suất:

Trước khi có nhận xét cụ thể về các loại lưu trư, chúng ta nên nói về Hiệu suất. Theo kinh nghiệm của nhiều người kỹ thuật, các dạng lưu trữ đề cập ở trên đều là dạng Hiệu suất cấp độ 1 “Tier-1”.  Công đoạn triển khai thực hiện chính là yếu tố quan trọng cho việc xác định 1 loại lưu trữ có Hiệu suất tốt. Hiểu biết về thiết bị và thực hành tốt các thiết bị của nhà cung cấp sẽ là cơ sở để bạn thực hiện triển khai tốt.

Ví dụ: iSCSI, NFS được tối ứu hoá để cho sử dụng Jumbo Frames. Bỏ qua chế độ cho phép khung Jumbo Frame hệ thống lưu trữ của bạn sẽ chỉ chạy ở 1/2 thông số khả năng của nó.

image

Việc so sánh giữa 2 môi trường, môi trường vật lý truyền thống với lưu trữ chuyênd dụng và không được chia sẻ, để tích hợp hoặc làm việc với nhiều môi trường dữ liệu ứng dụng khác hoặc mở rộng lớn hơn là bất lợi.

VMware vsphere là môi trường được thiết lập để chia sẻ lưu trữ cho nhiều máy ảo. Đây là khái niệm căn bản, và là nơi chúng ta tìm ra nhiều điểm yếu, mạnh, sai sót và hợp lý của vsphere để xây dựng và củng cố những thứ riêng, đọc quyền… Đừng hiểu nhầm thông điệp của tôi – Xây dựng để phân tích và tổng hợp các kiến trúc tập chung hạng nặng là cách tuyệt vời để xây dựng các cụm vSphere Clusters.

Tuy nhiên đối với các thể loại Tier-1 Workloads thì không phải thuần tuý như vậy, bạn phải suy nghĩ tính toán cẩn thận ví dụ: dùng GPU, CUDA cho xử lý tính toán HPC… Các loại hàm thủ tục tương tự/tuần tự hoặc các cơ chế tính toán Tỷ lệ hợp nhất sẽ không thể luôn luôn làm việc có thể phù hợp với kiểu vận hành SLA quan trọng.

Vấn đề 2. Dụng cụ (Công cụ đo đạc và hiệu chỉnh Tunning):

Chúng tôi luôn xem xét về 2 tiêu chí Khi xem xét quyết định sử dụng: 1. Hiệu suất (thảo luận trên) và dụng cụ.

Đối với dụng cụ, VMFS cung cấp các dụng cụ tối đa liệu có thể là không có giới hạn, Khi nhìn vào vSphere hoặc các sản phẩm bổ sung của nó như VMware SRM hoặc vCloud Director. Các dạng lưu trữ CSDL Trình RDMs được tùy chọn. Tuy nhiên, chúng ta sẽ gặp hạn chế trên VMware. Ví dụ: nếu dùng VMware Fault Tolerance. VMware FT hiện chỉ được hỗ trợ với VMFS. Mới có 4 vCPU trên 1 VM/1 Host.

Dưới đây là một sơ đồ LTT, CTO của Trung tâm nghiên cứu và phát triển sản phẩm VEEAM Backup.

Nó đơn giản chỉ hiển thị bốn loại trình lưu trữ chính.

QUAN TRỌNG: Điều này không có nghĩa đó Một trong những loại thuyết trình lưu trữ là thực tế chỉ tốt nhất hoặc một chỉ đơn giản là sai cho tổ chức CNTT của bạn. Trong thực tế, tôi viết bài này để hỗ trợ việc triển khai đã sử dụng một trong mỗi loại lưu trữ. nguyên tắc chung của tôi là thích dùng hệ thống định dạng loại VMFS trên tất cả các tùy chọn lưu trữ khác vì nó thống nhất hầu hết các kỹ thuật và nó dẫn tôi đến được hầu hết các loại kỹ thuật khác.

image

1. VMware vSphere VMFS-5 dùng cho ổ đĩa ảo của VM – virtual machine disk (viết tắt: VMDK) là kiểu chuẩn Tier-1 cho trình lưu trữ “storage presentation”.

– VMDK được mệnh danh là công cụ lưu trữ tối đa hoá của vSphere storage.

2. Raw Device Mapping (viết tắt: RDM) liên quan tới cấu hình dạng “mâm xôi” và chi phí vận hành liên tục so với VMFS. RDMs có thể vận hành theo kiểu tương thích chế độ Ảo – virtual compatibility mode (viết tắt: RDM-V) hoặc kiểu tương thích chế độ Vật lý – physical compatibility mode (viết tắt: RDM-P).

2.1. Chế độ tương thích Ảo: RDM-V, cung cấp một số tính năng tương thích với  vSphere storage RDM, kết nối giao thức iSCSI, định dạng VMDK…

2.2. Chế độ tương thíc Vật lý: RDM-P, cho phép phương thức này tiếp cận toàn diện về mảng ổ cứng lưu trữ vật lý, RAID vật lý, truy cập trong suốt với hệ thống  lưu trữ qua mạng Vật lý. Điều này thể hiện cách tiếp cận xuất phát với giá trị vật lý, thậm chí có rất ít liên quan tới ảo hoá bằng vSphere Storage.

3. Chế độ in-guest:  hay còn hiểu là kiểu lưu trữ gắn trực tiếp – Direct-attached storage (lưu trữ ổ cứng cắm trực tiếp trên các Host).

Tóm lại, sự khác nhau thực sự giữa RDM-V và RDM-P là gì ?

 

Phần 2. Dùng RDM trong Oracle như thế nào ?

Bạn có thể cấu hình RDMs trong chế độ ảo tương thích (viết tắt: RDM-V), hoặc chế độ tương thích vật lý (viết tắt: RDM-P).
RDM-V hay còn gọi là chế độ tương thích ảo, quy định cụ thể ảo hóa đầy đủ các thiết bị ánh xạ tới hệ thống lưu trữ.

Trong chế độ RDM-V hypervisor sẽ chịu trách nhiệm cho các lệnh SCSI giao thức kết nối. Với hypervisor giống như HĐH điều khiển các lệnh SCSI, một tập hợp lớn hơn của các dụng cụ ảo hóa có sẵn.
Trong chế độ RDM-P tương thích vật lý, các lệnh SCSI điều khiển được đấu nối trực tiếp thông qua hypervisor không thay đổi gì. Điều này cho phép SAN quản lý trực tiếp LUN. Bất lợi của RDM-P là mất khả năng dùng công cụ vSphere snapshot.

Lưu ý: Một thực hiện chung cho việc sử dụng RDM-P là các công nghệ sử dụng SCSI như:

– Microsoft Clustering là một cách cho một máy chủ dành độc quyền truy cập một LUN trong một cấu hình lưu trữ chia sẻ thoe gioa thức SCSI.
– Oracle Cluster Services không sử dụng SCSI reservation. Oracle dựa trên các cơ chế cấu hình RAC thay vì phần mềm riêng của mình để bảo vệ sự toàn vẹn của lưu trữ chia sẻ. Hob khuyến cáo nên dùng Oracle RAC cấu hình trên lớp lưu trữ ứng dụng chứ không phải dùng RDM-V hay RDM-P, cũng như không dùng VMDK. Nhưng ngược lại, RDM-P lại cho phép dùng SAN truy cập công cụ để lưu trữ hoặc tận dụng công cụ Snapshot từ lớp API Management của SAN, chúng giỉa quyết được sự năng nề của LUN, như vậy có thể bị cám dỗ để cấu hình RDM-P.
Cuối cùng, tôi để lại cho bạn một sự so sánh giữa RDM-P vs RDP-V trên vSphere:

image

Xem tiếp phần sau gồm 2 bài: 

Phần 3. Bài thực hành cấu hình Oracle RDM trên nền VMware vSphere:

Phần 4. Bài thực hành cấu hình VEEAM Backup sao lưu máy ảo Oracle RDM:

Advertisements

Cách 2: làm cách nào có thể giảm “Shrink a file VMDK” ổ cứng của máy ảo ?


Trong quá trình giảng dạy và trong thực tế hoạt động của Doanh nghiệp, Tôi thường có một số bài tập, một số yêu cầu trái quy luật, các bạn học viên đều phải làm thế nào để giảm kích thước phân bổ của Thick ổ đĩa ảo được cung cấp cho máy ảo.

Tăng kích thước VMDK có thể được thực hiện trong GUI của vSphere client/ Web Sphere, nhưng để giảm kích thước của VMDK lại không được phép.

Trong hầu hết các trường hợp, Đối với máy ảo đĩa cứng thu nhỏ có thể được thực hiện thông qua các tool như: P2V, V2V, VMware Converter Freeware. Đây là phương pháp an toàn nhất để làm giảm kích thước máy ảo VMDK, nhưng có một phương pháp đơn giản khác giúp tiết kiệm rất nhiều so với P2V, V2V.

Phương pháp dưới đây được thử nghiệm trên HĐH Windows 2008 nhưng nó có thể làm hỏng dữ liệu của bạn vì vậy tôi sẽ đề nghị chuẩn bị kế hoạch trước khi thực hiện giảm kích thước các đĩa ảo.

Một điều lưu ý nữa để thực hiện việc thu hẹp đĩa là thực hiện một bước làm gián đoạn hoạt động của máy ảo từ phía hệ điều hành sử dụng tính năng Shrink trong Windows 2008 và sau đó làm theo các bước dưới đây.

Bước 1: Bật ESXi Shell và SSH port 22 trong máy chủ ESXi Host

Sử dụng WINSCP/ SCP hoặc PuTTy để truy cập vào đường dẫn của ESXi Host

cd /vmfs/volumes/Datastore_name/VM_Name

Bước 2: Chỉnh sửa các tập tin VM_Name.vmdk sử dụng lệnh Nano hoặc trình soạn thảo vi,

ví dụ: Dưới đây là nội dung của file vmdk.

image

Chú thích: Trong hình trên, Kích thước của đĩa RW: 83886080. nó được tính toán như thế nào ? Nó là gì con số thể hiện điều gì ? sao nó lại tính ra là: 42.949.672.960 –> test-flat.vmdk (nghĩa là = 40 GB).

Công thức:  40 GB = 40 * 1024 * 1024 * 1024/512 = 83.886.080

Các bên dưới giao diện chụp xác nhận rằng VM có 40 GB vmdk ..

Như vậy, theo công thức này cho phép ta tính tiếp nếu 50 GB = 50 * 1024 * 1024 * 1024/512 = 104.857.600

image

Theo mô tả mức độ thay thế giá trị giữa RW _ _ _ _ _ VMFS * -flat.vmdk. Trong trường hợp của tôi nó là 40GB đĩa được sử dụng và do đó giá trị là 83886080. Tôi muốn giảm bớt 10 GB để cho kích thước vmdk thu nhỏ xuống 30GB.

Sử dụng các phép tính nói trên sẽ tính toán được:

30 GB = 30* 1024 * 1024 * 1024 / 512 = 62.914.560

Chỉnh sửa các tập tin mô tả bằng lệnh vi VM_Name.vmdk   (ví dụ: gõ lệnh vi test.vmdk)

Sửa lại giá trị trong nội dung file theo giá trị vừa tính và lưu lại file vừa sửa.

image

Bây giờ mở vSphere client> chọn lại máy ảo và bấm chuột phải chọn mục Edit Settings

image

Hãy cẩn thận trước khi làm theo cách đơn giản này ? hãy backup trước khi định quậy phá Smile.

Chúc các bạn thành công !

Cách cấu hình NFS/SMB NAS trên Windows 2012 R2 để kết nối NAS với ESXi Host 6.0


Nếu bạn đã có một số phần cứng được ảo hóa mạng, lưu trữ cũng được ảo hóa rồi, Windows Server 2012 có thể là một giải pháp tuyệt vời cho một thiết bị lưu trữ ảo.

Bây giờ bạn có thể làm cả hai khối (iSCSI) và NAS (NFS kết hợp SMB) trên cùng một máy chủ ảo hoặc nhiều máy chủ ảo nằm trên các ESXi Host khác nhau thuận tiện cho việc làm các cấu trúc lưu trữ failover-cluster, cũng như có một hệ điều hành để cài đặt một số ứng dụng quản lý lưu trữ trên đó.

Trong bài thực hành này của tôi, chúng ta sử dụng máy chủ quản lý lưu trữ để chạy VDP/ Veeam Backup cho các sao lưu VMs, màn hình mạng PRTG để theo dõi băng thông, cũng như sử dụng máy chủ windows 2012 R2 này cho việc sử dụng NFS/SMB gắn kết với vSphere ESXi Host.

Bước 1. Cài NFS Server, giao thức SMB và tính năng quản lý nguồn tài nguyên:

Mở “Server Manager” và chọn đường dẫn: “Add roles and features”.

image

Chọn 1 “role-based or feature-based installation”

image

Chọn máy chủ bạn cần cài thêm tính năng NFS.

image

Hãy kéo xuống mục File and Storage Services và chọn trong danh sách Roles để thêm:

  • File Server Resource Manager
  • Server for NFS

image

Tiếp tục đến mục chọn tính năng “Features”

Hãy kéo danh sách xuống và chọn:

  • Enhanced Storage
  • Multipath I/O
  • SMB Bandwidth Limit
  • Telnet Client
  • Desktop Experience

image

image

Cuối cùng bạn xem lại cửa sổ xác nhận và cài đặt

image

 

Bước 2. Cấu hình NFS/SMB Quota, kích hoạt SMB và kết nối ESXi Host với NAS :

Mở “Server Manager”, chọn Menu “Tools”, chọn “File Server Resource Manager”:

image

Các bạn nên tạo ra các mẫu Quota giới hạn kích thước sử dụng NAS khác nhau để linh hoạt trong quản lý sử dụng kích thước tài nguyên NAS. Hệ thống hiện tại chỉ có một vài mẫu quản lý giới hạn chính, bạn nên copy để tạo mẫu riêng

image

Bấm chọn mục “Quota Templates” và chọn một dòng mẫu (ví dụ: 100 MB Limit) và Bấm phải chuột chọn menu pop-bar “Edit Template Properties…”

Lần đầu tiên, bạn nên bấm nút “Copy” để sao chép một Quota mới giống như mẫu đã có, sau đó sửa các thông số như: Template name:, Space limit, chọn Hard quota vì giới hạn về kích thước người dùng nên chính xác.

image

ví dụ:

image

Sau động tác khai thông số và bấm “OK” bạn sẽ nhận được thông báo áp dụng Quota mới này cho cả những cấu hình trước khi khởi tạo Quota này hay chỉ áp dụng mới.

image

Kiểm tra danh sách Quota đã có rule mới:

image

Bước 3: Tạo NFS Share để map Folders Share và Quota:

Mở My Computer bằng Windows Explorer:

Tạo 1 thư mục để làm lưu trữ NFS, bấm phải chuột vào thư mục này và chọn Properties

Quay lại màn hình Server Manager

image

Bấm vào mục Shares > Bấm TASKS và chọn menu pop-bar “New Share…”

image

Bấm chọn mục “NFS Share – Quick” trong cửa sổ “New Share Wizard”

image

Chọn ổ cứng, thư mục cần Share

image

Remote path to share: chính là thông số đường dẫn để ESXi Host kết nối tới

image

Đánh dấu chọn các chuẩn xác thực của Windows Authenticate, UNIX, Linux

image

Mục phân quyền truy cập thư mục Share, bạn có thể cho phép hoặc chặn các quyền của bất cứ Host, Computer name, PC client, ESXi Host theo IP và quyền “no access”, read only, Read/Write.

ví dụ: Tôi không chặn tất cả mạng LAN

image

Tiếp theo chọn Next

image

Tiếp tục làm thao tác tới phần xác nhận trước khi khởi tạo NFS Share

image

 

Trường hợp để tạo thư mục và tạoNFS Share, bạn cũng có thể thao tác trên My Computer

Chọn tiếp tab “NFS Sharing”, tiếp theo chọn nút “Manage NFS Sharing…”

image

Nhấp vào nút “Permission” để cho phép quyền readwrite trên thư mục đã được cấu hình NFS Share.

image

Bạn có thể Xóa Name: ALL MACHINES và chỉ cho add các máy chủ ESXi host (tên / IP chính xác) để hạn chế quyền truy cập của các máy trong mạng LAN kết nối tới NFS này.

Xin lưu ý: Các bước vừa xong không chia sẻ các thư mục theo Server Message Block (SMB) như bạn có thể được sử dụng để làm cho tiêu chuẩn của Windows File Shares. Đây chỉ là thiết lập NFS Sharing.

Bạn cũng có thể áp dụng Quota cho thư mục vừa cấu hình NFS/SMB bằng cách mở lại Server Manager > File and Storage Services > Shares

image

Chọn thư mục đã cấu hình NFS Share, chuyển xuống màn QUOTA

chọn TASKS > chọn configure Quota…

Tham khảo: http://www.techrepublic.com/blog/data-center/how-to-create-a-quota-template-in-windows-server-2012/ 

 

Bước 4: Tạo NFS Share để map Folders Share và Quota:

Dùng vSphere Client mở ESXi host

image

Chọn Tab “Configuration” > Chọn Storage và bấm mục “Add Storage…”

image

Chọn Network File System (chính là kết nối tới NAS)

image

Lưu ý:

– Bạn có thể cấu hình 2 card mạng ở phần máy chủ NFS và dùng cấu hình Nic Teaming để sinh ra 1 IP bond, điều chỉnh MTU từ 1500 –> Enable Jumbo Frame và MTU đổi lên 9000 giúp an toàn và tốc độ cân bằng tải, nhanh trong kết nối giữa ESXi Host và NAS.

– Bạn nên kiểm tra phần Folder Share theo vị trí và đúng chính xác tên chữ hoa chữ thường khi cấu hình máy NFS Server (nên cho thành chữ thường đỡ nhầm lẫn).

Kết quả sau khi kết nối đúng:

image

 

 

Chúc các bạn thành công !

Sửa như thế nào khi gặp lỗi không cấu hình thêm Storage DISK/LUN cho ESXi host 5.x ?


Trong khi làm việc với vSphere 5.5 trong phòng Labs hàng ngày, tôi đã cố gắng để tạo ra một Data Storage mới từ chuẩn ổ cứng SATA theo định dạng của ESXi 5.x VMFS5 local.

Mỗi lần tôi cố gắng để làm điều đó thì toàn là nhận được màn báo lỗi sau:

Call “HostDatastoreSystem.CreateVmfsDatastore” for object “ha-datastoresystem” on ESXi “ip của ESXi host” failed.

image

Sau một hồi lâu mò mẫm các vấn đề lỗi xung quanh, tôi đã nghĩ đến ổ cứng này đã được dùng cho một số việc khác trước đó đã có dữ liệu phân vùng như: MBR, ext2,3 … Như vậy, tôi cần phải làm sạch sẽ lại cái ổ cứng này trước khi cho nó về phân vùng ESXi VMFS5.

Điều đó đã thực sự giải quyết được vấn đề. Lỗi này có thể xảy ra nếu bạn có một hệ thống tập tin trên mà LUN / Disk của ESXi không hiểu, không thể ghi đè lên hoặc nếu bạn không có một quyền truy cập đầy đủ vào Disk / LUN.

Cách xử lý:

Lưu ý: Trong các phiên bản trước của ESXi, lệnh fdisk đã được sử dụng thường xuyên trong một số tình huống như vậy, mặc dù nếu bạn thử nó trong vSphere 5.x, bạn sẽ nhận được thông báo lỗi sau đây:

*** The fdisk command is deprecated: fdisk does not handle GPT partitions. Please use partedUtil ***

image

Tôi đã tìm ra được lỗi và cách sử dụng tool bằng lệnh partedUtil thay vì fdisk để lau sạch đĩa đó để có thể sử dụng nó cho ESXi.

Chỉ cần gõ một dòng lệnh sẽ lau sạch đĩa đó:

#PartedUtil mklabel /dev/disks/<disk id> msdos

ví dụ:

#partedUtil mklabel /dev/disks/t10.ATA____WDC_WD5000AK52000UU340___________WD2DWCAYU6597660 msdos

image

Lưu ý: trong trường hợp bạn cần tìm ra id disk trước khi format, tất cả t chỉ cần chạy lệnh sau đây để hiển thị ra id disk:

#ls /dev/disks

Sau khi xóa được các format trong LUN / Disk sạch sẽ, bây giờ bạn sẽ có thể sử dụng nó để tạo ra VMFS 5 cho datastore mới vào ESxi Host bằng cách thêm nó thông qua vSphere Client.

Hy vọng điều này sẽ giúp đỡ các bạn đang gặp khó khăn.

 

Tham khảo KB của VMware: http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=2007328 

 

Ngoài phương pháp xử lý lỗi trên, còn có trường hợp nâng cấp phiên bản ESXi 5.5 lên ESXi 6.0

P.S: Rất tiếc phần này chỉ công bố trong chương trình đào tạo RICM 6.x.

Các bạn hãy đăng ký tham gia các khóa học của http://robusta.vn để được trải nghiệm, hỗ trợ và thực hành tốt hơn.

Chúc các bạn thành công !

Cách dùng ổ cứng thường “giả” ổ SSD chuẩn bị cho VSAN ?


Trong vSphere 5, có một tính năng mới gọi là Host cache cho phép một người sử dụng để giảm tải file swap của máy ảo lưu vào ổ SSD dành riêng cho hiệu suất tốt hơn. Điều này được thực hiện bằng cách tạo ra một khối Volume VMFS trên ổ SSD được phát hiện bởi SATP (Storage adapter type Plugin) và cho phép một người dùng để thêm và cấu hình một kho dữ liệu VMFS cho máy chủ sử dụng bộ nhớ đệm.

image

Trong vSphere 5, tôi đã thử nghiệm các tính năng mới khác nhau bao gồm Host Caching nhưng không có quyền truy cập vào một hệ thống với ổ SSD trong khi cập nhật và tạo ra một vài kịch bản mới. Sau một số nghiên cứu, tôi thấy rằng nếu một quy tắc SATP mặc định là chưa có để xác định một ổ SSD đặc biệt, đó là một quy tắc mới có thể được tạo ra có chứa một một loạt meta data xml “siêu dữ liệu” đặc biệt xác định nó là một ổ  SSD.

Trong ví dụ sau, tôi sẽ có một đĩa ảo của Local Host ( mpx.vmhba1: C0: T2: L0 ) trong VMware ESXi 5 và “lừa” ESXi truy xuất và nhận dạng nó là một ổ SSD.

image

Chúng ta sẽ cần phải sử dụng esxcli cho dù đó là trực tiếp trên ESXi Shell hoặc sử dụng VMA và / hoặc phiên bản remote PowerCLI esxcli của VMware.

Lưu ý: Sau đây tôi giả định đã có một khối volume VMFS tạo trênổ cứng bạn muốn sử dụng, hiển thị như là một ổ SSD, nếu bạn không làm như vậy, hãy tạo ra một khối volume VMFS trước khi tiếp tục.

Trước tiên, bạn sẽ cần phải tạo ra một quy tắc SATP mới xác định ổ SSD của bạn và chỉ rõ “enable_ssd” giá trị như là một phần của tham số  –option:

~ # esxcli storage nmp satp rule add -s VMW_SATP_LOCAL -d mpx.vmhba1:C0:T2:L0 -o enable_ssd                                                   

Bạn có thể xác minh rằng quy tắc của bạn đã được tạo ra giá trị bằng cách chọn một danh sách theo các quy tắc SATP:

~ #  esxcli storage nmp satp rule list | grep enable_ssd
VMW_SATP_LOCAL       mpx.vmhba1:C0:T2:L0                                                enable_ssd                  user

Tiếp theo, bạn sẽ cần phải đòi lại ổ cứng của bạn để các quy định mới được áp dụng:

~ # esxcli storage core claiming reclaim -d mpx.vmhba1:C0:T2:L0

Bây giờ ta có thể dùng lệnh dướI đây để biết ổ cứng đã được ESXi nhận là ổ cứng SSD chưa:

~ # esxcli storage core device list -d mpx.vmhba1:C0:T2:L0
mpx.vmhba1:C0:T2:L0
Display Name: Local VMware Disk (mpx.vmhba1:C0:T2:L0)
Has Settable Display Name: false
Size: 5120
Device Type: Direct-Access
Multipath Plugin: NMP
Devfs Path: /vmfs/devices/disks/mpx.vmhba1:C0:T2:L0
Vendor: VMware
Model: Virtual disk
Revision: 1.0
SCSI Level: 2
Is Pseudo: false
Status: on
Is RDM Capable: false
Is Local: true
Is Removable: false
Is SSD: true
Is Offline: false
Is Perennially Reserved: false
Thin Provisioning Status: unknown
Attached Filters:
VAAI Status: unsupported
Other UIDs: vml.0000000000357d795311313a373a39

Bạn đã thấy dòng Is SSD báo True, nó đã nhận ổ cứng thường là SSD.

Bây giờ bạn nên làm mới các phân vùng lưu trữ trên vSphere Client hoặc bạn dùng lệnh sau để cho chúng hiển thị mới:

~ #vim-cmd hostsvc/storage/refresh

Bây giờ nếu bạn quay trở lại với vSphere Client ở mục “Configure Host Cache” bạn sẽ thấy các ổ SSD giả mớI xuất hiện để bạn có thể lựa chọn và bạn chỉ cần cấu hình nó và Host Cache được kích hoạt cho các ổ cứng SSD này.

image

 

VớI phần Host Cache ứng dụng bằng ổ cứng “giả” SSD như vậy, ngoàI ra bạn cũng có thể dùng nó trong môi trường Labs dựng VSAN “tất nhiên bạn phảI đám ứng đầy đủ các yêu cầu chuẩn bị cho VSAN”

như:

  1. Tối thiểu 3 máy chủ Host.
  2. Tối thiểu mỗI Host có 1 ổ SSD và mỗI Host cũng phảI có tốI thiểu 1 ổ HDD thường.
  3. Tối thiểu 3 host đều có 1 VMkernel Port Uplink (card 1Gbps – 10Gbps) trên 1vSS hoặc 1 vDS.
  4. Dĩ nhiên các ổ SSD và ổ HDD phảI có độ trống từ 2GB trở lên.
  5. Ổ HDD phảI chạy chính theo chuẩn RAID 0 hoặc 1 ,5, 6, 10,50,60.

 

Mục đích: Vậy là chí ít, tôi đã thử nghiệm được phần giả SSD để giúp các bạn có thể làm Labs VSAN khâu giảm chi phí ổ SSD giúp các bạn mạnh mẽ hơn trong việc đưa công nghệ ảo hoá SAN vào Labs, tiến đến khai thác và dùng thật cho VDI, Labs ảo hoá máy chủ, máy trạm, ứng dụng dùng trên công nghệ VSAN hiệu quả, an toàn và nhanh hơn SAN vật lý (chưa tính đến dùng RAM Disk).

 

Các bạn đã có chứng chỉ VCP550, đã có kinh nghiệm triển khai ảo hoá hạ tầng và đang chuẩn bị tìm hiểu, học hỏi và chuẩn bị cho triển khai VDI.

Tốt nhất nên đăng ký với ROBUSTA để được đích mục sở thị cùng tôi – 20 giờ đồng hồ học hỏi, trao đổi kinh nghiệm thực tiễn, phương pháp thực tế, thiết bị chuẩn cao cấp để có VSAN, Virtual SAN, SoftSAN, SAN Cluster…

 

Chúc các bạn thành công !

Muốn tăng dung lượng ổ cứng trong máy ảo chạy ESXi 5.x gặp lỗi snapshot


Hiện em đang dùng esxi 5.1 và gặp 1 trường hợp hơi khó hiểu, xin thầy giải đáp giúp em với ạ:

– Khi browser vào datastore chứa máy ảo thì thấy một số file snapshot, mặc dù em không tạo.image

– Có thêm file ten_vps000001.vmdk và máy ảo sử dụng luôn file này để chạy, em có gửi hình trong file đính kèm.

Giờ em muốn tăng dung lượng ổ cứng lên nhưng không tăng được, nhờ thầy bớt chút thời gian xem giúp em xem nguyên nhân do đâu nhé.

image

Nhìn các file em chụp thì chắc chắn là lúc 1 giờ đêm đã làm động tác snapshot.

Em có thể check ở mục sau:

Chọn vSphere client mở máy chủ vCenter hoặc ESXi host

Tìm đến máy ảo đã bị snapshot

clip_image002

Bấm chuột phải ở menu: Snapshot à Snapshot Manager …

Sẽ thấy các máy đã bị snapshot

clip_image004

Vấn đề để thêm được ổ cứng dung lượng mới thì không sao (làm được) nếu thêm dung lượng cho chính ổ cứng đang bị snapshot chỉ có cách là merge hoặc Consolidate “một cách xoá hết các bản snapshot – không phải chọn Delete All trong snapshot manager” .

Em tham khảo link nói về snapshot để hiểu cách merge tránh làm hỏng hoặc redo nhầm version khi đã snapshot nhé:

http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cmd=displayKC&externalId=1015180

và em muốn merge hay consolidate VM đã bị snapshot:

http://kb.vmware.com/selfservice/search.do?cmd=displayKC&docType=kc&docTypeID=DT_KB_1_1&externalId=2003638

Sau khi em merge được snapshot thì em sẽ có thể chỉnh sửa kích thước ổ cứng như bình thường.

%d bloggers like this: