VMFS vs RDM là gì ? dùng RDM trong Oracle như thế nào ?


Phần 1. VMFS vs RDM là gì ?

Lưu trữ là một trong những thành phần quan trọng nhất của hệ thống cơ sở hạ tầng để vận hành, đặc biệt trong phần ứng dụng CSDL. Hầu hết các DBA và quản trị viên cũng ý thức được điều này. Trong hầu hết các câu chuyện với Doanh nghiệp và khách hàng của chúng tôi đều được hỏi một số câu rất phổ biến trong giai đoạn phân tích thiết kế:

Tôi nên dùng VMFS, RDM, hay in-guest Storage” ?

Câu hỏi đề cập đến loại hình lưu trữ “Storage presentation types”. Trình lưu trữ là các phương pháp lưu trữ sử dụng để xử lý các khối lượng dữ liệu và lưu trữ từ ứng dụng gửi tới. Dưới đây là một số tuỳ chọn lưu trữ có sẵn:

1. VMFS-5

2. NFS

3. RDM-V ( RDM – Virtual)

4. RDM-P (RDM – Physical Pass-thought)

5. in-Guest

Tôi rất để ý và thích thú với câu hỏi thẳng này, vì đơn giản nó dẫn chúng ta vượt ra xa khỏi cách sử dụng bình thường. Nó sẽ giúp bạn quyết định dùng những công cụ phân tích đo đạc tối ưu, trước khi vận dụng thực tế. Bạn sẽ dùng SAN cấp độ Snapshot ? Các tập tin CSDL sẽ tồn tại trên khối lượng Volumes mà trong quá trình vận hành bạn vẫn có thể dùng các công cụ nhân bản/sao chép SAN Clone để sao lưu ?  Bạn sẽ dùng VMware SRM  (Site Recovery Management) ? VDP (vSphere Data Protection) ? vSphere Fault Tolerance mới có 4vCPU trên 1 VM/1Host ? vCloud Data Director ? Oracle DB RAC ? tất cả chúng đều phải được xem xét để chọn được kiểu Storage Presentation.

Vấn đề 1. Hiệu suất:

Trước khi có nhận xét cụ thể về các loại lưu trư, chúng ta nên nói về Hiệu suất. Theo kinh nghiệm của nhiều người kỹ thuật, các dạng lưu trữ đề cập ở trên đều là dạng Hiệu suất cấp độ 1 “Tier-1”.  Công đoạn triển khai thực hiện chính là yếu tố quan trọng cho việc xác định 1 loại lưu trữ có Hiệu suất tốt. Hiểu biết về thiết bị và thực hành tốt các thiết bị của nhà cung cấp sẽ là cơ sở để bạn thực hiện triển khai tốt.

Ví dụ: iSCSI, NFS được tối ứu hoá để cho sử dụng Jumbo Frames. Bỏ qua chế độ cho phép khung Jumbo Frame hệ thống lưu trữ của bạn sẽ chỉ chạy ở 1/2 thông số khả năng của nó.

image

Việc so sánh giữa 2 môi trường, môi trường vật lý truyền thống với lưu trữ chuyênd dụng và không được chia sẻ, để tích hợp hoặc làm việc với nhiều môi trường dữ liệu ứng dụng khác hoặc mở rộng lớn hơn là bất lợi.

VMware vsphere là môi trường được thiết lập để chia sẻ lưu trữ cho nhiều máy ảo. Đây là khái niệm căn bản, và là nơi chúng ta tìm ra nhiều điểm yếu, mạnh, sai sót và hợp lý của vsphere để xây dựng và củng cố những thứ riêng, đọc quyền… Đừng hiểu nhầm thông điệp của tôi – Xây dựng để phân tích và tổng hợp các kiến trúc tập chung hạng nặng là cách tuyệt vời để xây dựng các cụm vSphere Clusters.

Tuy nhiên đối với các thể loại Tier-1 Workloads thì không phải thuần tuý như vậy, bạn phải suy nghĩ tính toán cẩn thận ví dụ: dùng GPU, CUDA cho xử lý tính toán HPC… Các loại hàm thủ tục tương tự/tuần tự hoặc các cơ chế tính toán Tỷ lệ hợp nhất sẽ không thể luôn luôn làm việc có thể phù hợp với kiểu vận hành SLA quan trọng.

Vấn đề 2. Dụng cụ (Công cụ đo đạc và hiệu chỉnh Tunning):

Chúng tôi luôn xem xét về 2 tiêu chí Khi xem xét quyết định sử dụng: 1. Hiệu suất (thảo luận trên) và dụng cụ.

Đối với dụng cụ, VMFS cung cấp các dụng cụ tối đa liệu có thể là không có giới hạn, Khi nhìn vào vSphere hoặc các sản phẩm bổ sung của nó như VMware SRM hoặc vCloud Director. Các dạng lưu trữ CSDL Trình RDMs được tùy chọn. Tuy nhiên, chúng ta sẽ gặp hạn chế trên VMware. Ví dụ: nếu dùng VMware Fault Tolerance. VMware FT hiện chỉ được hỗ trợ với VMFS. Mới có 4 vCPU trên 1 VM/1 Host.

Dưới đây là một sơ đồ LTT, CTO của Trung tâm nghiên cứu và phát triển sản phẩm VEEAM Backup.

Nó đơn giản chỉ hiển thị bốn loại trình lưu trữ chính.

QUAN TRỌNG: Điều này không có nghĩa đó Một trong những loại thuyết trình lưu trữ là thực tế chỉ tốt nhất hoặc một chỉ đơn giản là sai cho tổ chức CNTT của bạn. Trong thực tế, tôi viết bài này để hỗ trợ việc triển khai đã sử dụng một trong mỗi loại lưu trữ. nguyên tắc chung của tôi là thích dùng hệ thống định dạng loại VMFS trên tất cả các tùy chọn lưu trữ khác vì nó thống nhất hầu hết các kỹ thuật và nó dẫn tôi đến được hầu hết các loại kỹ thuật khác.

image

1. VMware vSphere VMFS-5 dùng cho ổ đĩa ảo của VM – virtual machine disk (viết tắt: VMDK) là kiểu chuẩn Tier-1 cho trình lưu trữ “storage presentation”.

– VMDK được mệnh danh là công cụ lưu trữ tối đa hoá của vSphere storage.

2. Raw Device Mapping (viết tắt: RDM) liên quan tới cấu hình dạng “mâm xôi” và chi phí vận hành liên tục so với VMFS. RDMs có thể vận hành theo kiểu tương thích chế độ Ảo – virtual compatibility mode (viết tắt: RDM-V) hoặc kiểu tương thích chế độ Vật lý – physical compatibility mode (viết tắt: RDM-P).

2.1. Chế độ tương thích Ảo: RDM-V, cung cấp một số tính năng tương thích với  vSphere storage RDM, kết nối giao thức iSCSI, định dạng VMDK…

2.2. Chế độ tương thíc Vật lý: RDM-P, cho phép phương thức này tiếp cận toàn diện về mảng ổ cứng lưu trữ vật lý, RAID vật lý, truy cập trong suốt với hệ thống  lưu trữ qua mạng Vật lý. Điều này thể hiện cách tiếp cận xuất phát với giá trị vật lý, thậm chí có rất ít liên quan tới ảo hoá bằng vSphere Storage.

3. Chế độ in-guest:  hay còn hiểu là kiểu lưu trữ gắn trực tiếp – Direct-attached storage (lưu trữ ổ cứng cắm trực tiếp trên các Host).

Tóm lại, sự khác nhau thực sự giữa RDM-V và RDM-P là gì ?

 

Phần 2. Dùng RDM trong Oracle như thế nào ?

Bạn có thể cấu hình RDMs trong chế độ ảo tương thích (viết tắt: RDM-V), hoặc chế độ tương thích vật lý (viết tắt: RDM-P).
RDM-V hay còn gọi là chế độ tương thích ảo, quy định cụ thể ảo hóa đầy đủ các thiết bị ánh xạ tới hệ thống lưu trữ.

Trong chế độ RDM-V hypervisor sẽ chịu trách nhiệm cho các lệnh SCSI giao thức kết nối. Với hypervisor giống như HĐH điều khiển các lệnh SCSI, một tập hợp lớn hơn của các dụng cụ ảo hóa có sẵn.
Trong chế độ RDM-P tương thích vật lý, các lệnh SCSI điều khiển được đấu nối trực tiếp thông qua hypervisor không thay đổi gì. Điều này cho phép SAN quản lý trực tiếp LUN. Bất lợi của RDM-P là mất khả năng dùng công cụ vSphere snapshot.

Lưu ý: Một thực hiện chung cho việc sử dụng RDM-P là các công nghệ sử dụng SCSI như:

– Microsoft Clustering là một cách cho một máy chủ dành độc quyền truy cập một LUN trong một cấu hình lưu trữ chia sẻ thoe gioa thức SCSI.
– Oracle Cluster Services không sử dụng SCSI reservation. Oracle dựa trên các cơ chế cấu hình RAC thay vì phần mềm riêng của mình để bảo vệ sự toàn vẹn của lưu trữ chia sẻ. Hob khuyến cáo nên dùng Oracle RAC cấu hình trên lớp lưu trữ ứng dụng chứ không phải dùng RDM-V hay RDM-P, cũng như không dùng VMDK. Nhưng ngược lại, RDM-P lại cho phép dùng SAN truy cập công cụ để lưu trữ hoặc tận dụng công cụ Snapshot từ lớp API Management của SAN, chúng giỉa quyết được sự năng nề của LUN, như vậy có thể bị cám dỗ để cấu hình RDM-P.
Cuối cùng, tôi để lại cho bạn một sự so sánh giữa RDM-P vs RDP-V trên vSphere:

image

Xem tiếp phần sau gồm 2 bài: 

Phần 3. Bài thực hành cấu hình Oracle RDM trên nền VMware vSphere:

Phần 4. Bài thực hành cấu hình VEEAM Backup sao lưu máy ảo Oracle RDM:

Advertisements

IBM Domino Lotus và Lotus Notes Client chạy trên nền Private Cloud như thế nào ?


Phần 1. Cài Domino Lotus 8.5 trên Windows Server 2008 R2:

image

image

image

image

image

 

image

image

image

image

image

image

image

image

image

Bước 2. Chạy khởi động Lotus Domino lần đầu tiên:

image

Bước 3. Điều khiển màn Console Lotus Domino:

image

Màn điều khiển Console Lotus sau khi khởi động lại lần 2

image

 

Phần 2. Cài và Cấu hình Lotus Administrator:

Lưu ý:

– Trước khi cấu hình: phải đảm bảo máy chủ Windows Server 2008 R2 đã cài Domino Lotus sẽ không cài và chạy IIS trên đó.

hoặc nếu đã cài IIS/ Apache Tomcat hoặc PHP Server thì phải cấu hình các Port Web Default chuyển sang port khác 80 (để nhằm tránh conflict với các cổng và dịch vụ của Lotus Domino cài lên).

image

Bước 4. Cài Lotus Administrator

image

image

image

image

image

image

image

Phần 3. Cấu hình Lotus Administrator kết nối Lotus Domino trên các máy chủ ảo

image

image

image

Lưu ý:

– Trước đó bạn cần phải download các key ID của Admin về máy đã cài Lotus Notes Client.

image

– Máy chủ windows Server 2008 R2 cần mở firewall Port (Lotus Domino RPC 1352)

image

Tiếp tục phần cấu hình IBM Lotus Notes 8.5.2 trên máy chủ AT-BOX Media

image

image

Sau khi kết nối thành công với máy chủ IBM Lotus Domino thông qua cổng TCP 1352

image

Chúng ta cần Key ID của Admin để tạo cấu hình kết nối

image

image

Nhập mật khẩu Admin đã cài trên máy chủ Lotus Domino ở phần 1

image

Tiếp theo, nếu bạn đã có máy chủ SameTime Lotus thì cần phải mở cổng 1533 TCP/IP

ở đây tôi không dùng SameTime nên bỏ qua

image

Khai báo Mail

image

image

image

image

image

image

Bên màn hình của Lotus Domino Server bạn sẽ thấy

image

Bên màn hình của Lotus Notes Client 8.5.2 sẽ thấy

image

Phần 4. Mọi thứ vận hành trên máy chủ

– Người dùng chỉ có Trình duyệt web, mọi hệ điều hành và thiết bị khác nhau đều dùng được.

– Không cài Notes Client trên máy cá nhân vì An ninh , an toàn thông tin, mọi thứ có trên máy chủ.

– Máy cá nhân là các thiết bị đồng bộ, cấu hình không cần cao, có thể di động như Smartphone, NUC, Compute Stick..

Mô hình kiến trúc đó là:

 

ECORAIL_LotusDomino

 

Chúc các bạn thành công, tìm ra được công nghệ mới trên Cloud để cải tổ công nghệ sản phẩm và ứng dụng nó vào đời thực tế hoạt động của Doanh nghiệp mình !

 

Trân trọng cảm ơn các bạn đã theo dõi !

Cách cấu hình vSAN 6 cho hệ thống các ESXi Host 6 chỉ có DAS (SSD và SATA)


Bước 1. Kiểm tra các ổ cứng SSD, cần phải bỏ Host cache, VM cache trong từng ESXi Host, mục Configuration

image

Bước 2. Phải backup hết các VMs đã có bằng VEEAM Backup Free v9 sang hệ thống lưu trữ khác, Migration các VM sang hệ thống Host khác nằm ngoài 3 ESXi định xây dựng VSAN.

Bước 3. Đẩy các ổ SSD và HDD sẽ làm vSAN Storage (xóa khỏi mục Storage của ESXi host để trở về định dạng RAID 0, không có định dạng VMFS3/5/5.1 của VMware).

image

Bước 4. Mở Web Sphere Client và mở mục Cluster, kéo thả hoặc thêm 3 ESXi Host vừa xử lý ổ cứng SSD và HDD nói trên vào Cluster.

Bước 5. Bấm phải chuột mục Edit Setting của Cluster để Turn on vSAN

image

Bước 6. Claim disk để kiểm tra và thêm nhóm ổ đĩa gồm: ít nhất 1 Flash SSD/ 1 host + ít nhất 1 HDD / 1 Host) và gộp chọn đủ 3 Host.

image

Bước 7. Phân hoạch nhóm ổ đĩa:

Sau khi đã đưa các nhóm đĩa (1 SSD + 1/nhiều ổ HDD) vào thành 1 vSAN Storage Pool

image

thì các ổ cứng Local còn lại trên các Host sẽ là các ổ đã được Format theo VMFS có sẵn phân vùng HĐH để boot Linux SuSe Enterprise x64 cho ESXi Host.

Bước 8. Ta chỉ có thể Add Disk cho phép dùng lại tài nguyên đó cho từng Host hoặc cho vào Cluster Datastorage để sử dụng cho các VMs khác.

image

image

image

Như vậy, mỗi ESXi Host sẽ thêm được ít nhất 1 forrmat VMFS có phân vùng Boot của Linux Suse Enterprise x64 ESXi làm dung lượng lưu trữ VM khác.

image

image

Nhận xét cơ bản:

– lúc này, phân vùng vSAN Storage đã trở thành Virtual Disk Pool và chạy theo hình thức Share Storage cho 3 ESXi host hoặc nhiều hơn, tốc độ được chạy hỗ trợ bởi SSD ~ 600mbps + số HDD pool gộp kích thước, phần mạng truy cập được hỗ trợ bởi RAID 0 controller, SATA 2/3, và Card NIC 2 teaming MTU 9000.

Thêm mẹo: cách xóa tên các files/ thư mục quá dài

How to delete a file with a path too long to be deleted [duplicate]

image

Bạn hãy cố tình tạo 1 file zip từ màn hình windows Explorer

image

Sau đó bấm tạo file và mở bằng Windows Zip hoặc tốt nhất là 7z Manager

image

Mở file zip bằng 7z Manager và dùng trình điều khiển này để xóa, sửa file tên dài.

Tặng thêm các bạn 1 lỗi sau:

After a purple diagnostic screen failure, ESXi host reports the warning: No coredump target has been configured. Host core dumps cannot be saved. (2088669)

Symptoms
  • After an ESXi 5.x host fails with a purple diagnostic screen, no diagnostic information is collected.
  • The ESXi host displays the warning:
    No coredump target has been configured. Host core dumps cannot be saved.
Cause

This issue occurs when the core dump target is not configured and the VMkernel host core dumps cannot be saved.

Resolution

To resolve this issue, configure a coredump location for the ESXi host.

Link: https://kb.vmware.com/selfservice/search.do?cmd=displayKC&docType=kc&docTypeID=DT_KB_1_1&externalId=2004299 

– Creating and activating a diagnostic coredump partition on disk

Mở PuTTy gõ lệnh sau:

esxcli system coredump partition list
You see output similar to:
Name                   Path                Active  Configured
---------------------  ------------------  ------  ----------
mpx.vmhba2:C0:T0:L0:7  /vmfs/devices/....   false       false

gõ tiếp lệnh sau:

esxcli system coredump partition set --enable true –smart

sau đó gõ lại lệnh:

esxcli system coredump partition list
You see output similar to:
Name                   Path                Active  Configured
---------------------  ------------------  ------  ----------
mpx.vmhba2:C0:T0:L0:7  /vmfs/devices/....    true        true

ví dụ:

image

Như vậy ESxi Host 80 đã hết lỗi.

 

Chúc các bạn thành công !