NVM Express[NVMe] 또는 NVMHCI(Non-Volatile Memory Host Controller Interface Specification)는 PCIe(PCI Express) 버스를 통해 연결된 SSD(Solid-State Drive)에 접속하기 위한 사양입니다. NVM은 SSD에 사용되는 Non-Volatile Memory의 머리글자입니다. NVMe는 PCIe SSD에 대한 최적화된 레지스터 인터페이스, 명령 세트 및 기능 세트를 정의합니다. 이를 통해 PCIe SSD를 표준화하고 성능을 개선함에 초점을 두고 있습니다.
NVMe 사양을 기반으로 설계된 PCIe SSD 디바이스는 NVMe 기반 PCIeSSD입니다. NVMe에 대한 자세한 내용은 http://www.nvmexpress.org/ 링크를 참조하십시오. 현재 사용되는 NVMe 디바이스는 NVMe 1.0c 규격입니다.
아래에서 NVMe 디바이스에 대한 RHEL 7 지원에 대해 알아보겠습니다.
원인 정보를 사용할 수 없습니다.
여기서 다루는 주제는 다음과 같습니다.
NVMe 드라이버는 다음 기능을 제공합니다.
다음 표에는 12G 및 13G 시스템의 NVMe에 대한 RHEL 7 [기본 제공] 드라이버 지원 기능이 나열되어 있습니다.
세대 | 기본 IO | 핫 플러그 | UEFI 부팅 | 레거시 부팅 |
---|---|---|---|---|
13G | 예 | 예 | 예 | 아니요 |
12G | 예 | 예 | 아니요 | 아니요 |
아래 [그림 5]에서는 디바이스 노드의 명명 규칙을 설명합니다.
문자열 "nvme" 바로 뒤의 숫자가 디바이스 번호입니다.
예:
nvme0n1 – 여기서 디바이스 번호는 0입니다.
접두사 ‘p’ 가 있는 디바이스 이름 뒤에 파티션이 추가됩니다.
예:
nvme0n1p1 – 파티션 1
nvme1n1p2 – 파티션 2
예:
nvme0n1p1 – 디바이스 0의 파티션 1
nvme0n1p2 – 디바이스 0의 파티션 2
nvme1n1p1 – 디바이스 1의 파티션 1
nvme1n1p2 – 디바이스 1의 파티션 2 디바이스 노드 명명 규칙
1) 다음 명령은 장치 1에서 nvme 파티션 1을 xfs
[root@localhost ~] # mkfs.ext4로 포맷 합니다. xfs/dev/nvme1n1p1
meta-data =/dev/nvme1n1p1 isize = 256 agcount = 4, agcount = 12209667 blks
= sectsz = 512 attr = 2, projid32bit = 1
= crc = 0
데이터 = bsize = 4096 블록 = 48838667, imaxpct = 25
= sunit = 0 sunit = 0 blks
명명 = 버전 2 bsize = 4096 ascii-ci = 0 ftype = 0
log = internal log bsize = 4096 block = 23847, version = 2
= sectsz = 512 sunit = 0 blks, lazy count = 1
, none extsz = 4096 블록 = 0, rtextents = 0
2) 마운트 지점에 디바이스를 탑재 하 고 동일한
[root@localhost ~] # mount/mnt/
[root@localhost ~] # mount | grep-i nvme
/dev/nvme1n1p1 on/mnt type xfs (rw,)를 나열 합니다. atime, seclabel, attr2, inode64, noquota)
ledmon utility를 사용 하 여 nvme 디바이스
ledmon 및 ledctl을 관리 하는 데 사용할 수 있는 2 개의 Linux 유틸리티는 드라이브 후면판에서 LED 상태를 제어 하는 데 사용할 수 있습니다. 일반적으로 드라이브 후면판 Led는 하드웨어 RAID 컨트롤러 (PERC)를 통해 제어 되지만 NVMe PCIE SSD에 대해 mdadm (Software RAID on Linux)을 사용 하는 경우 ledmon 데몬이 드라이브 어레이의 상태를 모니터링 하 고 드라이브 Led의 상태를 업데이트 합니다.
추가 정보를 확인 하려면 link https://www.dell.com/support/article/SLN310523/ 를 확인 하십시오.
1) openipmi 및 ledmon/ledctl 유틸리티 설치:
openipmi 및 ledmon를 설치 하려면 다음 명령을 실행 합니다.
[root@localhost ~] # yum install openipmi
[root@localhost ~] # yum install ledmon-0.79-3.el7.x86_64. rpm
2) ledctl 및 ledmon를 동시에 실행 하는 ledmod/ledctl 유틸리티를 사용 합니다
. ledmon는 최종적으로 ledctl settings
a)를 시작 하 고 다음 명령을 사용 하 여 [그림 6]에 표시 된 ipmi의 상태를 확인 합니다
[root@localhost ~] # systemctl 시작 ipmi
그림 6: IPMI 시작 및 상태
a) ledmod를 시작합니다.
[root@localhost ~]# ledmon
b) [그림 7]은 디바이스의 작동 상태에 대해 ledmon 실행 후 LED 상태를 표시합니다.
그림 7: LED 상태 ledmon run of device (녹색)
a) 다음 명령을 실행 하면 드라이브 LED가 깜박입니다. [장치 노드/dev/nvme0n1]
[root@localhost ~] # ledctl 찾기 =/dev/nvme0n1
아래 명령을 실행 하면 드라이브 상태 표시등 [장치 노드/dev/nvme0n1 및/dev/nvme1n1]
[root@localhost ~] # ledctl to = {/dev/nvme0n1/DEV/NVME1N1}
및 다음 명령을 실행 하면 찾기 LED가 꺼집니다
[root@localhost ~] # ledctl locate_off =/dev/nvme0n1.