NVM Express [NVMe] eller Non-Volatile Memory Host Controller Interface Specification (NVMHCI), er en specifikation for adgang til solid-state-drev (SSD) tilsluttet via PCI Express-bus (PCIe). NVM er en forkortelse for non-volatile memory, som benyttes i SSD. NVMe definerer optimeret registergrænseflade, kommandosæt og funktionssæt til PCIe SSD'er. NVMe fokuserer på standardisering af PCIe SSD'er og forbedrer ydeevnen
PCIe SSD-enheder, som er designet baseret på specifikationen for NVMe, er NVMe-baserede PCIeSSD'er. For yderligere oplysninger om NVMe, se linket http://www.nvmexpress.org/. De NVMe-enheder, som bruges i øjeblikket, er NVMe 1.0c-kompatible.
Nedenfor vil vi uddybe RHEL 7-understøttelse for NVMe-enheder.
Ingen årsags oplysninger er tilgængelige.
Følgende er en liste over de ting, der dækkes:
NVMe-driver viser følgende funktioner
Følgende tabel viser RHEL 7 [Direkte fra æsken-]driverunderstøttede funktioner for NVMe på 12 G- og 13 G-maskiner
Generation | Grundlæggende IO | Hot Plug | UEFI starttilstand | Legacy starttilstand |
---|---|---|---|---|
13 G | Ja | Ja | Ja | Nej |
12 G | Ja | Ja | Nej | Nej |
Under [fig. 5] er der en forklaring på navngivningskonventionen for enheds noderne
Antallet umiddelbart efter strengen "nvme" er enhedsnummeret
Eksempel:
Nvme0n1 - her er enhedsnummeret 0
Partitioner tilføjes efter navnet på enheden med præfikset "p"
Eksempel:
Nvme0n1p1 - 1 partition
Nvme1n1p2 - 2 partition
Eksempel:
Nvme0n1p1 - partition 1 af enheden 0
Nvme0n1p2 - partition 2 af enheden 0
Nvme1n1p1 - partition 1 af enheden 1
Nvme1n1p2 - partition 2 af enheden 1 Enhedsnode navngivningskonventioner
1) følgende kommando formaterer nVMe-partition 1 på enhed 1 til XFS
[root@localhost ~] # mkfs. XFS/dev/nvme1n1p1
meta-data =/dev/nvme1n1p1 isize = 256 agcount = 4, agsize = 12209667 blks
= sectsz = 512 attr = 2, projid32bit = 1
= CRC = 0
data = bsize = 4096 Blocks = 48838667, imaxpct = 25
= sunit = 0 swidth = 0 blks
Naming = version 2 bsize = 4096 ASCII-CI = 0 ftype = 0
Log = intern log bsize = 4096 Blocks = 23847, version = 2
= sectsz = 512 sunit = 0 blks, antal-Count = 1
realtid = none extsz = 4096 Blocks = 0, rtextents = 0
2) Tilslut enheden til et tilslutningspunkt og få vist de samme
[root@localhost ~] # mount/dev/nvme1n1p1/mnt/
[root@localhost ~] # Mount | GREP-i nVMe
/dev/nvme1n1p1 på/mnt type XFS (RW, relatime, seclabel, attr2, inode64, ikke-kvote)
Brug ledmon Utility til at administrere backplane-dioder for nVMe Device
ledmon og ledctl er to hjælpeværktøjer til Linux, der kan bruges til at styre LED-status på drevs bagplaner. Normalt drevs backplane-dioder styres af en hardware-RAID-controller (PERC), men når du bruger software-RAID på Linux (mdadm) til NVMe PCIE SSD, vil ledmon daemon overvåge status for drevets array og opdatere status for drev dioderne.
Kontroller ved ekstra læsning, at linket https://www.Dell.com/support/article/SLN310523/
1) installation af OpenIPMI og ledmon/ledctl Utilities:
Udfør følgende kommandoer for at installere OpenIPMI og ledmon
[root@localhost ~] # yum Installer OpenIPMI
[root@localhost ~] # yum Installér ledmon-0,79-3.el7.x86_64. rpm
2) Brug ledmod/ledctl-hjælpeprogrammer
, der kører ledctl og ledmon samtidigt, ledmon vil til enhver tid tilsidesætte de ledctl Settings
a) start og kontrollér status for IPMI som vist i [fig. 6] ved hjælp af følgende kommando
[root@localhost ~] # systemctl start IPMI
figur 6: IPMI-start og -status
a) Start ledmod
[root@localhost ~]# ledmon
b) [Fig. 7] viser LED-status efter udførsel af ledmon for enhedens tilstand
Figur 7: LED-status, når ledmon er kørt for enhedens driftstilstand (grøn)
a) nedenstående kommando blinker drevets led [på Enhedsnoden/dev/nvme0n1]
[root@localhost ~] # ledctl Find =/dev/nvme0n1
underkommandoen blinker begge drev dioderne [på Enhedsnoden/dev/nvme0n1 og/dev/nvme1n1]
[root@localhost ~] # ledctl Find = {/dev/nvme0n1/dev/nvme1n1}
og følgende kommando vil slukke for Find-led
[root@localhost ~] # ledctl locate_off =/dev/nvme0n1