dell-redhat-rdbms-utilities-2018.06-1.el7.noarch.rpm är skapad för att utföra följande
yum localinstall –y dell-redhat-rdbms-12cR2-preinstall-2018.06-1.el7.noarch.rpm
Alla beroende-RPM:er installeras om YUM-datalager konfigureras korrekt
yum localinstall –y dell-redhat-rdbms-utilities-2018.06-1.el7.noarch.rpm
2.2. Konfigurera nätverket
2.2.1. Offentligt nätverk
Se till att den offentliga IP-adressen är en giltig och dirigerbar IP-adress
Så här konfigurerar du det offentliga nätverket på varje nod
- Logga in som root.
- Gå till /etc/sysconfig/network-scripts och redigera ifcfg-em#-filen där # är nätverksenhetens nummer
NAME="Oracle Public"
DEVICE= "em1"
ONBOOT=yes
TYPE= Ethernet
BOOTPROTO=static
IPADDR=<routable IP address>
NETMASK=<netmask>
GATEWAY=<gateway_IP_address>
- Ange värdnamnet via kommandot nedan
hostnamectl set-hostname <host-name>
där <host-name> är det värdnamn vi använder för installationen
- Skriv service network restart för att starta om nätverkstjänsten
- Skriv ifconfig för att verifiera att IP-adresserna är korrekt angivna
- Kontrollera din nätverkskonfiguration genom att pinga varje offentlig IP-adress från en klient på det LAN som inte är en del av klustret
- Anslut varje nod för att verifiera att det offentliga nätverket fungerar. Ange SSH för att verifiera att kommandot för säkert skal (ssh) fungerar
2.2.2. Privat nätverk
Den privata nätverkets konfiguration består av två nätverksgränssnitt, em2 och em3. Det privata nätverket används för att skapa sammankopplad kommunikation mellan alla noderna i klustret. Detta görs via Oracles Redundant Interconnect, också kallat Highly Available Internet Protocol (HAIP), vilket låter Oracle-rutnätsinfrastruktur aktivera och hämta balanserad trafik på upp till fyra Ethernet-enheter för privat sammankopplad kommunikation.
Vardera av de två NIC-portarna för privat nätverk måste vara på separata PCI-bussar
Exemplet nedan är en instruktion med steg för steg för att aktivera redundant sammankoppling med hjälp av HAIP i en ny Oracle 12c Grid-infrastruktursinstallation
- Redigera filen /etc/sysconfig/network-scripts/ifcfg-emX, där X är antalet em-enheter, ifcfg-emX-konfigurationsfiler för nätverksadaptrar som ska användas för din privata sammankoppling.
DEVICE=em2
BOOTPROTO=static
HWADDR=
ONBOOT=yes
NM_CONTROLLED=yes
IPADDR=192.168.1.140
NETMASK=255.255.255.0
DEVICE=em3
HWADDR=
BOOTPROTO=static
ONBOOT=yes
NM_CONTROLLED=yes
IPADDR=192.168.1.141
NETMASK=255.255.255.0
- När du har sparat båda konfigurationsfilerna startar du om nätverkstjänsten med hjälp av kommandona nedan
nmcli connection reload
nmcli device disconnect em2
nmcli connection up em2
- Upprepa stegen för varje gränssnitt som har ändrats.
- Genom att slutföra stegen ovan har systemet nu förberetts för aktivering av HAIP med hjälp av installationsprogrammet för Oracle-rutnätsinfrastruktur. När du har slutfört Oracles alla förutsättningar och är redo att installera Oracle behöver du markera em2 och em3 som privata gränssnitt på skärmen Network Interface Usage
- I det här steget aktiverar du redundant sammankoppling när Oracle-rutnätsinfrastrukturen har slutförts och körs
2.2.3. Oracle Flex ASM-nätverk
Oracle Flex ASM kan antingen använda samma privata nätverk som Oracle Clusterware eller sina egna särskilda privata nätverk. Varje nätverk kan klassificeras som OFFENTLIGT eller PRIVAT+ASM, eller PRIVAT eller ASM
2.2.4. Krav på IP-adress och namnmatchning
Vi kan konfigurera klusternodernas IP-adress med ett av följande alternativ
2.2.4.1. Domännamnsserver (DNS)
Så här konfigurerar du Oracle 12c RAC med hjälp Oracle (utan GNS):
Ett GENOMSÖKNINGSSNAMN måste konfigureras på DNS för Round Robin-matchningen till tre adresser (rekommenderas) eller minst en adress. GENOMSÖKNINGSADRESSER måste vara på samma undernät som virtuella IP-adresser och offentliga IP-adresser
För hög tillgänglighet och skalbarhet rekommenderas det att du konfigurerar GENOMSÖKNINGEN att använda Round Robin-matchning till tre IP -adresser. Namnet på GENOMSÖKNINGEN kan inte börja med siffra. För att installationen ska lyckas måste GENOMSÖKNINGEN lösa minst en adress
I tabellen nedan beskrivs de olika gränssnitten, inställningar för IP-adress samt matchningar i ett kluster
Gränssnitt
|
Typ
|
Lösning
|
Publik
|
Statisk
|
DNS
|
Privat
|
Statisk
|
Krävs inte
|
ASM
|
Statisk
|
Krävs inte
|
Nod, virtuell IP
|
Statisk
|
Krävs inte
|
GENOMSÖKNING av virtuell IP
|
Statisk
|
Krävs inte
|
Konfigurera en DNS-server
Så här konfigurerar du ändringar på en DNS-server för ett Oracle 12c-kluster med hjälp av DNS (utan GNS):
Konfigurera GENOMSÖKNINGSNAMNETS matchning på DNS-servern. Ett GENOMSÖKNINGSNAMN som konfigurerats på DNS-servern med hjälp av Round Robin-policyn bör lösa de tre offentliga IP-adresserna (rekommenderas), men det minsta kraven är en offentlig IP-adress
Till exempel
scancluster IN A 192.0.2.1
IN A 192.0.2.2
IN A 192.0.2.3
Där scancluster är det GENOMSÖKNINGSNAMN som tilldelas under Oracle Grid-installation
GENOMSÖKNINGENS IP-adress måste vara dirigerbar och inom ett offentligt område
Konfigurera en DNS-klient
Så här konfigurerar du de ändringar som krävs på klusternoderna för namnmatchning:
- Du måste konfigurera resolv.conf på noderna i klustret för att bevara namnserverposter som är matchningsbara med DNS-servern.
nmcli connection modify ipv4.dns ipv4.dns-search
- Kontrollera att orderkonfigurationen /etc/nsswitch.conf kontrollerar namntjänsteordning. I vissa konfigurationer kan NIS orsaka problem med Oracle SCAN-adressmatchningen. Vi rekommenderar att du placerar NIS-posten i slutet av söklistan.
Till exempel, hosts: dns files nis
3. Förbereda delad lagring för fristående Oracle RAC-installation
I det här avsnittet betyder termerna disk, volym, virtuell disk och LUN samma sak och används omväxlande, om inte annat anges. Termerna Stripe Element Size och Segment Size kan båda användas på samma vis
Oracle RAC kräver delade LUN:er för lagring av Oracle Cluster Registry (OCR), röstningsdisk, Oracle Database-filer och Flash Recovery Area (FRA). I följande tabell visas den vanliga rekommenderade designen av lagringsvolymen för Oracle 12c-databasen
Databasens volymtyp/syfte |
Antal volymer |
Volymstorlek |
OCR/VOTE |
3 |
50 GB vardera |
DATA |
4 |
250 GB1 vardera |
REDO2 |
2 |
Minst 50 GB vardera |
FRA |
1 |
100 GB3 |
TEMP |
1 |
100 GB |
1 – Justera varje volymstorlek baserat på din databas. 2 – Minst två REDO ASM-diskgrupper rekommenderas, var och en med minst en lagringsvolym. 3 – Helst bör storleken vara 1,5 x storleken på databasen om lagringskapaciteten tillåter det
Vi rekommenderar att Device Mapper Multipath används för optimal prestanda och
beständig namnbindning mellan noder inom klustret
3.1. Konfigurera Device Mapper Multipath för XtremIO-lagring
Syftet med Device Mapper Multipath är att möjliggöra flera I/O-sökvägar för att förbättra prestanda och tillhandahålla konsekvent namngivning. Flera sökvägar åstadkommer detta genom att kombinera dina I/O-sökvägar till en enhetsmappningssökväg och korrekt lastbalansera I/O. I det här avsnittet beskrivs det bästa sättet att konfigurera enhetsmappningssökvägen på din Dell PowerEdge-server. Kontrollera att drivrutinerna för Device-mapper och multipath-drivrutinen har minst den version som visas nedan eller högre:
- rpm -qa | grep device-mapper-multipath
device-mapper-multipath
- Aktivera multipath med mpathconf –enable
- Konfigurera XtremIO multipath genom att ändra /etc/multipath.conf med följande
device {
vendor XtremIO
product XtremApp
path_grouping_policy multibus
path_checker tur
path_selector "queue-length 0"
rr_min_io_rq 1
user_friendly_names yes
fast_io_fail_tmo 15
failback immediate
}
- Lägg till lämpliga användarvänliga namn på varje volym med motsvarande scsi_id. Vi kan hämta scsi_ids med kommandot nedan
/usr/lib/udev/scsi_id -g -u -d /dev/sdX
- Leta reda på avsnittet med flera sökvägar i filen /etc/multipath.conf. I det här avsnittet anger du scsi_id för varje volym och anger ett alias för att upprätthålla en konsekvent namngivningskonvention över alla dina noder. Nedan visas ett exempel
multipaths {
multipath {
wwid <out put of step4 for volume1>
alias alias_of_volume1
}
multipath {
wwid <out put of step4 for volume2>
alias alias_of_volume2
}
}
- Starta om tjänsten multipath daemon med
Service multipathd restart
- Kontrollera att aliaset för flera sökvägar visas korrekt
multipath -ll
- Upprepa alla trhe-steg för alla noder
3.2. Partitionering av den delade disken
I det här avsnittet beskrivs hur du använder parted-verktyget för att skapa en enda partition på en volym/virtuell disk som spänner över hela disken.
Partitionering av varje databasvolym som konfigurerats med device-mapper genom att köra följande kommando:
$> parted -s /dev/mapper/<volume1> mklabel msdos
$> parted -s /dev/mapper/<volume1> primary 2048s 100%
Upprepa detta för alla volymer som krävs
systemctl restart multipathd.service
3.3 Använda udev-regler för diskbehörigheter och beständighet
Red Hat Enterprise Linux 7.x omfattar möjligheten att använda udev-regler för att se till att systemet hanterar behörigheter för enhetsnoder på rätt sätt. I det här fallet hänvisar vi till korrekt inställning av behörigheter för våra LUN/volymer som upptäcks av operativsystemet. Det är viktigt att notera att udev-regler utförs i numrerad ordning. När du skapar udev-regler för att ange behörigheter ska du inkludera prefixet 60- och lägga till .rules i slutet av filnamnet.
- Skapa filen 60-oracle-asmdevices.rules under /etc/udev/rules.d
- Se till att varje blockenhet har en post i filen som visas nedan
#---------------------start udev rule contents ------------------------#
KERNEL=="dm-*", ENV =="C1_OCR1p?", OWNER:="grid", GROUP:="asmadmin", MODE="0660"
KERNEL=="dm-*", ENV =="C1_OCR2p?", OWNER:="grid", GROUP:="asmadmin", MODE="0660"
KERNEL=="dm-*", ENV =="C1_OCR3p?", OWNER:="grid", GROUP:="asmadmin", MODE="0660"
KERNEL=="dm-*", ENV =="C1_DATA1p?", OWNER:="grid", GROUP:="asmadmin", MODE="0660"
KERNEL=="dm-*", ENV =="C1_DATA2p?", OWNER:="grid", GROUP:="asmadmin", MODE="0660"
KERNEL=="dm-*", ENV =="C1_DATA3p?", OWNER:="grid", GROUP:="asmadmin", MODE="0660"
KERNEL=="dm-*", ENV =="C1_DATA4p?", OWNER:="grid", GROUP:="asmadmin", MODE="0660"
KERNEL=="dm-*", ENV =="C1_REDO1p?", OWNER:="grid", GROUP:="asmadmin", MODE="0660"
KERNEL=="dm-*", ENV =="C1_REDO2p?", OWNER:="grid", GROUP:="asmadmin", MODE="0660"
KERNEL=="dm-*", ENV =="C1_FRA?", OWNER:="grid", GROUP:="asmadmin", MODE="0660"
KERNEL=="dm-*", ENV =="C1_TEMP?", OWNER:="grid", GROUP:="asmadmin", MODE="0660"
#-------------------------- end udev rule contents ------------------#
- Kör udevadm trigger för att tillämpa regeln.
- Kopiera udev-reglerna till alla noder och kör udevadm-trigger för att tillämpa reglerna
4. Installera Oracle 12c Grid-infrastruktur för ett kluster
Det här avsnittet ger dig installationsinformation för Oracle 12c-rutnätsinfrastrukturen för ett kluster. Innan du installerar Oracle 12c RAC-programvaran på ditt system ska du kontrollera att du redan konfigurerat operativsystemet, nätverket och lagringen baserat på stegen från föregående avsnitt i det här dokumentet och hitta Oracle 12c-paketet.
4.1 Konfigurera System Clock-inställningarna för alla noder
Förhindra att installationsproceduren misslyckas genom att konfigurera alla noderna med identiska inställningar för systemklockan. Synkronisera nodsystemklockan med Cluster Time Synchronization Service (CTSS) som finns i Oracle 12c. Aktivera CTSS genom att inaktivera tjänsten daemon (ntpd), operativsystemets protokoll för nätverkstid, med hjälp av följande kommandon i den här ordningen:
-
systemctl stop chronyd.service
-
systemctl disable chronyd.service
-
mv /etc/chrony.conf /etc/ntp.chrony.orig
Följande steg är för den första noden i ditt kluster såvida inte annat anges.
- Logga in som root.
- Om du inte befinner dig i en grafisk miljö startar du X Window System genom att skriva: startx
- Öppna ett terminalfönster och skriv: xhost +
- Montera Oracle Grid Infrastructure-media.
- Logga in som rutnätsanvändare, t.ex.: su - grid.
- Skriv följande kommando för att starta Oracle Universal Installer: /runInstaller
- I fönstret Select Configuration Option väljer du Configure Grid Infrastructure for a Standalone Server och klickar på Next
- I fönstret Cluster Configuration väljer du Configure an Oracle Standalone Cluster och klickar på Next.
- Ange följande information i fönstren Grid Plug och Play Information:
-
Cluster Name – ange klusternamn
-
SCAN Name – ange namnet som registrerats på DNS-servern, vilket är unikt för hela klustret. Mer information om att konfigurera GENOMSÖKNINGSNAMN finns i IP Address and Name Resolution requirements.
-
SCAN Port – bibehåll standardporten 1521.
- I fönstret Cluster Node Information klickar du på Add och lägger till ytterligare noder som måste hanteras av Oracle-rutnätsinfrastrukturen.
- Ange information om det offentliga värdnamnet för hubb- och lövmedlemmar i klusternoder
- Ange klustermedlemsnodens roll.
- Upprepa de ovanstående tre stegen för varje nod i klustret.
- Klicka på SSH-anslutning och konfigurera lösenordsfri SSH-anslutning genom att ange lösenordet för rutnätsanvändare i operativsystemet och klicka på konfigurera.
- Klicka på OK och klicka på Next för att gå till nästa fönster.
- I fönstret Specify Network Interface Usage kontrollerar du att korrekt gränssnittsanvändningstyper har markerats för gränssnittens namn. I listrutan Use for väljer du önskad gränssnittstyp. De tillgängliga alternativen är Public, Private, ASM, ASM och Private. Klicka på Next (nästa)
- I fönstret Storage Option Information klickar du på Configure ASM genom att blockera enheter och klicka på Next.
- I fönstret Grid Infrastructure Management Repository Option väljer du No för Configure Grid Infrastructure Management och klickar på Next.
- I fönstret Create ASM Disk Group anger du följande information:
-
Disk Group Name – ange ett namn, t.ex.: OCR
-
Redundancy – för OCR och röstningsdisk väljer du High om det finns fem tillgängliga ASM-diskar, Normal om det finns tre tillgängliga ASM-diskar och External om det finns en tillgänglig ASM-disk (rekommenderas ej).
: om det inte finns några kandidatdiskar klickar du på Change Discovery Path och anger /dev/mapper/*.
- I fönstret ASM Password väljer du lämpligt alternativ under Specify the passwords for these accounts och anger de relevanta värden för lösenordet. Klicka på Nästa.
- I fönstret Failure Isolation Support väljer du Do Not use Intelligent Platform Management Interface (IPMI)
- I fönstret Management Options väljer du standardalternativet och klickar på Next
- I fönstret Privileged Operating Systems Groups väljer du:
-
asmdba for Oracle ASM DBA (OSASM) Group
-
asmoper for Oracle ASM Operator (OSOPER) Group
-
asmdba for Oracle ASM Administrator (OSDBA) Group
- I fönstret Specify Installation Location anger du värden för Oracle Base och Software Location så som detta konfigurerats i Dell Oracle-verktyget RPM
Standardplatserna som används i Dell Oracle-verktyget RPM är:
- Oracle Base -/u01/app/grid
- Programvaruplats – /u01/app/12.1.0/grid_1
- I fönstret Create Inventory anger du platsen för Inventory Directory. Klicka på Next (nästa)
Standardplatsen baserad på Dell Oracle-verktyget RPM för Inventory Directory är /u01/app/oraInventory
- I fönstret Root Script Execution Configuration avmarkerar du att automatiskt köra konfigurationsskript och klickar på Next
- I fönstret Summary kontrollerar du alla inställningarna och klickar på Install
- I fönstret Install Product kontrollerar du status för installationen av Grid Infrastructure
- I fönstret Execute Configuration Scripts kör du root.sh-skripten på båda noder och klickar på OK.
- I fönstret Finish klickar du på Close
5. Installera Oracle 12c Database
5.1. Installera programvaran Oracle 12c Database (RDBMS)
Följande steg är för den första noden i ditt kluster såvida inte annat anges.
- Logga in som ”root” och klicka på: xhost+.
- Montera Oracle Database 12c Media.
- Logga in som Oracle-användare genom att skriva: su - oracle
- Kör installationsskriptet från Oracle Database Media:
<CD_mount>/runInstaller
- I fönstret Configure Security Updates anger du My Oracle Support-användaruppgifterna för att ta emot säkerhetsuppdateringar, och klickar sedan på Next
- I fönstret Select Installation Option väljer du Install database software only.
- I fönstret Select Database Installation Options väljer du Oracle Real Application Clusters Database Installation och klickar på Next
- I fönstret Select List of Nodes markerar du alla hubbnoder, utelämnar lövnoderna, klickar på Click SSH Connectivity och konfigurerar din lösenordsfria SSH-anslutning genom att ange Oracle-användarens lösenord till operativsystemet och klickar på Setup. Klicka på OK och klicka på Next för att gå till nästa fönster
- I fönstret Select Database Installation Options väljer du Oracle Real Application Clusters Database Installation och klickar på Next
- I fönstret Select List of Nodes markerar du alla hubbnoder, utelämnar lövnoderna, klickar på Click SSH Connectivity och konfigurerar din lösenordsfria SSH-anslutning genom att ange Oracle-användarens lösenord till operativsystemet och klickar på Setup. Klicka på OK och klicka på Next för att gå till nästa fönster
- I fönstret Select Database Edition väljer du Enterprise Edition och klickar på Next
- I fönstret Specify Installation Location anger du platsen för Oracle Base-konfigurationer i Dells Oracle-verktyg RPM
Standardplatserna som används i Dell Oracle-verktyget RPM är följande:
- Oracle Base – /u01/app/oracle
- Programvaruplats – /u01/app/oracle/product/12.1.0/dbhome_2
- I fönstret Privileged Operating System Groups väljer du dba för Database Administrator-gruppen (OSDBA), dba för Database Operator-gruppen (OSOPER), backupdba för Database Backup and Recovery-gruppen (OSBACKUPDBA), dgdba för Data Guard Administrative-gruppen (OSDGDBA) och kmdba för Encryption Key Management Administrative-gruppen (OSKMDBA) och klickar på Next.
- I fönstret Summary kontrollerar du inställningarna och klickar på Install
- När installationsprocessen har slutförts visas guiden Execute Configuration Scripts. Följ instruktionerna i guiden och klicka på OK.
Root.sh bör köras på en nod i taget
- I fönstret Finish klickar du på Close
6. Skapa diskgrupp med hjälp av ASM Configuration Assistant (ASMCA)
Det här avsnittet innehåller information om hur du skapar ASM-diskgruppen för databasfilerna och Flashback Recovery Area (FRA).
- Logga in som rutnätsanvändare genom att starta asmca från /u01/app/12.2.0/grid/bin/asmca
- Skapa diskgruppen DATA med extern redundans genom att välja lämpliga kandidatdiskar
- Skapa två REDO-diskgrupper – REDO1 och REDO2 – med extern redundans genom att välja minst en kandidatdisk per REDO-diskgrupp
- Skapa diskgruppen FRA med extern redundans genom att välja lämpliga kandidatdiskar
- Skapa diskgruppen TEMP med extern redundans genom att välja lämpliga kandidatdiskar
- Kontrollera alla nödvändiga diskgrupper och klicka på för att stänga ASMCA-verktyget
- Ändra ASM-striping till finkornigt för diskgrupperna REDO, TEMP och FRA som en Grid-användare med hjälp av nedanstående kommandon
Vi måste byta till finkornig striping innan vi kör DBCA
SQL> ALTER DISKGROUP REDO ALTER TEMPLATE onlinelog ATTRIBUTES (fine)
SQL> ALTER DISKGROUP TEMP ALTER TEMPLATE tempfile ATTRIBUTES (fine)
SQL> ALTER DISKGROUP FRA ALTER TEMPLATE onlinelog ATTRIBUTES (fine)
7. Skapa databas med hjälp av DBCA
Följande steg gäller den första noden i ditt kluster såvida inte annat anges:
- Logga in som Oracle-användare
- Från $, kör DBCA-verktyget genom att skriva: $/bin/dbca
- I fönstret Select Database Operation väljer du Create a database och klickar på Next
- I fönstret Select Creation Mode väljer du Advanced Mode och klickar på Next
- I fönstret Select Database Deployment väljer du Oracle Real Application Cluster-databasen (RAC) i databastypen och Admin-Managed för konfigurationstyp. Välj Template och klicka sedan på Next
- I fönstret Select List of nodes väljer du noder och klickar på Next
- I fönstret Specify Database Identification Details:
- I fönstret Storage Options väljer du Datafiles Storage Location, avmarkerar Use Oracle-managed Files (OMF) och klickar på Next
- I fönstret Select Fast Recovery Option väljer du plats för Specify Fast Recovery Area och klickar på Next
- I fönstret Select Oracle Data Vault Config Option väljer du standardvärden och klickar på Next
- I fönstret Specify Configuration Options anger du önskade SGA- och PGA-värden och klickar på Next
- I fönstret Specify Management Options väljer du standardalternativet och klickar på Next
- I fönstret Specify Database User Credentials anger du lösenordet och klickar på Next
- I fönstret Select Database Creation Option klickar du på Customize Storage Locations
- Skapa/ändra REDO-loggrupper baserat på följande designrekommendation
REDO-loggruppsnummer |
Trådnummer |
Diskgruppsplats |
REDO-loggstorlek |
1 |
1 |
+REDO1 |
5 GB |
2 |
1 |
+REDO2 |
5 GB5 GB |
3 |
1 |
+REDO1 |
5 GB |
4 |
1 |
+REDO2 |
5 GB |
5 |
2 |
+REDO1 |
5 GB |
6 |
2 |
+REDO2 |
5 GB |
7 |
2 |
+REDO1 |
5 GB |
8 |
2 |
+REDO2 |
5 GB |
- I fönstret Summary klickar du på Finish för att skapa databasen
Det kan ta lite tid att slutföra skapa databas
- Klicka på Close i fönstret Finish efter att databasen skapats