广告
返回顶部
首页 > 资讯 > 数据库 >【Oracle Database】Oracle RAC(六):节点管理
  • 526
分享到

【Oracle Database】Oracle RAC(六):节点管理

2024-04-02 19:04:59 526人浏览 八月长安
摘要

[root@wallet03 ~]# yum install -y iscsi-initiator-utils [root@wallet03 ~]# vim /etc/iscsi/iscsid.conf n

[root@wallet03 ~]# yum install -y iscsi-initiator-utils
[root@wallet03 ~]# vim /etc/iscsi/iscsid.conf
node.session.auth.authmethod = CHAP
node.session.auth.username = gscf
node.session.auth.passWord = gscf@1234

[root@wallet03 ~]# iscsiadm -m discovery -t sendtargets -p 192.168.40.36
Starting iscsid:                                           [  OK  ]
192.168.40.36:3260,1 iqn.2019-02.com.gscaifu:disk01
192.168.40.36:3260,1 iqn.2019-02.com.gscaifu:disk02
192.168.40.36:3260,1 iqn.2019-02.com.gscaifu:disk03
192.168.40.36:3260,1 iqn.2019-02.com.gscaifu:disk04
192.168.40.36:3260,1 iqn.2019-02.com.gscaifu:disk05
192.168.40.36:3260,1 iqn.2019-02.com.gscaifu:disk06
192.168.40.36:3260,1 iqn.2019-02.com.gscaifu:disk07
192.168.40.36:3260,1 iqn.2019-02.com.gscaifu:disk08
192.168.40.36:3260,1 iqn.2019-02.com.gscaifu:disk09
192.168.40.36:3260,1 iqn.2019-02.com.gscaifu:disk10

[root@wallet03 ~]# iscsiadm -m node -T iqn.2019-02.com.gscaifu:disk01 --login
Logging in to [iface: default, target: iqn.2019-02.com.gscaifu:disk01, portal: 192.168.40.36,3260] (multiple)
Login to [iface: default, target: iqn.2019-02.com.gscaifu:disk01, portal: 192.168.40.36,3260] successful.

[root@wallet03 ~]# iscsiadm -m node -T iqn.2019-02.com.gscaifu:disk02 --login
Logging in to [iface: default, target: iqn.2019-02.com.gscaifu:disk02, portal: 192.168.40.36,3260] (multiple)
Login to [iface: default, target: iqn.2019-02.com.gscaifu:disk02, portal: 192.168.40.36,3260] successful.

[root@wallet03 ~]# iscsiadm -m node -T iqn.2019-02.com.gscaifu:disk03 --login
Logging in to [iface: default, target: iqn.2019-02.com.gscaifu:disk03, portal: 192.168.40.36,3260] (multiple)
Login to [iface: default, target: iqn.2019-02.com.gscaifu:disk03, portal: 192.168.40.36,3260] successful.

[root@wallet03 ~]# iscsiadm -m node -T iqn.2019-02.com.gscaifu:disk04 --login
Logging in to [iface: default, target: iqn.2019-02.com.gscaifu:disk04, portal: 192.168.40.36,3260] (multiple)
Login to [iface: default, target: iqn.2019-02.com.gscaifu:disk04, portal: 192.168.40.36,3260] successful.

[root@wallet03 ~]# iscsiadm -m node -T iqn.2019-02.com.gscaifu:disk05 --login
Logging in to [iface: default, target: iqn.2019-02.com.gscaifu:disk05, portal: 192.168.40.36,3260] (multiple)
Login to [iface: default, target: iqn.2019-02.com.gscaifu:disk05, portal: 192.168.40.36,3260] successful.

[root@wallet03 ~]# iscsiadm -m node -T iqn.2019-02.com.gscaifu:disk06 --login
Logging in to [iface: default, target: iqn.2019-02.com.gscaifu:disk06, portal: 192.168.40.36,3260] (multiple)
Login to [iface: default, target: iqn.2019-02.com.gscaifu:disk06, portal: 192.168.40.36,3260] successful.

[root@wallet03 ~]# iscsiadm -m node -T iqn.2019-02.com.gscaifu:disk07 --login
Logging in to [iface: default, target: iqn.2019-02.com.gscaifu:disk07, portal: 192.168.40.36,3260] (multiple)
Login to [iface: default, target: iqn.2019-02.com.gscaifu:disk07, portal: 192.168.40.36,3260] successful.

[root@wallet03 ~]# iscsiadm -m node -T iqn.2019-02.com.gscaifu:disk08 --login
Logging in to [iface: default, target: iqn.2019-02.com.gscaifu:disk08, portal: 192.168.40.36,3260] (multiple)
Login to [iface: default, target: iqn.2019-02.com.gscaifu:disk08, portal: 192.168.40.36,3260] successful.

[root@wallet03 ~]# iscsiadm -m node -T iqn.2019-02.com.gscaifu:disk09 --login
Logging in to [iface: default, target: iqn.2019-02.com.gscaifu:disk09, portal: 192.168.40.36,3260] (multiple)
Login to [iface: default, target: iqn.2019-02.com.gscaifu:disk09, portal: 192.168.40.36,3260] successful.

[root@wallet03 ~]# iscsiadm -m node -T iqn.2019-02.com.gscaifu:disk10 --login 
Logging in to [iface: default, target: iqn.2019-02.com.gscaifu:disk10, portal: 192.168.40.36,3260] (multiple)
Login to [iface: default, target: iqn.2019-02.com.gscaifu:disk10, portal: 192.168.40.36,3260] successful.

[root@wallet03 ~]# groupadd -g 1200 dba
[root@wallet03 ~]# groupadd -g 1201 oinstall 
[root@wallet03 ~]# groupadd -g 1202 asmadmin
[root@wallet03 ~]# groupadd -g 1203 asmdba 
[root@wallet03 ~]# useradd -u 1100 -g oinstall -G asmadmin,asmdba,dba grid
[root@wallet03 ~]# echo grid | passwd --stdin grid
Changing password for user grid.
passwd: all authentication tokens updated successfully.

[root@wallet03 ~]# id grid
uid=1100(grid) gid=1201(oinstall) groups=1201(oinstall),1200(dba),1202(asmadmin),1203(asmdba)

[root@wallet03 ~]# yum install -y kmod-oracleasm*
[root@wallet03 ~]# rpm -ivh oracleasmlib-2.0.4-1.el6.x86_64.rpm
[root@wallet03 ~]# rpm -ivh oracleasm-support-2.1.8-1.el6.x86_64.rpm

[root@wallet03 ~]#  /usr/sbin/oracleasm configure -i
Configuring the Oracle ASM library driver.
This will configure the on-boot properties of the Oracle ASM library
driver.  The following questions will determine whether the driver is
loaded on boot and what permissions it will have.  The current values
will be shown in brackets ('[]').  Hitting <ENTER> without typing an
answer will keep that current value.  Ctrl-C will abort.
Default user to own the driver interface []: grid
Default group to own the driver interface []: asmadmin 
Start Oracle ASM library driver on boot (y/n) [n]: y
Scan for Oracle ASM disks on boot (y/n) [y]: y
Writing Oracle ASM library driver configuration: done

[root@wallet03 ~]# /usr/sbin/oracleasm init
Creating /dev/oracleasm mount point: /dev/oracleasm
Loading module "oracleasm": oracleasm
Configuring "oracleasm" to use device physical block size 
Mounting ASMlib driver filesystem: /dev/oracleasm

[root@wallet03 ~]#  /usr/sbin/oracleasm scandisks
Reloading disk partitions: done
Cleaning any stale ASM disks...
Scanning system for ASM disks...
Instantiating disk "DISK1"
Instantiating disk "DISK5"
Instantiating disk "DISK4"
Instantiating disk "DISK10"
Instantiating disk "DISK6"
Instantiating disk "DISK8"
Instantiating disk "DISK3"
Instantiating disk "DISK2"
Instantiating disk "DISK7"
Instantiating disk "DISK9"

[root@wallet03 ~]#  /usr/sbin/oracleasm listdisks
DISK1
DISK10
DISK2
DISK3
DISK4
DISK5
DISK6
DISK7
DISK8
DISK9


[root@wallet03 ~]# cat >> /etc/hosts <<EOF
# Public Network
192.168.40.34   wallet01 
192.168.40.35   wallet02  
192.168.40.38   wallet03
# Public Virtual IP (VIP)
192.168.40.134   wallet01-vip 
192.168.40.135   wallet02-vip
192.168.40.138   wallet03-vip
EOF
 
[root@wallet03 ~]# yum -y install GCc gcc-c++ glibc glibc-common ksh make sysstat \
binutils elfutils-libelf elfutils-libelf-devel elfutils-libelf-devel-static \
glibc-devel glibc-headers  libaio libaio-devel libstdc++ libstdc++-devel unixODBC unixODBC-devel

[root@wallet03 ~]# CVUQDISK_GRP=oinstall
[root@wallet03 ~]# export CVUQDISK_GRP
[root@wallet03 ~]# rpm -ivh cvuqdisk-1.0.9-1.rpm

[root@wallet03 ~]# /sbin/service ntpd stop
[root@wallet03 ~]# chkconfig ntpd off
[root@wallet03 ~]# mv /etc/ntp.conf /etc/ntp.conf.backup

[root@wallet03 ~]# cat >> /etc/sysctl.conf <<EOF
kernel.shmmni = 4096
kernel.sem = 250 32000 100 128
fs.file-max = 6815744
net.ipv4.ip_local_port_range = 9000 65500
net.core.rmem_default=262144
net.core.rmem_max=4194304
net.core.wmem_default=262144
net.core.wmem_max=1048576
fs.aio-max-nr=1048576
net.ipv4.conf.default.rp_filter = 0
net.ipv4.conf.all.rp_filter = 0
EOF
[root@wallet03 ~]# sysctl -p

[root@wallet03 ~]# cat >> /etc/security/limits.conf <<EOF
grid            soft    nproc           2047    
grid            hard    nproc           16384
grid            soft    nofile          1024
grid            hard    nofile          65536
EOF

[root@wallet03 ~]# mkdir -p /u01/app/grid
[root@wallet03 ~]# mkdir -p /u01/app/11.2.0.4/grid
[root@wallet03 ~]# chown -R grid:oinstall /u01

[root@wallet03 ~]# su - grid
[grid@wallet03 ~]$ vi .bash_profile
export ORACLE_SID=+ASM3
export ORACLE_BASE=/u01/app/grid
export ORACLE_HOME=/u01/app/11.2.0.4/grid
export PATH=$ORACLE_HOME/bin:$PATH

[grid@wallet03 ~]$ mkdir ~/.ssh
[grid@wallet03 ~]$ chmod 700 ~/.ssh
[grid@wallet03 ~]$ /usr/bin/ssh-keygen -t dsa
Generating public/private dsa key pair.
Enter file in which to save the key (/home/grid/.ssh/id_dsa): 
Enter passphrase (empty for no passphrase): 
Enter same passphrase again: 
Your identification has been saved in /home/grid/.ssh/id_dsa.
Your public key has been saved in /home/grid/.ssh/id_dsa.pub.
The key fingerprint is:
7a:f9:18:01:fa:13:5a:22:4f:0b:d9:11:e0:7c:42:17 grid@wallet03
The key's randomart image is:
+--[ DSA 1024]----+
|  o.E.           |
| + . .           |
|  + o .          |
|   = o .         |
|  + = o S        |
|   = * o o       |
|    + + +        |
|       o +       |
|        . .      |
+-----------------+

[grid@wallet01 ~]$ ssh wallet03 cat ~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys
[grid@wallet01 ~]$ scp ~/.ssh/authorized_keys wallet03:.ssh/authorized_keys

[grid@wallet01 ~]$ (ssh wallet01 "date;hostname";ssh wallet03 "date;hostname")
Tue Apr 30 17:34:33 CST 2019
wallet01
Tue Apr 30 17:34:33 CST 2019
wallet03

[grid@wallet03 ~]$ (ssh wallet01 "date;hostname";ssh wallet03 "date;hostname")
Tue Apr 30 17:34:42 CST 2019
wallet01
Tue Apr 30 17:34:42 CST 2019
wallet03

[grid@wallet01 ~]$ cd grid
[grid@wallet01 grid]$ ./runcluvfy.sh stage -pre nodeadd -n wallet03 -fixup -verbose >check2.txt

[grid@wallet01 ~]$ export IGNORE_PREADDNODE_CHECKS=Y

[grid@wallet01 ~]$ cd $ORACLE_HOME/oui/bin
[grid@wallet01 bin]$ ./addNode.sh -silent "CLUSTER_NEW_NODES={wallet03}" "CLUSTER_NEW_VIRTUAL_HOSTNAMES={wallet03-vip}"
Starting Oracle Universal Installer...
Checking swap space: must be greater than 500 MB.   Actual 8191 MB    Passed
Oracle Universal Installer, Version 11.2.0.4.0 Production
Copyright (C) 1999, 2013, Oracle. All rights reserved.

PerfORMing tests to see whether nodes wallet03,wallet03 are available
............................................................... 100% Done.
.
-----------------------------------------------------------------------------
Cluster Node Addition Summary
Global Settings
   Source: /u01/app/11.2.0.4/grid
   New Nodes
Space Requirements
   New Nodes
      wallet03
         /: Required 4.49GB : Available 75.62GB
         
略......

Instantiating scripts for add node (Sunday, May 5, 2019 4:02:55 PM CST)
.                                                                 1% Done.
Instantiation of add node scripts complete

Copying to remote nodes (Sunday, May 5, 2019 4:02:57 PM CST)
...............................................................................................                                 96% Done.
Home copied to new nodes

Saving inventory on nodes (Sunday, May 5, 2019 4:06:33 PM CST)
.                                                               100% Done.
Save inventory complete
WARNING:A new inventory has been created on one or more nodes in this session. However, it has not yet been reGIStered as the central inventory of this system. 
To register the new inventory please run the script at '/u01/app/oraInventory/orainstRoot.sh' with root privileges on nodes 'wallet03'.
If you do not register the inventory, you may not be able to update or patch the products you installed.
The following configuration scripts need to be executed as the "root" user in each new cluster node. Each script in the list below is followed by a list of nodes.

/u01/app/oraInventory/orainstRoot.sh #On nodes wallet03
/u01/app/11.2.0.4/grid/root.sh #On nodes wallet03
To execute the configuration scripts:
    1. Open a terminal window
    2. Log in as "root"
    3. Run the scripts in each cluster node
    
The Cluster Node Addition of /u01/app/11.2.0.4/grid was successful.
Please check '/tmp/silentInstall.log' for more details.

[root@wallet03 ~]# /u01/app/oraInventory/orainstRoot.sh
Creating the Oracle inventory pointer file (/etc/oraInst.loc)
Changing permissions of /u01/app/oraInventory.
Adding read,write permissions for group.
Removing read,write,execute permissions for world.

Changing groupname of /u01/app/oraInventory to oinstall.
The execution of the script is complete.

[root@wallet03 ~]# /u01/app/11.2.0.4/grid/root.sh
Performing root user operation for Oracle 11g 

The following environment variables are set as:
    ORACLE_OWNER= grid
    ORACLE_HOME=  /u01/app/11.2.0.4/grid

Enter the full pathname of the local bin directory: [/usr/local/bin]: 
   Copying dbhome to /usr/local/bin ...
   Copying oraenv to /usr/local/bin ...
   Copying coraenv to /usr/local/bin ...

Creating /etc/oratab file...
Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Using configuration parameter file: /u01/app/11.2.0.4/grid/crs/install/crsconfig_params
Creating trace directory
User ignored Prerequisites during installation
Installing Trace File Analyzer
OLR initialization - successful
Adding Clusterware entries to upstart
CRS-4402: The CSS daemon was started in exclusive mode but found an active CSS daemon on node wallet03, number 1, and is terminating
An active cluster was found during exclusive startup, restarting to join the cluster
clscfg: EXISTING configuration version 5 detected.
clscfg: version 5 is 11g Release 2.
Successfully accumulated necessary OCR keys.
Creating OCR keys for user 'root', privgrp 'root'..
Operation successful.
Configure Oracle Grid Infrastructure for a Cluster ... succeeded


[root@wallet03 ~]# useradd -u 1101 -g oinstall -G dba,asmdba oracle
[root@wallet03 ~]# echo oracle | passwd --stdin oracle
Changing password for user oracle.
passwd: all authentication tokens updated successfully.

[root@wallet03 ~]# id oracle
uid=1101(oracle) gid=1201(oinstall) groups=1201(oinstall),1200(dba),1203(asmdba)

[root@wallet03 ~]# cat >> /etc/profile <<EOF
 if [ \$USER = "oracle" ] || [ \$USER = "grid" ]; then 
     if [ \$shell = "/bin/ksh" ]; then
        ulimit -p 16384
        ulimit -n 65536
     else
         ulimit -u 16384 -n 65536
     fi
     umask 022
 fi
EOF

[root@wallet03 ~]# cat >> /etc/security/limits.conf <<EOF
oracle          soft    nproc           2047
oracle          hard    nproc           16384
oracle          soft    nofile          1024
oracle          hard    nofile          65536
EOF

[root@wallet03 ~]# cat >> /etc/pam.d/login <<EOF
session    required     pam_limits.so
EOF

[root@wallet03 ~]# mkdir -p /u01/app/oracle
[root@wallet01 ~]# chown oracle:oinstall /u01/app/oracle

[root@wallet03 ~]# su - oracle
[oracle@wallet03 ~]$ vi .bash_profile
export ORACLE_SID=wallet3
export ORACLE_BASE=/u01/app/oracle
export ORACLE_HOME=$ORACLE_BASE/product/11.2.0/db_1
export PATH=$ORACLE_HOME/bin:$PATH

[oracle@wallet03 ~]$ mkdir ~/.ssh
[oracle@wallet03 ~]$ chmod 700 ~/.ssh
[oracle@wallet03 ~]$ /usr/bin/ssh-keygen -t dsa
Generating public/private dsa key pair.
Enter file in which to save the key (/home/oracle/.ssh/id_dsa): 
Enter passphrase (empty for no passphrase): 
Enter same passphrase again: 
Your identification has been saved in /home/oracle/.ssh/id_dsa.
Your public key has been saved in /home/oracle/.ssh/id_dsa.pub.
The key fingerprint is:
87:45:4d:c0:f3:e8:14:51:12:d8:b6:3f:c1:62:c3:9c oracle@wallet02
The key's randomart image is:
+--[ DSA 1024]----+
|         +*Bo    |
|        ..*..    |
|         +.O     |
|         oE +    |
|        S+.+ .   |
|         .. o    |
|             .   |
|                 |
|                 |
+-----------------+

[oracle@wallet01 ~]$ ssh wallet03 cat ~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys
[oracle@wallet01 ~]$ scp ~/.ssh/authorized_keys wallet03:.ssh/authorized_keys

[oracle@wallet01 ~]$ (ssh wallet01 "date;hostname";ssh wallet03 "date;hostname")
Sun May  5 10:12:50 CST 2019
wallet01
Sun May  5 10:12:50 CST 2019
wallet03

[oracle@wallet03 ~]$ (ssh wallet01 "date;hostname";ssh wallet03 "date;hostname")
Sun May  5 10:12:58 CST 2019
wallet01
Sun May  5 10:12:58 CST 2019
wallet03

[oracle@wallet01 ~]$ cd $ORACLE_HOME/oui/bin
[oracle@wallet01 bin]$ ./addNode.sh -silent "CLUSTER_NEW_NODES={wallet03}"

Performing pre-checks for node addition 

Checking node reachability...
Node reachability check passed from node "wallet03"

Checking user equivalence...
User equivalence check passed for user "oracle"

WARNING: 
Node "wallet03" already appears to be part of cluster

Pre-check for node addition was successful. 
Starting Oracle Universal Installer...

Checking swap space: must be greater than 500 MB.   Actual 8191 MB    Passed
Oracle Universal Installer, Version 11.2.0.4.0 Production
Copyright (C) 1999, 2013, Oracle. All rights reserved.

Performing tests to see whether nodes wallet03,wallet03 are available
............................................................... 100% Done.
.
-----------------------------------------------------------------------------
Cluster Node Addition Summary
Global Settings
   Source: /u01/app/oracle/product/11.2.0/db_1
   New Nodes
Space Requirements
   New Nodes
      wallet03
         /: Required 4.25GB : Available 71.76GB
略......
-----------------------------------------------------------------------------
Instantiating scripts for add node (Sunday, May 5, 2019 4:24:17 PM CST)
.                                                                 1% Done.
Instantiation of add node scripts complete

Copying to remote nodes (Sunday, May 5, 2019 4:24:19 PM CST)
...............................................................................................                                 96% Done.
Home copied to new nodes

Saving inventory on nodes (Sunday, May 5, 2019 4:30:13 PM CST)
.                                                               100% Done.
Save inventory complete
WARNING:
The following configuration scripts need to be executed as the "root" user in each new cluster node. Each script in the list below is followed by a list of nodes.
/u01/app/oracle/product/11.2.0/db_1/root.sh #On nodes wallet03
To execute the configuration scripts:
    1. Open a terminal window
    2. Log in as "root"
    3. Run the scripts in each cluster node
    
The Cluster Node Addition of /u01/app/oracle/product/11.2.0/db_1 was successful.
Please check '/tmp/silentInstall.log' for more details.

[root@wallet03 ~]# /u01/app/oracle/product/11.2.0/db_1/root.sh
Performing root user operation for Oracle 11g 

The following environment variables are set as:
    ORACLE_OWNER= oracle
    ORACLE_HOME=  /u01/app/oracle/product/11.2.0/db_1

Enter the full pathname of the local bin directory: [/usr/local/bin]: 
The contents of "dbhome" have not changed. No need to overwrite.
The contents of "oraenv" have not changed. No need to overwrite.
The contents of "coraenv" have not changed. No need to overwrite.

Entries will be added to the /etc/oratab file as needed by
Database Configuration Assistant when a database is created
Finished running generic part of root script.
Now product-specific root actions will be performed.
Finished product-specific root actions.


[root@wallet01 ~]# su - oracle
[oracle@wallet01 ~]$ dbca

【Oracle Database】Oracle RAC(六):节点管理

【Oracle Database】Oracle RAC(六):节点管理

【Oracle Database】Oracle RAC(六):节点管理

【Oracle Database】Oracle RAC(六):节点管理

【Oracle Database】Oracle RAC(六):节点管理

【Oracle Database】Oracle RAC(六):节点管理

【Oracle Database】Oracle RAC(六):节点管理

【Oracle Database】Oracle RAC(六):节点管理

您可能感兴趣的文档:

--结束END--

本文标题: 【Oracle Database】Oracle RAC(六):节点管理

本文链接: https://www.lsjlt.com/news/37233.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 【Oracle Database】Oracle RAC(六):节点管理
    [root@wallet03 ~]# yum install -y iscsi-initiator-utils [root@wallet03 ~]# vim /etc/iscsi/iscsid.conf n...
    99+
    2022-10-18
  • 【Oracle Database】Oracle RAC(八):服务资源管理
    Service资源每个数据库都有一个或多个service名称,service名称是提供给客户端连接到数据库实例的名称。创建数据库会默认创建与数据库同名的service,默认的service实现所有实例的负载...
    99+
    2022-10-18
  • Oracle Rac 删除节点
    Oracle inventory存储节点上配置和运行信息,删除节点时自动更新。 Oracle Rac 11g R2删除节点非常容易:从逻辑上从集群中解锁一个集群节点,并关闭,将可以从集群中分离出来,然后...
    99+
    2022-10-18
  • Oracle 11G RAC 增加节点
    集群中增加节点大致分为 4 个步骤:前期准备阶段、新节点加入集群(安装 GI 软件)、新节点安装 DB 软件、给新节点分配实例。 一 . ...
    99+
    2022-10-18
  • Oracle 10g RAC 加入新节点
    1、在一台裸机上安装Linux系统c3,准备让其加入c1,c2两节点的rac环境要有两个网卡eth0,eth2(略)2、调整/etc/hosts文件将三个节点都变成如下127.0.0.1localhost1...
    99+
    2022-10-18
  • Oracle Study之--Oracle 11g RAC添加节点错误
    Oracle Study之--Oracle 11g RAC添加节点错误系统环境:    操作系统:RedHat EL5    Cluster:  Oracl...
    99+
    2022-10-18
  • Oracle 11G RAC如何删除节点
    这篇文章主要介绍了Oracle 11G RAC如何删除节点,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。软硬件环境数据库版本:11.2.0....
    99+
    2022-11-30
    oracle rac
  • Oracle 10G RAC 删除已有节点
    如果现在在RAC集群中有三个节点c1、c2、c3:如果想要卸载c3节点。1、在c1或者c2上删除c3实例运行dbca然后选择Oracle Real Application Clusters database...
    99+
    2022-10-18
  • Oracle 11g RAC添加一节点过程
    实验场景:两节点RAC,主机名是db1、db2,现在需要添加db2。   本文是接上一文删除节点后的添加节点的过整过程。查看Oracle 11g R2 RAC删除一节点过程。   &nb...
    99+
    2022-10-18
  • hp unix oracle rac节点一磁盘损坏,节点修复
    oracle 10g rac用的service guide 作为集群基础的软件相关目录信息:ORA_CRS_HOME=$ORACLE_BASE/10.2/crsOcr信息: /dev/vgdata/rrac...
    99+
    2022-11-30
    hpunix oracle crs
  • Oracle 11g R2 RAC删除一节点过程
    实验场景:两节点RAC,主机名是db1、db2,现在需要删除db2,本示例是在正常状态下删除。1.  db1,db2节点检查CSS服务器是否正常,如下即为正常。[root@db1 ~]# su -...
    99+
    2022-10-18
  • Oracle RAC节点时间差过大怎么办
    这篇文章将为大家详细讲解有关Oracle RAC节点时间差过大怎么办,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。Oracle RAC 节点时间差过大解决方法 ...
    99+
    2022-10-18
  • ORACLE 12C 三节点 RAC 安装报错 [INS-32025]
    测试安装三节点Oracle 12C RAC,笔记本配置双核I5 16g内存,每台虚机分配4G 内存。在数据库软件安装过程中,主实例异常重启,重新安装数据库软件,但是遇到报错。报错如下:[INS-32025]...
    99+
    2022-10-18
  • 部署Physical Dataguard 与 双节点Oracle RAC环境
     关于oracle rac 部署请访问这里 http://worms.blog.51cto.com/969144/1416975系统信息:Primary端RAC  Primar...
    99+
    2022-10-18
  • Oracle Rac添加节点的方式有哪些
    这篇文章给大家介绍Oracle Rac添加节点的方式有哪些,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。 添加节点两种方式:1.克隆一个已有网格主目录。&...
    99+
    2022-10-19
  • Oracle 12C R2单节点GRID+DATABASE如何安装
    这篇文章给大家分享的是有关Oracle 12C R2单节点GRID+DATABASE如何安装的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。具体安装过程如下 软件包检查 yum...
    99+
    2022-10-18
  • Oracle RAC一节点宕机导致另一节点HANG的问题分析
            正所谓“福无双至,祸不单行”,生产上有套2节点Oracle 11.2.0.4数据库,其中2节点因硬件故障宕机,...
    99+
    2022-10-18
  • 爱数(Version: 6.0.17.0.1704)oracle rac下异机单节点恢复
    1、恢复参数文件--任意可读写路径/u01/oracle/recoverydata(数据库需在nomount或mount状态)2、修改参数文件---pfile_dmsdb.ora#plusdb.db_cac...
    99+
    2022-10-18
  • ORACLE 12C 三节点 RAC 无法找到候选磁盘
    一、描述测试安装三节点Oracle 12C RAC,笔记本配置双核i5 16g内存,每台虚机分配4G 内存。在集群软件安装过程中,无法找到候选磁盘,如下图所示:二、处理过程观察磁盘头状态,发现问题的原因。因...
    99+
    2022-10-18
  • Oracle 11g RAC重新添加节点的示例分析
    本篇文章为大家展示了Oracle 11g RAC重新添加节点的示例分析,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。   &...
    99+
    2022-10-19
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作