王朝网络
分享
 
 
 

VMware下RedHat安装Oracle 9i RAC全攻略

王朝oracle·作者佚名  2008-05-31
宽屏版  字体: |||超大  

摘要:大家都知道,Oracle 9i RAC(以下简称RAC)是oracle里相对比较复杂的部分,很大一部分原因是由于RAC的环境搭建相对不如单实例方便。通常典型的配置是两台主机加一台存储,但是平常我们个人假如想在家研究测试RAC的话,很少会去购买这么多设备来做测试的。 幸好,我们有VMwareGSX Server(以下简称VMware),通过使用这款非常好的虚拟机模拟工具,我们可以在一台PC电脑上模拟出多台主机加存储的这样一个RAC环境。

本文首先简要介绍了RAC的原理,随后着重具体叙述了如何在一台PC电脑上,使用VMware构建两台RedHat linux AS3(以下简称AS3),并虚拟一个共享存储,创建裸设备,最后在实现RAC的搭建。

1.RAC简介

简单来说,RAC就是位于多个主机(通常都称为节点)上的多个oracle实例同时治理一个数据库。数据库必须放在共享存储设备上,包括数据文件、控制文件、联机日志以及spfile都必须放在共享存储上,这样每个节点才能同时访问存储设备。每个节点之间通过高速光纤互相连接,并同步内存数据。oracle在治理不同实例里的内存里的数据结构,同时要最大程度的降低I/O,引入了全局缓冲服务(GCS:Global Cache Service),同时还引入了全局锁定服务(GES:Global Enqueue Service)用来在不同节点之间通讯时进行同步治理。这些服务都是通过一组非凡的后台进程完成的,这些后台进程主要包括:

(1)global cache service PRocesses(LMSN):n从0到9,具体由信息传输的数量决定。用来控制信息到其他实例的流向,同时还治理对全局数据块的访问。LMSn进程同样在不同实例的数据块缓存(buffer cache)里传递数据库镜像(block image)。该进程是Cache Fusion特性的一部分。

(2)global enqueue service monitor(LMON):监控全局锁定(global enqueues)及其资源,并提供global enqueues资源的恢复操作。enqueues是用来进行串行化行更新的共享的内存结构。

(3)global enqueue service daemon(LMD):治理对全局锁定(global enqueues)以及全局资源的访问。在每个实例中,LMD进程对传入当前实例的对其他资源的访问请求进行治理。

(4)lock process(LCK)治理non-Cache Fusion资源的请求,比如library cache或row cache的请求。

(5)diagnosability daemon(DIAG):获得实例中有关进程失败的诊断信息。该daemon的操作是自动的,并且它会更新alert<SID>.log文件,以记录它所做的动作。

注重:cache fusion表示一种在RAC里的非磁盘交互方式的内存同步机制。该机制使得获得block的实例能够将block直接从内存转移到需要该block的实例的SGA里去。这样,由于减少了磁盘交互,所以将block从一个实例转移到另一个实例的性能提高很多。而且治理也更加简便。

RAC能够对客户端的连接请求进行负载均衡,把所有客户的连接尽可能的平均分布在不同的实例上。同时,RAC还提供failover的功能,也就是说假如其中一个节点发生意外,只要这个时候连在该损坏节点上的session没有正在进行事务运行,则该session不需要退出后重新登录,oracle会自动将该session连接到一个可用的节点上,从而保证了7×24应用的安全性和稳定性。

不过,RAC不提供容灾的功能,也就是说假如共享存储损坏,仍然会导致整个应用崩溃。所以,需要采用其他容灾方案结合使用,比如RAC+DataGuard等。

2.预备工作

VMware GSX Server:笔者测试所使用的是3.2版本,建议使用3.2及以上的版本。

Linux:笔者使用的是RedHat Linux AS3。请使用AS2.1以上版本的linux。因为AS2.1以下的版本假如要

支持RAC需要进行很多额外的配置,比如watchdog之类的,到了AS2.1以后缺省都不使用了,而是使用hangcheck,假如要使用watchdog,需要进行很多不必要的配置。安装介质可以是光盘,也可以是ISO文件。笔者使用的是ISO文件。

Oracle:笔者使用的是oracle 9204 for linux,可以直接从oracle的官方网站上下载。笔者是从oracle官方网站上下载下来的三个压缩包。

主要的预备工作就是这些,当然安装过程中可能还会需要其他的一些软件,比如plainmaker等。在需要的时候,笔者也会说明如何使用这些软件的。

3.安装虚拟节点

3.1 创建虚拟节点

VMware安装好以后,进入主界面,我们就可以创建两个虚拟节点。点击File->New Virtual Machine…,在打开的窗口中,在选择所安装的操作系统时,我们选择RedHat Enterprise Linux 3,其他都选择缺省值,点击next,一直到让你输入disk size时,缺省事4G,我们改成8G,最后点击finish。这样就创建好了一个虚拟节点,取名为linux1。同样的方法,我们创建第二个虚拟节点,取名为linux2。

3.2安装linux

创建完两个虚拟节点以后,我们要开始安装linux了。在窗口的左边的Inventory框里,右键节点linux1,选择virtual machine settings…,在弹出的框中,我们选中CD-ROM,然后选择Use ISO Image,并输入相应的linux安装介质的第一个ISO文件的位置,如下图所示。选择ok以后,点击Power->Power On,相当于为节点

点击查看大图

加电,剩下的工作与在单PC机器上安装linux过程一样。这里提一点,就是在给磁盘分区时,假如不使用LVM,那么在分区时,/boot给120M,/swap给256M,/给2900M,然后再创建一个/oracle,把剩下的空间都给/oracle。在安装过程中,当提示需要换另外一张盘时,你只要再次进入图一所示界面,更改ISO文件并确定以后,再进入虚拟机,选择提示中的ok即可。同样的方法,我们可以安装好另外一台虚拟机上的linux。

RAC里每个节点都需要两块网卡并使用固定ip,一块作为两个节点互相内部通信用,另外一块作为外部连接用。我们同样的,选择linux1,进入图一界面,选择add按钮,然后选择Ethernet Adapter,然后都选择缺省值并点击next直到结束。这样就为linux1添加了第二块网卡。同样的方法为linux2添加第二块网卡。分别启动两个节点以后,我们在linux为网卡配置ip地址。笔者的配置是linux1的内部通信ip为:134.251.0.140,外部通信ip为:134.251.114.141。而linux2的内部通信ip为:134.251.0.141,外部通信ip为:134.251.114.140。

4.安装共享磁盘

4.1 创建共享磁盘

在VMware里,共享磁盘需要使用plainmaker.exe这个工具来创建。可以到VMware GSX Server的安装目录下找该工具是否存在。假如不存在,则可以到Google上搜索。很多站点提供该工具的下载。进入命令提示符,输入下面的命令来创建共享磁盘。

C:\>plainmaker D:\virtualos\sharedisk.pln 2048m

该命令运行以后,就会在D:\virtualos目录下创建一个名位sharedisk.pln的共享磁盘,大小为2G。

4.2 添加共享磁盘

共享磁盘安装好以后,我们需要把它加入到前面安装好的两台linux虚拟机里。选择linux1,仍然进入到图一所示的界面里,选择左边的add按钮,在弹出的框中,选择Hard Disk,并点击next,选择方式如下面图二

所示,并点击next,输入我们刚才创建的共享磁盘名:D:\virtualos\sharedisk.pln,然后不要点击finish,要点击advanced,选择磁盘为SCSI 1:0。如下图三所示。最后点击finish。这样,我们就为linux1节点添加了共享存储。随后,我们用同样的方法为linux2节点也添加该共享存储。

4.3 配置共享磁盘

把共享存储添加到两个节点以后,还不算完,必须修改两个虚拟机的配置文件。在每个节点所在目录下都存在一个后缀名为vmx的文件,这就是虚拟机的配置文件了,用notepad打开,把下面三行记录添加进去。注重,这三行中的每一行都不能重复,所以仔细检查一下vmx文件,确保这三行记录唯一。每个节点的配置文件都必须添加这三行记录。

disk.locking = FALSE

scsi1.sharedBus = "virtual"

scsi1:0.mode = "persistent"

到这里,我们才算是为两个节点都配置好了共享存储。分别启动两个linux节点以后,进入linux,我们可以使用如下命令来确定两个节点是否都能够找到该存储了。假如提示出有设备,则表示能够识别共享存储。

fdisk –l /dev/sdb

5.设置两个节点的互相信任机制

由于RAC的节点之间需要完全无障碍的访问,因此需要设定主机名互相访问以及互相信任机制。注重:以下所有步骤都必须在两台节点上各自完成。

5.1 设置主机名

首先,RAC之间互相不能通过ip来访问,而必须使用主机名来访问,因此需要设定hosts内容。笔者设定的是节点linux1的内部访问主机名为linux1-prv,而外部访问节点名为linux1;节点linux2的内部访问主机名为linux2-prv,而外部访问节点名为linux2。需要将这些信息添加到/etc/hosts文件里去,如下所示。注重,要将127.0.0.1原来所对应的linux1改名为localhost。

# Do not remove the following line, or various programs

# that require network functionality will fail.

127.0.0.1localhostlocalhost.localdomainlocalhost

134.251.114.140 linux1

134.251.114.141 linux2

134.251.0.140linux1-prv

134.251.0.141linux2-prv

同样的,修改linux2的/etc/hosts文件,也要将127.0.0.1原来所对应的linux2改名为localhost。其他设置与linux1节点一样。设置好以后,在linux1上ping linux2,在linux2上也ping linux1,假如都通的话,说明设置无误。

5.2 设置telnet访问

(1)通常缺省都会安装telnet-client。主要确定是否安装了telnet-server软件。

[root@linux1 root]# rpm –qa grep telnet

(2)假如没有安装,则从AS3安装介质上找到该rpm包,并进行安装。

(3)安装好以后,需要启动telnet服务。输入以下命令,并从弹出的框中选中telnet后确认。

[root@linux1 root]# ntsysv

(4)激活telnet服务

[root@linux1 root]# service xinetd restart

(5)设置答应root进行telnet登录

[root @linux1 /root]# vi /etc/pam.d/login

将authrequiredpam_securetty.so这一行开头添加#,从而注释该行。

5.3 设置rlogin、rsh

由于在第一个节点上安装oracle软件时,oracle会自动将第一个节点上安装完毕的文件拷贝到第二个节点上,因此需要配置rlogin和rsh以及rcp等。

(1)确定是否安装了rsh-server软件。

[root@linux1 root]# rpm –qa grep rsh

(2)假如没有安装,则从AS3安装介质上找到该rpm包,并进行安装。

(3)安装好以后,需要启动rsh、rlogin、rexec服务。输入以下命令,并从弹出的框中选中rsh、rlogin、rexec后确认。

[root@linux1 root]# ntsysv

(4)激活rsh、rlongin服务

[root@linux1 root]# service xinetd restart

(5)修改/etc/securetty

[root@linux1 root]# echo "rexec" >> /etc/securetty;echo "rlogin"

>> /etc/securetty;echo "rsh" >> /etc/securetty

(6)设置答应root进行rsh、rlogin

[root @linux1 /root]# vi /etc/pam.d/rlogin

将authrequiredpam_securetty.so这一行开头添加#,从而注释该行。

(7)在/etc目录下建立hosts.equiv文件,表示两台linux节点互相信任。

[root @linux1 /root]# vi /etc/hosts.equiv

在该文件里添加如下内容:

linux1

linux2

linux1-prv

linux2-prv

(8)在root的$HOME目录下,建立.rhosts文件。

[root @linux1 /root]# vi .rhosts

在该文件里添加如下内容。这样,root用户就可以直接rlogin、rsh而不用输入密码。

linux1 root

linux2 root

linux1-prv root

linux2-prv root

(9)配置完以后,我们可以测试一下是否成功。

[root @linux1 /root]# rlogin linux2

[root @linux1 /root]# rsh –l root linux2 cat /etc/hosts

[root @linux1 /root]# rcp /tmp/testlinux2:/tmp

6.修改linux内核参数以及其他相应配置

[root @linux1 /root]# vi /etc/sysctl.conf

在该文件末尾添加如下内容:

kernel.shmmax = 2147483648

kernel.shmmni = 4096

kernel.shmall = 2097152

kernel.sem = 250 32000 100 128

fs.file-max = 65536

这里,对每个参数值做个简要的解释和说明。

(1)shmmax:该参数定义了共享内存段的最大尺寸(以字节为单位)。缺省为32M,对于oracle来说,该缺省值太低了,通常将其设置为2G。

(2)shmmni:这个内核参数用于设置系统范围内共享内存段的最大数量。该参数的默认值是 4096 。通常不需要更改。

(3)shmall:该参数表示系统一次可以使用的共享内存总量(以页为单位)。缺省值就是2097152,通常不需要修改。

(4)sem:该参数表示设置的信号量。

(5)file-max:该参数表示文件句柄的最大数量。文件句柄设置表示在linux系统中可以打开的文件数量。

修改好内核以后,执行下面的命令使新的配置生效。

[root @linux1 /root]# /sbin/sysctl -p

通常,出于性能上的考虑,还需要进行如下的设定,以便改进Oracle用户的有关 nofile(可打开的文件描述符的最大数)和nproc(单个用户可用的最大进程数量)。方法如下:

[root @linux1 /root]# vi /etc/security/limits.conf

在该文件里添加如下内容:

oracle soft nofile 65536

oracle hard nofile 65536

oracle soft nproc 16384

oracle hard nproc 16384

7.配置 hangcheck-timer 内核模块

Oracle9202以前,都是使用watchdog来检查系统是否挂起。从9202以后,oracle使用hangcheck-timer模块。hangcheck-timer模块被加载到内核中,能够定时检查系统是否挂起。有个可配置的参数用来表示多少时间以后系统没响应就认为是挂起。该模块在AS3中是自带的。

使用如下命令检查该模块是否存在:

[root @linux1 /root]# find /lib/modules -name "hangcheck-timer.o"

使用相应的参数加载该模块:

[root @linux1 /root]# /sbin/insmod hangcheck-timer hangcheck_tick=30

hangcheck_margin=180

这里解释一下两个参数的含义:

hangcheck_tick:该参数定义了模块启动的间隔时段。其默认值为 60 秒。 Oracle建议将其设置为 30 秒。

hangcheck_margin:该参数定义了多少时间以后系统没响应就认为是挂起。以秒为单位。其默认值为 180秒。Oracle 建议将其设置为 180 秒。

检查该模块是否被成功加载:

[root @linux1 /root]# grep Hangcheck /var/log/messages

为了在linux重启以后,自动加载该模块,可以将加载模块的命令添加到/etc/modules.conf中

[root @linux1 /root]# echo "options hangcheck-timer hangcheck_tick=30

hangcheck_margin=180" >> /etc/modules.conf

8.创建oracle用户和dba组

[root @linux1 /root]# groupadd dba

[root @linux1 /root]# useradd –g dba oracle

[root @linux1 /root]# passwd oracle

创建安装oracle所需要的目录。

[root @linux1 /root]# mkdir –p /oracle/ora9/prodUCt/9.2

[root @linux1 /root]# chown –R oracle.dba /oracle/ora9

为oracle用户配置.bashrc文件。

[root @linux1 /root]# su – oracle

[oracle@linux1 oracle]$ vi .bashrc

将以下内容添加到.bashrc文件里。

eXPort LD_ASSUME_KERNEL=2.4.1

export ORACLE_BASE=/oracle/ora9

export ORACLE_HOME=/oracle/ora9/product/9.2

export PATH=$ORACLE_HOME/bin:$ORACLE_HOME/Apache/Apache/bin:$PATH

export ORACLE_OWNER=oracle

export ORACLE_SID=rac9i1

export ORACLE_TERM=vt100

export LD_LIBRARY_PATH=$ORACLE_HOME/lib:/lib:/usr/lib:

/usr/local/lib:$LD_LIBRARY_PATH

以上步骤必须在两个节点上分别完成。

注重: 红色部分,在节点linux1上ORACLE_SID=rac9i1,而在节点linux2上则为ORACLE_SID=rac9i2。而蓝色部分,很多资料上只是说LD_LIBRARY_PATH=$ORACLE_HOME/lib即可。但是经过笔者测试,只写这些是不够的,在下面srvconfig –init时会报错。必须按照上面蓝色部分的内容进行配置。

9.为共享设备划分裸设备

通常,对于RAC,我们都会使用裸设备来存放数据文件等需要共享的数据库文件。这就需要我们对共享存储划分出若干的裸设备,每个裸设备对应一个文件。

9.1 磁盘分区

我们要对共享存储进行分区,该步骤只需要在其中一个节点上完成即可。笔者划分了3个主分区(primary)和一个包含11个分区的扩展分区(extend)。注重,linux上最多只能划分15个分区。超过的部分,linux是无法识别的。对每个分区的规划如下所示:

分区名尺寸存放的文件

/dev/sdb110M用于存放Cluster Manager Quorum文件

/dev/sdb2350M回滚段表空间1:Undotbs1

/dev/sdb3350M回滚段表空间1:Undotbs2

/dev/sdb5500M系统表空间:system

/dev/sdb610MSpfile

/dev/sdb7300M临时表空间:temp

/dev/sdb8300M用户表空间:user和indx,也可以不设置该分区

/dev/sdb910M控制文件:control file

/dev/sdb1010M控制文件:control file

/dev/sdb1120M第一个节点的第一组联机日志文件

/dev/sdb1220M第一个节点的第二组联机日志文件

/dev/sdb1320M第二个节点的第一组联机日志文件

/dev/sdb1420M第二个节点的第二组联机日志文件

/dev/sdb15100MSrvconfig模块所需要的Shared Configuration文件

规划好以后,我们可以开始实际创建这些分区了。进入linux,执行如下命令进入分区界面。

[root @linux1 /root]# fdisk /dev/sdb

首先输入n,然后输入p,再输入1,回车接受缺省值,再输入+10M,这样我们就创建了/dev/sdb1。同样的方法,我们可以创建sdb2和sdb3。再次输入n,然后输入e,回车接受缺省值,再回车接受缺省值,这样,我们就创建了扩展分区sdb4,同时把剩下的空间全都给了sdb4。接下来,我们输入n,然后回车接受缺省值,再输入+500M,这样,我们就创建了sdb5。同样的方法,我们可以把剩下的所有分区都创建出来。

创建完毕以后,输入p,显示我们刚才所创建的所有分区,确认无误以后,输入w,从而保存我们所创建的分区,并更新分区表。

9.2 挂载裸设备

该步骤需要在两个节点分别进行。对裸设备的规划如下:

裸设备文件名挂载的分区存放的文件

/dev/raw/raw1/dev/sdb1Cluster Manager Quorum

/dev/raw/raw2/dev/sdb2Undotbs1

/dev/raw/raw3/dev/sdb3Undotbs2

/dev/raw/raw4/dev/sdb5system

/dev/raw/raw5/dev/sdb6Spfile

/dev/raw/raw6/dev/sdb7temp

/dev/raw/raw7/dev/sdb8user和indx

/dev/raw/raw8/dev/sdb9control file

/dev/raw/raw9/dev/sdb10control file

/dev/raw/raw10/dev/sdb11Log1-thread1

/dev/raw/raw11/dev/sdb12Log2-thread1

/dev/raw/raw12/dev/sdb13Log3-thread2

/dev/raw/raw13/dev/sdb14Log4-thread2

/dev/raw/raw14/dev/sdb15Shared Configuration

确定了裸设备的规划以后,将以下内容添加到/etc/rc.local文件。

raw /dev/raw/raw1 /dev/sdb1# Cluster Manager Quorum

raw /dev/raw/raw2 /dev/sdb2#undotbs1

raw /dev/raw/raw3 /dev/sdb3#undotbs2

raw /dev/raw/raw4 /dev/sdb5#sys01

raw /dev/raw/raw5 /dev/sdb6#spfile

raw /dev/raw/raw6 /dev/sdb7#temp01

raw /dev/raw/raw7 /dev/sdb8#user01&indx01

raw /dev/raw/raw8 /dev/sdb9#ctl1

raw /dev/raw/raw9 /dev/sdb10#ctl2

raw /dev/raw/raw10 /dev/sdb11#log1-thread1

raw /dev/raw/raw11 /dev/sdb12#log2-thread1

raw /dev/raw/raw12 /dev/sdb13#log3-thread2

raw /dev/raw/raw13 /dev/sdb14#log4-thread2

raw /dev/raw/raw14 /dev/sdb15#share configuration file

检查无误后,修改/dev/raw1、/dev/raw/raw2一直到/dev/raw/raw15这15个裸设备文件的宿主为oracle。

[root @linux1 /root]# chown oracle.dba /dev/raw/raw1

[root @linux1 /root]# chown oracle.dba /dev/raw/raw2

。。。。。。。

[root @linux1 /root]# chown oracle.dba /dev/raw/raw15

分别重新启动两个节点。启动完毕以后,运行如下命令确定裸设备的配置情况。

[root @linux1 /root]# raw -aq

10.检查安装oracle所需要的linux模块以及补丁

在两个节点上分别确定以下这些rpm包是否都存在。

make-3.79

binutils-2.11

openmotif-2.2.2-16

setarch-1.3-1 compat-gcc-c++-7.3-2.96.122

compat-libstdc++-7.3-2.96.122

compat-gcc-7.3-2.96.122

compat-db-4.0.14-5

compat-libstdc++-devel-7.3-2.96.122

假如没有,则从AS3的安装介质上找到这些包并加以安装。安装好上面这些模块以后,需要打补丁,补丁号为:3006854。可以到oracle官方网站下载该补丁,发送到两个节点上以后,执行:

[root @linux1 /root]# sh rhel3_pre_install.sh

11.安装Oracle Cluster Manager

11.1 生成OCM治理文件

该OCM治理文件必须位于共享存储上,按照我们的规划,应该放在/dev/raw/raw1上。该步骤只需要在其中一个节点上执行即可。

[root @linux1 /root]# su - oracle

[oracle@linux1 oracle]$ dd if=/dev/zero of=/dev/raw/raw1 bs=1024 count=1024

11.2 安装OCM

[oracle@linux1 oracle]$ su - root

[root @linux1 /root]# mv /usr/bin/gcc /usr/bin/gcc323

[root @linux1 /root]# ln -s /usr/bin/gcc296 /usr/bin/gcc

[root @linux1 /root]# mv /usr/bin/g++ /usr/bin/g++323

[root @linux1 /root]# ln -s /usr/bin/g++296 /usr/bin/g++

检验一下gcc和g++的版本。

[root@linux1 root]# gcc -v

Reading specs from /usr/lib/gcc-lib/i386-redhat-linux7/2.96/specs

gcc version 2.96 20000731 (Red Hat Linux 7.3 2.96-122)

[root@linux1 root]# g++ -v

Reading specs from /usr/lib/gcc-lib/i386-redhat-linux7/2.96/specs

gcc version 2.96 20000731 (Red Hat Linux 7.3 2.96-122)

将下载下来的oracle安装介质(笔者下载的是ship_9204_linux_disk1.cpio.gz、ship_9204_linux_disk2.cpio.gz和ship_9204_linux_disk3.cpio.gz)拷贝到其中一个节点上。可以通过FTP拷贝也可以通过samba服务来拷贝。笔者个人倾向samba,很方便。拷贝完毕以后,使用如下命令解压。

[root @linux1 /setup]# gunzip ship_9204_linux_disk1.cpio.gz

[root @linux1 /setup]# gunzip ship_9204_linux_disk2.cpio.gz

[root @linux1 /setup]# gunzip ship_9204_linux_disk3.cpio.gz

[root @linux1 /setup]# cpio -idmv < ship_9204_linux_disk1.cpio

[root @linux1 /setup]# rm –f ship_9204_linux_disk1.cpio

[root @linux1 /setup]# cpio -idmv < ship_9204_linux_disk2.cpio

[root @linux1 /setup]# rm –f ship_9204_linux_disk2.cpio

[root @linux1 /setup]# cpio -idmv < ship_9204_linux_disk3.cpio

[root @linux1 /setup]# rm –f ship_9204_linux_disk3.cpio

解压完毕,在当前目录下有三个目录:Disk1、Disk2、Disk3。修改宿主信息。

[root @linux1 /setup]# chown –R oracle.dba Disk1

[root @linux1 /setup]# chown –R oracle.dba Disk2

[root @linux1 /setup]# chown –R oracle.dba Disk3

设置xhost +

[root @linux1 /setup]# xhost +

开始安装OCM

[root @linux1 /setup]# su - oracle

[oracle@linux1 oracle]$ /oracle/setup/Disk1/runInstall.sh

在界面上,选择安装oracle cluster manager。点击next,会要求你输入public node,这时你分两行输入linux1和linux2。点击next,会要求你输入private node,这时你分两行输入linux1-prv和linux2-prv。点击next,会要求输入Quorum文件,这时输入/dev/raw/raw1。点击next开始安装cluster manager软件。这个软件很小,安装很快就会结束。

11.3 配置OCM

[oracle@linux1 oracle]$ cd $ORACLE_HOME/oracm/admin

[oracle@linux1 admin]$ cp cmcfg.ora.tmp cmcfg.ora

[oracle@linux1 admin]$ vi cmcfg.ora

将该文件内容修改为如下内容:

HeartBeat=15000

ClusterName=Oracle Cluster Manager, version 9i

PollInterval=1000

MissCount=20

PrivateNodeNames=linux1-prv linux2-prv

PublicNodeNames=linux1 linux2

ServicePort=9998

HostName=linux1

CmDiskFile=/dev/raw/raw1

11.4 启动OCM [oracle@linux1 oracle]$ rm $ORACLE_HOME/oracm/log/*.ts

[oracle@linux1 oracle]$ cd $ORACLE_HOME/oracm/bin

[oracle@linux1 bin]$ ./ocmstart.sh

[oracle@linux1 bin]$ ps –efgrep oracm

假如没有发现oracm进程,则检查$ORACLE_HOME/oracm/log/下的cm.log文件,查看错误消息。

12.安装Oracle软件

[oracle@linux1 oracle]$ /oracle/setup/Disk1/runInstall.sh

安装过程比较简单,也没有出现任何错误。注重选择只安装oracle软件,不要安装数据库。

13.初始化Shared Configuration文件

Oracle软件安装完毕以后,开始设置Shared Configuration文件。

[oracle@linux1 oracle]$ su - root

[root @linux1 /root]# mkdir -p /var/opt/oracle

[root @linux1 /root]# touch /var/opt/oracle/srvConfig.loc

[root @linux1 /root]# chown oracle:dba /var/opt/oracle/srvConfig.loc

[root @linux1 /root]# chmod 755 /var/opt/oracle/srvConfig.loc

在srvConfig.loc文件中添加Shared Configuration文件所在的路径。而笔者的Shared Configuration文件位于共享存储上,对应/dev/raw/raw14。

[root @linux1 /root]# echo “srvconfig_loc=/dev/raw/raw14” >> /var/opt/oracle/srvConfig.loc

创建该Shared Configuration文件。

[root @linux1 /root]# su - oracle

[oracle@linux1 oracle]$ dd if=/dev/zero of=/dev/raw/raw14 bs=1024 count=102400

初始化该Shared Configuration文件

[oracle@linux1 oracle]$ srvconfig -init

笔者一开始执行报错,结果把环境变量$LD_LIBRARY_PATH在.bashrc中设置为如下值后,再启动就不会报错了:$ORACLE_HOME/lib:/lib:/usr/lib:/usr/local/lib:$LD_LIBRARY_PATH。

14.创建数据库

使用dbca创建数据库还是很简单的。不过,笔者还是走了些弯路。主要是undotbs1不能太小,笔者一开始设置为240M,结果建库时总是报错。后来加大到350M后,成功建库。启动dbca前,要先在两个节点上分别启动gsd进程。

[oracle@linux1 oracle]$ $ORACLE_HOME/bin/gsdctl start

然后启动dbca。

[oracle@linux1 oracle]$ dbca

选择创建cluster database,点击next,把所有可以不选的组件都不选,点击next后,在初始化参数设置的地方,修改spfile的路径为:/dev/raw/raw5。然后点击next,直到最后界面,笔者把表空间indx、users、tools都删除了,为了建库干净。然后按照前面的规划,分别把裸设备文件名填写到对应的文件上去。注重,每个文件都不要设定autoextend on。最后选择生成脚本,点击finish。

当脚本生成完毕时,先别急着点ok。进入脚本所在目录,检查一下init.ora.xxxxxxxxxxxxx文件(这里xxxxxxxxxxxxx为随即序列号)。着重检查最后几行,不知为何,自动生成的init.ora文件会有点问题。比如,笔者这里生成的init.ora.7232006164055内容为:

rac9i1.instance_name=rac9i

rac9i2.instance_name=rac9i2

rac9i1.instance_number=1

rac9i2.instance_number=2

rac9i2.local_listener=LISTENER_RAC9I

rac9i1.local_listener=LISTENER_RAC9I1

rac9i2.thread=2

rac9i1.thread=1

rac9i2.undo_tablespace=UNDOTBS2

rac9i1.undo_tablespace=UNDOTBS1

笔者用红色标示出来的地方是有问题的,按照这样的初始化参数建立起来的RAC数据库,第二个节点没有办法通过负载均衡来访问。同时,最好把local_listener和remote_listener修改掉。最后修改后的这块内容为:

rac9i1.instance_name=rac9i1

rac9i2.instance_name=rac9i2

rac9i1.instance_number=1

rac9i2.instance_number=2

rac9i2.local_listener='(address=(protocol=tcp)(host=linux2)(port=1521))'

rac9i2.remote_listener='(address=(protocol=tcp)(host=linux1)(port=1521))'

rac9i1.local_listener='(address=(protocol=tcp)(host=linux1)(port=1521))'

rac9i1.remote_listener='(address=(protocol=tcp)(host=linux2)(port=1521))'

rac9i2.thread=2

rac9i1.thread=1

rac9i2.undo_tablespace=UNDOTBS2

rac9i1.undo_tablespace=UNDOTBS1

修改完这些内容以后,回到原来的dbca界面,点击ok,就开始数据库的正式安装了。当然,也可以在dbca创建好数据库以后再修改这些内容也是可以的。创建完数据库以后,第二个节点的实例也会自动启动。这时,整个RAC数据库环境就已经搭建完毕了。

15.验证并测试RAC数据库

在服务器端,执行如下语句。观察是否有两个实例在运行。

SQL> select INSTANCE_NUMBER, STATUS,HOST_NAME from gv$instance;

INSTANCE_NUMBER STATUSHOST_NAME

--------------- ------------ ------------------

1OPENlinux1

2OPENlinux2

15.1 测试负载均衡

在客户端上修改tnsnames.ora文件,添加如下内容:

rac =

(DESCRIPTION =

(ADDRESS_LIST =

(ADDRESS = (PROTOCOL = TCP)(HOST = linux2)(PORT = 1521))

(ADDRESS = (PROTOCOL = TCP)(HOST = linux1)(PORT = 1521))

)

(CONNECT_DATA =

(service_name = rac9i)

(failover_mode=(type=select)(method=basic))

)

(LOAD_BALANCE=ON)

(FAILOVER=ON)

)

然后,为了能识别主机名linux1和linux2,笔者还修改了C:\WINDOWS\system32\drivers\etc目录下的hosts文件,添加如下内容:

134.251.114.140linux1

134.251.114.141linux2

最后,在命令窗口执行tnsping rac来检验是否能够连通。检测无误以后,开始测试。分两种方法,第一种方法是开两个命令行窗口,在一个窗口中分别输入如下的命令,然后再在另外一个窗口也输入如下的命令。

D:\>sqlplus /nolog

SQL> connect sys/hanson@rac as sysdba

SQL> select instance_name from v$instance;

SQL> exit

但是,从结果看起来,并没有实现负载均衡。两个窗口出现的都是rac9i1。而不是笔者想象中的一个窗口是rac9i1,另一个窗口是rac9i2。笔者又开了一个命令行窗口,再次重复执行上面的命令,仍然显示rac9i1。

换第二种测试方法,建立一个test.sql文件,内容如下:

connect test/test@rac;

select instance_name from v$instance;

exit

然后,打开一个命令行窗口,反复执行如下命令:

D:\>sqlplus /nolog @c:\test.sql

这时,显示出来的实例名确实是负载均衡了,rac9i1和rac9i2交替出现。笔者认为,这样的负载均衡意义似乎不是很大。

15.2 测试failover

实现failover,需要在客户端的tnsnames.ora文件的CONNECT_DATA节点里添加如下行:

(failover_mode=(type=select)(method=basic))

进入命令行窗口。

D:\>sqlplus /nolog

SQL> connect sys/hanson@rac as sysdba

SQL> select instance_name from v$instance;

INSTANCE_NAME

---------------

rac9i1

这时,进入linux1节点,shutdown实例以后,再次回到上面的命令行窗口,再次执行如下语句:

SQL> select instance_name from v$instance;

INSTANCE_NAME

---------------

rac9i2

从结果可以看到,确实自动切换到了rac9i2实例上。说明failover起作用了。

 
 
 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
2023年上半年GDP全球前十五强
 百态   2023-10-24
美众议院议长启动对拜登的弹劾调查
 百态   2023-09-13
上海、济南、武汉等多地出现不明坠落物
 探索   2023-09-06
印度或要将国名改为“巴拉特”
 百态   2023-09-06
男子为女友送行,买票不登机被捕
 百态   2023-08-20
手机地震预警功能怎么开?
 干货   2023-08-06
女子4年卖2套房花700多万做美容:不但没变美脸,面部还出现变形
 百态   2023-08-04
住户一楼被水淹 还冲来8头猪
 百态   2023-07-31
女子体内爬出大量瓜子状活虫
 百态   2023-07-25
地球连续35年收到神秘规律性信号,网友:不要回答!
 探索   2023-07-21
全球镓价格本周大涨27%
 探索   2023-07-09
钱都流向了那些不缺钱的人,苦都留给了能吃苦的人
 探索   2023-07-02
倩女手游刀客魅者强控制(强混乱强眩晕强睡眠)和对应控制抗性的关系
 百态   2020-08-20
美国5月9日最新疫情:美国确诊人数突破131万
 百态   2020-05-09
荷兰政府宣布将集体辞职
 干货   2020-04-30
倩女幽魂手游师徒任务情义春秋猜成语答案逍遥观:鹏程万里
 干货   2019-11-12
倩女幽魂手游师徒任务情义春秋猜成语答案神机营:射石饮羽
 干货   2019-11-12
倩女幽魂手游师徒任务情义春秋猜成语答案昆仑山:拔刀相助
 干货   2019-11-12
倩女幽魂手游师徒任务情义春秋猜成语答案天工阁:鬼斧神工
 干货   2019-11-12
倩女幽魂手游师徒任务情义春秋猜成语答案丝路古道:单枪匹马
 干货   2019-11-12
倩女幽魂手游师徒任务情义春秋猜成语答案镇郊荒野:与虎谋皮
 干货   2019-11-12
倩女幽魂手游师徒任务情义春秋猜成语答案镇郊荒野:李代桃僵
 干货   2019-11-12
倩女幽魂手游师徒任务情义春秋猜成语答案镇郊荒野:指鹿为马
 干货   2019-11-12
倩女幽魂手游师徒任务情义春秋猜成语答案金陵:小鸟依人
 干货   2019-11-12
倩女幽魂手游师徒任务情义春秋猜成语答案金陵:千金买邻
 干货   2019-11-12
 
>>返回首页<<
推荐阅读
 
 
频道精选
 
静静地坐在废墟上,四周的荒凉一望无际,忽然觉得,凄凉也很美
© 2005- 王朝网络 版权所有