标签归档:Exadata

Exadata 环境下修改NTP Server的方法

如果NTP SERVER 的配置有问题,那么在使用 onecommand 进行安装时,会在最初的环境校验过程报错。 当然,从11.2.3.2.0开始,Exadata 上执行 onecommand 之前,必须先使用 checkip 脚本进行环境验证,如果该脚本返回关键错误,那么必须先根据提示解决问题,再继续安装。 例如,“Step 0 = ValidateEnv”就是执行环境校验: 这里我们看到NTP server在安装时都已经ok了: 在使用中,有时候客户有更改NTP SERVER的IP的需求。 如果没有在 Exadata 的db节点和cell节点上完成相应配置文件的修改,那么cell节点的alert中会类似如下报错: 此时,在cell节点上验证会报失败“FAILED”: 场景1:使用过程中,客户更改了NTP Server的解决方法 解决方法: 直接修改/opt/oracle.cellos/cell.conf,将10.9.26.230替换成 10.9.26.62 修改之后,再次使用“ /usr/local/bin/ipconf -verify -semantic ”来验证。 可以看到,已经验证通过了: 场景2:初始安装过程中,错误的填写了NTP Server的地址 解决办法: (1)重新生成配置文件: 按照新的NTP SERVER的IP,重新生成配置文件。 … 继续阅读

发表在 日常运维 | 标签为 , | 留下评论

使用ILOM收集Exadata的硬件故障信息(snapshot)

    当遇到硬件故障时,我们通常会收集硬件故障的信息提交到SR或者硬件工程师,那么如何收集故障信息呢? 在Exadata或者配置了ILOM模块的X86机器上,我们都可以使用两种方法收集信息。 方法一,使用Web界面登陆ILOM: 点击run后,会弹出一个窗口让你选择将收集的信息保存在那个目录,之后,点击保存按钮,然后就可以将这些日志发送到SR或者给硬件工程师确认。 这个过程也可以通过命令行完成。 方法2:使用命令行收集故障信息,大致步骤如下: 使用SSH登陆故障节点的ILOM(IP地址在配置文件中可以查找到): 这里dump_uri的格式如下: 执行完这不后,看到“Snapshot Complete”提示就可以完成了. 生成的日志在该主机的(这里是 192.168.1.2 )的“/tmp”目录下。

发表在 日常运维 | 标签为 , | 留下评论

Exadata更换硬盘的操作过程和解释

在巡检时,发现cell的alert有如下告警: 我们注意到有这样的信息,就表示磁盘有损坏的情况,结合sundiag信息,可以发现磁盘确实损坏,需要更换。 另外,此时也可以通过直接看机柜,该磁盘为闪蓝色灯,表示进行拔出的操作了。 关键信息: SEAGATE Model Number : ST360057SSUN600G Serial Number : E0P387 Slot Number : 9 Cell Disk : CD_09_dm01cel02 换盘前,我们一般作比较细致的检查: 1.在db节点上grid用户登录,这是要确认一下asm disk是不是被drop掉。drop掉就可以直接更换,如果没有,就需要手动去drop了。 这里表示磁盘celldisk:CD_09_dm01cel02已经被ASM自动删除了,且当前没有正在运行的rebalance操作。 2. 在相应的存储节点(dm01cel02)上进行确认检查: 确认物理盘状态: 这里发现磁盘的报错信息跟alert是一致的: 磁盘的物理位置和编号如下: 我们这里是HDD9损坏。 此时从机柜边上观察,如果磁盘闪蓝灯则可以直接拔出,如果是闪橘色灯,那么需要手工关闭这个磁盘设备,然后再拔出: alter physicaldisk 20:9 serviceled off 更换完成后需要检查: 1,磁盘的LED指示灯变为绿色 2,确认新换盘的celldisk,griddisk状态是normal … 继续阅读

发表在 日常运维 | 标签为 , , , , , , | 留下评论

Exadata上的手工创建celldisk,griddisk(比如手工增加一个cell节点)

一个客户,因为现有的一台Exadata要从一个地方搬迁到另一个地方的机房,因此机器中所有部件的IP都需要修改(ILOM,SWITCH,DNS,NTP SERVER,VIP,SCAN,PDU等等)…… 这些都可以修改IP的方式完成,也并不复杂。 但是,考虑到机器上以前部署了很多应用(包括SAP的一些东西),本地空间凌乱且空闲不多。 因此,给客户的解决方案: 1,机器不用重刷,只更改相关IP 2,重装RAC(GI和Database) 3,安装Bundle Patch和SAP需要的patch 清理已经的RAC环境很简单,参考我以前写的一个《Linux下手工卸载11.2 RAC(非MOS的deinstall方法)》 类似这种方法,在11.2以前,是常用的,简单干净,O(∩_∩)O哈哈~ 顺便也提一下,《AIX环境下11.2 rac的快速卸载脚本》 下载环境并重新安装时,发现可用的找不到ASM盘,客户想起来清理环境的时候忘记先删除ASM磁盘了。 这里我们说下,ASM中,如果不指定asm_diskgroups和asm_diskstring(比如现在,我们重新安装),那么ASM在不同平台会按照缺省路径来扫描磁盘。 具体请参考:Default Disk Discovery Path by Platform (Doc ID 1389618.1) 缺省平台的扫描路径: Operating System Default Search String 那么Exadata呢,我猜它的缺省路径是o/cell_ip/* 。 例如,我这里是Exadata的VM,asm_diskgroups和asm_diskstring都为空,ASM启动没有问题,因为他按照缺省路径已经扫描到了需要的磁盘组和磁盘信息:   下面的图,更加清晰,所有盘都不在Candidate Disk中,也就是以前划分的cell上griddisk都不可用: 因为没有清理磁盘头,这些盘被ASMB进程扫描到了,也就是以前我们常说,11.2开始,重装RAC后,ASM和数据库都可以手工保留以前的状态,如果以前数据库和ASM是完好的,那么重装完成后,ASMB进程将信息注册到CSS中,数据库直接识别到ASM磁盘,因此,直接手工启动数据库就可以(如果要crs启动,那么必须使用crsctl命令将asm和db都注册到crs中):  现在,我们需要手工的删除griddisk,celldisk等等,然后手工创建这些盘…… 我们都知道Exadata上使用onecommand来创建celldisk和griddisk的时候,是按照磁盘效率分布不同的数据的,比如数据库文件需要较高的访问效率,而用来存放归档和备份的磁盘组则需要不那么高的访问效率,这些是通过创建cell的时候指定offsize来实现的。 … 继续阅读

发表在 安装和升级, 日常运维 | 标签为 , , , , , | 留下评论

Exadata上本地盘的使用(reclaimdisks.sh)

Exadata出厂时,其计算节点本地有4块盘,两两做RAID 1,安装了双OS,一个是Linux,一个是Solaris X86(不是Sparc,O(∩_∩)O哈哈~) X2是每块本地盘300G,从X3开始,每块本地盘600G。 多出一个没用的OS,这样就浪费了很多空间,因此,安装或者重装后,一般都做Reclaim的操作,将出厂时的双OS改为单独的Linux系统启动,并释放空间。 例如这里: 这里显示当前4块本地盘,做了双启动系统,每两块盘做了RAID 1,没有Hot Spares盘 使用reclaimdisks.sh -free -reclaim可以更改为一个单独的系统,大部分客户会选择使用Linux,例如: reclaim的过程大概2小时左右,完成后的结果类似下面: 这里,我们看到,4块本地盘,一个做了Hot spare disk,其余3块做RAID5,只有一个Linux OS了。 这样就把以前Solaris X86 OS 的空间释放出来了,但是这部分空间缺省并没有自动mount上,你需要手工的mount上,或者自己使用LVM扩充到根目录(/)或者非根目录(比如/u01等等),或者扩到Swap区。 例如: 这里我们看到做完reclaim后,释放出来400G左右的空间,这个是X2,每块本地盘300G。 如果是X3,每块本地盘600G,做完reclaim后释放出来600G左右的空间,就类似下面的样子: 现在你就可以使用lvm lvexten等命令,将这些空间扩到你需要的放了,O(∩_∩)O哈哈~。

发表在 安装和升级, 日常运维 | 标签为 , | 留下评论

看图说话——Exadata和Exalogic(或者Exadata)级联-2

上一篇,我们梳理了Exadata内部连接和2个Exadata的连接 看图说话——Exadata的网络架构 看图说话——Exadata和Exalogic(或者Exadata)级联-1 事实上,Exalogic和Exadata的 物理连线和两个Exadata之间的物理连线没有太大区别,只是对外出口,如果是Exalogic和Exadata的话,通常客户会买万兆模块,这个万兆模块从Exalogic上连接到客户的核心工作网络,提供应用接口。 当然,如果客户数据量很大,对备份有较高要求,那么也可以购买万兆模块安装在Exadata上,用于连接到客户的备份服务网络中(一般用在每个db节点的net3上)。 下面的图是一个1/4 Exalogic和1/4 Exadata的连接: 1/4 Rack没有Spine switch,因此,从这个图,我们看到,每个Leaf switch都需要连接到其他的Leaf switch上。小学2今年的奥数中貌似有类似的题目,O(∩_∩)O哈哈~ 计算下,总共几根线? 答:  每个Leaf switch需要连接两外3个Leaf switch,那么不考虑冗余的话,加上单机柜中本身两个Leaf switch的连线,总共是6跟。也就是说,客户最少需要额外购买的4根Infiniband线(客户可以从oracle购买,也可以自己找符合要求的厂商定做),当然,如果考虑冗余的话,需要至少8跟。 下面看下1/4 Exalogic跟1/2 Exadata或者Full Rack连接的情况: 我们看到,实际上,除了Exadata上本身两个Leaf连接自身的Spine switch外,没有多余的概念,也就是仍然是客户需要额外购买至少4跟Infiniband,考虑冗余的话,需要至少8根。 就这么简单的算法,学过奥数的同学们或者家里有宝宝学习奥数的,下次有这样需求,直接出一道题给孩纸们,他们会很快算出来的,O(∩_∩)O哈哈~ 从上我们讲的Exalogic连接Exadata,我们知道他们走了Infiniband的高速互联网络,那么这个网络在软件层面如何搭建呢? 如何配置他们的SDP连接? 下次,我们讲这个,O(∩_∩)O哈哈~

发表在 体系架构 | 标签为 , , , , | 留下评论

看图说话——Exadata和Exalogic(或者Exadata)级联-1

上一篇,我们梳理了Exadata的网络架构,今天我们说说Double-E的物理联线。 看图说话——Exadata的网络架构 通常我们说Double-E,这里E可以使Exadata,也可以是Exalogic,Double—E级联的方法都差不多,但是X4以后会有变化,因为X3-2和X3-2以前,从1/2 Rack开始都带有一个Spine switch,也就是你在真机上看到的位于机柜最下层的IB Switch,这个Spine Switch主要作用就是用于机柜间的级联。而中间的两个IB Switch叫做Leaf switch,这个适用于机柜内部节点间通信(db和db通信,db和cell通信等)。 现在我们先说说,在一个机柜的情况: 从这个图,我们很清晰的看到,在一个机柜中,每个Leaf switch都需要跟另一个Leaf switch连接,同时,每个Spine switch还需要和机柜中的所有Leaf switch连接。也就是他们之间至少3根Infiniband连线。 那么如果是两个满配的Exadata如何连接呢? 可以看到,如果两个满配的机柜级联,那么每个Leaf switch都会有两根线,分别连接到两个机柜的Spine switch,而在每个机柜中的2个Leaf switch之间无需连接了。 其实看这个图,如果数据比较好的同学马上就发现了,一共需要多少根连线? X3和X3以前,1/2 Rack和Full Rack都出厂自带2个Leaf switch和1个Spine switch。X4没有带了,需要单独购买,连接方式也有变化)。这里,每个机柜中的Spine  switch都需要连接本机柜和其他机柜的所有Leaf switch,那么两个机柜中就有4个Leaf switch,总共2个Spine switch,因此,就需要至少8根连线。 我们可以推算一下,如果有3个柜子级联,那么每个Spine Switch上需要多少根线呢?3个机柜级联,总共需要多少根线呢? 答: (1)每个Spine switch上有6根线。 (2)每个柜子2个leaf switch,3个柜子共6个leaf switch,因此,每个Spine switch上至少会出来6根线,因此3*6=18根连线 X4开始,每个Leaf … 继续阅读

发表在 体系架构 | 标签为 , , | 留下评论

看图说话——Exadata的网络架构

下面两个图是Exadata的Owner Guide中讲解网络链接和部署的。 安装好了Exadata,我们需要熟悉Exadata上都有哪些部件,比如数据库服务器,存储服务器,思科交换机,2个PDU(用于冗余)等等,他们是怎么接到咱们的生成环境的,他们之间是怎么连接的,我们怎么去管理他们。。。 X2-2和X3-2的连接方式: X2-2的图,X3的图跟这个没有太大差别,只是X3以后没有KVM了,X4以后,少了一个Spine Switch(需要单独购买)。 其他没太大区别(X4的IB绑定有变化,后续会详细解释)。Sun的ILOM做的非常好,实际上很多管理功能,都可以通过ILOM来完成。 比如前面讲的使用ILOM来完成ISO image的Reimage功能,重启节点功能,还有收集信息功能,系统启动时troubleshooting等等。   计算节点上的对外服务部分有两种方式: 1,一种是NET0和NET1绑定作为client,接入到客户的核心网络,提供对外的数据库连接服务。 2,一种是不绑定,那么通常NET1连接到核心网络,提供数据库连接服务,NET2和NET3都作为其他用途,比如他们分别俩接到备份和灾备网络等等。 当然,大部分客户是绑定net0和net1作为bondeth0来对外提供数据库服务用。 X4-2的连接方式: 在网连接上,X2-2和X3-2的连接方法基本没有太大区别。 但是从X4开始,IB不在安装时进行绑定了,而是分别连接到IB1和IB2两个IB交换机上,这是因为从X4开始提供Active-Active的方式,带宽从40Gb/s升级为80Gb/s。 但是如果Double-E级联(比如2个Exadata机柜,或者Exadata跟Exalogic级联),就不能使用这种Active-Active的方式。 除此以外,我们看到,其余部分的连接都基本相同。 从上面的图我们可以看到,exadata上的网络主要分为4大块: 第一部分,是位于最下面的绿色区域的Infiniband网络连接,也就是exadata的内网。 内网主要是数据库服务器和存储服务器通过两个Infiniband交换机连接,能够获得高带宽低延迟带来的高性能。   第二部分,就是蓝色部分的管理网络。 Exadata上所有的部件都有一根线连接到思科交换机上。然后从思科交换机上有一根线接入到客户的管理网络,这样就方便客户管理。 其实就像传统小机+存储的架构一样,小机也都要连接到客户的管理网段的交换机,然后远程维护(比如使用crt,xmanager等等字符或者图形的管理工具维护客户的小机) exadata上的所有部件也都要让客户可维护和可管理,就是通过各部件连接到思科交换机,然后思科交换机接入到客户的管理网段。 连接到思科交换机的部件有: (1)在X2上有KVM,因此KVM要连接到思科交换机 (2)然后两个PDU(PDUA , PDUB)分别连接线到思科交换机上,也是为了远程管理。 当然需要管理PDU的时候不多,但是如果安装一些监控软件,比如oracle 的grid control的时候就需要能够连接PDU,因此,我们一般也把PDU接入到思科交换机 (3)在每个数据库服务器和存储服务器上有一个类似于芯片的部件,我们称之为ILOM。 它是一个远程管理的接口,我们通过ILOM可以做所有数据库的维护工作,包括安装,升级,刷机,启动和关闭主机,监控主机启动,关闭过程。。。。。 这个ILOM也要连接到思科交换机,然后客户就通过浏览器的方式管理每一个部件 (4)每一个数据库服务器和存储服务器上的NET0口就是管理口,使用这个端口接入思科交换机 这些部件都通过思科交换机,接入到客户的管理网络,包括客户如果使用EM(即grid … 继续阅读

发表在 体系架构 | 标签为 , | 6 条评论

Exadata 的4种刷机方法——Reimage

明天又要刷机器了,装机工很久没玩,快忘光了,温习一下,O(∩_∩)O哈哈~ 1,刷机前先检查和保留当前系统关键部件的信息,例如: 2,跟NOTES 888828.1的内容,找到相关的image,download后,解压,例如: unzip ImageMaker.tar.zip tar -pxvf ImageMaker.tar DB的image解tar后,可以发现 dl360 目录 CELL的image解tar后,可以发现 dl180 目录 这是因为,Exadata早先跟HP合作推出的V1,用的都是HP的pcserver系列,计算节点的型号是 dl360,存储节点的型号是 dl180,后来也就一直都没有更改了。 我们有四种方式刷机: 1. 用U盘刷机,也就是 USB flash thumb drive 2. 制作ISO image,使用ILOM指定iso的方式(当然如果刻录成光盘,也可以使用DVD模式) 3. 制作一个紧急启动的iso文件(类似于紧急启动盘),然后把image放在NFS上,进行刷机 4. 使用PXE+NFS 上面的4种方法,对于1/4配置来说,哪个都不复杂,用U盘和ISO Image最简单,也最省心。 对于满配或者大量的reimage工作来说,显然U盘就太不可取了,会累死人的,可以使用PXE+NFS和ISO image。 无论哪种方式,制作Reimage的命令都是一个makeImageMedia.sh,语法如下: Exadata出厂时带有双操作系统,一个是Linux,一个是solaris x86,通常,至少国内的客户绝大部分都会选择使用Linux,因此,在安装完成后,我们需要做reclaim操作。 如果是Reimage,那么我们也可以在制作U盘,image或者使用PXE时带上 … 继续阅读

发表在 安装和升级 | 标签为 , , | 2 条评论

Exadata上验证ASM磁盘头备份的位置

我们都知道,从Oracle 10.2.0.5开始,ASM磁盘会自动备份磁盘头块,备份块的位置在第2个AU的倒数第2个块上。 通常,缺省情况下,AU SIZE是1M,每个AU可以有256个block(每个block 4k),256*4k()=1M 因此,第2个AU同样存放了256个block(0~255),其备份块的位置为 au=1 blkn=254(au和block都是从0开始计数的) 具体的恢复案例,可以参考: ASM磁盘头被fdisk损坏的修复过程 那么在exadata上,缺省的AU是4M,也就是每个AU可以存储 1024个block,即 block 0 ~ block 1023 那么第二个AU的倒数第二个block就是 au=1 blkn=1022 ( au和block都是从0开始计数的 ) 我们来检测一下是不是这样: 注意: 这里kfed命令中,需要指定ausz=4m,否则kfed缺省按照1M来计算,那么结果就是错误的了: 在kfed中指定ausz=4m,检测结果: 经过检查,我们发现,这个规律在exadata上依然有效,ASM除了缺省4M的AU,其余没什么变化,O(∩_∩)O哈哈~ 顺便介绍一个小方法,快速计算备份块的位置:(该方法根据ASM Support Guy修改而来)

发表在 ASM, 内部机制 | 标签为 , , | 一条评论