ORACLE SOS

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 13122|回复: 11

单实例到rac的控制文件恢复

[复制链接]

1

主题

6

帖子

19

积分

新手上路

Rank: 1

积分
19
发表于 2014-4-24 23:54:22 | 显示全部楼层 |阅读模式
案例环境:单实例恢复到rac
1、备份单实例控制文件:
backup device type disk format '/u01/rmanbak/standby_%U.ctl'
2、创建spfile在+data磁盘组中
*.memory_target=351936256
*.audit_file_dest='/u01/app/oracle/admin/orcl/adump'
*.audit_trail='db'
*.cluster_database=TRUE
*.cluster_database_instances=2
*.compatible='11.2.0.0.0'
*.control_files='+DATA/orcl/controlfile/control01.ctl','+DATA/orcl/controlfile/control02.ctl'
*.db_block_size=8192
*.db_create_file_dest='+DATA'
*.db_name='orcl'
*.db_recovery_file_dest='+DATA'
*.db_recovery_file_dest_size=48318382080
3、启动到nomount状态下
rman target /

RMAN> restore standby controlfile from'/home/oracle/rmanbak/standby_06oud3fu_1_1.ctl';

报如下错误:
Starting restore at 2014-01-08 01:35:17
using target database control file instead of recovery catalog
allocated channel: ORA_DISK_1
channel ORA_DISK_1: SID=33 instance=orcl1 device type=DISK

channel ORA_DISK_1: restoring control file
RMAN-00571: ===========================================================
RMAN-00569: =============== ERROR MESSAGE STACK FOLLOWS ===============
RMAN-00571: ===========================================================
RMAN-03002: failure of restore command at 01/08/2014 01:35:44
ORA-19870: error while restoring backup piece /home/oracle/rmanbak/standby_06oud3fu_1_1.ctl
ORA-19504: failed to create file "+DATA/orcl/controlfile/control01.ctl"
ORA-17502: ksfdcre:4 Failed to create file +DATA/orcl/controlfile/control01.ctl
ORA-15130: diskgroup "DATA" is being dismounted
ORA-15066: offlining disk "DATA_0000" in group "DATA" may result in a data loss
ORA-15196: invalid ASM block header [kfc.c:26076] [endian_kfbh] [1] [280] [0 != 1]





[grid@gfs1 ~]$ kfed read /dev/raw/raw1
kfbh.endian:                          1 ; 0x000: 0x01
kfbh.hard:                          130 ; 0x001: 0x82
kfbh.type:                            1 ; 0x002: KFBTYP_DISKHEAD
kfbh.datfmt:                          1 ; 0x003: 0x01
kfbh.block.blk:                       0 ; 0x004: blk=0
kfbh.block.obj:              2147483648 ; 0x008: disk=0
kfbh.check:                  1901879553 ; 0x00c: 0x715c6101
kfbh.fcn.base:                        0 ; 0x010: 0x00000000
kfbh.fcn.wrap:                        0 ; 0x014: 0x00000000
kfbh.spare1:                          0 ; 0x018: 0x00000000
kfbh.spare2:                          0 ; 0x01c: 0x00000000
kfdhdb.driver.provstr:         ORCLDISK ; 0x000: length=8
kfdhdb.driver.reserved[0]:            0 ; 0x008: 0x00000000
kfdhdb.driver.reserved[1]:            0 ; 0x00c: 0x00000000
kfdhdb.driver.reserved[2]:            0 ; 0x010: 0x00000000
kfdhdb.driver.reserved[3]:            0 ; 0x014: 0x00000000
kfdhdb.driver.reserved[4]:            0 ; 0x018: 0x00000000
kfdhdb.driver.reserved[5]:            0 ; 0x01c: 0x00000000
kfdhdb.compat:                186646528 ; 0x020: 0x0b200000
kfdhdb.dsknum:                        0 ; 0x024: 0x0000
kfdhdb.grptyp:                        1 ; 0x026: KFDGTP_EXTERNAL
kfdhdb.hdrsts:                        3 ; 0x027: KFDHDR_MEMBER
kfdhdb.dskname:               DATA_0000 ; 0x028: length=9
kfdhdb.grpname:                    DATA ; 0x048: length=4
kfdhdb.fgname:                DATA_0000 ; 0x068: length=9
kfdhdb.capname:                         ; 0x088: length=0
kfdhdb.crestmp.hi:             32998613 ; 0x0a8: HOUR=0x15 DAYS=0x6 MNTH=0x1 YEAR=0x7de
kfdhdb.crestmp.lo:            861220864 ; 0x0ac: USEC=0x0 MSEC=0x14c SECS=0x35 MINS=0xc
kfdhdb.mntstmp.hi:             33002263 ; 0x0b0: HOUR=0x17 DAYS=0x18 MNTH=0x4 YEAR=0x7de
kfdhdb.mntstmp.lo:           2781362176 ; 0x0b4: USEC=0x0 MSEC=0x20e SECS=0x1c MINS=0x29
kfdhdb.secsize:                     512 ; 0x0b8: 0x0200
kfdhdb.blksize:                    4096 ; 0x0ba: 0x1000
kfdhdb.ausize:                  1048576 ; 0x0bc: 0x00100000
kfdhdb.mfact:                    113792 ; 0x0c0: 0x0001bc80
kfdhdb.dsksize:                   16384 ; 0x0c4: 0x00004000
kfdhdb.pmcnt:                         2 ; 0x0c8: 0x00000002
kfdhdb.fstlocn:                       1 ; 0x0cc: 0x00000001
kfdhdb.altlocn:                       2 ; 0x0d0: 0x00000002
kfdhdb.f1b1locn:                      2 ; 0x0d4: 0x00000002
kfdhdb.redomirrors[0]:                0 ; 0x0d8: 0x0000
kfdhdb.redomirrors[1]:                0 ; 0x0da: 0x0000
kfdhdb.redomirrors[2]:                0 ; 0x0dc: 0x0000
kfdhdb.redomirrors[3]:                0 ; 0x0de: 0x0000
kfdhdb.dbcompat:              168820736 ; 0x0e0: 0x0a100000
kfdhdb.grpstmp.hi:             32998613 ; 0x0e4: HOUR=0x15 DAYS=0x6 MNTH=0x1 YEAR=0x7de
kfdhdb.grpstmp.lo:            861133824 ; 0x0e8: USEC=0x0 MSEC=0xf7 SECS=0x35 MINS=0xc
kfdhdb.vfstart:                     352 ; 0x0ec: 0x00000160
kfdhdb.vfend:                       384 ; 0x0f0: 0x00000180
kfdhdb.spfile:                       58 ; 0x0f4: 0x0000003a
kfdhdb.spfflg:                        1 ; 0x0f8: 0x00000001
kfdhdb.ub4spare[0]:                   0 ; 0x0fc: 0x00000000
kfdhdb.ub4spare[1]:                   0 ; 0x100: 0x00000000
kfdhdb.ub4spare[2]:                   0 ; 0x104: 0x00000000
kfdhdb.ub4spare[3]:                   0 ; 0x108: 0x00000000
kfdhdb.ub4spare[4]:                   0 ; 0x10c: 0x00000000
kfdhdb.ub4spare[5]:                   0 ; 0x110: 0x00000000
kfdhdb.ub4spare[6]:                   0 ; 0x114: 0x00000000
kfdhdb.ub4spare[7]:                   0 ; 0x118: 0x00000000
kfdhdb.ub4spare[8]:                   0 ; 0x11c: 0x00000000
kfdhdb.ub4spare[9]:                   0 ; 0x120: 0x00000000
kfdhdb.ub4spare[10]:                  0 ; 0x124: 0x00000000
kfdhdb.ub4spare[11]:                  0 ; 0x128: 0x00000000
kfdhdb.ub4spare[12]:                  0 ; 0x12c: 0x00000000
kfdhdb.ub4spare[13]:                  0 ; 0x130: 0x00000000
kfdhdb.ub4spare[14]:                  0 ; 0x134: 0x00000000
kfdhdb.ub4spare[15]:                  0 ; 0x138: 0x00000000
kfdhdb.ub4spare[16]:                  0 ; 0x13c: 0x00000000
kfdhdb.ub4spare[17]:                  0 ; 0x140: 0x00000000
kfdhdb.ub4spare[18]:                  0 ; 0x144: 0x00000000
kfdhdb.ub4spare[19]:                  0 ; 0x148: 0x00000000
kfdhdb.ub4spare[20]:                  0 ; 0x14c: 0x00000000
kfdhdb.ub4spare[21]:                  0 ; 0x150: 0x00000000
kfdhdb.ub4spare[22]:                  0 ; 0x154: 0x00000000
kfdhdb.ub4spare[23]:                  0 ; 0x158: 0x00000000
kfdhdb.ub4spare[24]:                  0 ; 0x15c: 0x00000000
kfdhdb.ub4spare[25]:                  0 ; 0x160: 0x00000000
kfdhdb.ub4spare[26]:                  0 ; 0x164: 0x00000000
kfdhdb.ub4spare[27]:                  0 ; 0x168: 0x00000000
kfdhdb.ub4spare[28]:                  0 ; 0x16c: 0x00000000
kfdhdb.ub4spare[29]:                  0 ; 0x170: 0x00000000
kfdhdb.ub4spare[30]:                  0 ; 0x174: 0x00000000
kfdhdb.ub4spare[31]:                  0 ; 0x178: 0x00000000
kfdhdb.ub4spare[32]:                  0 ; 0x17c: 0x00000000
kfdhdb.ub4spare[33]:                  0 ; 0x180: 0x00000000
kfdhdb.ub4spare[34]:                  0 ; 0x184: 0x00000000
kfdhdb.ub4spare[35]:                  0 ; 0x188: 0x00000000
kfdhdb.ub4spare[36]:                  0 ; 0x18c: 0x00000000
kfdhdb.ub4spare[37]:                  0 ; 0x190: 0x00000000
kfdhdb.ub4spare[38]:                  0 ; 0x194: 0x00000000
kfdhdb.ub4spare[39]:                  0 ; 0x198: 0x00000000
kfdhdb.ub4spare[40]:                  0 ; 0x19c: 0x00000000
kfdhdb.ub4spare[41]:                  0 ; 0x1a0: 0x00000000
kfdhdb.ub4spare[42]:                  0 ; 0x1a4: 0x00000000
kfdhdb.ub4spare[43]:                  0 ; 0x1a8: 0x00000000
kfdhdb.ub4spare[44]:                  0 ; 0x1ac: 0x00000000
kfdhdb.ub4spare[45]:                  0 ; 0x1b0: 0x00000000
kfdhdb.ub4spare[46]:                  0 ; 0x1b4: 0x00000000
kfdhdb.ub4spare[47]:                  0 ; 0x1b8: 0x00000000
kfdhdb.ub4spare[48]:                  0 ; 0x1bc: 0x00000000
kfdhdb.ub4spare[49]:                  0 ; 0x1c0: 0x00000000
kfdhdb.ub4spare[50]:                  0 ; 0x1c4: 0x00000000
kfdhdb.ub4spare[51]:                  0 ; 0x1c8: 0x00000000
kfdhdb.ub4spare[52]:                  0 ; 0x1cc: 0x00000000
kfdhdb.ub4spare[53]:                  0 ; 0x1d0: 0x00000000
kfdhdb.acdb.aba.seq:                  0 ; 0x1d4: 0x00000000
kfdhdb.acdb.aba.blk:                  0 ; 0x1d8: 0x00000000
kfdhdb.acdb.ents:                     0 ; 0x1dc: 0x0000
kfdhdb.acdb.ub2spare:                 0 ; 0x1de: 0x0000
[grid@gfs1 ~]$
回复

使用道具 举报

1

主题

6

帖子

19

积分

新手上路

Rank: 1

积分
19
 楼主| 发表于 2014-4-25 00:29:49 | 显示全部楼层
Fri Apr 25 00:21:10 2014
NOTE: client +ASM1:+ASM registered, osid 6057, mbr 0x0
Fri Apr 25 00:22:18 2014
ALTER SYSTEM SET local_listener='(DESCRIPTION=(ADDRESS_LIST=(ADDRESS=(PROTOCOL=TCP)(HOST=192.168.1.111)(PORT=1521))))' SCOPE=MEMORY SID='+ASM1';
Fri Apr 25 00:26:40 2014
NOTE: client orcl1rcl registered, osid 7294, mbr 0x1
Fri Apr 25 00:28:05 2014
WARNING: cache read  a corrupt block: group=1(DATA) fn=1 blk=280 disk=0 (DATA_0000) incarn=3916105192 au=396 blk=24 count=1
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_7368.trc:
ORA-15196: invalid ASM block header [kfc.c:26076] [endian_kfbh] [1] [280] [0 != 1]
NOTE: a corrupted block from group DATA was dumped to /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_7368.trc
WARNING: cache read (retry) a corrupt block: group=1(DATA) fn=1 blk=280 disk=0 (DATA_0000) incarn=3916105192 au=396 blk=24 count=1
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_7368.trc:
ORA-15196: invalid ASM block header [kfc.c:26076] [endian_kfbh] [1] [280] [0 != 1]
ORA-15196: invalid ASM block header [kfc.c:26076] [endian_kfbh] [1] [280] [0 != 1]
ERROR: cache failed to read group=1(DATA) fn=1 blk=280 from disk(s): 0(DATA_0000)
ORA-15196: invalid ASM block header [kfc.c:26076] [endian_kfbh] [1] [280] [0 != 1]
ORA-15196: invalid ASM block header [kfc.c:26076] [endian_kfbh] [1] [280] [0 != 1]
NOTE: cache initiating offline of disk 0 group DATA
NOTE: process _user7368_+asm1 (7368) initiating offline of disk 0.3916105192 (DATA_0000) with mask 0x7e in group 1
WARNING: Disk 0 (DATA_0000) in group 1 in mode 0x7f is now being taken offline on ASM inst 1
NOTE: initiating PST update: grp = 1, dsk = 0/0xe96b05e8, mask = 0x6a, op = clear
Fri Apr 25 00:28:10 2014
GMON updating disk modes for group 1 at 5 for pid 33, osid 7368
ERROR: Disk 0 cannot be offlined, since diskgroup has external redundancy.
ERROR: too many offline disks in PST (grp 1)
ERROR: no read quorum in group: required 1, found 0 disks
ERROR: Could not heartbeat PST for grp 1. Force dismounting the disk group.
Fri Apr 25 00:28:16 2014
NOTE: cache dismounting (not clean) group 1/0x73BBF517 (DATA)
NOTE: messaging CKPT to quiesce pins Unix process pid: 7411, image: oracle@gfs1 (B000)
Fri Apr 25 00:28:16 2014
NOTE: halting all I/Os to diskgroup 1 (DATA)
Fri Apr 25 00:28:16 2014
NOTE: LGWR doing non-clean dismount of group 1 (DATA)
NOTE: LGWR sync ABA=12.382 last written ABA 12.382
Fri Apr 25 00:28:17 2014
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_b001_7414.trc:
ORA-15130: diskgroup "" is being dismounted
Fri Apr 25 00:28:17 2014
WARNING: Offline of disk 0 (DATA_0000) in group 1 and mode 0x7f failed on ASM inst 1
Fri Apr 25 00:28:17 2014
ERROR: ORA-15130 in COD recovery for diskgroup 1/0x73bbf517 (DATA)
ERROR: ORA-15130 thrown in RBAL for group number 1
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_rbal_6024.trc:
ORA-15130: diskgroup "DATA" is being dismounted
System State dumped to trace file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_7368.trc
Fri Apr 25 00:28:18 2014
List of instances:
1
Dirty detach reconfiguration started (new ddet inc 1, cluster inc 2)
Global Resource Directory partially frozen for dirty detach
* dirty detach - domain 1 invalid = TRUE
24 GCS resources traversed, 0 cancelled
Dirty Detach Reconfiguration complete
Fri Apr 25 00:28:18 2014
freeing rdom 1
Fri Apr 25 00:28:18 2014
WARNING: dirty detached from domain 1
NOTE: cache dismounted group 1/0x73BBF517 (DATA)
ERROR: ORA-15130 in COD recovery for diskgroup 1/0x73bbf517 (DATA)
ERROR: ORA-15130 thrown in RBAL for group number 1
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_rbal_6024.trc:
ORA-15130: diskgroup "DATA" is being dismounted
SQL> alter diskgroup DATA dismount force /* ASM SERVER */
ERROR: ORA-15130 in COD recovery for diskgroup 1/0x73bbf517 (DATA)
ERROR: ORA-15130 thrown in RBAL for group number 1
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_rbal_6024.trc:
ORA-15130: diskgroup "DATA" is being dismounted
ERROR: ORA-15130 in COD recovery for diskgroup 1/0x73bbf517 (DATA)
ERROR: ORA-15130 thrown in RBAL for group number 1
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_rbal_6024.trc:
ORA-15130: diskgroup "DATA" is being dismounted
Fri Apr 25 00:28:27 2014
NOTE: AMDU dump of disk group DATA created at /u01/app/grid/diag/asm/+asm/+ASM1/trace
NOTE: cache deleting context for group DATA 1/0x73bbf517
Fri Apr 25 00:28:28 2014
GMON dismounting group 1 at 6 for pid 34, osid 7411
Fri Apr 25 00:28:28 2014
NOTE: Disk  in mode 0x8 marked for de-assignment
SUCCESS: diskgroup DATA was dismounted
SUCCESS: alter diskgroup DATA dismount force /* ASM SERVER */
ERROR: PST-initiated MANDATORY DISMOUNT of group DATA
Fri Apr 25 00:28:29 2014
NOTE: diskgroup resource ora.DATA.dg is offline
Fri Apr 25 00:28:29 2014
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_6053.trc:
ORA-15078: ASM diskgroup was forcibly dismounted
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_6053.trc:
ORA-15078: ASM diskgroup was forcibly dismounted
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_6053.trc:
ORA-15078: ASM diskgroup was forcibly dismounted
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_6053.trc:
ORA-15078: ASM diskgroup was forcibly dismounted
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_6053.trc:
ORA-15078: ASM diskgroup was forcibly dismounted
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_6053.trc:
ORA-15078: ASM diskgroup was forcibly dismounted
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_6053.trc:
ORA-15078: ASM diskgroup was forcibly dismounted
Errors in file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_6053.trc:
ORA-15078: ASM diskgroup was forcibly dismounted    ---asm后台日志报错
回复 支持 反对

使用道具 举报

1

主题

6

帖子

19

积分

新手上路

Rank: 1

积分
19
 楼主| 发表于 2014-4-25 00:31:08 | 显示全部楼层
[grid@gfs1 trace]$ vi /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_6053.trc
Trace file /u01/app/grid/diag/asm/+asm/+ASM1/trace/+ASM1_ora_6053.trc
Oracle Database 11g Enterprise Edition Release 11.2.0.3.0 - 64bit Production
With the Real Application Clusters and Automatic Storage Management options
ORACLE_HOME = /u01/app/11.2.0/grid
System name:    Linux
Node name:      gfs1
Release:        2.6.32-220.el6.x86_64
Version:        #1 SMP Tue Dec 6 19:48:22 GMT 2011
Machine:        x86_64
VM name:        VMWare Version: 6
Instance name: +ASM1
Redo thread mounted by this instance: 0 <none>
Oracle process number: 24
Unix process pid: 6053, image: [url=mailtoracle@gfs1]oracle@gfs1[/url] (TNS V1-V3)

*** 2014-04-25 00:28:29.739
*** SESSION ID23.7) 2014-04-25 00:28:29.739
*** CLIENT ID) 2014-04-25 00:28:29.739
*** SERVICE NAME) 2014-04-25 00:28:29.739
*** MODULE NAMEcrsd.bin@gfs1 (TNS V1-V3)) 2014-04-25 00:28:29.739
*** ACTION NAME) 2014-04-25 00:28:29.739
WARNING:failed xlate 1
ORA-15078: ASM diskgroup was forcibly dismounted
WARNING:failed xlate 1
ORA-15078: ASM diskgroup was forcibly dismounted
WARNING:failed xlate 1
ORA-15078: ASM diskgroup was forcibly dismounted
WARNING:failed xlate 1
ORA-15078: ASM diskgroup was forcibly dismounted
WARNING:failed xlate 1
ORA-15078: ASM diskgroup was forcibly dismounted
WARNING:failed xlate 1
ORA-15078: ASM diskgroup was forcibly dismounted
WARNING:failed xlate 1
ORA-15078: ASM diskgroup was forcibly dismounted
WARNING:failed xlate 1
ORA-15078: ASM diskgroup was forcibly dismounted
~
回复 支持 反对

使用道具 举报

1

主题

6

帖子

19

积分

新手上路

Rank: 1

积分
19
 楼主| 发表于 2014-4-25 00:38:13 | 显示全部楼层
报错中的trc文件

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复 支持 反对

使用道具 举报

1

主题

6

帖子

19

积分

新手上路

Rank: 1

积分
19
 楼主| 发表于 2014-4-25 00:39:09 | 显示全部楼层
[grid@gfs1 ~]$ ausize=`kfed read  /dev/raw/raw1 | grep ausize | tr -s ' ' | cut -d' ' -f2`
            blksize=`kfed read  /dev/raw/raw1 | grep blksize | tr -s ' ' | cut -d' ' -f2`
            let n=$ausize/$blksize
            for (( i=2; i<$n; i++ ))
            do
                kfed read /dev/raw/raw1 blkn=$i | grep KFBTYP
            done[grid@gfs1 ~]$             blksize=`kfed read  /dev/raw/raw1 | g -s ' ' | cut -d' ' -f2`
[grid@gfs1 ~]$             let n=$ausize/$blksize
[grid@gfs1 ~]$             for (( i=2; i<$n; i++ ))
>             do
>                 kfed read /dev/raw/raw1 blkn=$i | grep KFBTYP
>             done
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL

kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
kfbh.type:                            3 ; 0x002: KFBTYP_ALLOCTBL
回复 支持 反对

使用道具 举报

1

主题

6

帖子

19

积分

新手上路

Rank: 1

积分
19
 楼主| 发表于 2014-4-25 00:39:46 | 显示全部楼层
全是KFBTYP_ALLOCTBL这种类型的
回复 支持 反对

使用道具 举报

95

主题

266

帖子

1719

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
1719
发表于 2014-4-25 11:32:46 | 显示全部楼层
根据你的描述,只有还原控制文件的时候才会报错,很可能是权限问题

ls -l /dev/raw/raw1 看下

Q Q:107644445
Tel:13429648788
Email:dba@xifenfei.com
个人Blog(惜分飞)
提供专业ORACLE技术支持(数据恢复,安装实施,升级迁移,备份容灾,故障诊断,系统优化等)
回复 支持 反对

使用道具 举报

95

主题

266

帖子

1719

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
1719
发表于 2014-4-25 11:39:12 | 显示全部楼层
我做的操作是,在原来有正常库的状态下,我dbca御掉了一个库,然后从单例实恢复控制文件到该+data下面

[root@gfs1 ~]# ls -lrt /dev/raw
total 0
crw-rw---- 1 root disk     162, 0 Apr 25 11:14 rawctl
crw-rw---- 1 grid oinstall 162, 1 Apr 25 11:37 raw1
[root@gfs1 ~]#


[grid@gfs1 ~]$ asmcmd
ASMCMD>
ASMCMD>
ASMCMD> lsdg
State    Type    Rebal  Sector  Block       AU  Total_MB  Free_MB  Req_mir_free_MB  Usable_file_MB  Offline_disks  Voting_files  Name
MOUNTED  EXTERN  N         512   4096  1048576     16384    12797                0           12797              0             Y  DATA/
ASMCMD>

crs[grid@gfs1 ~]$ crs_stat -t
Name           Type           Target    State     Host        
------------------------------------------------------------
ora.DATA.dg    ora....up.type ONLINE    ONLINE    gfs1        
ora.GFS.lsnr   ora....er.type ONLINE    ONLINE    gfs1        
ora....ER.lsnr ora....er.type ONLINE    ONLINE    gfs1        
ora....N1.lsnr ora....er.type ONLINE    ONLINE    gfs1        
ora.asm        ora.asm.type   ONLINE    ONLINE    gfs1        
ora.cvu        ora.cvu.type   ONLINE    ONLINE    gfs1        
ora.gfs.db     ora....se.type OFFLINE   OFFLINE               
ora....SM1.asm application    ONLINE    ONLINE    gfs1        
ora....S1.lsnr application    ONLINE    ONLINE    gfs1        
ora....S1.lsnr application    ONLINE    ONLINE    gfs1        
ora.gfs1.gsd   application    ONLINE    OFFLINE               
ora.gfs1.ons   application    ONLINE    ONLINE    gfs1        
ora.gfs1.vip   ora....t1.type ONLINE    ONLINE    gfs1        
ora.gfs2.vip   ora....t1.type ONLINE    ONLINE    gfs1        
ora.gsd        ora.gsd.type   ONLINE    OFFLINE               
ora....network ora....rk.type ONLINE    ONLINE    gfs1        
ora.oc4j       ora.oc4j.type  ONLINE    ONLINE    gfs1        
ora.ons        ora.ons.type   ONLINE    ONLINE    gfs1        
ora.scan1.vip  ora....ip.type ONLINE    ONLINE    gfs1        
[grid@gfs1 ~]$

Q Q:107644445
Tel:13429648788
Email:dba@xifenfei.com
个人Blog(惜分飞)
提供专业ORACLE技术支持(数据恢复,安装实施,升级迁移,备份容灾,故障诊断,系统优化等)
回复 支持 反对

使用道具 举报

95

主题

266

帖子

1719

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
1719
发表于 2014-4-25 11:40:15 | 显示全部楼层
id oracle
id grid

看下他们的组情况

Q Q:107644445
Tel:13429648788
Email:dba@xifenfei.com
个人Blog(惜分飞)
提供专业ORACLE技术支持(数据恢复,安装实施,升级迁移,备份容灾,故障诊断,系统优化等)
回复 支持 反对

使用道具 举报

95

主题

266

帖子

1719

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
1719
发表于 2014-4-25 11:41:47 | 显示全部楼层
[root@gfs1 ~]# id oracle
uid=501(oracle) gid=1000(oinstall) groups=1000(oinstall),1001(dba),1002(asmadmin),1003(asmdba)
[root@gfs1 ~]# id grid
uid=500(grid) gid=1000(oinstall) groups=1000(oinstall),1001(dba),1002(asmadmin),1003(asmdba)
[root@gfs1 ~]#

Q Q:107644445
Tel:13429648788
Email:dba@xifenfei.com
个人Blog(惜分飞)
提供专业ORACLE技术支持(数据恢复,安装实施,升级迁移,备份容灾,故障诊断,系统优化等)
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|ORACLE SOS 技术论坛

GMT+8, 2024-5-3 10:26 , Processed in 0.025739 second(s), 21 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表