什么情况会导致lgwr大量读controlfile?
向各位老大请教一个问题,rac中的一个node 挂起,awr中显示在这段时间主要的等待事件是log file switch (checkpoint incomplete),在IOstat那显示LGWR (Control File)读达到了30G的量,什么情况会导致lgwr大量读controlfile?数据库版本,awr报告上传 数据库版本是11.2.0.3,awr见附件 Tablespace Reads Av Reads/s Av Rd(ms) Av Blks/Rd Writes Av Writes/s Buffer Waits Av Buf Wt(ms)
CMBC_GGPZ 17,596 5 0.00 1.09 4 0 10,073 1007.42
CMBC_JYPZ 7,409 2 0.06 1.09 6,648 2 14,087 1007.64
CMBC_PTRZBW 3,162 1 211.18 1.00 5,929 2 33 154.24
PSINDEX 376 0 281.54 1.00 6,814 2 78 1.15
UNDOTBS2 8 0 0.00 1.00 3,728 1 958 949.33
PSIMAGE 3,127 1 0.17 1.00 0 0 0 0.00
SYSAUX 88 0 223.75 1.00 1,142 0 0 0.00
CMBC_JDTS 1 0 0.00 1.00 698 0 0 0.00
CMBC_GBYY 7 0 217.14 1.00 574 0 10 6.00
CMBC_GTYY 41 0 0.00 1.00 267 0 4,030 1009.59
CMBC_GTYS 71 0 279.86 1.00 224 0 1 240.00
CMBC_JDJDD 1 0 240.00 1.00 293 0 10,034 1009.30
CMBC_GTDX 0 0 0.00 0.00 197 0 0 0.00
CMBC_PTRZ 1 0 0.00 1.00 176 0 0 0.00
PTTBL 0 0 0.00 0.00 76 0 4 0.00
CMBC_JDDHGD 6 0 286.67 1.00 57 0 0 0.00
这个IO磁盘 是不是 有问题啊log file switch (checkpoint incomplete)redo切不了数据库hang住先解决 这个吧
1. 这里的awr报告有些地方信息不准确,是不是有可能awr收集信息有问题,如果还有其他awr,考虑继续上传
2,上传检查alert
3,问题发生时,后台进程占用cpu的情况
4,检查控制文件是否太大
5,上传lgwr的trace或者时间点的所有相关trace文件(后台进程和前台进程生成的) 6,是否实用了NFS,或者什么存储类型?
7,提供下硬件配置(os具体版本,存储,io情况,最好提供io的监控信息)
8,从现在的图上卡,io压力很大(不能确定是因为控制文件读太多导致,还是因为存储本身异常)
9,你的redo buffer 也配置的非常大
Log Buffer:784,296K
log file switch (checkpoint incomplete)redo 这个完成不了时或很慢时,就不会产生大量的lgwr读控制文件
页:
[1]