博客
关于我
昨日遇到一个妖精的事情
阅读量:783 次
发布时间:2019-03-25

本文共 1041 字,大约阅读时间需要 3 分钟。

最近在一次ORACLE数据库优化项目中,我们遇到了一个奇怪的错误。集成商的业务一运行,就会报错一个af文件,提示某个partnum的页存在异常。具体的错误信息已经记不太清了,但我们还是尝试拭нциклопед式地解决问题,最终通过重建表接数据的方式找到了解决办法。以下是我们的详细步骤和思考过程。

抗击异常页的过程

在面对这个问题之前,我们已经成功地让数据库运行了几个月,并且通过oncheck -cDI dbname:tabname进行检查。所有检查都没有发现问题,这意味着这个错误可能是由某些特定操作触发的。

经过反复思考和尝试,我们决定采取以下步骤来解决问题:

  • 创建原始表

    我们首先创建了一个原始的表框架,并且没有在这个阶段创建索引。这一步的目的是让表结构简单,避免索引相关的潜在问题。

  • 设置强制删除优先级

    我们知道ORACLE有一个叫做pdqpriority的参数,它可以用来设置表的删除优先级。我们将这个参数设置为90。这样做的原因是要尽可能地让这个表在其他对象被删除之前被删除,这可以帮助避免一些复杂的约束问题。

  • 插入数据

    接下来,我们从源表中复制数据到这个新表中。由于我们没有在插入数据之前创建索引,这一步需要一定的耐心,因为ORACLE会自动对新插入的数据进行检查。

  • 创建索引

    在数据插入完成后,我们开始为表创建索引。这个过程包括创建多个索引,每个索引针对不同的查询条件和约束。这一步必须小心操作,因为索引的创建会影响数据库的性能。

  • 改变表类型

    在索引创建完成后,我们使用alter table XXX type(standard);命令将表类型改为标准类型。这一步的目的是确保表的结构完全正常,没有任何特殊的存储结构。

  • 删除旧表

    为了彻底清除旧表的影响,我们决定直接删除它。通过使用drop table old_xxx;命令,我们彻底地从数据库中移除了旧的数据。

  • 重命名表

    最后,我们对新表进行了重命名,仅仅保留了它的相关数据和结构。通过使用rename table XXX to XXX2;命令,我们给新表起了一个新的名字,以区分它已经更换了。

  • 总结

    通过以上步骤的顺序执行,我们成功地解决了这个异常页的问题。虽然在实际操作中遇到了很多不确定性,但通过耐心地一步步推进,每个环节都进行了充分的测试,最终达到了预期的效果。ORACLE的强大之处在于它提供了丰富的工具来处理各种复杂的问题,只要我们善于利用这些工具,并且仔细实施每一步操作,就能找到最适合的解决方案。

    转载地址:http://ztduk.baihongyu.com/

    你可能感兴趣的文章
    Nginx配置限流,技能拉满!
    查看>>
    Nginx配置静态代理/静态资源映射时root与alias的区别,带前缀映射用alias
    查看>>
    Nginx面试三连问:Nginx如何工作?负载均衡策略有哪些?如何限流?
    查看>>
    nginx:/usr/src/fastdfs-nginx-module/src/common.c:21:25:致命错误:fdfs_define.h:没有那个文件或目录 #include
    查看>>
    Nginx:NginxConfig可视化配置工具安装
    查看>>
    ngModelController
    查看>>
    ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
    查看>>
    ngrok内网穿透可以实现资源共享吗?快解析更加简洁
    查看>>
    NHibernate学习[1]
    查看>>
    NHibernate异常:No persister for的解决办法
    查看>>
    NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
    查看>>
    NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
    查看>>
    NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
    查看>>
    NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
    查看>>
    NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
    查看>>
    NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
    查看>>
    NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
    查看>>
    NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
    查看>>