百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Oracle改变表结构的时候当表里有几亿行数据的时候,速度很慢吗

moboyou 2025-04-05 18:39 11 浏览

在Oracle中,对包含几亿行数据的表进行结构变更(DDL操作)时,速度可能**显著变慢**,甚至导致业务中断。其性能瓶颈主要来自**数据量、锁机制、I/O压力**以及操作类型。以下是详细分析和解决方案:

---

### ** 一、为什么大表结构变更会变慢?**

1. **全表数据扫描与写入**

- 例如添加非空列(带默认值)、修改列类型、删除列等操作,需**逐行更新所有数据块**,导致高I/O负载。

- 若表有**数亿行数据**,物理写入耗时可能达数小时甚至更久。

2. **锁机制阻塞**

- Oracle的DDL操作通常需要**排他锁(Exclusive Lock)**,在变更期间:

- 其他会话无法修改表数据(DML阻塞)。

- 长时间锁表会导致应用超时或事务回滚。

3. **Undo/Redo日志压力**

- 大表DDL会生成海量Undo和Redo日志,可能撑满日志文件空间,导致数据库挂起。

4. **索引维护**

- 若表有索引,结构变更后需重建索引,进一步延长操作时间。

---

### ** 二、优化策略与解决方案**

#### **1. 优先使用在线DDL(Online Redefinition)**

- **原理**:通过`DBMS_REDEFINITION`包创建临时影子表,逐步同步数据,最终原子化切换表定义,**减少锁表时间**。

- **适用场景**:添加/删除列、修改列类型、分区表重构等。

- **核心步骤**:

```sql

-- 1. 启动在线重定义

BEGIN

DBMS_REDEFINITION.START_REDEF_TABLE(

uname => 'SCHEMA_NAME',

orig_table => 'BIG_TABLE',

int_table => 'BIG_TABLE_TMP'

);

END;


-- 2. 同步增量数据(多次执行减少最终切换时间)

BEGIN

DBMS_REDEFINITION.SYNC_INTERIM_TABLE(

uname => 'SCHEMA_NAME',

orig_table => 'BIG_TABLE',

int_table => 'BIG_TABLE_TMP'

);

END;


-- 3. 完成重定义

BEGIN

DBMS_REDEFINITION.FINISH_REDEF_TABLE(

uname => 'SCHEMA_NAME',

orig_table => 'BIG_TABLE',

int_table => 'BIG_TABLE_TMP'

);

END;

```

- **优势**:业务几乎无感知(仅`FINISH`阶段短暂锁表)。

---

#### **2. 分阶段操作(适用非关键列变更)**

- **添加可为空的列**:直接执行`ALTER TABLE ADD COLUMN`,仅更新数据字典,**秒级完成**。

- **后续填充数据**:通过增量更新或后台任务分批设置默认值,避免单次操作压力。

```sql

-- 分批次更新(使用ROWID范围)

UPDATE /*+ PARALLEL(8) */ big_table

SET new_column = 'default_value'

WHERE ROWID BETWEEN start_rowid AND end_rowid;

```

---

#### **3. 利用分区表特性**

- 若表已分区,可**按分区逐个操作**,降低单次数据量。

- **示例**(交换分区):

```sql

-- 创建临时分区表

CREATE TABLE big_table_tmp PARTITION BY RANGE (date_col) ... ;


-- 逐个分区交换数据

ALTER TABLE big_table

EXCHANGE PARTITION p202301

WITH TABLE big_table_tmp

INCLUDING INDEXES;

```

---

#### **4. 并行处理(Parallel DDL)**

- 启用并行执行加速操作(需足够CPU和I/O资源):

```sql

ALTER TABLE big_table MOVE PARALLEL 8;

ALTER INDEX idx_big_table REBUILD PARALLEL 8;

```

- **注意**:操作完成后需关闭并行度,避免后续查询资源争用:

```sql

ALTER TABLE big_table NOPARALLEL;

```

---

#### **5. 预分配存储与优化I/O**

- 确保表空间和数据文件有足够空间,避免扩展中断。

- 使用高性能存储(如SSD),或临时将表迁移到高吞吐磁盘组。

---

### ** 三、注意事项**

1. **风险评估**:

- 提前检查表依赖对象(触发器、物化视图、外键等)。

- 备份表数据(`CREATE TABLE backup AS SELECT * FROM big_table`)。

2. **监控与回退**:

- 实时监控进度(`V$SESSION_LONGOPS`)。

- 准备回退脚本,防止意外中断。

3. **维护窗口选择**:

- 在业务低峰期操作,避免高峰期锁表引发故障。

---

### ** 四、性能对比(示例)**

| **操作类型** | 传统DDL耗时 | 在线重定义耗时 |

|---------------------------|-------------|----------------|

| 添加非空列(带默认值) | 8小时 | 20分钟(仅切换)|

| 修改列类型(VARCHAR2增大) | 12小时 | 1小时 |

| 删除列 | 6小时 | 15分钟 |

---

**总结**:对亿级大表进行结构变更,**优先选择在线重定义**,结合分区和并行技术,可将停机时间从小时级压缩到分钟级。务必提前验证方案并做好应急预案! #Oracle优化 #DDL性能 #数据库管理

相关推荐

php宝塔搭建部署实战服务类家政钟点工保姆网站源码

大家好啊,我是测评君,欢迎来到web测评。本期给大家带来一套php开发的服务类家政钟点工保姆网站源码,感兴趣的朋友可以自行下载学习。技术架构PHP7.2+nginx+mysql5.7+JS...

360自动收录简介及添加360自动收录功能的详细教程

以前我们都是为博客站点添加百度实时推送功能,现在360已经推出了自动收录功能,个人认为这个功能应该跟百度的实时推送功能差不多,所以我们也应该添加上这个功能,毕竟360在国内的份额还是不少的。360自动...

介绍一个渗透测试中使用的WEB扫描工具:Skipfish

Skipfish简介Skipfish是一款主动的、轻量级的Web应用程序安全侦察工具。它通过执行递归爬取和基于字典的探测来为目标站点准备交互式站点地图。该工具生成的最终报告旨在作为专业Web应用程序安...

好程序员大数据培训分享Apache-Hadoop简介

好程序员大数据培训分享Apache-Hadoop简介  好程序员大数据培训分享Apache-Hadoop简介,一、Hadoop出现的原因:现在的我们,生活在数据大爆炸的年代。国际数据公司已经预测在20...

LPL比赛数据可视化,完成这个项目,用尽了我的所有Python知识

LPL比赛数据可视化效果图完成这个项目,我感觉我已经被掏空了,我几乎用尽了我会的所有知识html+css+javascript+jQuery+python+requests+numpy+mysql+p...

网站被谷歌标记“有垃圾内容”但找不到具体页面?

谷歌的垃圾内容判定机制复杂,有时违规页面藏得深(如用户注册页、旧测试内容),或是因第三方插件漏洞被注入垃圾代码,导致站长反复排查仍毫无头绪。本文提供一套低成本、高执行性的解决方案。你将学会如何利用谷歌...

黑客必学知识点--如何轻松绕过CDN,找到真实的IP地址

信息收集(二)1、cms识别基础为什么要找CMS信息呢?因为有了CMS信息之后,会给我们很多便利,我们可以搜索相应CMS,有没有公开的漏洞利用根据敏感文件的判断:robots.txt文件robots....

Scrapy 爬虫完整案例-提升篇

1Scrapy爬虫完整案例-提升篇1.1Scrapy爬虫进阶案例一Scrapy爬虫案例:东莞阳光热线问政平台。网站地址:http://wz.sun0769.com/index.php/que...

如何写一个疯狂的爬虫!

自己在做张大妈比价(http://hizdm.com)的时候我先后写了两个版本的爬虫(php版本和python版本),虽然我试图将他们伪装的很像人但是由于京东的价格接口是一个对外开放的接口,如果访问频...

程序员简历例句—范例Java、Python、C++模板

个人简介通用简介:有良好的代码风格,通过添加注释提高代码可读性,注重代码质量,研读过XXX,XXX等多个开源项目源码从而学习增强代码的健壮性与扩展性。具备良好的代码编程习惯及文档编写能力,参与多个高...

Python爬虫高级之JS渗透登录新浪微博 | 知了独家研究

小伙伴们看到标题可能会想,我能直接自己登陆把登陆后的cookie复制下来加到自定义的请求头里面不香嘛,为什么非要用python模拟登录的过程?如果我们是长期爬取数据,比如每天早上中午和晚上定时爬取新浪...

使用Selenium实现微博爬虫:预登录、展开全文、翻页

前言想实现爬微博的自由吗?这里可以实现了!本文可以解决微博预登录、识别“展开全文”并爬取完整数据、翻页设置等问题。一、区分动态爬虫和静态爬虫1、静态网页静态网页是纯粹的HTML,没有后台数据库,不含程...

《孤注一掷》关于黑客的彩蛋,你知道多少?

电影总是能引发人们的好奇心,尤其是近日上映的电影《孤注一掷》。这部电影由宁浩监制,申奥编剧执导,是一部反诈骗犯罪片。今天给大家讲解一下影片潘生用的什么语言,以及写了哪些程序。揭秘影片中的SQL注入手法...

python爬虫实战之Headers信息校验-Cookie

一、什么是cookie上期我们了解了User-Agent,这期我们来看下如何利用Cookie进行用户模拟登录从而进行网站数据的爬取。首先让我们来了解下什么是Cookie:Cookie指某些网站为了辨别...

「2022 年」崔庆才 Python3 爬虫教程 - urllib 爬虫初体验

首先我们介绍一个Python库,叫做urllib,利用它我们可以实现HTTP请求的发送,而不用去关心HTTP协议本身甚至更低层的实现。我们只需要指定请求的URL、请求头、请求体等信息即...