Oracle 10G的Data Pump技术能够在不同数据库间高速的移动数据库和元数据. 这个技术的基础是两个数据移动工具:Data Pump Export和Data Pump Import.
Oracle的Data Pump是通过一个PL/SQL包来实现的:DBMS_DataPump(也叫Data Pump API).Data Pump使用直接路径装载和外部表机制进行数据的移动. Data Pump使用DBMS_METADATA PL/Sql包进行包括ETL过程在内的所有的数据库对象操作.
Data Pump 是Oracle一些其它关键特性(如基于流的复制、逻辑Standby等、Grid)的基础。
Data Pump特性是集成到Oracle数据库10G中的,但是标准版本10G并行度只有1.
关键概念
Master Table
Master Table(MT)是Data Pump技术的核心.Master Table 用来保存整个过程中的细节信息(也可以说是一些元数据信息).有了MT,导出或者导入的重启动才变为可能.这些细节信息包括:
- 产生Job状态的报告
- 重新启动Job
- 定位在Dump文件中的所有的对象.
主表在进行当前导出或者导入的操作的用户模式中被创建.该用户必须要有足够空间. 主表的名字和创建它的Job名字相同.这也就是说,你不能显式的指定一个和现有的表或者视图重名的Data Pump Job.
导出的时候,主表被创建,并在完成的时候写到Dump文件中.在启动导入的时候,主表从Dump文件集中载入到数据库中,并用来控制操作的顺序.主表也可以用一些参数来进行初始化操作.要注意的是主表不能跨文件存储.所以,指定的 Dump 文件的大小至少要能够容纳得下 MT .
主表依如下情况或被保留或者删除:
- Job成功完成,MT 被删除.
- 如果Job是使用STOP_JOB交互命令停掉的,MT将被保留以用来重启动Job.
- 如果Job是使用KILL_JOB交互命令Kill掉的,MT将被删除,并且Job不能重新启动.
- 如果Job意外中止,MT总是被保留.
Master Process 主进程
每一个导出或者导入的Job都会产生一个主进程. 主进程控制整个Job,包括和客户端通信,创建并控制worker 进程, 并进行日志操作.
Worker Process
Worker Process 是并行化进行实际的卸载与装载元数据和表数据的进程.进程的数量和PARALLEL指定的数值相等.在整个Job过程中,该数量可以进行调整.我们在前面已经提及,标准版下并行度为1.
网络导出和导入
当你通过网络运行Import操作,源是另一个系统,不是一个Dump的文件集.
基于服务器的处理方式
和原来的Export/Import方式不同的是,Data Pump的导出和导入基本是在服务器.这意味着:
- 因为文件的读和写大部分都是在服务器端,所以路径的规范和数据库目录对象的解析都是针对服务器而不是客户
端 - 因为对文件的访问是在操作系统模式下,可能会存在数据安全问题.
- 如果使用默认的目录信息,可能会产生文件冲突问题.
Dump、Log和SQL文件的默认位置
Dump、Log和SQL文件的默认位置基于服务器的。在你运行Data Pump Export或者Data Pump Import的时候 , 必须由DBA或者是有 CREATE ANY DIRECTORY 权限的用户创建一个目录对象.在该对象创建之后,你需要对其他用户 授权 READ/WRITE对象操作权限.
GRANT READ ON DIRECTORY data_pump_dir TO foo;
注意该目录只有在数据库服务器具有读取权限的时候才可以.
Data Pump根据如下的顺序决定文件的位置:
1. 对该文件指定的目录对象;
2. 如果对一个文件没有指定目录对象,那么将默认使用初始化参数中的DIRECTORY指定的对象.
特权用户和非特权用户
Data Pump识别两类的用户:特权(Privileged)用户和非特权(Nonprivileged)的用户.
Privileged用户具有EXP_FULL_DATABASE 和IMP_FULL_DATABASE权限. 非特权用户不具备这些权限.
特权用户可以作如下工作:
- 导出导入其他用户拥有的数据库对象.
- 导出导入非基于模式的对象(比如表空间和模式定义等内容).
- 对其他用户启动的Job进行一些操作.
Data Pump如何访问数据?
直接路径(Direct Path ,DP)和外部表(External Tables ,ET).ET模式下使用ORACLE_DATAPUMP驱动并使用直接
路径API内部数据流格式.Oracle称Data Pump会自动选择最快的方法.
文件分配
Data Pump Job管理三种类型的文件:
- Dump文件
- Log文件 记录一个操作的相关信息
- SQL文件 记录一个SQL_FILE操作输出的记录
指定文件和额外的附件文件
对于导出操作,你可以指定 Dump文件,随着操作的进行你发现文件空间有些不够,你可以使用交互模式下的 ADD_FILE
命令添加额外的文件.对于导入的操作.所有的dump文件必须在Job定义的时候指定. Log文件和SQL文件将覆盖存在的
文件.Dump文件从不覆盖已经存在的文件.
设定并行度
对于导出和导入 ,并行度的设定(通过 PARALLEL 参数指定)应该低于或者等于Dump文件的个数.如果文件个数不足,性
能可能会降低(多线程同时访问一个Dump文件).前面已经提及,标准版本10G并行度只有1,所以,这个参数实际上对企业
版的10G才是有效的.
使用替代变量
在导出和导入操作中,可以使用%U替代变量来匹配文件名字,这样在一定情况下便捷了许多.
Data Pump中的Export和Import的新的特性
相对于旧有的exp/imp,Data Pump中的Export和Import有很多新的特性,包括:
1 Data Pump Job执行到一半的时候指定最大线程数的能力. 2 Data Pump job是完全能重新启动的. 3 从长时间运行的Job分离或者是重新附加上去而不会对Job本身有影响. 4 支持通过网络的导出导入操作. 5 Remap_datafile. 6 支持完美粒度对象选择. 7 支持对Job的交互命令行模式监控和交互. 8 对待导入的对象的空间评估. 9 具备指定数据库版本对象移动能力.
参考信息
注:以前的旧文。
FAQ:
Q: 导出文件删除后,没办法 Attach 到该 expdt 的 Job 上,如何解决该问题?
A: 删除该 Master Table 即可,该 Master Table 是正常的表。
select * from dba_datapump_jobs;
然后 :
drop table {Master Table Name} purge ;
观察到 10gR2 的 Data Pump 只支持 99 个数据文件,目前还不确定是Bug