将 RDBMS 表导入 HDFS

sqoop import \
--connect <rdbms-jdbc-url> \
--username <username> \
--password <password> \
--table <table-name>

Mysql 示例:

sqoop import \
--connect jdbc:mysql://mysql.example.com/testdb \
--username root \
--password root \
--table employees

将在主目录下的 employees 目录下创建包含导入数据的 CSV 文件。

检查使用命令:

hadoop fs -cat <hdfs-home-dir>/employees/part-m-* 

导入 HDFS 中的特定目录

sqoop import \
--connect jdbc:mysql://mysql.example.com/testdb \
--username root \
--password root \
--table emplyoees \
--target-dir /dev/data/employees

这将在/dev/data/employees 目录下生成 CSV 文件。

为 Sqoop 作业指定父 HDFS 目录

sqoop import \
--connect jdbc:mysql://mysql.example.com/testdb \
--username root \
--password root \
--table emplyoees \
--warehouse-dir /dev/warehouse/

上面命令中的 --warehouse-dir 标签会将你的主目录更改为/dev/warehouse/