將資料載入到 hadoop hdfs 中

第 1 步:在 HDFS 中建立目錄,上傳檔案和列表內容

讓我們通過編寫語法來學習。你將能夠將以下示例命令複製並貼上到終端中:

hadoop fs -mkdir:

將路徑 URI 作為引數並建立目錄或多個目錄。

用法:

    # hadoop fs -mkdir <paths>

例:

    hadoop fs -mkdir /user/hadoop
    hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2 /user/hadoop/dir3

hadoop fs -put:

將單個 src 檔案或多個 src 檔案從本地檔案系統複製到 Hadoop 分散式檔案系統。

用法:

    # hadoop fs -put <local-src> ... <HDFS_dest_path>

例:

    hadoop fs -put popularNames.txt /user/hadoop/dir1/popularNames.txt

hadoop fs -copyFromLocal:

將單個 src 檔案或多個 src 檔案從本地檔案系統複製到 Hadoop 分散式檔案系統。

用法:

    # hadoop fs -copyFromLocal <local-src> ... <HDFS_dest_path>

例:

    hadoop fs -copyFromLocal popularNames.txt /user/hadoop/dir1/popularNames.txt

hadoop fs -moveFromLocal:

與 put 命令類似,只是在複製後刪除了源 localsrc。

用法:

    # hadoop fs -moveFromLocal <local-src> ... <HDFS_dest_path>

例:

    hadoop fs -moveFromLocal popularNames.txt /user/hadoop/dir1/popularNames.txt

SQOOP 資料傳輸工具:

我們還可以使用 Sqoop(用於從 RDBMS 到 HDFS 的資料傳輸的命令列工具,反之亦然)直接從關聯式資料庫將資料載入到 HDFS 中。

用法:

$ sqoop import --connect CONNECTION_STRING --username USER_NAME --table TABLE_NAME

例:

$ sqoop import --connect jdbc:mysql://localhost/db --username foo --table TEST