您的位置:首頁 >資訊 > 正文

    環球速遞!大數據NiFi(十八):離線同步MySQL數據到HDFS

    來源:騰訊云2023-02-21 20:16:57

    ?離線同步MySQL數據到HDFS

    案例:使用NiFi將MySQL中數據導入到HDFS中。


    【資料圖】

    以上案例用到的處理器有“QueryDatabaseTable”、“ConvertAvroToJSON”、“SplitJson”、“PutHDFS”四個處理器。

    一、配置“QueryDatabaseTable”處理器

    該處理器主要使用提供的SQL語句或者生成SQL語句來查詢MySQL中的數據,查詢結果轉換成Avro格式。該處理器只能運行在主節點上。

    關于“QueryDatabaseTable”處理器的“Properties”配置的說明如下:

    配置項

    默認值

    允許值

    描述

    Database Connection Pooling Service(數據庫連接池服務)

    用于獲得與數據庫的連接的Controller Service。

    Database Type(數據庫類型)

    Generic

    選擇數據庫類型。Generic 通用類型OracleOracle 12+MS SQL 2012+MS SQL 2008MySQLPostgreSQL

    Table Name(表名)

    查詢數據庫的表名,當使用“Custom Query”時,此為查詢結果的別名,并作為FlowFile中的屬性。

    Columns to Return(返回的列)

    查詢返回的列,多個列使用逗號分隔。如果列中有特殊名稱需要加引號,則所有列都需要加引號處理。

    Additional WHERE clause(where條件)

    在構建SQL查詢時添加到WHERE條件中的自定義子句。

    Custom Query(自定義SQL查詢)

    自定義的SQL語句。該查詢被構建成子查詢,設置后不會從其他屬性構建SQL查詢。自定義SQL不支持Order by查詢。

    Maximum-value Columns(最大值列)

    指定增量查詢獲取最大值的列,多列使用逗號分開。指定后,這個處理器只能檢索到添加/更新的行。不能設置無法比較大小的列,例如:boolean/bit。如果不指定,則參照表中所有的列來查詢全量數據,這會對性能產生影響。

    Max Wait Time(最大超時時間)

    0 seconds

    SQL查詢最大時長,默認為0沒有限制,設置小于0的時間默認為0。

    Fetch Size(拉取數據量)

    0

    每次從查詢結果中拉取的數據量。

    Max Rows Per Flow File(每個FlowFile行數)

    0

    在一個FlowFile文件中的數據行數。通過這個參數可以將很大的結果集分到多個FlowFile中。默認設置為0,所有結果存入一個FlowFile。

    Output Batch Size(數據輸出批次量)

    0

    輸出的FlowFile批次數據大小,當設置為0代表所有數據輸出到下游關系。如果數據量很大,則有可能下游很久沒有收到數據,如果設置了,則每次達到該數據量就釋放數據,傳輸到下游。

    Maximum Number of Fragments(最大片段數)

    0

    設置返回的最大數據片段數,設置0默認將所有數據片段返回,如果表非常大,設置后可以防止OOM錯誤。

    Normalize Table/Column Names(標準表/列名)

    false

    truefalse

    是否將列名中不兼容avro的字符修改為兼容avro的字符。例如,冒號和句點將被更改為下劃線,以構建有效的Avro記錄。

    Transaction Isolation Level

    設置事務隔離級別。

    Use Avro Logical Types(使用Avro邏輯類型)

    false

    truefalse

    是否對DECIMAL/NUMBER, DATE, TIME 和 TIMESTAMP 列使用Avro邏輯類型。

    Default Decimal Precision(Decimal數據類型位數)

    10

    當 DECIMAL/NUMBER 數據類型轉換成Avro類型數據時,指定的數據位數。

    Default Decimal Scale(Decimal 數據類型小數位數)

    0

    當 DECIMAL/NUMBER 數據類型轉換成Avro類型數據時,指定的小數點后的位數。

    Generic 通用類型OracleOracle 12+MS SQL 2012+MS SQL 2008MySQLPostgreSQL

    Table Name(表名)查詢數據庫的表名,當使用“Custom Query”時,此為查詢結果的別名,并作為FlowFile中的屬性。 Columns to Return (返回的列) 查詢返回的列,多個列使用逗號分隔。如果列中有特殊名稱需要加引號,則所有列都需要加引號處理。 Additional WHERE clause (where條件) 在構建SQL查詢時添加到WHERE條件中的自定義子句。 Custom Query (自定義SQL查詢) 自定義的SQL語句。該查詢被構建成子查詢,設置后不會從其他屬性構建SQL查詢。自定義SQL不支持Order by查詢。 Maximum-value Columns (最大值列) 指定增量查詢獲取最大值的列,多列使用逗號分開。指定后,這個處理器只能檢索到添加/更新的行。不能設置無法比較大小的列,例如:boolean/bit。如果不指定,則參照表中所有的列來查詢全量數據,這會對性能產生影響。 Max Wait Time(最大超時時間)0 seconds SQL查詢最大時長,默認為0沒有限制,設置小于0的時間默認為0。 Fetch Size(拉取數據量)0 每次從查詢結果中拉取的數據量。 Max Rows Per Flow File(每個FlowFile行數)0 在一個FlowFile文件中的數據行數。通過這個參數可以將很大的結果集分到多個FlowFile中。默認設置為0,所有結果存入一個FlowFile。 Output Batch Size(數據輸出批次量)0 輸出的FlowFile批次數據大小,當設置為0代表所有數據輸出到下游關系。如果數據量很大,則有可能下游很久沒有收到數據,如果設置了,則每次達到該數據量就釋放數據,傳輸到下游。 Maximum Number of Fragments(最大片段數)0 設置返回的最大數據片段數,設置0默認將所有數據片段返回,如果表非常大,設置后可以防止OOM錯誤。 Normalize Table/Column Names(標準表/列名)false true false 是否將列名中不兼容avro的字符修改為兼容avro的字符。例如,冒號和句點將被更改為下劃線,以構建有效的Avro記錄。 Transaction Isolation Level 設置事務隔離級別。 Use Avro Logical Types(使用Avro邏輯類型)false true false 是否對DECIMAL/NUMBER, DATE, TIME 和 TIMESTAMP 列使用Avro邏輯類型。 Default Decimal Precision(Decimal數據類型位數)10 當 DECIMAL/NUMBER 數據類型轉換成Avro類型數據時,指定的數據位數。 Default Decimal Scale(Decimal 數據類型小數位數)0 當 DECIMAL/NUMBER 數據類型轉換成Avro類型數據時,指定的小數點后的位數。

    配置步驟如下:

    1、新建“QueryDatabaseTable”處理器

    2、配置“SCHEDULING”調度時間

    這里調度時間配置為99999s,讀取數據庫,這里讀取一次即可,默認0會不間斷讀取數據庫會對服務器造成非常大壓力。執行僅支持“Primary”主節點運行。

    3、配置“PROPERTIES”

    配置“Database Connection Pooling Service”選擇創建,在彈出頁面中可以按照默認選擇直接點擊“Create”。

    點擊“->”繼續配置MySQL連接:

    在彈出的頁面中填入:

    連接MysqlURL:

    jdbc:mysql://192.168.179.5:3306/mynifi?characterEncoding=UTF-8&useSSL=false

    MySQL驅動類:com.mysql.jdbc.DriverMySQL jar包路徑:需要提前在NiFI集群各個節點上創建對應目錄并上傳jar包。連接mysql的用戶名和密碼。

    通過以上配置好連接mysql如下:

    配置其他屬性如下:

    二、???????配置“ConvertAvroToJSON”處理器

    此處理器是將二進制Avro記錄轉換為JSON對象,提供了一個從Avro字段到JSON字段的直接映射,這樣得到的JSON將具有與Avro文檔相同的層次結構。輸出的JSON編碼為UTF-8編碼,如果傳入的FlowFile包含多個Avro記錄,則轉換后的FlowFile是一個含有所有Avro記錄的JSON數組或一個JSON對象序列(每個Json對象單獨成行)。如果傳入的FlowFile不包含任何記錄,則輸出一個空JSON對象。

    關于“ConvertAvroToJSON”處理器的“Properties”配置的說明如下:

    配置項

    默認值

    允許值

    描述

    JSON container options(Json選擇)

    array

    nonearray

    如何解析Json對象,none:解析Json將每個Json對象寫入新行。array:解析到的json存入JsonArray一個對象

    Wrap Single Record(數據庫類型)

    false

    truefalse

    指定解析到的空記錄或者單條記錄是否按照“JSON container options”配置包裝對象。

    Avro schema(表名)

    如果Avro數據沒有Schema信息,需要配置。

    配置步驟如下:

    1、創建“ConvertAvroToJSON”處理器

    2、配置“PROPERTIES”

    3、連接“QueryDatabaseTable”處理器和“CovertAvroToJSON”處理器

    連接好兩個處理器后,可以配置“Connection”為負載均衡方式傳遞數據:

    三、???????配置“SplitJson”處理器

    該處理器使用JsonPath表達式指定需要的Json數組元素,將Json數組中的多個Json對象切分出來,形成多個FlowFile。每個生成的FlowFile都由指定數組中的一個元素組成,并傳輸到關系"split",原始文件傳輸到關系"original"。如果沒有找到指定的JsonPath,或者沒有對數組元素求值,則將原始文件路由到"failure",不會生成任何文件。

    關于“SplitJson”處理器的“Properties”配置的說明如下:

    配置項

    默認值

    允許值

    描述

    JsonPath Expression(Json表達式)

    一個JsonPath表達式,它指定用以分割的數組元素。

    Null Value Representation(Null值表示)

    empty string

    empty stringthe string "null"

    指定結果為空值時的表示形式。

    配置步驟如下:

    1、創建“SplitJson”處理器

    2、配置“PROPERTIES”

    3、連接“ConvertAvroToJSON”處理器和“SplitJson”處理器

    連接后,連接關系選擇“success”:

    同時配置“ConverAvroToJSON”處理失敗的數據自動終止:

    四、配置“PutHDFS”處理器

    該處理器是將FlowFile數據寫入到HDFS分布式文件系統中。關于“PutHDFS”處理器的“Properties”主要配置的說明如下:

    配置項

    默認值

    允許值

    描述

    Hadoop Configuration Resources(Hadoop配置)

    nonearray

    HDFS配置文件,一個文件或者由逗號分隔的多個文件。不配置將在ClassPath中尋找‘core-site.xml’或者‘hdfs-site.xml’文件。

    Directory(目錄)

    需要寫入文件的HDFS父目錄。如果目錄不存在,將創建該目錄。

    Conflict Resolution Strategy(沖突解決)

    fail

    replaceignorefailappend

    指示當輸出目錄中已經存在同名文件時如何處理。

    配置步驟如下:

    1、創建“PutHDFS”處理器

    2、配置“PROPERTIES”

    注意:以上需要在各個NiFi集群節點上創建“/root/test”目錄,并且在該目錄下上傳hdfs-site.xml和core-site.xml文件。

    3、連接“SplitJson”處理器和“PutHDFS”處理器

    同時設置“SplitJson”處理器中“failure”和“original”數據關系自動終止。

    設置“PutHDFS”處理器“success”和“failure”數據關系自動終止:

    配置好的連接關系如下:

    五、??????????????運行測試

    1、在MySQL創建庫“mynifi”,并且創建表“test1”,向表中插入10條數據

    mysql> create database mynifi;Query OK, 1 row affected (0.02 sec)mysql> use mynifi;Database changedmysql> create table test1(id int,name varchar(255),age int );Query OK, 0 rows affected (0.07 sec)mysql> insert into test1 values (1,"zs",18),(2,"ls",19),(3,"ww",20),(4,"ml",21),(5,"tt",22)

    2、首先啟動“QueryDatabaseTable”處理器觀察隊列數據

    3、單獨啟動“ConvertAvroToJson”處理器觀察隊列數據

    4、單獨啟動“SplitJson”處理器觀察隊列數據

    5、單獨啟動“PutHDFS”處理器觀察HDFS對應目錄數據

    查看數據:

    注意:

    如果在“QueryDatabaseTable”處理器中設置增屬性“Maximum-value Columns”為id,那么每次查詢都是大于id的增量數據。如果想要存入HDFS文件為多行而不是一行,可以將“CovertAvroToJson”處理器屬性“JSON container options”設置為none,直接解析Avro文件得到一個個json數據,然后直接連接“PutHDFS”處理器即可。

    最近更新

    亚洲免费精彩视频在线观看| 亚洲精品美女久久久久久久| 国产AV日韩A∨亚洲AV电影| 91午夜精品亚洲一区二区三区| 亚洲精品成人片在线播放 | 亚洲毛片网址在线观看中文字幕| 亚洲精品久久无码| 亚洲αⅴ无码乱码在线观看性色| 亚洲一线产品二线产品| 亚洲AV成人影视在线观看| 国产精品久久亚洲不卡动漫| 久久精品国产亚洲αv忘忧草| 亚洲国产成人精品无码一区二区 | 在线91精品亚洲网站精品成人| 亚洲AV无码AV日韩AV网站| 毛片亚洲AV无码精品国产午夜| 99亚洲男女激情在线观看| 国产精品自拍亚洲| 亚洲精品无码99在线观看| 久久精品亚洲福利| 亚洲精品无码久久久久去q| 亚洲免费观看视频| 久久精品视频亚洲| 91精品国产亚洲爽啪在线影院| 亚洲日韩中文字幕| 亚洲综合激情五月色一区| 亚洲午夜无码久久久久小说| 亚洲av日韩精品久久久久久a| 最新亚洲人成无码网站| 亚洲欧洲日本在线| 亚洲日韩v无码中文字幕| 亚洲国产a∨无码中文777 | 女bbbbxxxx另类亚洲| 亚洲精品无码久久不卡| 亚洲中文字幕无码久久综合网| 亚洲成AV人片在WWW色猫咪| 久久亚洲精品国产精品| 亚洲AV成人无码天堂| 亚洲综合在线一区二区三区| 国产精品无码亚洲一区二区三区| 亚洲精品WWW久久久久久 |