国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總

這篇具有很好參考價值的文章主要介紹了猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。


前言

隨著大數據近幾年的發(fā)展,已經在國內外的開發(fā)市場積累出一大批大數據開發(fā)的技術型人才,不論是批處理還是流處理各大公司都研究出一套專門解決自身公司業(yè)務的大數據解決方案。它們是市面上大數據組件的融合碰撞產生的適合自身的。

在數據處理的最前端一定是數據的采集技術,數據的采集技術也是百家爭鳴,一片藍海,對于一個優(yōu)秀的大數據開發(fā)工程師,我們怎么將這些技術棧靈活的應用,前提是我們要對其認真的研究,理解其最佳的應用場景,今天我來帶大家認識5種數據采集工具。
猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總

1、Flume

適用場景

適合用于日志數據的采集
Flume是Cloudera提供的一個高可用的,高可靠的,分布式的海量日志采集、聚合和傳輸的系統(tǒng),Flume支持在日志系統(tǒng)中定制各類數據發(fā)送方,用于收集數據;同時,Flume提供對數據進行簡單處理,并寫到各種數據接受方(可定制)的能力。

當前Flume有兩個版本Flume 0.9X版本的統(tǒng)稱Flume-og,Flume1.X版本的統(tǒng)稱Flume-ng。由于Flume-ng經過重大重構,與Flume-og有很大不同,使用時請注意區(qū)分。
猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總

工作方式

Flume-og采用了多Master的方式。為了保證配置數據的一致性,Flume引入了ZooKeeper,用于保存配置數據,ZooKeeper本身可保證配置數據的一致性和高可用,另外,在配置數據發(fā)生變化時,ZooKeeper可以通知Flume Master節(jié)點。Flume Master間使用gossip協(xié)議同步數據。

Flume-ng最明顯的改動就是取消了集中管理配置的 Master 和 Zookeeper,變?yōu)橐粋€純粹的傳輸工具。Flume-ng另一個主要的不同點是讀入數據和寫出數據由不同的工作線程處理(稱為 Runner)。 在 Flume-og 中,讀入線程同樣做寫出工作(除了故障重試)。如果寫出慢的話(不是完全失?。鼘⒆枞?Flume 接收數據的能力。這種異步的設計使讀入線程可以順暢的工作而無需關注下游的任何問題。

2、Flink CDC

適用場景

CDC 是變更數據捕獲(Change Data Capture)技術的縮寫,它可以將源數據庫(Source)的增量變動記錄,同步到一個或多個數據目的(Sink)。在同步過程中,還可以對數據進行一定的處理,例如分組(GROUP BY)、多表的關聯(JOIN)等。例如對于電商平臺,用戶的訂單會實時寫入到某個源數據庫;A 部門需要將每分鐘的實時數據簡單聚合處理后保存到 Redis 中以供查詢,B 部門需要將當天的數據暫存到 Elasticsearch 一份來做報表展示,C 部門也需要一份數據到 ClickHouse 做實時數倉。隨著時間的推移,后續(xù) D 部門、E 部門也會有數據分析的需求,這種場景下,傳統(tǒng)的拷貝分發(fā)多個副本方法很不靈活,而 CDC 可以實現一份變動記錄,實時處理并投遞到多個目的地。下圖是一個示例,通過騰訊云 Oceanus 提供的 Flink CDC 引擎,可以將某個 MySQL 的數據庫表的變動記錄,實時同步到下游的 Redis、Elasticsearch、ClickHouse 等多個接收端。這樣大家可以各自分析自己的數據集,互不影響,同時又和上游數據保持實時的同步。
猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總

工作方式

目前 Flink CDC 支持兩種數據源輸入方式。
(一)輸入 Debezium 等數據流進行同步
例如 MySQL -> Debezium -> Kafka -> Flink -> PostgreSQL。適用于已經部署好了 Debezium,希望暫存一部分數據到 Kafka 中以供多次消費,只需要 Flink 解析并分發(fā)到下游的場景。
猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總
(二)直接對接上游數據庫進行同步
我們還可以跳過 Debezium 和 Kafka 的中轉,使用 Flink CDC Connectors(https://github.com/ververica/flink-cdc-connectors)對上游數據源的變動進行直接的訂閱處理。從內部實現上講,Flink CDC Connectors 內置了一套 Debezium 和 Kafka 組件,但這個細節(jié)對用戶屏蔽,因此用戶看到的數據鏈路如下圖所示:
猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總

3、Sqoop

適用場景

Sqoop(發(fā)音:skup)是一款開源的工具,主要用于在Hadoop(Hive)與傳統(tǒng)的數據庫(mysql、postgresql…)間進行數據的傳遞,可以將一個關系型數據庫(例如 : MySQL ,Oracle ,Postgres等)中的數據導進到Hadoop的HDFS中,也可以將HDFS的數據導進到關系型數據庫中。

Sqoop項目開始于2009年,最早是作為Hadoop的一個第三方模塊存在,后來為了讓使用者能夠快速部署,也為了讓開發(fā)人員能夠更快速的迭代開發(fā),Sqoop獨立成為一個Apache項目。
猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總

工作方式

Sqoop的優(yōu)點:

  1. 可以高效、可控的利用資源,可以通過調整任務數來控制任務的并發(fā)度。
  2. 可以自動的完成數據映射和轉換。由于導入數據庫是有類型的,它可以自動根據數據庫中的類型轉換到Hadoop中,當然用戶也可以自定義它們之間的映射關系。
  3. 支持多種數據庫,如mysql,orcale等數據庫。

sqoop工作的機制:

將導入或導出命令翻譯成MapReduce程序來實現在翻譯出的MapReduce中主要是對InputFormat和OutputFormat進行定制。

sqoop版本介紹:sqoop1和sqoop2

sqoop的版本sqoop1和sqoop2是兩個不同的版本,它們是完全不兼容的。

4、Canal

適用場景

Canal是阿里巴巴旗下的一款開源項目,用Java開發(fā)。

對數據庫日志增量解析,提供增量數據的實時同步,目前支持MySQL
猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總

工作方式

  • canal 模擬 MySQL slave 的交互協(xié)議,偽裝成 MySQL slave ,向 MySQL master 發(fā)送dump 協(xié)議
  • MySQL master 收到 dump 請求,開始推送 binary log 給 slave (即 canal )
  • canal 解析binary log 對象(原始為 byte 流)----->kafka等

猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總

5、Kettle

適用場景

Kettle最早是一個開源的ETL工具,全稱為KDE Extraction, Transportation, Transformation and Loading Environment。在2006年,Pentaho公司收購了Kettle項目,原Kettle項目發(fā)起人Matt Casters加入了Pentaho團隊,成為Pentaho套件數據集成架構師;從此,Kettle成為企業(yè)級數據集成及商業(yè)智能套件Pentaho的主要組成部分,Kettle亦重命名為Pentaho Data Integration 。Pentaho公司于2015年被Hitachi Data Systems收購。

Pentaho Data Integration以Java開發(fā),支持跨平臺運行,其特性包括:支持100%無編碼、拖拽方式開發(fā)ETL數據管道;可對接包括傳統(tǒng)數據庫、文件、大數據平臺、接口、流數據等數據源;支持ETL數據管道加入機器學習算法。

Pentaho Data Integration分為商業(yè)版與開源版,開源版的截止2021年1月的累計下載量達836萬,其中19%來自中國 。在中國,一般人仍習慣把Pentaho Data Integration的開源版稱為Kettle。
猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總

工作方式

ETL(Extract-Transform-Load的縮寫,即數據抽取、轉換、裝載的過程),對于企業(yè)或行業(yè)應用來說,我們經常會遇到各種數據的處理,轉換,遷移,所以了解并掌握一種etl工具的使用,必不可少,這里我介紹一個我在工作中使用了3年左右的ETL工具Kettle,本著好東西不獨享的想法,跟大家分享碰撞交流一下!在使用中我感覺這個工具真的很強大,支持圖形化的GUI設計界面,然后可以以工作流的形式流轉,在做一些簡單或復雜的數據抽取、質量檢測、數據清洗、數據轉換、數據過濾等方面有著比較穩(wěn)定的表現,其中最主要的我們通過熟練的應用它,減少了非常多的研發(fā)工作量,提高了我們的工作效率。文章來源地址http://www.zghlxwxcb.cn/news/detail-430070.html

到了這里,關于猿創(chuàng)征文|大數據開發(fā)必備的數據采集工具匯總的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網!

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 猿創(chuàng)征文 | 【IoT開發(fā)工具箱】Postman模擬https請求

    猿創(chuàng)征文 | 【IoT開發(fā)工具箱】Postman模擬https請求

    這是機器未來的第45篇文章 原文首發(fā)地址:https://blog.csdn.net/RobotFutures/article/details/126710290 本文描述了博主通過postman來模擬https請求的完整過程。難點在于證書的配置。 下載地址:https://www.postman.com/downloads/ 根據協(xié)議規(guī)范選擇添加POST請求和GET請求。 注意事項:Enable SSL certifi

    2024年02月06日
    瀏覽(90)
  • 猿創(chuàng)征文|我Java開發(fā)那些年陪我成長的工具清單

    猿創(chuàng)征文|我Java開發(fā)那些年陪我成長的工具清單

    ??推薦網站(不斷完善中):個人博客 ??個人主頁:個人主頁 ??相關專欄:CSDN專欄 ??立志賺錢,干活想躺,瞎分享的摸魚工程師一枚 本摸魚程序員也是歷經軟件專業(yè)的四年歷程,想在校時期到如經也有幾載光陰,不得不說從剛參與到工作中的一臉茫然到現在學會尋找讓自

    2024年02月03日
    瀏覽(22)
  • 猿創(chuàng)征文|工具百寶箱-數據庫連接工具-接口調試與測試工具-抓包工具

    猿創(chuàng)征文|工具百寶箱-數據庫連接工具-接口調試與測試工具-抓包工具

    工具沒有絕對意義上的好壞之分,只有需求適合與否,這些需求可能包括:功能、價格、安全、服務、技術等諸多方面。 技術在更新迭代,開發(fā)者工具也在更新迭代。一個高效趁手的工具在工作上錦上添花。給大家分享一下我平時用的一部分工具。 官方活動入口:「猿創(chuàng)征

    2023年04月27日
    瀏覽(17)
  • 技術之外(02)猿創(chuàng)征文|寶藏工具篇|數字芯片設計,嵌入式開發(fā),人工智能|沒我可以,沒你不行

    技術之外(02)猿創(chuàng)征文|寶藏工具篇|數字芯片設計,嵌入式開發(fā),人工智能|沒我可以,沒你不行

    新芯設計:專注,積累,探索,挑戰(zhàn) ??由于工作的繁忙,已經有較長的時間沒有發(fā)文了。偶然之間,在回復讀者來信的時候,關注到了 CSDN 創(chuàng)作活動中的「 猿創(chuàng)征文 」 第四季 | 2022 年我的開發(fā)者工具 。這時才晃過神來,2022 年,已經跨入了倒數的一個四分之一,歲月的印

    2024年01月23日
    瀏覽(62)
  • 猿創(chuàng)征文|網絡安全的十大經典工具介紹

    猿創(chuàng)征文|網絡安全的十大經典工具介紹

    目錄 BurpSuite AWVS xray Invicti? Metasploit Nessus OpenVas HCL AppScan Standard Acunetix Cobalt Strike BurpSuite是用于 攻擊web應用程序的集成平臺 ,包含了許多工具。Burp Suite為這些工具設計了許多接口,以加快攻擊應用程序的過程。所有工具都共享一個請求,并能處理對應的HTTP 消息、持久性、認

    2024年01月17日
    瀏覽(24)
  • 猿創(chuàng)征文 | 2023年必須掌握的DevOps工具推薦(一)
  • 【數據采集與預處理】流數據采集工具Flume

    【數據采集與預處理】流數據采集工具Flume

    目錄 一、Flume簡介 (一)Flume定義 (二)Flume作用 二、Flume組成架構 三、Flume安裝配置 (一)下載Flume (二)解壓安裝包 (三)配置環(huán)境變量 (四)查看Flume版本信息 四、Flume的運行 (一)Telnet準備工作 (二)使用Avro數據源測試Flume (三)使用netcat數據源測試Flume 五、F

    2024年01月21日
    瀏覽(26)
  • 使用影刀采集大眾點評數據:打造自動化數據采集工具

    在本教程中,我將向大家介紹如何使用影刀(YinDao)來采集大眾點評的數據。影刀是一款強大的自動化流程處理工具,可以幫助我們自動執(zhí)行網頁操作、數據提取等任務,極大地提高了數據采集的效率和準確性。通過本教程,你將學會如何使用影刀來構建一個自動化的數據采

    2024年04月17日
    瀏覽(25)
  • 常見數據采集工具介紹

    常見數據采集工具介紹

    數據采集是指從各種數據源中收集數據并將其存儲在一個地方,以便進行分析和處理。數據采集工具是幫助我們自動化數據采集過程的軟件或服務。在本文中,我們將介紹一些常見的數據采集工具。 Web Scraper Web Scraper是一種免費的瀏覽器擴展,可以幫助用戶從網站上自動提取

    2024年02月07日
    瀏覽(19)
  • 【數據采集與預處理】數據接入工具Kafka

    【數據采集與預處理】數據接入工具Kafka

    目錄 一、Kafka簡介 (一)消息隊列 (二)什么是Kafka 二、Kafka架構 三、Kafka工作流程分析 (一)Kafka核心組成 (二)寫入流程 (三)Zookeeper 存儲結構 (四)Kafka 消費過程 四、Kafka準備工作 (一)Kafka安裝配置 (二)啟動Kafka (三)測試Kafka是否正常工作 五、編寫Spark Str

    2024年01月19日
    瀏覽(25)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包