国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop

這篇具有很好參考價值的文章主要介紹了【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

目錄

一、Sqoop簡介

二、Sqoop原理

三、Sqoop安裝配置

(一)下載Sqoop安裝包并解壓

(二)修改配置文件

(三)拷貝JDBC驅(qū)動

(四)驗證Sqoop

(五)測試Sqoop是否能夠成功連接數(shù)據(jù)庫

四、導入數(shù)據(jù)

(一)RDBMS到HDFS

(二)RDBMS到HBase

(三)RDBMS到Hive

五、導出數(shù)據(jù)

HDFS/Hive到RDBMS

六、Sqoop常用命令及參數(shù)

(一)常用命令列舉

(二)公用參數(shù)


一、Sqoop簡介

????????Sqoop 是一款開源的工具,主要用于在 Hadoop(Hive)與傳統(tǒng)的數(shù)據(jù)庫(mysql、postgresql...)間進行數(shù)據(jù)的傳遞,可以將一個關(guān)系型數(shù)據(jù)庫(例如 : MySQL,Oracle,Postgres 等)中的數(shù)據(jù)導進到 Hadoop 的 HDFS 中,也可以將 HDFS 的數(shù)據(jù)導進到關(guān)系型數(shù)據(jù)庫中。
????????Sqoop 項目開始于 2009 年,最早是作為 Hadoop 的一個第三方模塊存在,后來為了讓使用者能夠快速部署,也為了讓開發(fā)人員能夠更快速的迭代開發(fā),Sqoop 獨立成為一個 Apache 項目。
????????Sqoop2 的最新版本是 1.99.7。請注意,2 與 1 不兼容,且特征不完整,它并不打算用于生產(chǎn)部署。

二、Sqoop原理

將導入或?qū)С雒罘g成 mapreduce 程序來實現(xiàn)。
在翻譯出的 mapreduce 中主要是對 inputformat 和 outputformat 進行定制。

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫

三、Sqoop安裝配置

安裝 Sqoop 的前提是已經(jīng)具備 Java 和 Hadoop 的環(huán)境。

我的環(huán)境:JDK1.8;Hadoop3.1.3

(一)下載Sqoop安裝包并解壓

下載地址:https://archive.apache.org/dist/sqoop/

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

并上傳到虛擬機中。

解壓縮到“/usr/local”目錄下,執(zhí)行如下命令:

[root@bigdata local]# cd /usr/local/uploads/
[root@bigdata uploads]# tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz -C /usr/local
[root@bigdata local]# mv sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz sqoop

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

(二)修改配置文件

1、復制重命名配置文件

Sqoop的配置文件與大多數(shù)大數(shù)據(jù)框架類似,在sqoop根目錄下的conf目錄中。

[root@bigdata sqoop]# cd /usr/local/sqoop/conf
[root@bigdata conf]# cp sqoop-env-template.sh sqoop-env.sh

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

2、修改配置文件

[root@bigdata conf]# vi sqoop-env.sh


export HADOOP_COMMON_HOME=/usr/local/servers/hadoop
export HADOOP_MAPRED_HOME=/usr/local/servers/hadoop
export HIVE_HOME=/usr/local/hive
export ZOOKEEPER_HOME=/usr/local/servers/zookeeper
export ZOOCFGDIR=/usr/local/servers/zookeeper
export HBASE_HOME=/usr/local/servers/hbase

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

(三)拷貝JDBC驅(qū)動

拷貝jdbc驅(qū)動到sqoop的lib目錄下:

[root@bigdata lib]# cp /usr/local/uploads/mysql-connector-java-5.1.40-bin.jar .

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

(四)驗證Sqoop

我們可以通過某一個command來驗證sqoop配置是否正確:

[root@bigdata sqoop]# bin/sqoop help

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

(五)測試Sqoop是否能夠成功連接數(shù)據(jù)庫

[root@bigdata sqoop]# bin/sqoop list-databases --connect jdbc:mysql://bigdata:3306?useSSL=false --username root --password MYsql123!

連接成功結(jié)果:?

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

若上面命令中不加“?useSSL=false”,則可能會報如下錯誤:

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

可以將“useSSL=false”添加到連接字符串中以禁用SSL連接。?

提示:若測試鏈接時出現(xiàn)如下類似的報錯:

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

原因:集群沒有安裝HCatalog 和Accumulo?

解決方法:修改sqoop安裝目錄bin文件夾下的configure-sqoop文件,找到如下位置并注釋:

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

四、導入數(shù)據(jù)

????????在Sqoop中,“導入”概念指:從非大數(shù)據(jù)集群(RDBMS)向大數(shù)據(jù)集群(HDFS,Hive,HBase)中傳輸數(shù)據(jù),叫做:導入,即使用import關(guān)鍵字。

(一)RDBMS到HDFS

1、確定Mysql服務開啟正常

[root@bigdata zhc]# systemctl start mysqld.service
[root@bigdata zhc]# systemctl status mysqld.service
[root@bigdata zhc]# mysql -u root -p

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

2、在Mysql中新建一張表并插入一些數(shù)據(jù)

mysql> create database company;
mysql> use company;
mysql> create table company.staff(id int(4) primary key not null auto_increment, name varchar(255), sex varchar(255));
mysql> insert into company.staff(name, sex) values('Thomas', 'Male');
mysql> insert into company.staff(name, sex) values('Catalina','FeMale');

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

3、啟動Hadoop的組件

[root@bigdata sqoop]# start-all.sh

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

4、導入數(shù)據(jù)

[root@bigdata sqoop]# bin/sqoop import \
> --connect jdbc:mysql://bigdata:3306/company?useSSL=false \
> --username root \
> --password MYsql123! \
> --table staff \
> --target-dir /user/company \
> --delete-target-dir \
> --num-mappers 1 \
> --fields-terminated-by "\t"

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

查看并驗證結(jié)果:

[root@bigdata servers]# hdfs dfs -ls /user/company/
[root@bigdata servers]# hdfs dfs -cat /user/company/part-m-00000

【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop,大數(shù)據(jù)技術(shù)基礎(chǔ),sqoop,hadoop,大數(shù)據(jù),數(shù)據(jù)庫?

(二)RDBMS到HBase

[root@bigdata sqoop]# bin/sqoop import \
> --connect jdbc:mysql://bigdata:3306/company?useSSL=false \
> --username root \
> --password MYsql123! \
> --table staff \
> --columns "id,name,sex" \
> --column-family "info" \
> --hbase-create-table \
> --hbase-row-key "id" \
> --hbase-table "hbase_company" \
> --num-mappers 1 \
> --split-by id

提示:sqoop1.4.6 只支持 HBase1.0.1 之前的版本的自動創(chuàng)建 HBase 表的功能。

解決方案:手動創(chuàng)建 HBase 表

hbase:001:0> create 'hbase_staff,'info'

在 HBase 中 scan 這張表得到如下內(nèi)容:

hbase:002:0> scan 'hbase_staff'

(三)RDBMS到Hive

[root@bigdata sqoop]# bin/sqoop import \
> --connect jdbc:mysql://bigdata:3306/company?useSSL=false \
> --username root \
> --password MYsql123! \
> --table staff \
> --num-mappers 1 \
> --hive-import \
> --fields-terminated-by "\t" \
> --hive-overwrite \
> --hive-table staff_hive

提示:該過程分為兩步,第一步將數(shù)據(jù)導入到 HDFS,第二步將導入到 HDFS 的數(shù)據(jù)遷移到
Hive 倉庫,第一步默認的臨時目錄是/user/atguigu/表名。

五、導出數(shù)據(jù)

????????在Sqoop中,“導出”概念指:從大數(shù)據(jù)集群(HDFS,HIVE,HBASE)向非大數(shù)據(jù)集群(RDBMS)中傳輸數(shù)據(jù),叫做:導出,即使用export關(guān)鍵字。

HDFS/Hive到RDBMS

1、先登錄Mysql

mysql> use company;
mysql> show tables;
mysql> truncate table staff;      # 存在數(shù)據(jù)先把數(shù)據(jù)清空

2、運行腳本

[root@bigdata sqoop]# bin/sqoop export \
> --connect jdbc:mysql://bigdata:3306/company?useSSL=false \
> --username root \
> --password MYsql123! \
> --table staff \
> --num-mappers 1 \
> --export-dir /user/hive/warehouse/staff_hive \
> --input-fields-terminated-by "\t"

六、Sqoop常用命令及參數(shù)

(一)常用命令列舉

序號 命令 說明
1 import ImportTool

將數(shù)據(jù)導入到集群

2 export ExportTool 將集群數(shù)據(jù)導出
3 codegen CodeGenTool 獲取數(shù)據(jù)庫中某張表數(shù)據(jù)生成Java并打包Jar
4 create-hive-table CreateHiveTableTool 創(chuàng)建Hive表
5 eval EvalSqlTool 查看SQL執(zhí)行結(jié)果
6 import-all-tables ImportAllTablesTool 導入某個數(shù)據(jù)庫下所有表到HDFS中
7 job JobTool 用來生成一個sqoop的任務,生成后,該任務并不執(zhí)行,除非使用命令執(zhí)行該任務。
8 list-databases ListDatabasesTool 列出所有數(shù)據(jù)庫名
9 list-tables ListTablesTool 列出某個數(shù)據(jù)庫下所有表
10 merge MergeTool 將HDFS中不同目錄下面的數(shù)據(jù)合在一起,并存放在指定的目錄中
11 metastore MetastoreTool

記錄sqoop job的元數(shù)據(jù)信息,如果不啟動metastore實例,則默認的元數(shù)據(jù)存儲目

錄為:~/.sqoop,如果要更改存儲目錄,可以在配置文件sqoop-site.xml中進行更改。

12 help HelpTool 打印sqoop幫助信息
13 version VersionTool 打印sqoop版本信息

(二)公用參數(shù)

1、公用參數(shù):數(shù)據(jù)庫連接

序號 參數(shù) 說明
1 –connect 連接關(guān)系型數(shù)據(jù)庫的URL
2 –connection-manager 指定要使用的連接管理類
3 –driver Hadoop根目錄
4 –help 打印幫助信息
5 –password 連接數(shù)據(jù)庫的密碼
6 –username 連接數(shù)據(jù)庫的用戶名
7 –verbose 在控制臺打印出詳細信息

2、公用參數(shù):import

序號 參數(shù) 說明
1 –enclosed-by 給字段值前加上指定的字符
2 –escaped-by 對字段中的雙引號加轉(zhuǎn)義符
3 –fields-terminated-by 設定每個字段是以什么符號作為結(jié)束,默認為逗號
4 –lines-terminated-by 設定每行記錄之間的分隔符,默認是\n
5 –mysql-delimiters Mysql默認的分隔符設置,字段之間以逗號分隔,行之間以\n分隔,默認轉(zhuǎn)義符是\,字段值以單引號包裹。
6 –optionally-enclosed-by 給帶有雙引號或單引號的字段值前后加上指定字符。

3、公用參數(shù):export

序號 參數(shù) 說明
1 –input-enclosed-by 對字段值前后加上指定字符
2 –input-escaped-by 對含有轉(zhuǎn)移符的字段做轉(zhuǎn)義處理
3 –input-fields-terminated-by 字段之間的分隔符
4 –input-lines-terminated-by 行之間的分隔符
5 –mysql-delimiters Mysql默認的分隔符設置,字段之間以逗號分隔,行之間以\n分隔,默認轉(zhuǎn)義符是\,字段值以單引號包裹。

4、公用參數(shù):hive文章來源地址http://www.zghlxwxcb.cn/news/detail-811940.html

序號 參數(shù) 說明
1 –hive-delims-replacement 用自定義的字符串替換掉數(shù)據(jù)中的\r\n和\013 \010等字符
2 –hive-drop-import-delims 在導入數(shù)據(jù)到hive時,去掉數(shù)據(jù)中的\r\n\013\010這樣的字符
3 –map-column-hive 生成hive表時,可以更改生成字段的數(shù)據(jù)類型
4 –hive-partition-key 創(chuàng)建分區(qū),后面直接跟分區(qū)名,分區(qū)字段的默認類型為string
5 –hive-partition-value 導入數(shù)據(jù)時,指定某個分區(qū)的值
6 –hive-home hive的安裝目錄,可以通過該參數(shù)覆蓋之前默認配置的目錄
7 –hive-import 將數(shù)據(jù)從關(guān)系數(shù)據(jù)庫中導入到hive表中
8 –hive-overwrite 覆蓋掉在hive表中已經(jīng)存在的數(shù)據(jù)
9 –create-hive-table 默認是false,即,如果目標表已經(jīng)存在了,那么創(chuàng)建任務失敗。
10 –hive-table 后面接要創(chuàng)建的hive表,默認使用MySQL的表名
11 –table 指定關(guān)系數(shù)據(jù)庫的表名

到了這里,關(guān)于【數(shù)據(jù)采集與預處理】數(shù)據(jù)傳輸工具Sqoop的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關(guān)法律責任。如若轉(zhuǎn)載,請注明出處: 如若內(nèi)容造成侵權(quán)/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領(lǐng)支付寶紅包贊助服務器費用

相關(guān)文章

  • 1.0數(shù)據(jù)采集與預處理概述

    1.0數(shù)據(jù)采集與預處理概述

    大數(shù)據(jù)的來源: 1.搜索引擎數(shù)據(jù) 2.電商交易數(shù)據(jù) 3.社交網(wǎng)絡數(shù)據(jù) 4.物聯(lián)網(wǎng)傳感器數(shù)據(jù) 5.網(wǎng)站日志數(shù)據(jù) 數(shù)據(jù)采集的概念: 數(shù)據(jù)采集的ETL 工具負責將分布的、異構(gòu)數(shù)據(jù)源中的不同種類,和結(jié)構(gòu)的數(shù)據(jù)如文本數(shù)據(jù)、關(guān)系數(shù)據(jù)以及圖片、視頻等非結(jié)構(gòu)化數(shù)據(jù)等抽取到臨時中間層后進

    2024年02月02日
    瀏覽(16)
  • YOLOv5訓練自己的數(shù)據(jù)集(含數(shù)據(jù)采集、數(shù)據(jù)標注、數(shù)據(jù)預處理、借助colab訓練)

    YOLOv5訓練自己的數(shù)據(jù)集(含數(shù)據(jù)采集、數(shù)據(jù)標注、數(shù)據(jù)預處理、借助colab訓練)

    YOLOv5 github:GitHub - ultralytics/yolov5: YOLOv5 ?? in PyTorch ONNX CoreML TFLite 先從github下載源碼到本地,用pycharm打開工程 ? 本次采集數(shù)據(jù)采用的方式是錄取視頻,然后用python截取視頻幀當做圖片,這是處理代碼: ? 可以使用labelimg工具、make sense(Make Sense)在線標注,注意數(shù)據(jù)集需要與

    2024年02月05日
    瀏覽(97)
  • yolov2檢測網(wǎng)數(shù)據(jù)集獲取與預處理_采集健康和非健康貓狗數(shù)據(jù)

    阿里云天池數(shù)據(jù)集-cat-dog 因為開源數(shù)據(jù)庫中沒有非健康貓狗相關(guān)的,所以需要自己下載非健康貓狗數(shù)據(jù),并制作數(shù)據(jù)集。 下面是用于爬取非健康貓狗數(shù)據(jù)的爬蟲代碼: 使用圖片去重/相似圖片清理利器 軟件清除重復的圖片數(shù)據(jù)。 使用ffmpeg將救助視頻文件按照一秒截取一張

    2024年02月14日
    瀏覽(23)
  • 水庫安全監(jiān)測方案(實時數(shù)據(jù)采集、高速數(shù)據(jù)傳輸)

    水庫安全監(jiān)測方案(實時數(shù)據(jù)采集、高速數(shù)據(jù)傳輸)

    ? 一、引言 水庫的安全監(jiān)測對于防止水災和保障人民生命財產(chǎn)安全至關(guān)重要。為了提高水庫安全監(jiān)測的效率和準確性,本文將介紹一種使用星創(chuàng)易聯(lián)DTU200和SG800 5g工業(yè)路由器部署的水庫安全監(jiān)測方案。 二、方案概述 本方案主要通過使用星創(chuàng)易聯(lián)DTU200和SG800 5g工業(yè)路由器實現(xiàn)

    2024年02月08日
    瀏覽(27)
  • 基于爬蟲和Kettle的書籍信息采集與預處理

    基于爬蟲和Kettle的書籍信息采集與預處理

    將讀書網(wǎng)上的書籍的基本信息,比如:封面、書名、作者、出版社、價格、出版時間、內(nèi)容簡介、作者簡介、書籍目錄、ISBN和標簽爬取出來,并將爬取的結(jié)果放入數(shù)據(jù)庫中,方便存儲。 ??? 圖1讀書網(wǎng)書籍類別詳情 此次實驗爬取讀書網(wǎng)頁面中文學、小說、傳記、青春文學、

    2024年01月21日
    瀏覽(24)
  • 基于爬蟲和Kettle的豆瓣電影的采集與預處理

    基于爬蟲和Kettle的豆瓣電影的采集與預處理

    將豆瓣電影網(wǎng)上的電影的基本信息,比如:電影名稱、導演、電影類型、國家、上映年份、評分、評論人數(shù)爬取出來,并將爬取的結(jié)果放入csv文件中,方便存儲。 ??? 圖1豆瓣網(wǎng)網(wǎng)站結(jié)構(gòu)詳情 此次實驗爬取豆瓣網(wǎng)中電影頁面中的電影的基本信息。 每一個電影包括電影名稱、

    2024年02月02日
    瀏覽(22)
  • 節(jié)點數(shù)據(jù)采集和標簽信息的遠程洪泛傳輸

    節(jié)點數(shù)據(jù)采集和標簽信息的遠程洪泛傳輸

    要求: ????????完成節(jié)點數(shù)據(jù)采集和標簽信息的遠程洪泛傳輸,在與 Sink 節(jié)點相連接的 PC 上能看到結(jié)果(標簽信息、感知的數(shù)據(jù))。其中,節(jié)點感知數(shù)據(jù)采集包括光照值、溫濕度值,采集節(jié)點每 20s 采集一次溫濕度、每10s 采集一次光照。標簽數(shù)據(jù)讀寫控制周期自行決定。

    2024年02月11日
    瀏覽(66)
  • FPGA 高速數(shù)據(jù)采集傳輸畢業(yè)論文【附仿真】

    FPGA 高速數(shù)據(jù)采集傳輸畢業(yè)論文【附仿真】

    以 FIFO IP 核以及 Verilog 編程設計的數(shù)字邏輯模塊對JESD204B IP 核輸出數(shù)據(jù)完成接收,處理成驅(qū)動設備可讀取的數(shù)據(jù)格式后,送入設計的數(shù)字邏輯緩存部分中,通過AXI 總線送入DDR3 SDRAM 中緩存,并由傳輸部分數(shù)字邏輯模塊完成緩存深度配置。? 介紹設計的具體實現(xiàn)。在數(shù)字采集功

    2024年04月25日
    瀏覽(36)
  • 高速大面陣相機數(shù)據(jù)采集傳輸帶寬分析與隨筆

    目前,高速相機的傳輸瓶頸,受限于傳輸?shù)膸挕?這里的高速相機指的是大面陣(2048*2048@1000fps)的應用場景。 目前符合條件的CMOS比較少,長光辰芯的4510和4521是符合的。 高速相機從CMOS讀取數(shù)據(jù),到FPGA進行處理,通過高速收發(fā)器GT系列,進行大數(shù)據(jù)量的傳輸,最后通過傳輸

    2024年02月07日
    瀏覽(22)
  • FPGA學習筆記:數(shù)據(jù)采集傳輸系統(tǒng)設計(三):AD采集驅(qū)動ADC128S052

    FPGA學習筆記:數(shù)據(jù)采集傳輸系統(tǒng)設計(三):AD采集驅(qū)動ADC128S052

    ADC128S052為 12 位、8通道 的模數(shù)轉(zhuǎn)換器 (ADC),轉(zhuǎn)換速度高達 10 MSPS,采用SPI串行通信。 (1)工作時序圖 應注意DIN中配置好的通道地址ADD在下一次采樣時才生效 。 從時序圖中可得出,ADC芯片在上升沿時采樣,讀取DIN數(shù)據(jù);DOUT在下降沿時改變數(shù)據(jù)。 (2)串行時序圖 片選信號在

    2024年02月07日
    瀏覽(16)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領(lǐng)取紅包,優(yōu)惠每天領(lǐng)

二維碼1

領(lǐng)取紅包

二維碼2

領(lǐng)紅包