国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

flink 1.18 sql gateway /sql gateway jdbc

這篇具有很好參考價值的文章主要介紹了flink 1.18 sql gateway /sql gateway jdbc。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

一 sql gateway

注意 之所以直接啟動gateway 能知道yarn session 主要還是隱藏的配置文件,但是配置文件可以被覆蓋,多個session 保留最新的applicationid

1 安裝flink (略)
2 啟動sql-gatway(sql-gateway 通過官網(wǎng)介紹只能運行在session 任務中)

2-1 啟動gateway 之前先啟動一個flink session ./bin/yarn-session.sh -d
2-2 啟動命令 :
./bin/sql-gateway.sh start -Dsql-gateway.endpoint.rest.address=localhost
2-3 查看日志觀察是否啟動成功:
查看日志出現(xiàn)這個條信息就證明已經(jīng)找到了flink session applicationId
flink 1.18 sql gateway /sql gateway jdbc,flink,gateway,sql gateway,flinksqlgateway

可以觀察到 yarn-properties-yarn 文件中存在一個session applicationId 這個applicationId是覆蓋關系當啟動多個session 的時候 這里只保存最新創(chuàng)建的那個
[圖片]
Sql-gateway 默認端口是8083 啟動成功后可以通過http 方式進行訪問
[圖片]

3 Flink 原生支持 REST Endpoint 和 HiveServer2 Endpoint。

SQL Gateway 默認集成 REST Endpoint。由于架構的可擴展性,用戶可以通過指定 endpoint 來啟動 SQL Gateway。我們測試是rest 加gateway jdbc方式。

4 Rest api 提交任務

4-1 獲得一個 session 這里的session 的意思是當前連接草的人獲取的一個唯一編碼,當拿到這個sessionid后后續(xù)所有的所有操作都跟他關聯(lián)。
[圖片]
4-2 提交一個任務:黃色框 是上一步獲取的sessionid 藍色框是需要提供的sql 任務,綠色框是提交任務后獲取結果的一個唯一編碼
[圖片]
4-3 獲取結果:
[圖片]

二 gateway jdbc

1 環(huán)境準備 flink-jdbc-driver-bundle-1.18.jar放到 {HIVE_HOME}/lib 目錄中
2 beeline 連接 (地址為上一步啟動的sql getewat 地址)

2-1 beeline
2-2 beeline> !connect jdbc:flink://xxx.xxx.xxx.xxx:8083
當出現(xiàn)這種日志連接成功
[圖片]

3 創(chuàng)建一個 hdfs 表 并且插入數(shù)據(jù)
CREATE TABLE D(a INT, b VARCHAR(10)) WITH (
  'connector' = 'filesystem',
  'path' = 'hdfs:///tmp/T.csv',
  'format' = 'csv'
);
4 gatway jdbc 查看hive 數(shù)據(jù)
1 環(huán)境準備 將{HIVE_HOME}/ hive-exec-3.1.0.3.1.4.0-315.jar /hive-exec.jar /libfb303-0.9.3.jar 三個jar 移動到{flink_home}/lib 中
2 上傳hive conf目錄 配置文件到hdfs 中

[圖片]文章來源地址http://www.zghlxwxcb.cn/news/detail-793248.html

3 創(chuàng)建hive catalogs
CREATE CATALOG hive_catalog WITH (
  'type' = 'hive',
  'default-database' = 'default',
  'hive-conf-dir' = 'hdfs:///tmp/hiveconfig'
);
4 切換 catalogs
use catalog hive_catalog;
5 查看并查詢hive 數(shù)據(jù)

flink 1.18 sql gateway /sql gateway jdbc,flink,gateway,sql gateway,flinksqlgateway

[圖片]

到了這里,關于flink 1.18 sql gateway /sql gateway jdbc的文章就介紹完了。如果您還想了解更多內容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 1.18 什么是架構

    架構(Architecture)在計算機領域中是指系統(tǒng)或應用程序的設計和組織方式。它描述了系統(tǒng)的整體結構、組件之間的關系、數(shù)據(jù)流和交互方式。架構不僅僅涉及技術方面,還包括系統(tǒng)的功能、性能、可靠性、安全性等方面。 在計算機領域中,架構可以分為軟件架構和系統(tǒng)架構兩

    2024年02月16日
    瀏覽(62)
  • 31、Flink的SQL Gateway介紹及示例

    一、Flink 專欄 Flink 專欄系統(tǒng)介紹某一知識點,并輔以具體的示例進行說明。 1、Flink 部署系列 本部分介紹Flink的部署、配置相關基礎內容。 2、Flink基礎系列 本部分介紹Flink 的基礎部分,比如術語、架構、編程模型、編程指南、基本的datastream api用法、四大基石等內容。 3、

    2024年02月04日
    瀏覽(21)
  • mORMot 1.18 第07章 簡單的讀寫操作

    本章描述了典型的數(shù)據(jù)讀寫操作。首先,我們將注意力集中在數(shù)據(jù)上,而不是函數(shù)。 讀取操作返回一個TID,它是一個32位或64位整數(shù)(取決于你的內存模型),反映了表的信息。TID在表中的每一行都是唯一的。 ORM的新手可能會感到驚訝,但通常你不需要創(chuàng)建SQL查詢來過濾請求

    2024年04月28日
    瀏覽(27)
  • 數(shù)據(jù)結構_復雜度+之后的事-1.18

    本質是個 函數(shù) ,表示復雜度的函數(shù)。 用 O 漸進粗略表示,如O(1), O(N)。(這個符號以前在學拓撲結構時見過,現(xiàn)在回想,也確實是算法相關的): 1)常數(shù)用O(1)表示; 2)保留最高階項,并去掉系數(shù)。2N^3+N+10-----O(N^3)。 3)對于多情況復雜度,按最復雜情況的計算。 時間復

    2024年01月19日
    瀏覽(21)
  • k8s 1.18 VS 1.24

    Kubernetes是一個開源的容器編排平臺,它致力于自動化容器的部署、擴展和管理。1.24和1.18是Kubernetes的兩個版本,它們之間的區(qū)別包括以下幾個方面: API版本:Kubernetes 1.24支持API版本為v1.22,而Kubernetes 1.18支持API版本為v1.17。 功能特性:Kubernetes 1.24相對于1.18增加了許多新的功

    2023年04月23日
    瀏覽(44)
  • Flink CDC SQL Oracle to Postgresql與jdbc連接oracle報錯處理

    Flink CDC SQL Oracle to Postgresql與jdbc連接oracle報錯處理

    flink-cdc官網(wǎng):Oracle CDC Connector — CDC Connectors for Apache Flink? documentation Flink環(huán)境依賴: (3)啟用日志歸檔 (4)檢查是否啟用了日志歸檔 (5)創(chuàng)建具有權限的 Oracle 用戶 (5.1)。創(chuàng)建表空間 (5.2)。創(chuàng)建用戶并授予權限 Flink SQL 客戶端連接器測試: 創(chuàng)建 Oracle 鏈接器 返回內容 以上代

    2024年02月11日
    瀏覽(23)
  • 【Linux】在centos快速搭建K8S1.18集群

    【Linux】在centos快速搭建K8S1.18集群

    使用 kubeadm 創(chuàng)建集群幫助文檔 如果您需要以下幾點,該工具是很好的選擇:kubeadm 一種簡單的方法,讓你嘗試 Kubernetes,可能是第一次。 現(xiàn)有用戶自動設置群集并測試其應用程序的一種方式。 其他生態(tài)系統(tǒng)和/或安裝程序工具中的構建塊,具有更大的 范圍。 一臺或多臺機器,

    2024年04月29日
    瀏覽(28)
  • 16、Flink 的table api與sql之連接外部系統(tǒng): 讀寫外部系統(tǒng)的連接器和格式以及JDBC示例(4)

    16、Flink 的table api與sql之連接外部系統(tǒng): 讀寫外部系統(tǒng)的連接器和格式以及JDBC示例(4)

    一、Flink 專欄 Flink 專欄系統(tǒng)介紹某一知識點,并輔以具體的示例進行說明。 1、Flink 部署系列 本部分介紹Flink的部署、配置相關基礎內容。 2、Flink基礎系列 本部分介紹Flink 的基礎部分,比如術語、架構、編程模型、編程指南、基本的datastream api用法、四大基石等內容。 3、

    2024年02月10日
    瀏覽(27)
  • flink sql1.18.0連接SASL_PLAINTEXT認證的kafka3.3.1

    flink sql1.18.0連接SASL_PLAINTEXT認證的kafka3.3.1

    閱讀此文默認讀者對docker、docker-compose有一定了解。 docker-compose運行了一個jobmanager、一個taskmanager和一個sql-client。 如下: 注意三個容器都映射了/opt/flink目錄。需要先將/opt/flink目錄拷貝到跟docker-compose.yml同一目錄下,并分別重命名,如下圖: 三個文件夾內容是一樣的,只是

    2024年02月03日
    瀏覽(20)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包