一. 問題描述
StarRocks版本 2.5.5
現(xiàn)在需要使用hive外表,然后根據(jù)官網(wǎng)的的命令創(chuàng)建了hive resource
CREATE EXTERNAL RESOURCE “hive0”
PROPERTIES (
“type” = “hive”,
“hive.metastore.uris” = “thrift://myhadoop:9083”
);
然后查詢報錯:
starrocks [42000][1064] hdfsOpenFile failed
二. 解決方案
StarRocks的committer在論壇回復(fù)我了,原來是打包的問題。
沒想到打包名字居然是寫死的,而且hive catalog居然受到spark 客戶端的影響。文章來源:http://www.zghlxwxcb.cn/news/detail-487026.html
spark jar 打包名字需要是 spark-2x.zip
(既不能是spark.zip 也不能是spark-24.zip, 需要在配置文件中寫死為 spark-2x.zip)
https://docs.starrocks.io/zh-cn/latest/loading/SparkLoad#配置-spark-客戶端 1文章來源地址http://www.zghlxwxcb.cn/news/detail-487026.html
到了這里,關(guān)于StarRocks案例5: hive外表報錯starrocks [42000][1064] hdfsOpenFile failed的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關(guān)文章,希望大家以后多多支持TOY模板網(wǎng)!