成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久

您的位置:首頁(yè)技術(shù)文章
文章詳情頁(yè)

Apache Linkis 中間件架構(gòu)及快速安裝步驟

瀏覽:293日期:2023-03-07 14:40:01
目錄
  • 1、ApacheLinkis介紹
    • 2.1計(jì)算中間件概念
    • 2.2整體架構(gòu)
    • 2.3核心特點(diǎn)
    • 2.4支持的引擎類型
  • 2、ApacheLinkis快速部署
    • 2.1注意事項(xiàng)
    • 2.2確定環(huán)境
      • 2.2.1依賴
      • 2.2.2環(huán)境變量
    • 2.3安裝包下載
      • 2.4不依賴HDFS的基礎(chǔ)配置修改
        • 2.5修改數(shù)據(jù)庫(kù)配置
          • 2.6安裝
            • 2.7檢查是否安裝成功
              • 2.8快速啟動(dòng)Linkis
                • 2.9問(wèn)題集

                1、Apache Linkis 介紹

                Linkis 在上層應(yīng)用和底層引擎之間構(gòu)建了一層計(jì)算中間件。通過(guò)使用Linkis 提供的REST/WebSocket/JDBC 等標(biāo)準(zhǔn)接口,上層應(yīng)用可以方便地連接訪問(wèn)Spark, Presto, Flink 等底層引擎,同時(shí)實(shí)現(xiàn)跨引擎上下文共享、統(tǒng)一的計(jì)算任務(wù)和引擎治理與編排能力。

                MySQL/Spark/Hive/Presto/Flink 等底層引擎,同時(shí)實(shí)現(xiàn)變量、腳本、函數(shù)和資源文件等用戶資源的跨上層應(yīng)用互通。作為計(jì)算中間件,Linkis 提供了強(qiáng)大的連通、復(fù)用、編排、擴(kuò)展和治理管控能力。通過(guò)計(jì)算中間件將應(yīng)用層和引擎層解耦,簡(jiǎn)化了復(fù)雜的網(wǎng)絡(luò)調(diào)用關(guān)系,降低了整體復(fù)雜度,同時(shí)節(jié)約了整體開(kāi)發(fā)和維護(hù)成本。

                2.1 計(jì)算中間件概念

                沒(méi)有Linkis之前

                上層應(yīng)用以緊耦合方式直連底層引擎,使得數(shù)據(jù)平臺(tái)變成復(fù)雜的網(wǎng)狀結(jié)構(gòu)

                有Linkis之后

                通過(guò)計(jì)算中間件將應(yīng)用層和引擎層解耦,以標(biāo)準(zhǔn)化可復(fù)用方式簡(jiǎn)化復(fù)雜的網(wǎng)狀調(diào)用關(guān)系,降低數(shù)據(jù)平臺(tái)復(fù)雜度

                2.2 整體架構(gòu)

                Linkis 在上層應(yīng)用和底層引擎之間構(gòu)建了一層計(jì)算中間件。通過(guò)使用Linkis 提供的REST/WebSocket/JDBC 等標(biāo)準(zhǔn)接口,上層應(yīng)用可以方便地連接訪問(wèn)Spark, Presto, Flink 等底層引擎。

                2.3 核心特點(diǎn)

                • 豐富的底層計(jì)算存儲(chǔ)引擎支持。目前支持的計(jì)算存儲(chǔ)引擎:Spark、Hive、Python、Presto、ElasticSearch、MLSQL、TiSpark、JDBC和Shell等。正在支持中的計(jì)算存儲(chǔ)引擎:Flink(>=1.0.2版本已支持)、Impala等。支持的腳本語(yǔ)言:SparkSQL, HiveQL, Python, Shell, Pyspark, R, Scala 和JDBC 等。
                • 強(qiáng)大的計(jì)算治理能力。基于Orchestrator、Label Manager和定制的Spring Cloud Gateway等服務(wù),Linkis能夠提供基于多級(jí)標(biāo)簽的跨集群/跨IDC 細(xì)粒度路由、負(fù)載均衡、多租戶、流量控制、資源控制和編排策略(如雙活、主備等)支持能力。
                • 全棧計(jì)算存儲(chǔ)引擎架構(gòu)支持。能夠接收、執(zhí)行和管理針對(duì)各種計(jì)算存儲(chǔ)引擎的任務(wù)和請(qǐng)求,包括離線批量任務(wù)、交互式查詢?nèi)蝿?wù)、實(shí)時(shí)流式任務(wù)和存儲(chǔ)型任務(wù);
                • 資源管理能力。ResourceManager 不僅具備 Linkis0.X 對(duì) Yarn 和 Linkis EngineManager 的資源管理能力,還將提供基于標(biāo)簽的多級(jí)資源分配和回收能力,讓 ResourceManager 具備跨集群、跨計(jì)算資源類型的強(qiáng)大資源管理能力。
                • 統(tǒng)一上下文服務(wù)。為每個(gè)計(jì)算任務(wù)生成context id,跨用戶、系統(tǒng)、計(jì)算引擎的關(guān)聯(lián)管理用戶和系統(tǒng)資源文件(JAR、ZIP、Properties等),結(jié)果集,參數(shù)變量,函數(shù)等,一處設(shè)置,處處自動(dòng)引用;
                • 統(tǒng)一物料。系統(tǒng)和用戶級(jí)物料管理,可分享和流轉(zhuǎn),跨用戶、系統(tǒng)共享物料。

                2.4 支持的引擎類型

                引擎

                引擎版本

                Linkis 0.X 版本要求

                Linkis 1.X 版本要求

                說(shuō)明

                Flink

                1.12.2

                >=dev-0.12.0, PR #703 尚未合并

                >=1.0.2

                Flink EngineConn。支持FlinkSQL 代碼,也支持以Flink Jar 形式啟動(dòng)一個(gè)新的Yarn 應(yīng)用程序。

                Impala

                >=3.2.0, CDH >=6.3.0"

                >=dev-0.12.0, PR #703 尚未合并

                ongoing

                Impala EngineConn. 支持Impala SQL 代碼.

                Presto

                >= 0.180

                >=0.11.0

                ongoing

                Presto EngineConn. 支持Presto SQL 代碼.

                ElasticSearch

                >=6.0

                >=0.11.0

                ongoing

                ElasticSearch EngineConn. 支持SQL 和DSL 代碼.

                Shell

                Bash >=2.0

                >=0.9.3

                >=1.0.0_rc1

                Shell EngineConn. 支持Bash shell 代碼.

                MLSQL

                >=1.1.0

                >=0.9.1

                ongoing

                MLSQL EngineConn. 支持MLSQL 代碼.

                JDBC

                MySQL >=5.0, Hive >=1.2.1

                >=0.9.0

                >=1.0.0_rc1

                JDBC EngineConn. 已支持MySQL 和HiveQL,可快速擴(kuò)展支持其他有JDBC Driver 包的引擎, 如Oracle.

                Spark

                Apache 2.0.0~2.4.7, CDH >=5.4.0

                >=0.5.0

                >=1.0.0_rc1

                Spark EngineConn. 支持SQL, Scala, Pyspark 和R 代碼.

                Hive

                Apache >=1.0.0, CDH >=5.4.0

                >=0.5.0

                >=1.0.0_rc1

                Hive EngineConn. 支持HiveQL 代碼.

                Hadoop

                Apache >=2.6.0, CDH >=5.4.0

                >=0.5.0

                ongoing

                Hadoop EngineConn. 支持Hadoop MR/YARN application.

                Python

                >=2.6

                >=0.5.0

                >=1.0.0_rc1

                Python EngineConn. 支持python 代碼.

                TiSpark

                1.1

                >=0.5.0

                ongoing

                TiSpark EngineConn. 支持用SparkSQL 查詢TiDB.

                2、Apache Linkis 快速部署

                2.1 注意事項(xiàng)

                因?yàn)閙ysql-connector-java驅(qū)動(dòng)是GPL2.0協(xié)議,不滿足Apache開(kāi)源協(xié)議關(guān)于license的政策,因此從1.0.3版本開(kāi)始,提供的Apache版本官方部署包,默認(rèn)是沒(méi)有mysql-connector-java-x.x.x.jar的依賴包,安裝部署時(shí)需要添加依賴到對(duì)應(yīng)的lib包中。

                Linkis1.0.3 默認(rèn)已適配的引擎列表如下:

                引擎類型

                適配情況

                官方安裝包是否包含

                Python

                1.0已適配

                包含

                Shell

                1.0已適配

                包含

                Hive

                1.0已適配

                包含

                Spark

                1.0已適配

                包含

                2.2 確定環(huán)境

                2.2.1 依賴

                ?引擎類型?

                ?依賴環(huán)境?

                ?特殊說(shuō)明?

                ?Python?

                ?Python環(huán)境?

                ?日志和結(jié)果集如果配置hdfs://則依賴HDFS環(huán)境?

                ?JDBC?

                ?可以無(wú)依賴?

                ?日志和結(jié)果集路徑如果配置hdfs://則依賴HDFS環(huán)境?

                ?Shell?

                ?可以無(wú)依賴?

                ?日志和結(jié)果集路徑如果配置hdfs://則依賴HDFS環(huán)境?

                ?Hive?

                ?依賴Hadoop和Hive環(huán)境?

                ?Spark?

                ?依賴Hadoop/Hive/Spark?

                要求:安裝Linkis需要至少3G內(nèi)存。

                默認(rèn)每個(gè)微服務(wù)JVM堆內(nèi)存為512M,可以通過(guò)修改??SERVER_HEAP_SIZE??來(lái)統(tǒng)一調(diào)整每個(gè)微服務(wù)的堆內(nèi)存,如果您的服務(wù)器資源較少,我們建議修改該參數(shù)為128M。如下:

                vim ${LINKIS_HOME}/deploy-config/linkis-env.sh# java application default jvm memory.export SERVER_HEAP_SIZE="128M"

                2.2.2 環(huán)境變量

                官網(wǎng)示例:

                #JDKexport JAVA_HOME=/nemo/jdk1.8.0_141##如果不使用Hive、Spark等引擎且不依賴Hadoop,則不需要修改以下環(huán)境變量#HADOOP  export HADOOP_HOME=/appcom/Install/hadoopexport HADOOP_CONF_DIR=/appcom/config/hadoop-config#Hiveexport HIVE_HOME=/appcom/Install/hiveexport HIVE_CONF_DIR=/appcom/config/hive-config#Sparkexport SPARK_HOME=/appcom/Install/sparkexport SPARK_CONF_DIR=/appcom/config/spark-config/export PYSPARK_ALLOW_INSECURE_GATEWAY=1  # Pyspark必須加的參數(shù)

                示例:

                2.3 安裝包下載

                2.4 不依賴HDFS的基礎(chǔ)配置修改

                vi deploy-config/linkis-env.sh#SSH_PORT=22#指定SSH端口,如果單機(jī)版本安裝可以不配置deployUser=hadoop      #指定部署用戶LINKIS_INSTALL_HOME=/appcom/Install/Linkis    # 指定安裝目錄WORKSPACE_USER_ROOT_PATH=file:///tmp/hadoop    # 指定用戶根目錄,一般用于存儲(chǔ)用戶的腳本文件和日志文件等,是用戶的工作空間。RESULT_SET_ROOT_PATH=file:///tmp/linkis   # 結(jié)果集文件路徑,用于存儲(chǔ)Job的結(jié)果集文件ENGINECONN_ROOT_PATH=/appcom/tmp #存放ECP的安裝路徑,需要部署用戶有寫(xiě)權(quán)限的本地目錄ENTRANCE_CONFIG_LOG_PATH=file:///tmp/linkis/  #ENTRANCE的日志路徑## LDAP配置,默認(rèn)Linkis只支持部署用戶登錄,如果需要支持多用戶登錄可以使用LDAP,需要配置以下參數(shù):#LDAP_URL=ldap://localhost:1389/ #LDAP_BASEDN=dc=webank,dc=com

                2.5 修改數(shù)據(jù)庫(kù)配置

                vi deploy-config/db.sh

                2.6 安裝

                執(zhí)行安裝腳本:??sh bin/install.sh??

                install.sh腳本會(huì)詢問(wèn)您是否需要初始化數(shù)據(jù)庫(kù)并導(dǎo)入元數(shù)據(jù)。

                因?yàn)閾?dān)心用戶重復(fù)執(zhí)行install.sh腳本,把數(shù)據(jù)庫(kù)中的用戶數(shù)據(jù)清空,所以在install.sh執(zhí)行時(shí),會(huì)詢問(wèn)用戶是否需要初始化數(shù)據(jù)庫(kù)并導(dǎo)入元數(shù)據(jù)。

                2.7 檢查是否安裝成功

                2.8 快速啟動(dòng)Linkis

                啟動(dòng)服務(wù)

                sh sbin/linkis-start-all.sh

                查看是否啟動(dòng)成功

                可以在Eureka界面查看服務(wù)啟動(dòng)成功情況,查看方法:

                使用???http://${EUREKA_INSTALL_IP}:${EUREKA_PORT}???, 在瀏覽器中打開(kāi),查看服務(wù)是否注冊(cè)成功。

                如果您沒(méi)有在config.sh指定EUREKA_INSTALL_IP和EUREKA_INSTALL_IP,則HTTP地址為:http://127.0.0.1:20303

                默認(rèn)會(huì)啟動(dòng)8個(gè)Linkis微服務(wù),其中圖下linkis-cg-engineconn服務(wù)為運(yùn)行任務(wù)才會(huì)啟動(dòng)

                2.9 問(wèn)題集

                1、telnet

                <-----start to check used cmd---->check command fail need "telnet" (your linux command not found)Failed to  + check env

                解決:sudo yum -y install telnet

                2、connection exception

                mkdir: Call From hadoop01/192.168.88.111 to hadoop01:9820 failed on connection exception: java.net.ConnectException: 拒絕連接; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefusedFailed to  + create hdfs:///tmp/linkis directory

                解決:?jiǎn)?dòng)HDFS

                到此這篇關(guān)于Apache Linkis 中間件架構(gòu)及快速安裝的文章就介紹到這了,更多相關(guān)Apache Linkis 中間件內(nèi)容請(qǐng)搜索以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持!

                標(biāo)簽: Linux Apache
                成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久
                国产亚洲一级| 亚洲久久一区| 亚洲一区二区三区中文字幕| 亚洲国产成人精品视频| 久久99国产乱子伦精品免费| 国产精品99久久久久久有的能看 | 成人av在线播放网站| 91在线精品一区二区三区| 狠狠色综合网| 色婷婷国产精品久久包臀| 在线电影国产精品| 日韩欧美国产综合| 国产精品第四页| 日本欧美一区二区在线观看| 国产suv精品一区二区6| 18成人免费观看视频| 欧美日产在线观看| 国产精品美女久久久久久久久| 亚洲成人你懂的| 国产福利一区二区| 99国产精品久久久久久久成人热 | 亚洲国产va精品久久久不卡综合| 激情久久五月| 亚洲精品福利视频网站| 国产一本一道久久香蕉| 色综合咪咪久久| 久久亚洲欧美| 26uuu另类欧美亚洲曰本| 亚洲香蕉伊在人在线观| 一本一本a久久| 日韩一区二区视频在线观看| 中文字幕免费一区| 国产又粗又猛又爽又黄91精品| 在线视频综合导航| 中文字幕亚洲综合久久菠萝蜜| 美女脱光内衣内裤视频久久网站 | 欧美日韩免费观看一区=区三区| 国产精品入口66mio| 一区二区三区精品视频| 成人一级黄色片| 美女精品一区| 欧美一区二区三区白人| 亚洲在线成人精品| 日韩午夜精品| 亚洲一区二区av在线| 色哟哟一区二区在线观看| 蜜臀精品久久久久久蜜臀| 国产精品久久国产精麻豆99网站 | 91.xcao| 亚洲欧美区自拍先锋| 狠狠色丁香九九婷婷综合五月| 在线欧美一区| 亚洲日穴在线视频| 99久久免费精品| 欧美国产日本韩| 亚洲欧洲日本mm| 欧美精品一区二区三区蜜桃 | 欧美三级日韩三级国产三级| 亚洲欧洲日产国码二区| 国产精品av一区二区| 亚洲免费伊人电影| 久久久xxx| 国产经典欧美精品| 久久亚洲综合av| 欧美日韩国产亚洲一区| 亚洲一区欧美一区| 欧美午夜不卡在线观看免费| 亚洲精品少妇30p| 乱人伦精品视频在线观看| 极品美女销魂一区二区三区| 欧美不卡一二三| 久久精品噜噜噜成人av农村| 国产亚洲精品bv在线观看| 水野朝阳av一区二区三区| 亚洲精品久久| 亚洲一区在线观看视频| 欧美日韩视频一区二区| 色综合视频一区二区三区高清| 亚洲欧美福利一区二区| 在线观看欧美黄色| 岛国av在线一区| 国产精品夫妻自拍| 色噜噜狠狠成人中文综合| 亚洲一区二区三区视频在线播放 | 国产成人精品网址| 国产婷婷色一区二区三区四区 | 国产精品亲子乱子伦xxxx裸| 亚洲一区尤物| 亚洲精品视频在线看| 色综合久久久久综合体桃花网| 国产乱人伦偷精品视频不卡 | 亚洲精品久久嫩草网站秘色| 欧美午夜寂寞影院| 欧美日韩在线精品| 免费观看日韩电影| 久久亚洲一区二区| 成人午夜私人影院| 午夜激情综合网| 91黄视频在线| 99久久精品国产精品久久| 一区二区国产视频| 日韩你懂的电影在线观看| 91香蕉国产在线观看软件| 欧美男女性生活在线直播观看| 欧美不卡在线| **欧美大码日韩| 精品视频一区 二区 三区| 亚洲午夜极品| 国产精品一品视频| 亚洲国产cao| 久久综合网色—综合色88| 久久精品国产99精品国产亚洲性色| 99天天综合性| 国产无遮挡一区二区三区毛片日本| 久久黄色小说| 91蜜桃免费观看视频| 亚洲成a人片在线观看中文| 69av一区二区三区| 日韩午夜免费视频| 亚洲一区二区在| 国产精品综合网| 一区二区三区在线视频播放| 欧美精品久久一区二区三区| 欧美午夜国产| 国产传媒一区在线| 久久精品无码一区二区三区| 国产精品夜夜夜一区二区三区尤| 国产综合久久久久久鬼色| 中文字幕一区三区| 欧美日韩精品电影| 韩日欧美一区| 国产午夜亚洲精品理论片色戒| 国产精品国产a| 91.成人天堂一区| 亚洲精品一级| 国产在线观看免费一区| 亚洲人成7777| 欧美精品国产一区二区| 亚洲欧洲美洲综合色网| 一区在线视频观看| 狂野欧美性猛交blacked| 国产情人综合久久777777| 色8久久人人97超碰香蕉987| 欧美精品aa| 国产一区欧美日韩| 一区二区三区欧美视频| 国产精品网站导航| 欧美乱妇15p| 国产日产精品一区二区三区四区的观看方式 | 欧美日韩综合不卡| 黄色亚洲精品| 国产盗摄精品一区二区三区在线 | 一区二区三区日本| 欧美精品一区二区久久婷婷| 亚洲一区三区在线观看| 欧美高清日韩| 国产乱人伦精品一区二区在线观看 | 欧美成人三级在线| 一本到高清视频免费精品| 亚洲黄色av| 成人免费观看av| 男女性色大片免费观看一区二区 | 日本不卡123| **性色生活片久久毛片| 日韩亚洲欧美高清| av在线不卡网| 久久99精品久久久久久动态图| 国产欧美日韩卡一| 99热这里只有成人精品国产| 91色porny在线视频| 国产精品一二三区| 日韩专区中文字幕一区二区| 17c精品麻豆一区二区免费| 久久久天堂av| 欧美一区二区高清| 欧美久久久一区| 在线视频你懂得一区二区三区| 亚洲国产精品一区二区第四页av| 99精品在线观看视频| 国产成人自拍高清视频在线免费播放| 日韩精品一二三四| 日韩精品乱码免费| 亚洲人精品午夜| 中文在线一区二区 | 色婷婷久久久亚洲一区二区三区 | 欧美精品一区二区三区四区 | 精品一区中文字幕| 日韩av午夜在线观看| 又紧又大又爽精品一区二区| 国产欧美一区二区三区在线看蜜臀| 欧美一区二区三区在线看| 日本一区二区三区视频视频| 精品精品欲导航| 欧美一区二区三区视频免费播放 | 欧美va亚洲va香蕉在线 | 久久精品一区二区三区av | 日本一区二区高清| 欧美电视剧在线观看完整版| 91精品国产91久久久久久一区二区 | 国产精品日产欧美久久久久|