久久久久久久av_日韩在线中文_看一级毛片视频_日本精品二区_成人深夜福利视频_武道仙尊动漫在线观看

    <bdo id='Z7FCS'></bdo><ul id='Z7FCS'></ul>
    1. <i id='Z7FCS'><tr id='Z7FCS'><dt id='Z7FCS'><q id='Z7FCS'><span id='Z7FCS'><b id='Z7FCS'><form id='Z7FCS'><ins id='Z7FCS'></ins><ul id='Z7FCS'></ul><sub id='Z7FCS'></sub></form><legend id='Z7FCS'></legend><bdo id='Z7FCS'><pre id='Z7FCS'><center id='Z7FCS'></center></pre></bdo></b><th id='Z7FCS'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='Z7FCS'><tfoot id='Z7FCS'></tfoot><dl id='Z7FCS'><fieldset id='Z7FCS'></fieldset></dl></div>
    2. <small id='Z7FCS'></small><noframes id='Z7FCS'>

      <tfoot id='Z7FCS'></tfoot>

      1. <legend id='Z7FCS'><style id='Z7FCS'><dir id='Z7FCS'><q id='Z7FCS'></q></dir></style></legend>

        使用帶有 Helm 安裝的 Kafka/Confluent 的連接器

        Using a connector with Helm-installed Kafka/Confluent(使用帶有 Helm 安裝的 Kafka/Confluent 的連接器)

        <small id='9DOMe'></small><noframes id='9DOMe'>

        <i id='9DOMe'><tr id='9DOMe'><dt id='9DOMe'><q id='9DOMe'><span id='9DOMe'><b id='9DOMe'><form id='9DOMe'><ins id='9DOMe'></ins><ul id='9DOMe'></ul><sub id='9DOMe'></sub></form><legend id='9DOMe'></legend><bdo id='9DOMe'><pre id='9DOMe'><center id='9DOMe'></center></pre></bdo></b><th id='9DOMe'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='9DOMe'><tfoot id='9DOMe'></tfoot><dl id='9DOMe'><fieldset id='9DOMe'></fieldset></dl></div>

            <bdo id='9DOMe'></bdo><ul id='9DOMe'></ul>
            <legend id='9DOMe'><style id='9DOMe'><dir id='9DOMe'><q id='9DOMe'></q></dir></style></legend>
            1. <tfoot id='9DOMe'></tfoot>

                  <tbody id='9DOMe'></tbody>

                  本文介紹了使用帶有 Helm 安裝的 Kafka/Confluent 的連接器的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我使用 Helm charts 在本地 Minikube 上安裝了 Kafka

                  我想連接 MySQL 和 Kafka,使用連接器之一(如 例如 Debezium MySQL CDC).在說明中,它說:

                  <塊引用>

                  安裝連接器

                  使用 Confluent Hub 客戶端安裝這個連接器:

                  confluent-hub install debezium/debezium-connector-mysql:0.9.2

                  聽起來不錯,除了 1) 我不知道在哪個 pod 上運行此命令,2) 似乎沒有一個 pod 有可用的 confluent-hub 命令.

                  問題:

                  1. confluent-hub 不是通過這些 Helm 圖表安裝的嗎?
                  2. 我必須自己安裝 confluent-hub 嗎?
                  3. 如果是這樣,我必須將它安裝在哪個 pod 上?

                  解決方案

                  理想情況下,這應該作為 helm 腳本的一部分進行配置,但不幸的是,目前還沒有.解決此問題的一種方法是從 Confluent 的 Kafka Connect Docker 映像構(gòu)建一個新的 Docker.手動下載連接器并將內(nèi)容解壓縮到一個文件夾中.將其內(nèi)容復制到容器中的路徑.像下面這樣的東西.

                  Dockerfile 的內(nèi)容

                  FROM confluentinc/cp-kafka-connect:5.2.1復制<連接器目錄>/usr/share/java

                  /usr/share/java 是 Kafka Connect 尋找插件的默認位置.您還可以在 helm 安裝期間使用不同的位置并提供新位置 (plugin.path).

                  構(gòu)建此映像并將其托管在可訪問的地方.您還必須在 helm 安裝期間提供/覆蓋圖像和標簽詳細信息.

                  Here> 是 values.yaml 文件的路徑.您可以在此處找到 imageplugin.path 值.

                  I have installed Kafka on a local Minikube by using the Helm charts https://github.com/confluentinc/cp-helm-charts following these instructions https://docs.confluent.io/current/installation/installing_cp/cp-helm-charts/docs/index.html like so:

                  helm install -f kafka_config.yaml confluentinc/cp-helm-charts --name kafka-home-delivery --namespace cust360
                  

                  The kafka_config.yaml is almost identical to the default yaml, with the one exception being that I scaled it down to 1 server/broker instead of 3 (just because I'm trying to conserve resources on my local minikube; hopefully that's not relevant to my problem).

                  Also running on Minikube is a MySQL instance. Here's the output of kubectl get pods --namespace myNamespace:

                  I want to connect MySQL and Kafka, using one of the connectors (like Debezium MySQL CDC, for instance). In the instructions, it says:

                  Install your connector

                  Use the Confluent Hub client to install this connector with:

                  confluent-hub install debezium/debezium-connector-mysql:0.9.2

                  Sounds good, except 1) I don't know which pod to run this command on, 2) None of the pods seem to have a confluent-hub command available.

                  Questions:

                  1. Does confluent-hub not come installed via those Helm charts?
                  2. Do I have to install confluent-hub myself?
                  3. If so, which pod do I have to install it on?

                  解決方案

                  Ideally this should be configurable as part of the helm script, but unfortunately it is not as of now. One way to work around this is to build a new Docker from Confluent's Kafka Connect Docker image. Download the connector manually and extract the contents into a folder. Copy the contents of this to a path in the container. Something like below.

                  Contents of Dockerfile

                  FROM confluentinc/cp-kafka-connect:5.2.1
                  COPY <connector-directory> /usr/share/java
                  

                  /usr/share/java is the default location where Kafka Connect looks for plugins. You could also use different location and provide the new location (plugin.path) during your helm installation.

                  Build this image and host it somewhere accessible. You will also have to provide/override the image and tag details during the helm installation.

                  Here is the path to the values.yaml file. You can find the image and plugin.path values here.

                  這篇關(guān)于使用帶有 Helm 安裝的 Kafka/Confluent 的連接器的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請聯(lián)系我們刪除處理,感謝您的支持!

                  相關(guān)文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數(shù)根據(jù) N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結(jié)果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數(shù)的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發(fā)技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環(huán)數(shù)組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調(diào)用 o23.load 時發(fā)生錯誤 沒有合適的驅(qū)動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數(shù)據(jù)庫表作為 Spark 數(shù)據(jù)幀讀取?)

                  <small id='2PzQ4'></small><noframes id='2PzQ4'>

                    • <i id='2PzQ4'><tr id='2PzQ4'><dt id='2PzQ4'><q id='2PzQ4'><span id='2PzQ4'><b id='2PzQ4'><form id='2PzQ4'><ins id='2PzQ4'></ins><ul id='2PzQ4'></ul><sub id='2PzQ4'></sub></form><legend id='2PzQ4'></legend><bdo id='2PzQ4'><pre id='2PzQ4'><center id='2PzQ4'></center></pre></bdo></b><th id='2PzQ4'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='2PzQ4'><tfoot id='2PzQ4'></tfoot><dl id='2PzQ4'><fieldset id='2PzQ4'></fieldset></dl></div>
                        <tfoot id='2PzQ4'></tfoot>

                        • <bdo id='2PzQ4'></bdo><ul id='2PzQ4'></ul>
                          <legend id='2PzQ4'><style id='2PzQ4'><dir id='2PzQ4'><q id='2PzQ4'></q></dir></style></legend>

                              <tbody id='2PzQ4'></tbody>
                          • 主站蜘蛛池模板: 国产精品a久久久久 | 成人性生交大片免费看r链接 | 国产一区不卡在线观看 | 久久久久久国产精品三区 | 欧美一级片中文字幕 | 日韩亚洲视频 | 九九久久精品视频 | 国产黄色在线观看 | 婷婷综合| 欧美在线天堂 | 久操亚洲| 天天躁日日躁xxxxaaaa | 欧美日韩综合一区 | 国产精品久久国产愉拍 | 欧美一区二区免费电影 | 91精品久久久久久久久久入口 | 亚洲一区精品视频 | a免费视频 | 亚洲人成人一区二区在线观看 | 日本福利在线观看 | www.一级片 | 精品综合网| 国产精品不卡 | 人妖av | 在线免费观看色 | 日本在线视 | 欧美aaaaaaaa| 久草视频在线播放 | 午夜小视频在线播放 | av毛片 | 国产综合久久 | 中文字幕亚洲区一区二 | 欧美午夜精品理论片a级按摩 | 日日夜夜操天天干 | 成人午夜精品 | 天天干狠狠| 国产精品美女久久久 | av在线一区二区三区 | 成人免费视频播放 | av一二三区 | 欧美视频三区 |