久久久久久久av_日韩在线中文_看一级毛片视频_日本精品二区_成人深夜福利视频_武道仙尊动漫在线观看

    <bdo id='Z7FCS'></bdo><ul id='Z7FCS'></ul>
    1. <i id='Z7FCS'><tr id='Z7FCS'><dt id='Z7FCS'><q id='Z7FCS'><span id='Z7FCS'><b id='Z7FCS'><form id='Z7FCS'><ins id='Z7FCS'></ins><ul id='Z7FCS'></ul><sub id='Z7FCS'></sub></form><legend id='Z7FCS'></legend><bdo id='Z7FCS'><pre id='Z7FCS'><center id='Z7FCS'></center></pre></bdo></b><th id='Z7FCS'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='Z7FCS'><tfoot id='Z7FCS'></tfoot><dl id='Z7FCS'><fieldset id='Z7FCS'></fieldset></dl></div>
    2. <small id='Z7FCS'></small><noframes id='Z7FCS'>

      <tfoot id='Z7FCS'></tfoot>

      1. <legend id='Z7FCS'><style id='Z7FCS'><dir id='Z7FCS'><q id='Z7FCS'></q></dir></style></legend>

        使用帶有 Helm 安裝的 Kafka/Confluent 的連接器

        Using a connector with Helm-installed Kafka/Confluent(使用帶有 Helm 安裝的 Kafka/Confluent 的連接器)

        <small id='9DOMe'></small><noframes id='9DOMe'>

        <i id='9DOMe'><tr id='9DOMe'><dt id='9DOMe'><q id='9DOMe'><span id='9DOMe'><b id='9DOMe'><form id='9DOMe'><ins id='9DOMe'></ins><ul id='9DOMe'></ul><sub id='9DOMe'></sub></form><legend id='9DOMe'></legend><bdo id='9DOMe'><pre id='9DOMe'><center id='9DOMe'></center></pre></bdo></b><th id='9DOMe'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='9DOMe'><tfoot id='9DOMe'></tfoot><dl id='9DOMe'><fieldset id='9DOMe'></fieldset></dl></div>

            <bdo id='9DOMe'></bdo><ul id='9DOMe'></ul>
            <legend id='9DOMe'><style id='9DOMe'><dir id='9DOMe'><q id='9DOMe'></q></dir></style></legend>
            1. <tfoot id='9DOMe'></tfoot>

                  <tbody id='9DOMe'></tbody>

                  本文介紹了使用帶有 Helm 安裝的 Kafka/Confluent 的連接器的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我使用 Helm charts 在本地 Minikube 上安裝了 Kafka

                  我想連接 MySQL 和 Kafka,使用連接器之一(如 例如 Debezium MySQL CDC).在說明中,它說:

                  <塊引用>

                  安裝連接器

                  使用 Confluent Hub 客戶端安裝這個連接器:

                  confluent-hub install debezium/debezium-connector-mysql:0.9.2

                  聽起來不錯,除了 1) 我不知道在哪個 pod 上運行此命令,2) 似乎沒有一個 pod 有可用的 confluent-hub 命令.

                  問題:

                  1. confluent-hub 不是通過這些 Helm 圖表安裝的嗎?
                  2. 我必須自己安裝 confluent-hub 嗎?
                  3. 如果是這樣,我必須將它安裝在哪個 pod 上?

                  解決方案

                  理想情況下,這應該作為 helm 腳本的一部分進行配置,但不幸的是,目前還沒有.解決此問題的一種方法是從 Confluent 的 Kafka Connect Docker 映像構(gòu)建一個新的 Docker.手動下載連接器并將內(nèi)容解壓縮到一個文件夾中.將其內(nèi)容復制到容器中的路徑.像下面這樣的東西.

                  Dockerfile 的內(nèi)容

                  FROM confluentinc/cp-kafka-connect:5.2.1復制<連接器目錄>/usr/share/java

                  /usr/share/java 是 Kafka Connect 尋找插件的默認位置.您還可以在 helm 安裝期間使用不同的位置并提供新位置 (plugin.path).

                  構(gòu)建此映像并將其托管在可訪問的地方.您還必須在 helm 安裝期間提供/覆蓋圖像和標簽詳細信息.

                  Here> 是 values.yaml 文件的路徑.您可以在此處找到 imageplugin.path 值.

                  I have installed Kafka on a local Minikube by using the Helm charts https://github.com/confluentinc/cp-helm-charts following these instructions https://docs.confluent.io/current/installation/installing_cp/cp-helm-charts/docs/index.html like so:

                  helm install -f kafka_config.yaml confluentinc/cp-helm-charts --name kafka-home-delivery --namespace cust360
                  

                  The kafka_config.yaml is almost identical to the default yaml, with the one exception being that I scaled it down to 1 server/broker instead of 3 (just because I'm trying to conserve resources on my local minikube; hopefully that's not relevant to my problem).

                  Also running on Minikube is a MySQL instance. Here's the output of kubectl get pods --namespace myNamespace:

                  I want to connect MySQL and Kafka, using one of the connectors (like Debezium MySQL CDC, for instance). In the instructions, it says:

                  Install your connector

                  Use the Confluent Hub client to install this connector with:

                  confluent-hub install debezium/debezium-connector-mysql:0.9.2

                  Sounds good, except 1) I don't know which pod to run this command on, 2) None of the pods seem to have a confluent-hub command available.

                  Questions:

                  1. Does confluent-hub not come installed via those Helm charts?
                  2. Do I have to install confluent-hub myself?
                  3. If so, which pod do I have to install it on?

                  解決方案

                  Ideally this should be configurable as part of the helm script, but unfortunately it is not as of now. One way to work around this is to build a new Docker from Confluent's Kafka Connect Docker image. Download the connector manually and extract the contents into a folder. Copy the contents of this to a path in the container. Something like below.

                  Contents of Dockerfile

                  FROM confluentinc/cp-kafka-connect:5.2.1
                  COPY <connector-directory> /usr/share/java
                  

                  /usr/share/java is the default location where Kafka Connect looks for plugins. You could also use different location and provide the new location (plugin.path) during your helm installation.

                  Build this image and host it somewhere accessible. You will also have to provide/override the image and tag details during the helm installation.

                  Here is the path to the values.yaml file. You can find the image and plugin.path values here.

                  這篇關(guān)于使用帶有 Helm 安裝的 Kafka/Confluent 的連接器的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請聯(lián)系我們刪除處理,感謝您的支持!

                  相關(guān)文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數(shù)根據(jù) N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結(jié)果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數(shù)的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發(fā)技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環(huán)數(shù)組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調(diào)用 o23.load 時發(fā)生錯誤 沒有合適的驅(qū)動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數(shù)據(jù)庫表作為 Spark 數(shù)據(jù)幀讀取?)

                  <small id='2PzQ4'></small><noframes id='2PzQ4'>

                    • <i id='2PzQ4'><tr id='2PzQ4'><dt id='2PzQ4'><q id='2PzQ4'><span id='2PzQ4'><b id='2PzQ4'><form id='2PzQ4'><ins id='2PzQ4'></ins><ul id='2PzQ4'></ul><sub id='2PzQ4'></sub></form><legend id='2PzQ4'></legend><bdo id='2PzQ4'><pre id='2PzQ4'><center id='2PzQ4'></center></pre></bdo></b><th id='2PzQ4'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='2PzQ4'><tfoot id='2PzQ4'></tfoot><dl id='2PzQ4'><fieldset id='2PzQ4'></fieldset></dl></div>
                        <tfoot id='2PzQ4'></tfoot>

                        • <bdo id='2PzQ4'></bdo><ul id='2PzQ4'></ul>
                          <legend id='2PzQ4'><style id='2PzQ4'><dir id='2PzQ4'><q id='2PzQ4'></q></dir></style></legend>

                              <tbody id='2PzQ4'></tbody>
                          • 主站蜘蛛池模板: 国产免费黄网 | 国产精品一区二区无线 | 国产成人精品av | 国产一区高清 | 日韩欧美国产一区二区 | 国产精品资源在线 | 夜夜艹天天干 | 久久99精品久久 | 成人欧美一区二区三区黑人孕妇 | 天天综合亚洲 | 久久国产精品视频免费看 | 国产一区二区日韩 | 99久久精品视频免费 | 好好的日在线视频 | 欧美 日韩 国产 成人 在线 | 欧美在线综合 | 国产91一区二区三区 | 日韩欧美高清 | 午夜激情免费 | 久久精片 | 一区二区三区精品视频 | 精品国产乱码一区二区三 | 欧美日韩亚洲成人 | 一级国产精品一级国产精品片 | 岛国av一区二区三区 | 国产女人叫床高潮大片免费 | 久久国产日本 | 国产电影一区二区在线观看 | 精品一区二区三区入口 | 日本三级日产三级国产三级 | 最新国产精品 | 美女日批免费视频 | 精品一区二区三区在线视频 | 男女黄网站 | 欧美日本久久 | 国产日韩一区二区三区 | 国产精品视频一区二区三区 | 在线免费激情视频 | 99视频网站| 国产高清久久 | 青草福利 |