久久久久久久av_日韩在线中文_看一级毛片视频_日本精品二区_成人深夜福利视频_武道仙尊动漫在线观看

  • <tfoot id='F7OMA'></tfoot><legend id='F7OMA'><style id='F7OMA'><dir id='F7OMA'><q id='F7OMA'></q></dir></style></legend>

    <small id='F7OMA'></small><noframes id='F7OMA'>

        <i id='F7OMA'><tr id='F7OMA'><dt id='F7OMA'><q id='F7OMA'><span id='F7OMA'><b id='F7OMA'><form id='F7OMA'><ins id='F7OMA'></ins><ul id='F7OMA'></ul><sub id='F7OMA'></sub></form><legend id='F7OMA'></legend><bdo id='F7OMA'><pre id='F7OMA'><center id='F7OMA'></center></pre></bdo></b><th id='F7OMA'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='F7OMA'><tfoot id='F7OMA'></tfoot><dl id='F7OMA'><fieldset id='F7OMA'></fieldset></dl></div>
        • <bdo id='F7OMA'></bdo><ul id='F7OMA'></ul>

        kafka-connect-jdbc:SQLException:僅在使用分布式模式時沒

        kafka-connect-jdbc : SQLException: No suitable driver only when using distributed mode(kafka-connect-jdbc:SQLException:僅在使用分布式模式時沒有合適的驅(qū)動程序)

          <tfoot id='aGD93'></tfoot>

          <i id='aGD93'><tr id='aGD93'><dt id='aGD93'><q id='aGD93'><span id='aGD93'><b id='aGD93'><form id='aGD93'><ins id='aGD93'></ins><ul id='aGD93'></ul><sub id='aGD93'></sub></form><legend id='aGD93'></legend><bdo id='aGD93'><pre id='aGD93'><center id='aGD93'></center></pre></bdo></b><th id='aGD93'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='aGD93'><tfoot id='aGD93'></tfoot><dl id='aGD93'><fieldset id='aGD93'></fieldset></dl></div>

          <small id='aGD93'></small><noframes id='aGD93'>

          1. <legend id='aGD93'><style id='aGD93'><dir id='aGD93'><q id='aGD93'></q></dir></style></legend>
              <bdo id='aGD93'></bdo><ul id='aGD93'></ul>
                    <tbody id='aGD93'></tbody>
                  本文介紹了kafka-connect-jdbc:SQLException:僅在使用分布式模式時沒有合適的驅(qū)動程序的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)吧!

                  問題描述

                  我們已經(jīng)成功地使用了 mySQL - 使用 jdbc 獨立連接器的 kafka 數(shù)據(jù)攝取,但現(xiàn)在面臨在分布式模式下使用相同的問題(作為 kafka 連接服務(wù)).

                  We have successfully used mySQL - kafka data ingestion using jdbc standalone connector but now facing issue in using the same in distributed mode (as kafka connect service ).

                  connect-distributed.properties 文件-

                  connect-distributed.properties file-

                  bootstrap.servers=IP1:9092,IP2:9092
                  group.id=connect-cluster
                  key.converter.schemas.enable=true
                  value.converter.schemas.enable=true
                  offset.storage.topic=connect-offsets
                  offset.storage.replication.factor=2
                  config.storage.topic=connect-configs
                  config.storage.replication.factor=2
                  status.storage.topic=connect-status
                  status.storage.replication.factor=2
                  offset.flush.interval.ms=10000
                  plugin.path=/usr/share/java,/usr/share/java/kafka-connect-jdbc
                  

                  我有我的連接器罐子-

                  /usr/share/java/kafka-connect-jdbc
                  
                  -rw-r--r-- 1 root root  906708 Jul 29 01:18 zookeeper-3.4.13.jar
                  -rw-r--r-- 1 root root   74798 Jul 29 01:18 zkclient-0.10.jar
                  -rw-r--r-- 1 root root 5575351 Jul 29 01:18 sqlite-jdbc-3.8.11.2.jar
                  -rw-r--r-- 1 root root   41203 Jul 29 01:18 slf4j-api-1.7.25.jar
                  -rw-r--r-- 1 root root  658466 Jul 29 01:18 postgresql-9.4-1206-jdbc41.jar
                  -rw-r--r-- 1 root root 1292696 Jul 29 01:18 netty-3.10.6.Final.jar
                  -rw-r--r-- 1 root root  489884 Jul 29 01:18 log4j-1.2.17.jar
                  -rw-r--r-- 1 root root  211219 Jul 29 01:18 kafka-connect-jdbc-5.0.0.jar
                  -rw-r--r-- 1 root root  317816 Jul 29 01:18 jtds-1.3.1.jar
                  -rw-r--r-- 1 root root   87325 Jul 29 01:18 jline-0.9.94.jar
                  -rw-r--r-- 1 root root   20844 Jul 29 01:18 common-utils-5.0.0.jar
                  -rw-r--r-- 1 root root   20437 Jul 29 01:18 audience-annotations-0.5.0.jar
                  -rw-r----- 1 root root 2132635 Nov 11 16:31 mysql-connector-java-8.0.13.jar
                  

                  我可以通過這種方式運行腳本來運行獨立模式-

                  I am able to run the standalone mode by running the script in this way-

                  /usr/bin/connect-standalone /etc/kafka/connect-standalone.properties /etc/kafka-connect-jdbc/source-quickstart-mysql.properties
                  

                  但是當(dāng)我嘗試調(diào)用 REST API 來運行分布式模式連接器時,出現(xiàn)錯誤:

                  But when I try to invoke the REST API to run a distributed mode connector , I get the error:

                  curl -X POST -H "Accept:application/json" -H "Content-Type:application/json" X.X.X.X:8083/connectors/ -d '{"name": "linuxemp-connector", "config": { "connector.class": "io.confluent.connect.jdbc.JdbcSourceConnector", "tasks.max": "1", "connection.url": "jdbc:mysql://Y.Y.Y.Y:3306/linux_db?user=groot&password=pwd","table.whitelist": "emp","mode": "timestamp","incrementing.column.name":"empid","topic.prefix": "mysqlconnector-" } }'
                  

                  錯誤-

                  {"error_code":400,"message":"Connector configuration is invalid and contains the following 2 error(s):\nInvalid value java.sql.SQLException: No suitable driver found for jdbc:mysql://Y.Y.Y.Y:3306/linux_db?user=groot&password=pwd for configuration Couldn't open connection to jdbc:mysql://Y.Y.Y.Y:3306/linux_db?user=groot&password=pwd\nInvalid value java.sql.SQLException: No suitable driver found for jdbc:mysql://Y.Y.Y.Y:3306/linux_db?user=groot&password=pwd for configuration Couldn't open connection to jdbc:mysql://Y.Y.Y.Y:3306/linux_db?user=groot&password=pwd\nYou can also find the above list of errors at the endpoint `/{connectorType}/config/validate`"}
                  

                  注意-連接器 jars 放置在所有連接節(jié)點上,plugin.path 在所有連接節(jié)點上都相同,并且 kafka-connect 服務(wù)已啟動并運行.

                  note- connector jars are placed on all connect nodes , plugin.path is same on all connect nodes and kafka-connect service is up and running .

                  我錯過了什么?為什么我無法提交 REST 調(diào)用來啟動此 mysql 管道的分布式連接工作器/任務(wù)?這在獨立模式下非常有效.但是在分布式模式下拋出錯誤.

                  What am I missing ? Why am I not able to submit REST call to start a distributed connect worker/task for this mysql pipeline ? This works absolutely fine with standalone mode . But throws error with distributed mode .

                  請幫忙!

                  謝謝!

                  推薦答案

                  通過修復(fù)以下問題,問題得到解決 -

                  By fixing below things, the issue got resolved -

                  1.修改/usr/share/java/kafka-connect-jdbc/mysql-connector-java-8.0.13.jar的權(quán)限為7552.在插件路徑中只保留/usr/share/java.

                  1.Changed permissions of /usr/share/java/kafka-connect-jdbc/mysql-connector-java-8.0.13.jar to 755 2.Keep only /usr/share/java in plugin path.

                  3.更改我的sql表結(jié)構(gòu),使其具有一個主鍵和一個具有增量性質(zhì)或時間戳的列屬性.

                  3.Change my sql table structure to have one primary key and one column property with incremental nature or timestamp.

                  這篇關(guān)于kafka-connect-jdbc:SQLException:僅在使用分布式模式時沒有合適的驅(qū)動程序的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請聯(lián)系我們刪除處理,感謝您的支持!

                  相關(guān)文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數(shù)根據(jù) N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達(dá)式的結(jié)果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數(shù)的 ignore 選項是忽略整個事務(wù)還是只是有問題的行?) - IT屋-程序員軟件開發(fā)技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環(huán)數(shù)組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調(diào)用 o23.load 時發(fā)生錯誤 沒有合適的驅(qū)動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數(shù)據(jù)庫表作為 Spark 數(shù)據(jù)幀讀取?)
                  <tfoot id='pjsQv'></tfoot>

                          <tbody id='pjsQv'></tbody>
                      1. <small id='pjsQv'></small><noframes id='pjsQv'>

                        • <bdo id='pjsQv'></bdo><ul id='pjsQv'></ul>

                          1. <i id='pjsQv'><tr id='pjsQv'><dt id='pjsQv'><q id='pjsQv'><span id='pjsQv'><b id='pjsQv'><form id='pjsQv'><ins id='pjsQv'></ins><ul id='pjsQv'></ul><sub id='pjsQv'></sub></form><legend id='pjsQv'></legend><bdo id='pjsQv'><pre id='pjsQv'><center id='pjsQv'></center></pre></bdo></b><th id='pjsQv'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='pjsQv'><tfoot id='pjsQv'></tfoot><dl id='pjsQv'><fieldset id='pjsQv'></fieldset></dl></div>
                            <legend id='pjsQv'><style id='pjsQv'><dir id='pjsQv'><q id='pjsQv'></q></dir></style></legend>
                            主站蜘蛛池模板: 午夜大片| 18成人免费观看网站 | 日韩欧美在线播放 | 天天干b| 亚洲成人免费视频 | 日本黄a三级三级三级 | 欧美黄视频 | 97久久超碰 | 日韩av影片 | 国产成人aⅴ | 精品日韩一区二区 | 性色av一区二区 | 亚洲精品美女 | 午夜精品国产精品大乳美女 | 黄色毛毛片 | 国产成人在线观看免费网站 | 国产三级视频 | 在线看亚洲 | 午夜精品福利视频 | 91美女视频 | 黄色av免费 | 九九热在线观看 | 激情综合五月婷婷 | 精品一区二区三区在线观看 | www.亚洲国产| 久久精品av| 黄色激情视频网站 | 亚洲视频一区 | 欧美精品日韩少妇 | 九九热视频在线观看 | 九九热在线精品视频 | 日韩精品一级 | 激情久久五月天 | 日韩在线免费观看视频 | 99热在线观看 | 成人a视频 | 亚洲精品国产一区 | 成人国产精品视频 | 老女人性生活视频 | 精品国产伦一区二区三区 | 成人av一区二区三区在线观看 |