久久久久久久av_日韩在线中文_看一级毛片视频_日本精品二区_成人深夜福利视频_武道仙尊动漫在线观看

<legend id='Gh4bF'><style id='Gh4bF'><dir id='Gh4bF'><q id='Gh4bF'></q></dir></style></legend>

    1. <small id='Gh4bF'></small><noframes id='Gh4bF'>

    2. <tfoot id='Gh4bF'></tfoot>
        <bdo id='Gh4bF'></bdo><ul id='Gh4bF'></ul>
      1. <i id='Gh4bF'><tr id='Gh4bF'><dt id='Gh4bF'><q id='Gh4bF'><span id='Gh4bF'><b id='Gh4bF'><form id='Gh4bF'><ins id='Gh4bF'></ins><ul id='Gh4bF'></ul><sub id='Gh4bF'></sub></form><legend id='Gh4bF'></legend><bdo id='Gh4bF'><pre id='Gh4bF'><center id='Gh4bF'></center></pre></bdo></b><th id='Gh4bF'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='Gh4bF'><tfoot id='Gh4bF'></tfoot><dl id='Gh4bF'><fieldset id='Gh4bF'></fieldset></dl></div>

        是否可以在 Debezium 中配置 table_name =>卡夫卡主

        Is it possible in Debezium to configure table_name =gt; kafka topic mapping?(是否可以在 Debezium 中配置 table_name =卡夫卡主題映射?)

              <tbody id='1d6k1'></tbody>

          1. <small id='1d6k1'></small><noframes id='1d6k1'>

              <i id='1d6k1'><tr id='1d6k1'><dt id='1d6k1'><q id='1d6k1'><span id='1d6k1'><b id='1d6k1'><form id='1d6k1'><ins id='1d6k1'></ins><ul id='1d6k1'></ul><sub id='1d6k1'></sub></form><legend id='1d6k1'></legend><bdo id='1d6k1'><pre id='1d6k1'><center id='1d6k1'></center></pre></bdo></b><th id='1d6k1'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='1d6k1'><tfoot id='1d6k1'></tfoot><dl id='1d6k1'><fieldset id='1d6k1'></fieldset></dl></div>
                <legend id='1d6k1'><style id='1d6k1'><dir id='1d6k1'><q id='1d6k1'></q></dir></style></legend>
                  <bdo id='1d6k1'></bdo><ul id='1d6k1'></ul>
                  <tfoot id='1d6k1'></tfoot>

                  本文介紹了是否可以在 Debezium 中配置 table_name =>卡夫卡主題映射?的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學習吧!

                  問題描述

                  我已閱讀http://debezium.io/docs/connectors/mysql/ 但我找不到有關是否可以配置 debezium 以便將 2 個(或更多)表中的更改寫入相同的單個 kafka 主題的任何信息?在我看來,它總是 1 個表 -> 1 個主題.

                  I've read http://debezium.io/docs/connectors/mysql/ but I could not find any info about whether debezium can be configured so that changes from 2 (or more) tables could be written to the same, single kafka topic? It seems to me that it is always 1 table -> 1 topic.

                  推薦答案

                  是的,使用 單條消息根據(jù)您確定的鏈接進行轉(zhuǎn)換.您可以使用正則表達式 (regex) 將表映射到所需的主題.io.debezium.transforms.ByLogicalTableRouterorg.apache.kafka.connect.transforms.RegexRouter 都可以解決問題.有后者的例子 在這里的這篇文章:

                  Yes, use Single Message Transforms, per the link you identified. You can use regular expressions (regex) to map the tables to the topic required. Both io.debezium.transforms.ByLogicalTableRouter or org.apache.kafka.connect.transforms.RegexRouter should do the trick. There's an example of the latter in this post here:

                  "transforms":"dropPrefix",  
                  "transforms.dropPrefix.type":"org.apache.kafka.connect.transforms.RegexRouter",  
                  "transforms.dropPrefix.regex":"DC1-TEST-(.*)",  
                  "transforms.dropPrefix.replacement":"$1"
                  

                  這篇關于是否可以在 Debezium 中配置 table_name =>卡夫卡主題映射?的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問題,如果有圖片或者內(nèi)容侵犯了您的權益,請聯(lián)系我們刪除處理,感謝您的支持!

                  相關文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數(shù)根據(jù) N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數(shù)的 ignore 選項是忽略整個事務還是只是有問題的行?) - IT屋-程序員軟件開發(fā)技
                  Error while using INSERT INTO table ON DUPLICATE KEY, using a for loop array(使用 INSERT INTO table ON DUPLICATE KEY 時出錯,使用 for 循環(huán)數(shù)組)
                  pyspark mysql jdbc load An error occurred while calling o23.load No suitable driver(pyspark mysql jdbc load 調(diào)用 o23.load 時發(fā)生錯誤 沒有合適的驅(qū)動程序)
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數(shù)據(jù)庫表作為 Spark 數(shù)據(jù)幀讀取?)
                  • <tfoot id='HYwx5'></tfoot>
                  • <small id='HYwx5'></small><noframes id='HYwx5'>

                        <tbody id='HYwx5'></tbody>
                      • <bdo id='HYwx5'></bdo><ul id='HYwx5'></ul>

                          1. <legend id='HYwx5'><style id='HYwx5'><dir id='HYwx5'><q id='HYwx5'></q></dir></style></legend>
                            <i id='HYwx5'><tr id='HYwx5'><dt id='HYwx5'><q id='HYwx5'><span id='HYwx5'><b id='HYwx5'><form id='HYwx5'><ins id='HYwx5'></ins><ul id='HYwx5'></ul><sub id='HYwx5'></sub></form><legend id='HYwx5'></legend><bdo id='HYwx5'><pre id='HYwx5'><center id='HYwx5'></center></pre></bdo></b><th id='HYwx5'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='HYwx5'><tfoot id='HYwx5'></tfoot><dl id='HYwx5'><fieldset id='HYwx5'></fieldset></dl></div>
                            主站蜘蛛池模板: 亚洲不卡 | 国产精品美女久久久久aⅴ国产馆 | 中文字幕在线国产 | 国产欧美精品一区二区色综合 | 欧美精品一区二区三区四区 在线 | 91在线视频免费观看 | 久久精品色欧美aⅴ一区二区 | 欧美日韩亚洲视频 | 日本欧美视频 | 国产高清一区二区 | 亚洲精品一区二区三区蜜桃久 | 盗摄精品av一区二区三区 | 视频一区二区中文字幕 | 午夜电影福利 | 亚洲永久精品国产 | 91麻豆精品国产91久久久更新资源速度超快 | 亚洲一区二区三区免费在线观看 | 狠狠躁夜夜躁人人爽天天高潮 | 日韩国产在线 | 亚洲成人毛片 | 91精品久久久久久久久久入口 | 欧美精品一区三区 | 美国黄色一级片 | 成年人在线观看 | 一区二区三区欧美 | 在线免费观看a级片 | 伊人精品国产 | 亚洲精品久久久久久久久久吃药 | 久久久久久久久久久高潮一区二区 | 中文字幕日韩一区 | 亚洲网站观看 | 国产精品v | 天天艹天天干天天 | 美女久久久 | 人妖一区 | 欧美精产国品一二三区 | 欧产日产国产精品国产 | 国产精品中文字幕在线 | 久久天堂 | 日韩在线三级 | 成人免费在线观看 |