久久久久久久av_日韩在线中文_看一级毛片视频_日本精品二区_成人深夜福利视频_武道仙尊动漫在线观看

    • <bdo id='Yy33w'></bdo><ul id='Yy33w'></ul>

  • <i id='Yy33w'><tr id='Yy33w'><dt id='Yy33w'><q id='Yy33w'><span id='Yy33w'><b id='Yy33w'><form id='Yy33w'><ins id='Yy33w'></ins><ul id='Yy33w'></ul><sub id='Yy33w'></sub></form><legend id='Yy33w'></legend><bdo id='Yy33w'><pre id='Yy33w'><center id='Yy33w'></center></pre></bdo></b><th id='Yy33w'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='Yy33w'><tfoot id='Yy33w'></tfoot><dl id='Yy33w'><fieldset id='Yy33w'></fieldset></dl></div>

      <small id='Yy33w'></small><noframes id='Yy33w'>

      1. <legend id='Yy33w'><style id='Yy33w'><dir id='Yy33w'><q id='Yy33w'></q></dir></style></legend>
        <tfoot id='Yy33w'></tfoot>

      2. 重置 JDBC Kafka 連接器以從一開始就開始拉行?

        Reset the JDBC Kafka Connector to start pulling rows from the beginning of time?(重置 JDBC Kafka 連接器以從一開始就開始拉行?)

            • <bdo id='SRQaZ'></bdo><ul id='SRQaZ'></ul>
            • <small id='SRQaZ'></small><noframes id='SRQaZ'>

              <i id='SRQaZ'><tr id='SRQaZ'><dt id='SRQaZ'><q id='SRQaZ'><span id='SRQaZ'><b id='SRQaZ'><form id='SRQaZ'><ins id='SRQaZ'></ins><ul id='SRQaZ'></ul><sub id='SRQaZ'></sub></form><legend id='SRQaZ'></legend><bdo id='SRQaZ'><pre id='SRQaZ'><center id='SRQaZ'></center></pre></bdo></b><th id='SRQaZ'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='SRQaZ'><tfoot id='SRQaZ'></tfoot><dl id='SRQaZ'><fieldset id='SRQaZ'></fieldset></dl></div>

                <legend id='SRQaZ'><style id='SRQaZ'><dir id='SRQaZ'><q id='SRQaZ'></q></dir></style></legend>
              1. <tfoot id='SRQaZ'></tfoot>
                  <tbody id='SRQaZ'></tbody>

                  本文介紹了重置 JDBC Kafka 連接器以從一開始就開始拉行?的處理方法,對大家解決問題具有一定的參考價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)吧!

                  問題描述

                  Kafka 連接器可以使用主鍵和時間戳來確定需要處理哪些行.

                  The Kafka Connector can make use of a primary key and a timestamp to determine which rows need to be processed.

                  我正在尋找一種重置連接器的方法,以便它從一開始就進行處理.

                  I'm looking for a way to reset the Connector so that it will process from the beginning of time.

                  推薦答案

                  因為要求是在分布式模式下運行,所以最簡單的做法是將連接器名稱更新為新值.這將提示在 connect-offsets 主題中創(chuàng)建一個新條目,因為它看起來像一個全新的連接器.然后連接器應(yīng)該再次開始讀取,好像還沒有向 Kafka 寫入任何內(nèi)容.您還可以手動向與該特定連接器關(guān)聯(lián)的連接偏移主題中的鍵發(fā)送墓碑消息,但重命名比處理它容易得多.此方法適用于所有源連接器,而不僅僅是此處描述的 JDBC 連接器.

                  Because the requirement is to run in distributed mode, the easiest thing to do is to update the connector name to a new value. This will prompt a new entry to be made into the connect-offsets topic as it looks like a totally new connector. Then the connector should start reading again as if nothing has been written to Kafka yet. You could also manually send a tombstone message to the key in the connect-offsets topic associated with that particular connector, but renaming is much easier than dealing with that. This method applies to all source connectors, not only the JDBC one described here.

                  這篇關(guān)于重置 JDBC Kafka 連接器以從一開始就開始拉行?的文章就介紹到這了,希望我們推薦的答案對大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請聯(lián)系我們刪除處理,感謝您的支持!

                  相關(guān)文檔推薦

                  How to use windowing functions efficiently to decide next N number of rows based on N number of previous values(如何有效地使用窗口函數(shù)根據(jù) N 個先前值來決定接下來的 N 個行)
                  reuse the result of a select expression in the quot;GROUP BYquot; clause?(在“GROUP BY中重用選擇表達式的結(jié)果;條款?)
                  Does ignore option of Pyspark DataFrameWriter jdbc function ignore entire transaction or just offending rows?(Pyspark DataFrameWriter jdbc 函數(shù)的 ignore 選項是忽略整個事務(wù)還是只是有問題的行?) - IT屋-程序員軟件開發(fā)技
                  How to integrate Apache Spark with MySQL for reading database tables as a spark dataframe?(如何將 Apache Spark 與 MySQL 集成以將數(shù)據(jù)庫表作為 Spark 數(shù)據(jù)幀讀取?)
                  In Apache Spark 2.0.0, is it possible to fetch a query from an external database (rather than grab the whole table)?(在 Apache Spark 2.0.0 中,是否可以從外部數(shù)據(jù)庫獲取查詢(而不是獲取整個表)?) - IT屋-程序員軟件開
                  Break down a table to pivot in columns (SQL,PYSPARK)(分解表以按列進行透視(SQL、PYSPARK))
                1. <i id='0lHXB'><tr id='0lHXB'><dt id='0lHXB'><q id='0lHXB'><span id='0lHXB'><b id='0lHXB'><form id='0lHXB'><ins id='0lHXB'></ins><ul id='0lHXB'></ul><sub id='0lHXB'></sub></form><legend id='0lHXB'></legend><bdo id='0lHXB'><pre id='0lHXB'><center id='0lHXB'></center></pre></bdo></b><th id='0lHXB'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='0lHXB'><tfoot id='0lHXB'></tfoot><dl id='0lHXB'><fieldset id='0lHXB'></fieldset></dl></div>
                  • <bdo id='0lHXB'></bdo><ul id='0lHXB'></ul>
                        <tbody id='0lHXB'></tbody>

                          <small id='0lHXB'></small><noframes id='0lHXB'>

                          • <legend id='0lHXB'><style id='0lHXB'><dir id='0lHXB'><q id='0lHXB'></q></dir></style></legend>

                            <tfoot id='0lHXB'></tfoot>

                            主站蜘蛛池模板: 国产农村妇女毛片精品久久麻豆 | 成人精品一区二区三区中文字幕 | 国产精品久久久久国产a级 欧美日韩国产免费 | 日韩一区二区在线视频 | 日韩一区二区三区视频 | 99精品免费在线观看 | 国产精品久久久久久久白浊 | 久久国产一区 | 日韩中文字幕免费 | 国产高清一区二区三区 | 欧美男人天堂 | 欧美日韩一区二区在线观看 | 精品一区国产 | 色综合天天天天做夜夜夜夜做 | 黄视频国产 | 九色视频网站 | 国产成人精品一区二区三 | 日韩欧美一级精品久久 | 精品国产黄a∨片高清在线 www.一级片 国产欧美日韩综合精品一区二区 | 成人在线不卡 | 日韩视频免费在线 | 久久久久久黄 | 中文在线一区二区 | 99热成人在线 | 在线播放国产一区二区三区 | 欧美在线天堂 | 古装人性做爰av网站 | 成人一区二区在线 | 97精品国产97久久久久久免费 | 美女国产| 男女性毛片 | 在线视频 亚洲 | 国产九一精品 | 亚洲第一区久久 | 国产一区二区不卡 | 国产乱码精品一区二区三区忘忧草 | 国产精品成人av | 日韩中文欧美 | 四虎成人免费视频 | 久久激情av | 欧美激情一区二区三区 |