久久久久久久av_日韩在线中文_看一级毛片视频_日本精品二区_成人深夜福利视频_武道仙尊动漫在线观看

<i id='gg1sZ'><tr id='gg1sZ'><dt id='gg1sZ'><q id='gg1sZ'><span id='gg1sZ'><b id='gg1sZ'><form id='gg1sZ'><ins id='gg1sZ'></ins><ul id='gg1sZ'></ul><sub id='gg1sZ'></sub></form><legend id='gg1sZ'></legend><bdo id='gg1sZ'><pre id='gg1sZ'><center id='gg1sZ'></center></pre></bdo></b><th id='gg1sZ'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='gg1sZ'><tfoot id='gg1sZ'></tfoot><dl id='gg1sZ'><fieldset id='gg1sZ'></fieldset></dl></div>
  • <tfoot id='gg1sZ'></tfoot>
    • <bdo id='gg1sZ'></bdo><ul id='gg1sZ'></ul>

    1. <legend id='gg1sZ'><style id='gg1sZ'><dir id='gg1sZ'><q id='gg1sZ'></q></dir></style></legend>

        <small id='gg1sZ'></small><noframes id='gg1sZ'>

        如何集成 Oracle 和 Kafka

        How to integrate Oracle and Kafka(如何集成 Oracle 和 Kafka)

          <small id='bmWte'></small><noframes id='bmWte'>

            <tbody id='bmWte'></tbody>
          <i id='bmWte'><tr id='bmWte'><dt id='bmWte'><q id='bmWte'><span id='bmWte'><b id='bmWte'><form id='bmWte'><ins id='bmWte'></ins><ul id='bmWte'></ul><sub id='bmWte'></sub></form><legend id='bmWte'></legend><bdo id='bmWte'><pre id='bmWte'><center id='bmWte'></center></pre></bdo></b><th id='bmWte'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='bmWte'><tfoot id='bmWte'></tfoot><dl id='bmWte'><fieldset id='bmWte'></fieldset></dl></div>
            • <legend id='bmWte'><style id='bmWte'><dir id='bmWte'><q id='bmWte'></q></dir></style></legend>
                <bdo id='bmWte'></bdo><ul id='bmWte'></ul>
                  <tfoot id='bmWte'></tfoot>
                • 本文介紹了如何集成 Oracle 和 Kafka的處理方法,對(duì)大家解決問(wèn)題具有一定的參考價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)吧!

                  問(wèn)題描述

                  我一直試圖找到在單個(gè) Oracle 11g R2 實(shí)例中捕獲更改通知的最高效/最有效的方法,并將這些事件傳送到 Apache Kafka 隊(duì)列,但我找不到任何簡(jiǎn)單的示例或教程沿著這些路線.

                  I've been trying to find the most efficient/effective way capture change notifications in a single Oracle 11g R2 instance and deliver those events to an Apache Kafka queue, but I haven't been able to find any simple examples or tutorials along these lines.

                  我在 Oracle 方面看到了一些可能性(Streams,更改數(shù)據(jù)捕獲、觸發(fā)器(糟糕)等等),但我仍然不確定哪個(gè)是最好的追求.

                  I've seen some possibilities on the Oracle side (Streams, Change Data Capture,triggers (yuck), etc..), but I'm still not sure which would be best to pursue.

                  這是一個(gè)在 GitHub 上使用 MySQL 和 Kafka 的項(xiàng)目,名為 mypipe,我只是沒(méi)有看到任何東西與 Oracle 類似.我不確定是否最好專注于為此編寫 Oracle 包,或者類似于 mypipe 項(xiàng)目等的層.

                  Here is a project utilizing MySQL and Kafka on GitHub called mypipe, I just haven't seen anything similar for Oracle. I'm not sure if it would be best to focus writing an Oracle package for this, or a layer similar to the mypipe project, etc. etc..

                  任何建議、建議或示例將不勝感激.謝謝.

                  Any recommendations, suggestions or examples would be greatly appreciated. Thank you.

                  推薦答案

                  目前只有一種工具是開源的,對(duì)數(shù)據(jù)庫(kù)的影響很小.這是OpenLogReplicator.

                  There is currently just one tool which is open source and has minimal impact on the database. This is OpenLogReplicator.

                  • 許可證是 GPL - 它是完全開源的

                  • license is GPL - it is fully open source

                  它對(duì)源數(shù)據(jù)庫(kù)的影響非常小 - 它不需要許可選項(xiàng),只需打開源上的補(bǔ)充日志記錄(就像所有其他復(fù)制工具一樣)

                  it has very low impact on the source database - it requires no licensing options and just turning on supplemental logging on the source (like all other replication tools)

                  它完全用 C++ 編寫 - 因此它具有非常低的延遲和高吞吐量

                  it is written completely in C++ - so it has very low latency and high throughput

                  它完全在內(nèi)存中工作

                  它支持自 11.2.0.1(11.2、12.1、12.2、18、19)以來(lái)的所有 Oracle 數(shù)據(jù)庫(kù)版本

                  it supports all Oracle database versions since 11.2.0.1 (11.2, 12.1, 12.2, 18, 19)

                  它讀取二進(jìn)制格式的 Oracle Redo 日志并將它們發(fā)送到 Kafka.它可以在數(shù)據(jù)庫(kù)主機(jī)上工作,但您也可以將其配置為使用 sshfs 從另一臺(tái)主機(jī)讀取重做日志 - 以最小的數(shù)據(jù)庫(kù)負(fù)載.

                  It reads binary format of Oracle Redo logs and sends them to Kafka. It can work on the database host, but you can also configure it to read the redo logs using sshfs from another host - with minimal load of the database.

                  免責(zé)聲明 #1:我是此解決方案的作者

                  disclaimer #1: I am the author of this solution

                  免責(zé)聲明 #2:致其他 StackOverflow 用戶:請(qǐng)不要?jiǎng)h除此答案.這個(gè)問(wèn)題有很多重復(fù).但這是第一個(gè)問(wèn)題,其他重復(fù)項(xiàng)應(yīng)重定向到此處并標(biāo)記為重復(fù)項(xiàng).不是相反.我已從其他問(wèn)題中刪除了所有其他答案,僅將此答案作為主要答案.

                  disclaimer #2: to other StackOverflow users: please do not delete this answer. This question has a lot of duplicates. But this is the first question and other duplicates should be redirected here and marked as duplicates. Not the other way. I have deleted all other answers from other questions and just leaving this answer as the primary answer.

                  這篇關(guān)于如何集成 Oracle 和 Kafka的文章就介紹到這了,希望我們推薦的答案對(duì)大家有所幫助,也希望大家多多支持html5模板網(wǎng)!

                  【網(wǎng)站聲明】本站部分內(nèi)容來(lái)源于互聯(lián)網(wǎng),旨在幫助大家更快的解決問(wèn)題,如果有圖片或者內(nèi)容侵犯了您的權(quán)益,請(qǐng)聯(lián)系我們刪除處理,感謝您的支持!

                  相關(guān)文檔推薦

                  Apache Nifi How to load JSON with nested array JSON and Call Oracle Stored Procedure(Apache Nifi 如何使用嵌套數(shù)組 JSON 加載 JSON 并調(diào)用 Oracle 存儲(chǔ)過(guò)程)
                  Issue with Confluent JDBC Source connector(Confluent JDBC Source 連接器的問(wèn)題)
                  Why Kafka jdbc connect insert data as BLOB instead of varchar(為什么 Kafka jdbc 將插入數(shù)據(jù)作為 BLOB 而不是 varchar 連接)
                  kafka-connect-jdbc : SQLException: No suitable driver only when using distributed mode(kafka-connect-jdbc:SQLException:僅在使用分布式模式時(shí)沒(méi)有合適的驅(qū)動(dòng)程序)
                  kafka-connect-jdbc : SQLException: No suitable driver only when using distributed mode(kafka-connect-jdbc:SQLException:僅在使用分布式模式時(shí)沒(méi)有合適的驅(qū)動(dòng)程序)
                  Efficient ways for whitelisting more tables in Debezium Mysql Connector(在 Debezium Mysql Connector 中將更多表列入白名單的有效方法)

                    <legend id='JnpAk'><style id='JnpAk'><dir id='JnpAk'><q id='JnpAk'></q></dir></style></legend>
                      <tbody id='JnpAk'></tbody>
                        <bdo id='JnpAk'></bdo><ul id='JnpAk'></ul>
                        <i id='JnpAk'><tr id='JnpAk'><dt id='JnpAk'><q id='JnpAk'><span id='JnpAk'><b id='JnpAk'><form id='JnpAk'><ins id='JnpAk'></ins><ul id='JnpAk'></ul><sub id='JnpAk'></sub></form><legend id='JnpAk'></legend><bdo id='JnpAk'><pre id='JnpAk'><center id='JnpAk'></center></pre></bdo></b><th id='JnpAk'></th></span></q></dt></tr></i><div class="qwawimqqmiuu" id='JnpAk'><tfoot id='JnpAk'></tfoot><dl id='JnpAk'><fieldset id='JnpAk'></fieldset></dl></div>

                        <small id='JnpAk'></small><noframes id='JnpAk'>

                        <tfoot id='JnpAk'></tfoot>
                          • 主站蜘蛛池模板: 久久精品一区二区三区四区五区 | 中国极品少妇xxxx做受 | 欧美精品在线观看 | 亚洲黄色网址 | 婷婷狠狠| 麻豆av免费观看 | 色婷婷成人 | 国产日韩欧美在线 | 日韩三级一区二区 | 在线成人 | 国产一级黄| 日韩精品观看 | 国产黄色在线播放 | 国产色播 | 亚洲在线视频观看 | 性欧美xxxx | 国产免费一区二区三区在线观看 | 婷婷天堂| 欧美国产在线视频 | 亚洲另类色综合网站 | 欧美成人精品 | 在线观看免费av网站 | 亚洲欧美日韩一区 | 国产精品一区在线播放 | 亚洲视频在线播放 | 国产亚洲精品成人av久久ww | 午夜视频免费看 | 丰满岳乱妇一区二区 | 日韩欧美专区 | 天天视频国产 | 国产福利在线视频 | 国产午夜精品视频 | 黄色片小视频 | 成人免费视频视频 | 人人爽夜夜爽 | 久久久精品一区二区三区 | 天天综合天天做天天综合 | 国产在线视频91 | 欧美亚洲 | 久久精品毛片 | 久久精品欧美一区二区三区不卡 |