iis服务器助手广告广告
返回顶部
首页 > 资讯 > 数据库 >从Oracle用goldengate抽取数据到kafka
  • 627
分享到

从Oracle用goldengate抽取数据到kafka

2024-04-02 19:04:59 627人浏览 八月长安
摘要

Goldengate到kafka配置详解 环境介绍: 源端数据库版本 源端OGG版本

Goldengate到kafka配置详解

环境介绍:

源端数据库版本

源端OGG版本

目标端OGG版本

Kafka集群

目标端数据库GP

11.2.0.3

12.2.0.1.1

ggs_Adapters_linux_x64

切记OGG版本是for big data

12.3.0.1.0

源端配置:

1.1安装OGG软件。

OGG软件不做要求12版本即可

配置MGR

PORT 7810

DYNAMICPORTLIST 7811-7914

AUTORESTART REPLICAT dpe*, WaiTMINUTES 1, RETRIES 5

AUTORESTART REPLICAT ext*, WAITMINUTES 1, RETRIES 5

PURGEOLDEXTRACTS /home/ogg/kafka_ogg/dirdat/kf*,USECHECKPOINTS, minkeephours 6

配置ext抽取进程参数:

EXTRACT extkaf

--setenv (NLS_LANG="AMERICAN_AMERICA.AL32UTF8")

setenv (oracle_HOME=/u01/app/oracle/product/11.2.0/dbhome_1)

userid goldengate@ogg ,passWord  Golden_1230

--getupdatebefores

GETTRUNCATES

REPORTCOUNT EVERY 15 MINUTES, RATE

DISCARDFILE ./dirrpt/extkaf.dsc,APPEND,MEGABYTES 1024

--THREADOPTioNS MAXCOMMITPROPAGATIONDELAY 90000 IOLATENCY 90000

DBOPTIONS  ALLOWUNUSEDCOLUMN

--WARNLONGTRANS 2h,CHECKINTERVAL 3m

EXTTRAIL ./dirdat/kf

-- TRANLOGOPTIONS  CONVERTUCS2CLOBS

TRANLOGOPTIONS EXCLUDEUSER goldengate

TRANLOGOPTIONS DBLOGREADER

-- TRANLOGOPTIONS _noReadAhead Any

--DYNAMICRESOLUTION

Table schema1.tablename1;

Table schema1.tablename2;

Table schema1.tablename3 ;

Table4schema1.tablename4;

配置投递进程:

extract dpekaf

rmthost 172.31.31.10,mgrport 7810

passthru

numfiles 500

rmttrail /home/ogg/kafka_ogg/dirdat/kf

------------------------------------------------------------       

Table schema1.tablename1;

Table schema1.tablename2;

Table schema1.tablename3 ;

Table4schema1.tablename4;

-----===========================目标端配置==================


Goldengate  for  big data

目标端配置MGR:

PORT 7810

DYNAMICPORTLIST 7811-7914

AUTORESTART REPLICAT rep*, WAITMINUTES 1, RETRIES 5

PURGEOLDEXTRACTS /home/ogg/kafka_ogg/dirdat/kf*,USECHECKPOINTS, minkeephours 6

配置replicat进程:

入库进程1:

replicat repykaf1

--setenv (JAVA_HOME=/home/ogg/jdk1.8.0_111)

--setenv (JRE_HOME=/home/ogg/jdk1.8.0_111/jre)

--setenv (PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH)

--setenv (CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib)

--setenv (LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/amd64/server:/home/ogg/kafka_ogg/lib)

--getenv (JAVA_HOME)

--getenv (JRE_HOME)

--getenv (CLASSPATH)

--getenv (LD_LIBRARY_PATH)

--getenv (PATH)

TARGETDB LIBFILE libggjava.so SET property=dirprm/kafka1.props

GETTRUNCATES

REPORTCOUNT EVERY 1 MINUTES ,RATE

GROUPTRANSOPS 1000

Table schema1.tablename1;

入库进程2:

replicat repykaf2

--setenv (JAVA_HOME=/home/ogg/jdk1.8.0_111)

--setenv (JRE_HOME=/home/ogg/jdk1.8.0_111/jre)

--setenv (PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH)

--setenv (CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib)

--setenv (LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/amd64/server:/home/ogg/kafka_ogg/lib)

--getenv (JAVA_HOME)

--getenv (JRE_HOME)

--getenv (CLASSPATH)

--getenv (LD_LIBRARY_PATH)

--getenv (PATH)

TARGETDB LIBFILE libggjava.so SET property=dirprm/kafka2.props

GETTRUNCATES

REPORTCOUNT EVERY 1 MINUTES ,RATE

GROUPTRANSOPS 1000

Table schema1.tablename2;

入库进程3:

replicat repykaf3

--setenv (JAVA_HOME=/home/ogg/jdk1.8.0_111)

--setenv (JRE_HOME=/home/ogg/jdk1.8.0_111/jre)

--setenv (PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH)

--setenv (CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib)

--setenv (LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/amd64/server:/home/ogg/kafka_ogg/lib)

--getenv (JAVA_HOME)

--getenv (JRE_HOME)

--getenv (CLASSPATH)

--getenv (LD_LIBRARY_PATH)

--getenv (PATH)

TARGETDB LIBFILE libggjava.so SET property=dirprm/kafka3.props

GETTRUNCATES

REPORTCOUNT EVERY 1 MINUTES ,RATE

GROUPTRANSOPS 1000

Table schema1.tablename3;

入库进程4:

replicat repykaf4

--setenv (JAVA_HOME=/home/ogg/jdk1.8.0_111)

--setenv (JRE_HOME=/home/ogg/jdk1.8.0_111/jre)

--setenv (PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH)

--setenv (CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib)

--setenv (LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/amd64/server:/home/ogg/kafka_ogg/lib)

--getenv (JAVA_HOME)

--getenv (JRE_HOME)

--getenv (CLASSPATH)

--getenv (LD_LIBRARY_PATH)

--getenv (PATH)

TARGETDB LIBFILE libggjava.so SET property=dirprm/kafka4.props

GETTRUNCATES

REPORTCOUNT EVERY 1 MINUTES ,RATE

GROUPTRANSOPS 1000

Table schema1.tablename4;

配置去kafka的参数文件

我的OGG解压目录是:kafka_ogg

在OGG的解压目录下有:AdapterExamples 文件夹

从Oracle用goldengate抽取数据到kafka

cp /home/ogg/kafka_ogg/AdapterExamples/big-data/kafka/*   /home/ogg/kafka_ogg/dirprm/

编辑:

Vi   custom_kafka_producer.properties

###bootstrap.servers=ip:端口,ip:端口 例子

bootstrap.servers=172.31.31.10:6667,172.31.31.11:6667,172.31.31.12:6667,172.31.31.13:6667

acks=1

reconnect.backoff.ms=1000

compression.type=gzip

value.serializer=org.apache.kafka.common.serialization.ByteArraySerializer

key.serializer=org.apache.kafka.common.serialization.ByteArraySerializer

# 100KB per partition

batch.size=102400

linger.ms=10000

max.request.size=10240000

send.buffer.bytes=10240000                                                                                                                                          

编辑

Kafka1.props

gg.handlerlist = kafkahandler

gg.handler.kafkahandler.type=kafka

gg.handler.kafkahandler.KafkaProducerConfigFile=custom_kafka_producer.properties

gg.handler.kafkahandler.topicMappingTemplate=topic-name

(这里写你创建的topic  name )

gg.handler.kafkahandler.fORMat=JSON

gg.handler.kafkahandler.BlockingSend =false

gg.handler.kafkahandler.includeTokens=false

gg.handler.kafkahandler.mode=tx

goldengate.userexit.timestamp=utc

goldengate.userexit.writers=javawriter

javawriter.stats.display=TRUE

javawriter.stats.full=TRUE

gg.log=log4j

gg.log.level=INFO

gg.report.time=30sec

gg.classpath=dirprm/:/home/ogg/kafka_ogg/ggjava/resources/lib/*:/usr/hdp/2.4.0.0-169/kafka/libs/*

javawriter.bootoptions=-Xmx512m -Xms32m -Djava.class.path=ggjava/ggjava.jar

goldengate.userexit.utf8mode=true

gg.handler.kafkahandler.keyMappingTemplate=HH

gg.handler.kafkahandler.format.includePrimaryKeys=true

您可能感兴趣的文档:

--结束END--

本文标题: 从Oracle用goldengate抽取数据到kafka

本文链接: https://www.lsjlt.com/news/48033.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 从Oracle用goldengate抽取数据到kafka
    Goldengate到kafka配置详解 环境介绍: 源端数据库版本 源端OGG版本 ...
    99+
    2024-04-02
  • GoldenGate从oracle迁移数据到mysql
      1       软件简介 安装时应该选择最为稳定的安装版本,现在官方发布的版本主要为: Oracle G...
    99+
    2024-04-02
  • 抽取oracle数据到mysql数据库的实现
    这篇文章给大家介绍抽取oracle数据到mysql数据库的实现,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。1、要抽取mysql表、字段及过滤条件的配制文件imp_data.sql2、...
    99+
    2024-04-02
  • oracle数据如何通过goldengate实时同步到kafka消息队列中
    这篇文章主要介绍oracle数据如何通过goldengate实时同步到kafka消息队列中,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!环境介绍组件版本组件版本描述源端oracleo...
    99+
    2024-04-02
  • java怎么从kafka读取数据
    要从Kafka读取数据,可以使用Kafka的Java客户端库。以下是使用Java从Kafka读取数据的步骤: 添加Kafka客户端...
    99+
    2023-10-20
    java kafka
  • Datax离线数据抽取(MySQL--Oracle)
    Datax下载地址:https://github.com/alibaba/DataX Datax MySQL读:   https://github.com/alibaba/Dat...
    99+
    2024-04-02
  • Oracle同步数据到kafka的方法
    目录环境准备软件准备下载地址实施过程Oracle主机(A)配置Kafka主机(B)配置配置apache-maven工具配置Kafka 2.13-2.6.0配置kafka-connec...
    99+
    2024-04-02
  • Oracle数据怎么发送到kafka传输数据
    这篇文章主要介绍“Oracle数据怎么发送到kafka传输数据”,在日常操作中,相信很多人在Oracle数据怎么发送到kafka传输数据问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Oracle数据怎么发送到...
    99+
    2023-06-03
  • Oracle中怎么利用amdu抽取数据文件
    这期内容当中小编将会给大家带来有关Oracle中怎么利用amdu抽取数据文件,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。1.使amdu可以在oracle 10g环境中使...
    99+
    2024-04-02
  • oracle中Logmnr如何抽取日志数据
    这篇文章将为大家详细讲解有关oracle中Logmnr如何抽取日志数据,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。 Logmnr,dba在事后需要审计或者查询一个误操...
    99+
    2024-04-02
  • 如何使用ogg将Oracle数据传输到flume刷到kafka
    本篇内容主要讲解“如何使用ogg将Oracle数据传输到flume刷到kafka”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“如何使用ogg将Oracle数据传输到flume刷到kafka”吧!...
    99+
    2023-06-02
  • 从 MySQL迁移数据到Oracle
    从 MySQL 迁移数据到 Oracle 中的全过程 zhengqingya 22019.12.26 16:53:14字数 911阅读 480 一、前言 这里记录一次将MySQL数据库中的表数...
    99+
    2024-01-21
    mysql 数据库 中间件 centos
  • 使用Goldengate 实现Oracle for Oracle 单向数据同步
    实验环境数据源端:  host1 ip 192.168.199.163  数据目标端: host2 ip 192.168.199.104两台机器都安装 http://lqdin...
    99+
    2024-04-02
  • 大数据之使用Spark全量抽取MySQL的数据到Hive数据库
    文章目录 前言 一、读题分析 二、使用步骤 1.导入配置文件到pom.xml 2.代码部分 三、重难点分析 总结 前言 本题来源于全国职业技能大赛之大数据技术赛项赛题-离线数据处理-数据抽取(其他暂不透露) 题目:编写S...
    99+
    2023-09-17
    hive spark 大数据 数据库 scala
  • 大数据之使用Spark增量抽取MySQL的数据到Hive数据库(1)
    目录 前言 题目: 一、读题分析 二、处理过程 1.采用SparkSQL使用max函数找到最大的日期然后转换成时间类型在变成字符串 2.这里提供除了SQL方法外的另一种过滤不满足条件的方法 三、重难点分析 总结  前言 本题来源于全国职业...
    99+
    2023-10-18
    大数据 hive spark mysql scala
  • R语言如何随机从数据框抽取一部分数据
    这篇文章将为大家详细讲解有关R语言如何随机从数据框抽取一部分数据,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。随机从数据框(矩阵)抽取一部分数据(col.name=col...
    99+
    2024-04-02
  • 如何使用sqoop从oracle导数据到Hbase
    这篇文章主要为大家展示了“如何使用sqoop从oracle导数据到Hbase”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“如何使用sqoop从oracle导数据...
    99+
    2024-04-02
  • MySQL和Oracle的元数据抽取实例分析
    目录前言什么是元数据参考文档地址先说MySQL再说Oracle总结前言 最近接到个任务是抽取mysql和Oracle的元数据,大致就是在库里把库、schema、表、字段、分区、索引、...
    99+
    2024-04-02
  • oracle实时数据抽取的方法是什么
    Oracle实时数据抽取的方法有以下几种:1. 使用Oracle的LogMiner工具:LogMiner是Oracle数据库的一个工...
    99+
    2023-08-29
    oracle
  • 从阿里云读取数据到数据库的数据文件
    在今天的信息化社会中,数据是最重要的资源之一。阿里云作为一个大型的数据存储和处理服务提供商,拥有丰富的数据资源和强大的数据处理能力。本文将详细介绍如何从阿里云读取数据到数据库的数据文件。 一、准备工作 1. 阿里云账号:首先,你需要拥有一个...
    99+
    2023-11-23
    数据 阿里 数据库
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作