Confluent Inc.是一家总部位于Palo Alto的软件公司,由在LinkedIn上建立Apache Kafka的团队创建,该公司扩展了Kafka,每天容纳超过1万亿条消息。 Confluent构建了一个基于Apache Kafka的事件流平台,使公司能够轻松地以实时流的形式访问数据。他们的产品范围从完全自我管理的实例到Confluent Cloud。
如何在Kubernetes上为Kafka-connect创建连接器?
我正在使用cp-kafka-connect Helm图表以分布式模式在Google Kubernetes Engine(GKE)上部署Kafka-connect。带有代理和Zookeeper的可运行的Kafka集群已经在同一....>
Kafka Connect AWS S3接收器连接器未从主题中读取
我有一个简单的独立S3接收器连接器。这是工作程序配置属性的相关部分:plugin.path = bootstrap.servers =
我已经为Linux安装了Windows子系统,以便在Windows 10家庭平台上运行Ubuntu 16.04。我已经提取了在此平台上运行KSQL所需的所有目录。现在,当我尝试运行...
[在我的linux服务器上,我正在运行3个图像-A)带有这个docker-compose文件的Docker和Zookeeper-版本:'2'服务:zookeeper:图像:wurstmeister / zookeeper:3.4.6端口:-“ ...
这里是正在发送的数据的示例,但由于某种原因我收到了空指针异常,我试图剥离一些代码以使其更小,但认为也许我需要保留一个...] >
Confluent JDBC Source Connect在转换中提供了NullPointerException
这真的很奇怪。在我的数据库中,当我执行此SQL时:从mySchema.myTable中选择count(*),其中some_col ='2',结果是:26000000当连接器配置中的QUERY设置为此并且我...
在Kafka流连接中,第二个连接字段是否会排队等待第一个字段在窗口中连接?
假设我们有两个Kafka流,其中流1的A必须与流2的A相连接。流1的B必须与流2的B相连接。如下所示:A1-> A2 B1-> B2其中'->'...
Confent Kafka Python生产者未使用ACKS =所有配置进行生产
我有一些将在kafka主题中产生的python代码,在默认设置acks = 1时可以正常工作,但是当我更改为acks = all或acks = 2时,消息不会出现在主题中。 ...
为什么我应该将docker映像“ confluentinc / kafka”用于kafka集群?
我做了docker-compose来在我的本地进行kafka集群。并且每当我要创建主题时,检索我拥有的主题或搜索存储在该主题中的数据,我都使用docker run --net = host --rm ...
为什么我应该将docker映像“ confluentinc / kafka”用于kafka集群?
我做了docker-compose来在我的本地进行kafka集群。并且每当我要创建主题时,检索我拥有的主题或搜索存储在该主题中的数据,我都使用docker run --net = host --rm ...
[当我在没有Docker的情况下运行kafka和zookeeper时,我可以在/ tmp / kafka-logs目录中看到主题分区日志文件。现在使用Docker,即使我在...
Kafka elasticsearch连接器-'刷新超时已到期,记录未刷新:'
我对kafka有一个奇怪的问题-> elasticsearch连接器。第一次启动时,一切都很好,我在elasticsearch中收到了一个新数据,并通过kibana仪表板对其进行了检查,但是当我...
我有多个Kafka实例,只有一个Confluent Control Center。有可能吗?
我在这里设置了融合平台STEP 1 wget / usr / local http://packages.confluent.io/archive/5.2/confluent-5.2.0-2.11.tar.gz -P〜/ Downloads / tar -zxvf 〜/ Downloads / confluent-5.2.0-2.11.tar.gz -...
如何从Kinesis发送json消息到MSK,然后使用kafka connect进行弹性搜索
我已经准备好,流程也正在工作。我正在使用lambda函数将数据从Kinesis流发送到MSK,并且消息的格式如下{“ data”:{“ ...
我正在配置一个具有3个代理节点和3个zookeeper节点的kafka集群,我按照融合文档中提到的那样实现了安全性,添加了属性authProvider.1 = org.apache ....
如何解决Kafka Connect JSONConverter“模式必须包含'type'字段”
正在尝试将消息推送到JdbcSink,消息如下{{schema“:{” type“:” struct“,” fields“:[{” field“:” ID“,” type“:{” type “:” bytes“,” ...
很长一段时间以来,卡夫卡都在试图摆脱Zookeeper。 Zookeeper的Kafka最新版本是否已弃用?还是Kafka集群仍然需要它?
我使用以下命令在我的gcp实例上安装了confluent-5.1.0:$ curl -O http://packages.confluent.io/archive/5.1/confluent-5.1.0-2.11.tar.gz $ tar xzvf confluent-5.1.0-2.11.tar.gz $ ...