04尚硅谷大数据之Kafka API实战.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
尚硅谷大数据技术之Kafka ————————————————————————————— 第4 章 Kafka API 实战 4.1 环境准备 1)在eclipse 中创建一个java 工程 2 )在工程的根目录创建一个lib 文件夹 3 )解压kafka 安装包,将安装包libs 目录下的jar 包拷贝到工程的lib 目录下,并build path 。 4 )启动zk 和kafka 集群,在kafka 集群中打开一个消费者 [atguigu@hadoop102 kafka]$ bin/kafka-console-consumer.sh --zookeeper hadoop102:2181 --topic first 4.2 Kafka 生产者Java API 4.2.1 创建生产者 (过时的API ) package com.atguigu.kafka; import java.util.Properties; import ducer.Producer; import ducer.KeyedMessage; import ducer.ProducerConfig; public class OldProducer { @SuppressWarnings(deprecation) public static void main(String[] args) { Properties properties = new Properties(); properties.put(metadata.broker.list, hadoop102:9092); properties.put(request.required.acks, 1); properties.put(serializer.class, kafka.serializer.StringEncoder); ProducerInteger, String producer = new ProducerInteger,String(new ProducerConfig(properties)); KeyedMessageInteger, String message = new KeyedMessageInteger, String(first, hello world); producer.send(message ); } } 更多Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网 尚硅谷大数据技术之Kafka ————————————————————————————— 4.2.2 创建生产者 (新API ) package com.atguigu.kafka; import java.util.Properties; import ducer.KafkaProducer; import ducer.Producer; import ducer.ProducerRecord; public class NewProducer { public static void main(String[] args) { Properties props = new Properties(); // Kafka 服务端的主机名和端口号 props.put(bootstrap.servers, hadoop103:9092); // 等待所有副本节点的应答 props.put(acks, all); // 消息发送最大尝试次数 props.put(retries, 0); // 一批消息处理大小 props.put(batch.size, 16384); // 请求延时

文档评论(0)

187****5045 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档