成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久

您的位置:首頁技術(shù)文章
文章詳情頁

Java將CSV的數(shù)據(jù)發(fā)送到kafka的示例

瀏覽:2日期:2022-08-21 09:56:33

為什么將CSV的數(shù)據(jù)發(fā)到kafka

flink做流式計算時,選用kafka消息作為數(shù)據(jù)源是常用手段,因此在學(xué)習(xí)和開發(fā)flink過程中,也會將數(shù)據(jù)集文件中的記錄發(fā)送到kafka,來模擬不間斷數(shù)據(jù); 整個流程如下:

Java將CSV的數(shù)據(jù)發(fā)送到kafka的示例

您可能會覺得這樣做多此一舉:flink直接讀取CSV不就行了嗎?這樣做的原因如下: 首先,這是學(xué)習(xí)和開發(fā)時的做法,數(shù)據(jù)集是CSV文件,而生產(chǎn)環(huán)境的實時數(shù)據(jù)卻是kafka數(shù)據(jù)源; 其次,Java應(yīng)用中可以加入一些特殊邏輯,例如數(shù)據(jù)處理,匯總統(tǒng)計(用來和flink結(jié)果對比驗證); 另外,如果兩條記錄實際的間隔時間如果是1分鐘,那么Java應(yīng)用在發(fā)送消息時也可以間隔一分鐘再發(fā)送,這個邏輯在flink社區(qū)的demo中有具體的實現(xiàn),此demo也是將數(shù)據(jù)集發(fā)送到kafka,再由flink消費kafka,地址是:https://github.com/ververica/sql-training

如何將CSV的數(shù)據(jù)發(fā)送到kafka

前面的圖可以看出,讀取CSV再發(fā)送消息到kafka的操作是Java應(yīng)用所為,因此今天的主要工作就是開發(fā)這個Java應(yīng)用,并驗證;

版本信息

JDK:1.8.0_181 開發(fā)工具:IntelliJ IDEA 2019.2.1 (Ultimate Edition) 開發(fā)環(huán)境:Win10 Zookeeper:3.4.13 Kafka:2.4.0(scala:2.12)

關(guān)于數(shù)據(jù)集

本次實戰(zhàn)用到的數(shù)據(jù)集是CSV文件,里面是一百零四萬條淘寶用戶行為數(shù)據(jù),該數(shù)據(jù)來源是阿里云天池公開數(shù)據(jù)集,我對此數(shù)據(jù)做了少量調(diào)整; 此CSV文件可以在CSDN下載,地址:https://download.csdn.net/download/boling_cavalry/12381698 也可以在我的Github下載,地址:https://raw.githubusercontent.com/zq2599/blog_demos/master/files/UserBehavior.7z 該CSV文件的內(nèi)容,一共有六列,每列的含義如下表:

列名稱 說明 用戶ID 整數(shù)類型,序列化后的用戶ID 商品ID 整數(shù)類型,序列化后的商品ID 商品類目ID 整數(shù)類型,序列化后的商品所屬類目ID 行為類型 字符串,枚舉類型,包括(’pv’, ’buy’, ’cart’, ’fav’) 時間戳 行為發(fā)生的時間戳 時間字符串 根據(jù)時間戳字段生成的時間字符串

關(guān)于該數(shù)據(jù)集的詳情,請參考《準(zhǔn)備數(shù)據(jù)集用于flink學(xué)習(xí)》

Java應(yīng)用簡介

編碼前,先把具體內(nèi)容列出來,然后再挨個實現(xiàn):

從CSV讀取記錄的工具類:UserBehaviorCsvFileReader 每條記錄對應(yīng)的Bean類:UserBehavior Java對象序列化成JSON的序列化類:JsonSerializer 向kafka發(fā)送消息的工具類:KafkaProducer 應(yīng)用類,程序入口:SendMessageApplication

上述五個類即可完成Java應(yīng)用的工作,接下來開始編碼吧;

直接下載源碼

如果您不想寫代碼,您可以直接從GitHub下載這個工程的源碼,地址和鏈接信息如下表所示:

名稱 鏈接 備注 項目主頁 https://github.com/zq2599/blog_demos 該項目在GitHub上的主頁 git倉庫地址(https) https://github.com/zq2599/blog_demos.git 該項目源碼的倉庫地址,https協(xié)議 git倉庫地址(ssh) git@github.com:zq2599/blog_demos.git 該項目源碼的倉庫地址,ssh協(xié)議

這個git項目中有多個文件夾,本章源碼在flinksql這個文件夾下,如下圖紅框所示:

Java將CSV的數(shù)據(jù)發(fā)送到kafka的示例

編碼

創(chuàng)建maven工程,pom.xml如下,比較重要的jackson和javacsv的依賴:

<?xml version='1.0' encoding='UTF-8'?><project xmlns='http://maven.apache.org/POM/4.0.0' xmlns:xsi='http://www.w3.org/2001/XMLSchema-instance' xsi:schemaLocation='http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd'> <modelVersion>4.0.0</modelVersion> <groupId>com.bolingcavalry</groupId> <artifactId>flinksql</artifactId> <version>1.0-SNAPSHOT</version> <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <flink.version>1.10.0</flink.version> <kafka.version>2.2.0</kafka.version> <java.version>1.8</java.version> <scala.binary.version>2.11</scala.binary.version> <maven.compiler.source>${java.version}</maven.compiler.source> <maven.compiler.target>${java.version}</maven.compiler.target> </properties> <dependencies> <dependency> <groupId>org.apache.kafka</groupId> <artifactId>kafka-clients</artifactId> <version>${kafka.version}</version> </dependency> <dependency> <groupId>com.fasterxml.jackson.core</groupId> <artifactId>jackson-databind</artifactId> <version>2.9.10.1</version> </dependency> <!-- Logging dependencies --> <dependency> <groupId>org.slf4j</groupId> <artifactId>slf4j-log4j12</artifactId> <version>1.7.7</version> <scope>runtime</scope> </dependency> <dependency> <groupId>log4j</groupId> <artifactId>log4j</artifactId> <version>1.2.17</version> <scope>runtime</scope> </dependency> <dependency> <groupId>net.sourceforge.javacsv</groupId> <artifactId>javacsv</artifactId> <version>2.0</version> </dependency> </dependencies> <build> <plugins> <!-- Java Compiler --> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-compiler-plugin</artifactId> <version>3.1</version> <configuration> <source>${java.version}</source> <target>${java.version}</target> </configuration> </plugin> <!-- Shade plugin to include all dependencies --> <plugin> <groupId>org.apache.maven.plugins</groupId> <artifactId>maven-shade-plugin</artifactId> <version>3.0.0</version> <executions> <!-- Run shade goal on package phase --> <execution> <phase>package</phase> <goals> <goal>shade</goal> </goals> <configuration> <artifactSet><excludes></excludes> </artifactSet> <filters><filter> <!-- Do not copy the signatures in the META-INF folder. Otherwise, this might cause SecurityExceptions when using the JAR. --> <artifact>*:*</artifact> <excludes> <exclude>META-INF/*.SF</exclude> <exclude>META-INF/*.DSA</exclude> <exclude>META-INF/*.RSA</exclude> </excludes></filter> </filters> </configuration> </execution> </executions> </plugin> </plugins> </build></project>

從CSV讀取記錄的工具類:UserBehaviorCsvFileReader,后面在主程序中會用到j(luò)ava8的Steam API來處理集合,所以UserBehaviorCsvFileReader實現(xiàn)了Supplier接口:

public class UserBehaviorCsvFileReader implements Supplier<UserBehavior> { private final String filePath; private CsvReader csvReader; public UserBehaviorCsvFileReader(String filePath) throws IOException { this.filePath = filePath; try { csvReader = new CsvReader(filePath); csvReader.readHeaders(); } catch (IOException e) { throw new IOException('Error reading TaxiRecords from file: ' + filePath, e); } } @Override public UserBehavior get() { UserBehavior userBehavior = null; try{ if(csvReader.readRecord()) { csvReader.getRawRecord(); userBehavior = new UserBehavior( Long.valueOf(csvReader.get(0)), Long.valueOf(csvReader.get(1)), Long.valueOf(csvReader.get(2)), csvReader.get(3), new Date(Long.valueOf(csvReader.get(4))*1000L)); } } catch (IOException e) { throw new NoSuchElementException('IOException from ' + filePath); } if (null==userBehavior) { throw new NoSuchElementException('All records read from ' + filePath); } return userBehavior; }}

每條記錄對應(yīng)的Bean類:UserBehavior,和CSV記錄格式保持一致即可,表示時間的ts字段,使用了JsonFormat注解,在序列化的時候以此來控制格式:

public class UserBehavior { @JsonFormat private long user_id; @JsonFormat private long item_id; @JsonFormat private long category_id; @JsonFormat private String behavior; @JsonFormat(shape = JsonFormat.Shape.STRING, pattern = 'yyyy-MM-dd’T’HH:mm:ss’Z’') private Date ts; public UserBehavior() { } public UserBehavior(long user_id, long item_id, long category_id, String behavior, Date ts) { this.user_id = user_id; this.item_id = item_id; this.category_id = category_id; this.behavior = behavior; this.ts = ts; }}

Java對象序列化成JSON的序列化類:JsonSerializer

public class JsonSerializer<T> { private final ObjectMapper jsonMapper = new ObjectMapper(); public String toJSONString(T r) { try { return jsonMapper.writeValueAsString(r); } catch (JsonProcessingException e) { throw new IllegalArgumentException('Could not serialize record: ' + r, e); } } public byte[] toJSONBytes(T r) { try { return jsonMapper.writeValueAsBytes(r); } catch (JsonProcessingException e) { throw new IllegalArgumentException('Could not serialize record: ' + r, e); } }}

向kafka發(fā)送消息的工具類:KafkaProducer:

public class KafkaProducer implements Consumer<UserBehavior> { private final String topic; private final org.apache.kafka.clients.producer.KafkaProducer<byte[], byte[]> producer; private final JsonSerializer<UserBehavior> serializer; public KafkaProducer(String kafkaTopic, String kafkaBrokers) { this.topic = kafkaTopic; this.producer = new org.apache.kafka.clients.producer.KafkaProducer<>(createKafkaProperties(kafkaBrokers)); this.serializer = new JsonSerializer<>(); } @Override public void accept(UserBehavior record) { // 將對象序列化成byte數(shù)組 byte[] data = serializer.toJSONBytes(record); // 封裝 ProducerRecord<byte[], byte[]> kafkaRecord = new ProducerRecord<>(topic, data); // 發(fā)送 producer.send(kafkaRecord); // 通過sleep控制消息的速度,請依據(jù)自身kafka配置以及flink服務(wù)器配置來調(diào)整 try { Thread.sleep(500); }catch(InterruptedException e){ e.printStackTrace(); } } /** * kafka配置 * @param brokers The brokers to connect to. * @return A Kafka producer configuration. */ private static Properties createKafkaProperties(String brokers) { Properties kafkaProps = new Properties(); kafkaProps.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, brokers); kafkaProps.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, ByteArraySerializer.class.getCanonicalName()); kafkaProps.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, ByteArraySerializer.class.getCanonicalName()); return kafkaProps; }}

最后是應(yīng)用類SendMessageApplication,CSV文件路徑、kafka的topic和borker地址都在此設(shè)置,另外借助java8的Stream API,只需少量代碼即可完成所有工作:

public class SendMessageApplication { public static void main(String[] args) throws Exception { // 文件地址 String filePath = 'D:temp20200502UserBehavior.csv'; // kafka topic String topic = 'user_behavior'; // kafka borker地址 String broker = '192.168.50.43:9092'; Stream.generate(new UserBehaviorCsvFileReader(filePath)) .sequential() .forEachOrdered(new KafkaProducer(topic, broker)); }}

驗證

請確保kafka已經(jīng)就緒,并且名為user_behavior的topic已經(jīng)創(chuàng)建; 請將CSV文件準(zhǔn)備好; 確認SendMessageApplication.java中的文件地址、kafka topic、kafka broker三個參數(shù)準(zhǔn)確無誤; 運行SendMessageApplication.java; 開啟一個 控制臺消息kafka消息,參考命令如下:

./kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092 --topic user_behavior --consumer-property group.id=old-consumer-test --consumer-property consumer.id=old-consumer-cl --from-beginning 正常情況下可以立即見到消息,如下圖:

Java將CSV的數(shù)據(jù)發(fā)送到kafka的示例

至此,通過Java應(yīng)用模擬用戶行為消息流的操作就完成了,接下來的flink實戰(zhàn)就用這個作為數(shù)據(jù)源;

以上就是Java將CSV的數(shù)據(jù)發(fā)送到kafka得示例的詳細內(nèi)容,更多關(guān)于Java CSV的數(shù)據(jù)發(fā)送到kafka的資料請關(guān)注好吧啦網(wǎng)其它相關(guān)文章!

標(biāo)簽: Java
相關(guān)文章:
成人在线亚洲_国产日韩视频一区二区三区_久久久国产精品_99国内精品久久久久久久
国产夫妻精品视频| 日韩欧美专区在线| 欧美日韩国产电影| 综合色天天鬼久久鬼色| 国产精品一区不卡| 老妇喷水一区二区三区| 《视频一区视频二区| 成人黄色大片在线观看| 欧美日韩精品综合在线| 日韩专区中文字幕一区二区| 在线不卡亚洲| 久久综合国产精品| 国产丶欧美丶日本不卡视频| 欧美日韩三级视频| 日本成人在线网站| 一区二区三区四区五区精品| 国产色产综合色产在线视频| 成人h动漫精品一区二区| 91精品麻豆日日躁夜夜躁| 蜜乳av一区二区三区| 国产亚洲第一区| 亚洲狼人国产精品| 在线国产日韩| 国产精品美日韩| 91麻豆.com| 日韩三级.com| 国产高清久久久| 777久久久精品| 激情综合色综合久久综合| 色婷婷综合激情| 亚洲动漫第一页| 国产日产高清欧美一区二区三区| 中文字幕综合网| 国自产拍偷拍福利精品免费一| 国产精品亲子伦对白| 国产主播一区二区三区四区| 国产精品婷婷午夜在线观看| 黄色在线成人| 亚洲人吸女人奶水| 亚洲看片一区| 亚洲一级在线观看| 久久青青草综合| 免费观看在线色综合| 欧美性大战久久久久久久蜜臀| 伦理电影国产精品| 欧美一区二区精美| 成人综合在线观看| 久久综合久久鬼色| 欧美99久久| 国产精品免费视频网站| 在线免费观看欧美| 亚洲自拍另类综合| 色拍拍在线精品视频8848| 久久精品999| 欧美精品乱码久久久久久按摩| 国产福利一区二区| 久久一区二区视频| 在线看片日韩| 视频一区视频二区中文| 在线国产电影不卡| 久久电影网站中文字幕| 欧美精品在线一区二区| 成人动漫精品一区二区| 中文字幕欧美三区| 亚洲精品乱码| 亚洲123区在线观看| 欧美日韩免费观看一区二区三区| 国产精品一级黄| 久久婷婷成人综合色| 亚洲国产电影| 日韩激情在线观看| 欧美高清视频在线高清观看mv色露露十八| 国产成人精品1024| 国产精品视频在线看| 亚洲综合不卡| 久久激五月天综合精品| 日韩三级视频中文字幕| 国产一区二区在线观看免费播放| 亚洲一区二区三区视频在线播放| 精品视频一区二区不卡| 欧美成人中文| 午夜欧美电影在线观看| 亚洲精品在线电影| 国产亚洲一区在线播放| 国产福利一区二区三区| 国产精品对白交换视频| 欧美网站大全在线观看| 你懂的视频一区二区| 日韩精彩视频在线观看| 久久午夜羞羞影院免费观看| 午夜亚洲精品| 成人激情免费电影网址| 亚洲一区二区三区视频在线| 91精品国产麻豆国产自产在线| 伊人久久成人| 国产一区二区三区蝌蚪| 亚洲视频在线一区观看| 在线播放日韩导航| 亚洲国产网站| 国产精品99久久久久久久女警| 亚洲欧美视频在线观看视频| 欧美日韩精品久久久| 综合色天天鬼久久鬼色| 欧美日韩国产免费一区二区| 白白色 亚洲乱淫| 一区二区理论电影在线观看| 欧美日本在线观看| 99国产精品国产精品久久| 一区二区三区欧美激情| 日韩欧美一区电影| 国产在线精品二区| 国产成人在线网站| 亚洲精品五月天| 色婷婷精品大在线视频| 国内视频精品| 免费国产亚洲视频| 日本一区二区在线不卡| 色屁屁一区二区| 91丨porny丨中文| 亚洲成人免费视| 国产女人18毛片水真多成人如厕| 亚洲免费婷婷| 成人黄色777网| 亚洲精品五月天| 日韩小视频在线观看专区| 亚洲国产精品日韩| 国产精品综合网| 婷婷综合久久一区二区三区| 久久蜜桃av一区精品变态类天堂| 国产欧美午夜| 国产精品亚洲一区二区三区妖精| 国产精品久久久久久久第一福利| 欧美怡红院视频| 午夜欧美理论片| 美国欧美日韩国产在线播放| 国产亚洲精品aa| 一本一道久久a久久精品综合蜜臀| 岛国一区二区三区| 亚洲午夜在线电影| 日韩一区二区在线免费观看| 1024日韩| 国产麻豆精品95视频| 日日摸夜夜添夜夜添亚洲女人| 国产午夜三级一区二区三| 欧美在线|欧美| 狠狠综合久久| 国产在线精品国自产拍免费| 亚洲成在人线在线播放| 欧美成人a∨高清免费观看| 久久成人亚洲| 欧美日韩另类综合| 久久国产婷婷国产香蕉| 亚洲欧美在线视频观看| 欧美日韩免费一区二区三区| 国产偷国产偷亚洲高清97cao| av电影在线不卡| 久久国产精品99久久久久久老狼 | 欧美xingq一区二区| 久久影院亚洲| 99精品黄色片免费大全| 激情五月激情综合网| 亚洲综合av网| 欧美成人激情免费网| 色国产精品一区在线观看| 国内精品久久国产| 国产乱码精品一区二区三区av | 日韩毛片视频在线看| 日韩视频免费观看高清完整版 | 亚洲欧美福利一区二区| 久久免费美女视频| 欧美综合欧美视频| 国产精品视区| 欧美日本三区| 成人久久久精品乱码一区二区三区 | 亚洲天堂偷拍| 成人福利视频网站| 美脚の诱脚舐め脚责91| 中文字幕视频一区| 日韩一区欧美小说| 久久精品亚洲精品国产欧美kt∨| 欧美久久久久久久久中文字幕| 亚洲视频成人| 国内在线观看一区二区三区| 成人免费视频视频| 视频一区视频二区中文字幕| 五月激情综合婷婷| 亚洲一区二区三区不卡国产欧美 | 久久精品观看| 国产日韩亚洲欧美精品| 亚洲精品专区| 亚洲无玛一区| 欧美 日韩 国产精品免费观看| 午夜久久99| 不卡av在线网| 国产精品一区二区在线看| 国产一区二区美女诱惑| 久久精品国产一区二区三| 秋霞电影一区二区| 亚洲美女免费视频| 亚洲欧美韩国综合色|