일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- plugin
- Python
- IntelliJ
- xPlatform
- SQL
- R
- react
- SPC
- 보조정렬
- Spring
- Sqoop
- Eclipse
- vaadin
- NPM
- JavaScript
- SSL
- Java
- mapreduce
- Kotlin
- table
- MSSQL
- 공정능력
- Express
- mybatis
- GIT
- hadoop
- es6
- Android
- tomcat
- window
- Today
- Total
목록2018/05/12 (2)
DBILITY
filebeat kafka out을 테스트해 보았다. elasticsearch로 보내기 위해 nifi로 dataflow를 구성,elasticseach에 저장하고 검색할 수 있다. kibana에서 dashboard를 구성해 봐야한다. [kafka@big-slave4 ~]$ kafka-topics.sh \ > --zookeeper big-master:2181,big-slave1:2181,big-slave2:2181/kafka-cluster \ > --topic kafka-log --partitions 3 --replication-factor 2 --create Created topic "kafka-log". [kafka@big-slave4 ~]$ exit logout [root@big-slave4 ~]# r..
kafka를 data bus로 사용하고, hdfs 저장은 HDFSSinkConnector를 통해 저장할 수 있으니, producer로 flume agent를 사용하지 않더라도 경우에 따라선 filebeat으로 대체도 가능하겠다. 테스트에 필요한 로그데이터는 flume을 통해 생성해서 file_roll sink로 ./logdata 디렉토리에 저장한다. filebeat에서 log를 읽어 kafka out을 통해 kafka topic으로 보낸다. kafka 토픽생성 [kafka@big-slave4 ~]$ kafka-topics.sh \ --zookeeper big-master:2181,big-slave1:2181,big-slave2:2181/kafka-cluster \ --topic filebeat-topic..