일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- between date
- 라즈베리파이
- hikaricp
- Spring Security
- catalina log
- springboot
- hikari
- github
- datasource
- log4j profile
- Gradle
- intellij
- Linux
- 배열스트링
- mybatis
- ubuntu
- Spring Boot
- ORACLE CLOUD
- log4j2
- template
- between 날짜
- oracle between
- Java
- python 개발환경
- Spring
- MySQL
- STS
- git
- bitbucket
- oracle
- Today
- Total
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- between date
- 라즈베리파이
- hikaricp
- Spring Security
- catalina log
- springboot
- hikari
- github
- datasource
- log4j profile
- Gradle
- intellij
- Linux
- 배열스트링
- mybatis
- ubuntu
- Spring Boot
- ORACLE CLOUD
- log4j2
- template
- between 날짜
- oracle between
- Java
- python 개발환경
- Spring
- MySQL
- STS
- git
- bitbucket
- oracle
- Today
- Total
목록전체 글 (63)
파워노트

# Logstash 는 간단하게 설명하자면 - input data 를 ( 서버의 로그 , 데이터 베이스의 데이터 등을 읽어 들여 ) filter ( 가공하여 ) output( elasticsearch 에 적재 한다 .) # 다운로드 및 설치 ubuntu@ubuntu:~$ curl https://artifacts.elastic.co/downloads/logstash/logstash-7.9.3.tar.gz --output logstash-7.9.3.tar.gz ubuntu@ubuntu:~$ tar -xvf logstash-7.9.3.tar.gz # 기본 사용옵션 ./bin/logstash -n --node.name NAME : 노드 이름 , host name -f --path.config CONFIG_PAT..
# Index Mapping 예제 curl -XDELETE 'localhost:9200/b_vod?pretty' curl -XPUT 'localhost:9200/b_vod?pretty' -H 'Content-Type: application/json' -d' { "mappings": { "*":{ "_all": { "enabled": false }, "properties": { "broad_no": { "type": "integer" }, "cdn_loc_cd": { "type": "integer" }, "level": { "type": "integer" }, "m_rank_1": { "type": "integer" }, "m_rank_2": { "type": "integer" }, "m_rank_3": ..
# ElasticSearch 의 조회 기존 size가 10000 이다. 이보다 큰 사이즈를 가져 올때에는 Elasticsearch 에서 처리를 못하고 이후의 데이터를 조회 하지 못한다. [ 오류 메시지 ] Caused by: QueryPhaseExecutionException[Batch size is too large, size must be less than or equal to: [30] but was [1000]. Scroll batch sizes cost as much memory as result windows so they are controlled by the [index.max_result_window] index level setting.] ....... [ 원인 ] 결과 조회값 설정이 ..