티스토리 뷰
패킷 사이즈 제한때문에 100만 Document를 insert하는 BulkInsert를 100개의 Document씩 잘개쪼개면 Elasticsearch write 풀의 대기큐 공간만 많이 잡아먹게된다.
그렇다고 또 큰데이터를 한번에 다 보낸다고 해서 무조건 한칸의 대기 큐 공간을 차지하는 것도 아니다.
너무 크면 elasticsearch내부에서 알아서 대용량 Bulk를 쪼개서 대기 큐에 적재하는 것 같다.
그러니 너무 커서 패킷 사이즈를 초과하지 않고, 너무 작아서 write 대기큐의 공간을 많이 잡아먹지 않도록 쪼개는게 중요하다.
'Elastic' 카테고리의 다른 글
엘라스틱 서치 클러스터 내부 구조 (0) | 2022.03.24 |
---|---|
Elasticsearch 스냅샷 사용 방법 (링크) (0) | 2022.03.14 |
Elasticsearch 7.8.1 Log4j2 보안 이슈 조치 내용 (0) | 2021.12.20 |
elasticsearch index가 읽기전용이 되었을 때 (0) | 2021.10.12 |
Elasticsearch too_many_buckets_exception 문제 (0) | 2021.08.23 |
댓글
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 람다
- double free
- c++
- C
- rotator
- unrealengine
- 람다함수
- UE4
- LambdaFunction
- UE5
- Lambda
- c++11
- coordinate system
- bug
- Trouble shooting
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
글 보관함