반응형

카프카 커넥트 역활

  • 소스 시스템의 데이터를 카프카 커넥트를 통해 카프카로 전송합니다.
  • 카프카에 저장된 데이터는 카프카 커넥트를 통해 싱크 시스템으로 전송합니다.
  • 카프카 커넥트가 데이터 전송 처리하는 역할을 담당합니다.

 

카프카 커넥트 기본 용어

  • 커넥터(connector): 외부 시스템과 카프카 커넥트 런타임 간의 인터페이스 역할, 태스크들을 관리하며, 소스 커넥터와 싱크 커넥터로 구분
  • 태스크(task): 실제 카프카와 시스템 사이에서 데이터를 가져오거나 보내는 작업을 처리
  • 워커(worker): 커넥터 및 태스크를 실행하는 프로세스
  • 컨버터(converter): 커넥터와 데이터를 보내거나 받는 시스템 간의 데이터 포맷 간에 레코드를 시리얼라이즈 또는 디시리얼라이즈 처리
  • 트랜스폼(transform): 레코드를 보내거나 받을 때 레코드를 간단한 로직으로 변환

 

카프카 커넥트 동작

  • 다양한 종류의 커넥터가 존재합니다.
  • 커넥터들은 Confluent Hub에서 확인 가능합니다.

 

카프카 커넥트 동작 예시

데이터베이스에서 지속적으로 생성되는 데이터를 HDFS로 전송해야 하는 상황입니다. 이 작업은 두 단계로 나누어 진행됩니다.

  1. 데이터베이스 → Kafka
  2. Kafka → HDFS

1 단계: 데이터베이스에서 Kafka로 데이터 전송

첫 번째 단계에서는 Kafka Connect의 JDBC 커넥터를 활용할 수 있습니다. JDBC 커넥터는 소스 데이터베이스에서 변경 데이터를 추출하여 Kafka로 전송하는 역할을 합니다.

아래 그림과 같이, 커넥터를 생성하기 위해 필요한 설정 값을 입력한 후 REST API를 호출하면, 커넥터가 즉시 생성됩니다.

JDBC 커넥터는 내부적으로 데이터를 수집하는 **태스크(Task)**를 실행하며, 이 태스크들은 커넥터가 관리합니다.
필요에 따라 tasks.max 옵션을 설정하여 실행할 태스크의 수를 조절할 수 있습니다.

 

2 단계: Kafka에서 HDFS로 데이터 전송

두 번째 단계에서는 Kafka Connect의 HDFS 커넥터를 사용합니다. HDFS 커넥터는 Kafka에 저장된 데이터를 HDFS로 전송하는 역할을 합니다.

JDBC 커넥터와 마찬가지로, HDFS 커넥터에 필요한 설정 값을 입력한 후 REST API를 호출하면 커넥터가 생성되며, Kafka 토픽의 데이터를 HDFS에 저장하기 시작합니다.

 

 

반응형
반응형

Kafka vs RabbitMQ – 어떤 메시지 시스템이 내 서비스에 적합할까?

 

메시지 브로커와 이벤트 스트리밍 플랫폼은 분산 시스템의 핵심 요소로 자리 잡고 있습니다. RabbitMQ와 Kafka는 시장에서 많이 사용되는 두 가지 솔루션으로, 서로 다른 설계 철학과 강점을 가지고 있습니다. 이 글에서는 두 시스템의 주요 특징과 차이점을 비교해 보겠습니다.


1. 아키텍처와 기본 개념

RabbitMQ

  • 메시지 큐 기반: RabbitMQ는 AMQP(Advanced Message Queuing Protocol)를 기반으로 동작하며, 생산자(producer)가 메시지를 보내면, 브로커가 이를 큐에 저장하고 소비자(consumer)가 메시지를 받아 처리하는 구조입니다.
  • 라우팅과 토폴로지: 다양한 교환기(exchange)와 큐(queue)를 사용해 복잡한 라우팅 로직을 구성할 수 있습니다. 토픽, 라우팅 키, 헤더 등 다양한 라우팅 방식을 지원합니다.
  • Push 모델: RabbitMQ는 기본적으로 생산자가 메시지를 큐에 넣으면, 브로커가 이를 소비자에게 푸시(push)하는 형태로 전달합니다.

Kafka

  • 로그 기반의 분산 스트리밍 플랫폼: Kafka는 메시지를 지속적 로그에 기록하는 방식으로, 데이터를 토픽(topic)에 저장하고, 각 토픽은 여러 파티션(partition)으로 나뉩니다.
  • Pull 모델: 소비자는 필요한 시점에 데이터를 요청(pull)하는 방식으로 메시지를 가져옵니다. 이로 인해 소비자 측에서 처리 속도에 맞게 데이터를 읽어들일 수 있습니다.
  • 높은 처리량과 확장성: 분산 환경에서 수평 확장이 용이하며, 대규모 스트리밍 데이터를 처리하는 데 최적화되어 있습니다.

2. 성능 및 확장성

RabbitMQ

  • 낮은 지연 시간: 일반적으로 작은 메시지 단위의 처리에서는 매우 빠른 응답 속도를 보입니다.
  • 유연한 확장: 클러스터 구성이 가능하지만, 수평 확장 측면에서는 Kafka만큼 강력하지는 않습니다.
  • 메시지 보증: 메시지의 신뢰성과 순서를 보장하기 위한 다양한 옵션(예, 메시지 영속성, ACK 처리 등)을 제공합니다.

Kafka

  • 높은 처리량: 초당 수백만 건의 메시지 처리도 가능하며, 대용량 로그와 스트리밍 데이터 처리에 특화되어 있습니다.
  • 수평 확장성: 클러스터를 구성해 브로커 수를 늘리면 처리량이 비례하여 증가합니다.
  • 내결함성: 메시지가 디스크에 기록되고, 파티션별 복제(replicas) 설정을 통해 데이터 손실에 대비할 수 있습니다.

3. 데이터 일관성과 내구성

RabbitMQ

  • 메시지 영속성: 디스크에 메시지를 저장함으로써 서버 장애 시에도 데이터를 복원할 수 있습니다. 단, 설정에 따라 성능과 내구성 간의 trade-off가 발생할 수 있습니다.
  • ACK 기반 전송: 소비자가 메시지를 확실하게 처리했음을 ACK 신호로 알려야 하므로, 중복 처리나 메시지 손실을 최소화할 수 있습니다.

Kafka

  • 로그 보존 정책: Kafka는 메시지를 오랜 기간 보관할 수 있으며, 소비자가 언제든지 특정 오프셋(offset)부터 데이터를 읽을 수 있습니다.
  • 내구성과 복제: 각 파티션에 대해 다수의 복제본을 관리하여, 일부 노드에 장애가 발생해도 데이터 일관성을 유지할 수 있습니다.
  • 최종 일관성: 소비자들이 데이터를 개별적으로 관리하기 때문에, 완벽한 실시간 순서를 보장하기보다는 최종적으로 일관된 상태를 유지하는 데 중점을 둡니다.

4. 사용 사례와 선택 기준

RabbitMQ가 적합한 경우

  • 복잡한 라우팅 로직: 다양한 라우팅 규칙과 큐를 이용해 메시지를 분배해야 할 때.
  • 즉각적인 알림 및 작업 분배: 작업 큐나 이벤트 알림 시스템에서 낮은 지연 시간을 필요로 할 때.
  • 소규모에서 중규모 시스템: 규모가 크지 않은 환경에서 복잡한 메시지 전송 패턴을 구현할 때.

Kafka가 적합한 경우

  • 대규모 데이터 스트리밍: 로그 수집, 실시간 데이터 처리, 분석 등에 있어 대량의 데이터를 빠르게 처리할 때.
  • 내구성 및 확장성: 데이터의 내구성을 유지하면서, 시스템 확장을 통해 높은 처리량을 필요로 할 때.
  • 분산 처리 및 이벤트 소싱: 마이크로서비스 아키텍처에서 이벤트 소싱, 스트림 처리 패턴을 구현할 때.

5. 결론

RabbitMQ와 Kafka는 각각의 장점이 뚜렷하며, 시스템의 요구 사항에 따라 선택해야 합니다.

  • RabbitMQ는 복잡한 메시지 라우팅과 낮은 지연 시간의 처리가 필요할 때 유리하며, 전통적인 메시지 큐 패턴에 익숙한 환경에서 강점을 보입니다.
  • Kafka는 높은 처리량, 확장성, 그리고 로그 기반 데이터 저장이 핵심인 환경에 적합하며, 실시간 분석과 스트리밍 데이터 처리에서 우수한 성능을 발휘합니다.

서비스의 규모, 메시지 처리 패턴, 데이터 내구성 요구 사항 등을 고려하여 두 시스템 중 적합한 솔루션을 선택하면, 보다 안정적이고 효율적인 메시징 인프라를 구축할 수 있습니다.

반응형
반응형

[Apache Kafka]kubernetes + helm 통해 Apache Kafka 설치 방법

*helm 이 설치되어 있습니다.

 

Strimzi Operator 설치

# 앞에 $ 부분은 뻈습니다.

# 1. namespace 생성
kubectl create namespace kafka

# 2. repo 생성
helm repo add strimzi https://strimzi.io/charts/
helm show values strimzi/strimzi-kafka-operator

# operator 설치
helm install kafka-operator strimzi/strimzi-kafka-operator --version 0.38.0 --namespace kafka

# 배포된 리소스 확인
kubectl get deploy,pod -n kafka

# operator가 지원하는 kafka 버젼 확인
kubectl describe deploy -n kafka | grep KAFKA_IMAGES: -A3

 

 

Kafka cluster 설치

*kafka 설치 전에 Strimzi 버젼 별로 설치 가능한 kafka를 확인해야 합니다. 아래 주소를 통해 확인합니다.

https://strimzi.io/downloads/

 

Downloads

Downloads Strimzi releases are available for download on our GitHub. The release artifacts contain documentation and example YAML files for deployment on Kubernetes.

strimzi.io

 

# Kafka cluster YAML 파일 다운로드
curl -s -O https://raw.githubusercontent.com/gasida/DOIK/main/strimzi/kafka-1.yaml

# kafka 배포
kubectl apply -f kafka-1.yaml -n kafka

# 배포된 리소스 확인
kubectl get all -n kafka

 

 

 

 

반응형
반응형

maxscale 사용 중인 mariaDB에 디비 및 계정 생성

 

  1. maxscale master 계정 확인 후 해당 pod에 접속해서 커맨드를 사용합니다.
  2. 아래 코드를 참조해서 적용하면 됩니다.
$ mariadb -uroot -psecret -e "CREATE DATABASE test"
$ mariadb -uroot -psecret -e "CREATE USER 'test'@'%' IDENTIFIED BY 'test'"
$ mariadb -uroot -psecret -e "grant all privileges on test.* to 'test'@'%';"
$ mariadb -uroot -psecret -e "flush privileges;"
반응형

'DB Middleware > Maxscale' 카테고리의 다른 글

Maxscale 연결된 서버 조회  (0) 2024.09.06
반응형

Maxscale 연결된 서버 조회

$ maxctrl list servers
반응형

'DB Middleware > Maxscale' 카테고리의 다른 글

maxscale 사용 중인 mariaDB에 디비 및 계정 생성  (0) 2024.09.07
반응형

Redis 명령어

Redis server 명령어

$ redis-server : Redis 실행합니다.
$ brew services start redis : brew 명령어를 통해 Redis를 백그라운드에서 실행할 수 있습니다.
$ brew services restart redis : Redis를 재실행합니다.
$ brew services stop redis : 실행중인 Redis를 중지합니다.
$ redis-cli ping : Redis가 실행되고 있는 상태인지 확인할 수 있습니다.

 

 

Redis-cli 명령어

$ keys * : 저장된 key 값 모두를 봅니다.
$ set key value : key 값과 value 값을 저장합니다.
$ mset key value : Multi key 값과 value 값을 저장합니다.
$ keys *key* : *을 사용하여 찾고자 하는 key 값의 일부 부분을 대신할 수 있습니다.
$ get key : 찾고자 하는 key의 value 값을 구합니다.
$ del key : 해당 key에 값을 삭제합니다.
$ flushall : 모든 정보를 삭제합니다.
$ rename key newkey : key name을 수정합니다.
$ setex key seconds value :  만료 시간을 지정하여 데이터를 저장합니다.
$ ttl key : ttl을 통해 만료 시간을 확인할 수 있습니다. -2 값은 데이터가 소멸한 데이터를 의미합니다. -1 같은 경우 기한이 없는 데이터를 의미합니다.
반응형

'DB Middleware > Redis' 카테고리의 다른 글

맥북에서 Redis 설치하기  (0) 2023.11.10
반응형

맥북에서 Redis 설치하기

 

맥북에서 Redis 설치하기

맥북에서는 brew 로 쉽게 설치할 수 있습니다.

$ brew update
$ brew install redis

#redis 설치된거 확인합니다.
$ redis-server --version

 

 

 

반응형

'DB Middleware > Redis' 카테고리의 다른 글

Redis 명령어  (0) 2023.11.10

+ Recent posts