
Estou tentando fazer com que o filebeat consuma mensagens do kafka usando a entrada do kafka. Não consigo me autenticar com SASL por algum motivo e não sei por que isso acontece. A documentação do Kafka e do Filebeat falta um pouco ao tentar usá-lo com SASL.
Minha configuração do filebeat é a seguinte:
filebeat.config:
modules:
path: ${path.config}/modules.d/*.yml
reload.enabled: false
filebeat.inputs:
- type: kafka
hosts: 'the.kafka.server.com:9092'
topics: 'my_topic'
group_id: 'my_group'
ssl.enabled: yes
username: "$ConnectionString"
password: "org.apache.kafka.common.security.plain.PlainLoginModule required username='my_username' password='my_password';"
processors:
- add_cloud_metadata: ~
- add_docker_metadata: ~
output.console:
pretty: true
A saída mostra
INFO input/input.go:114 Starting input of type: kafka; ID: 14409252276502564738
INFO kafka/log.go:53 kafka message: Initializing new client
INFO kafka/log.go:53 client/metadata fetching metadata for all topics from broker the.kafka.server.com:9092
INFO crawler/crawler.go:106 Loading and starting Inputs completed. Enabled inputs: 1
INFO cfgfile/reload.go:171 Config reloader started
INFO cfgfile/reload.go:226 Loading of config files completed.
INFO kafka/log.go:53 kafka message: Successful SASL handshake. Available mechanisms: %!(EXTRA []string=[PLAIN OAUTHBEARER])
INFO kafka/log.go:53 Failed to read response while authenticating with SASL to broker the.kafka.server.com:9092: EOF
INFO kafka/log.go:53 Closed connection to broker the.kafka.server.com:9092
INFO kafka/log.go:53 client/metadata got error from broker -1 while fetching metadata: EOF
Não tenho certeza do que está acontecendo aqui. Também tentei adicionar compression: none
o que não ajudou e verifiquei com o openssl se o certificado do servidor pode ser verificado. O que estou fazendo de errado aqui? O servidor kafka em questão é um servidor kafka hospedado na nuvem e não consigo ver a configuração do servidor. Recebi a "string de conexão" da interface do usuário da nuvem do kafka.
Responder1
Encontrei o problema: a $ConnectionString
sintaxe não funciona com clusters confluentes do Cloud Kafka. A sintaxe correta é a seguinte:
filebeat.inputs:
- type: kafka
hosts: 'the.kafka.server.com:9092'
topics: 'my_topic'
group_id: 'my_group'
ssl.enabled: yes
username: <API KEY>
password: <API SECRET>
Isso é o suficiente para conectá-lo e consumir