生产者发送流程




kafka 消费者未指定消费组 kafka消费者确认_序列化


  • Kafka 会将发送消息包装为ProducerRecord 对象,ProducerRecord 对象包含了目标主题和要发送的内容,同时还可以指定键和分区。
  • 在发送ProducerRecord 对象前,生产者会先把键和值对象序列化成字节数组,这样它们才能够在网络上传输。
  • 数据被传给分区器。如果之前已经在ProducerRecord 对象里指定了分区,那么分区器就不会再做任何事情。
  • 如果没有指定分区 ,那么分区器会根据ProducerRecord 对象的键来选择一个分区,紧接着,这条记录被添加到一个记录批次里,这个批次里的所有消息会被发送到相同的主题和分区上。
  • 有一个独立的线程负责把这些记录批次发送到相应的 broker 上。
  • 服务器在收到这些消息时会返回一个响应。如果消息成功写入 Kafka,就返回一个RecordMetaData 对象,它包含了主题和分区信息,以及记录在分区里的偏移量。
  • 如果写入失败,则会返回一个错误。生产者在收到错误之后会尝试重新发送消息,如果达到指定的重试次数后还没有成功,则直接抛出异常,不再重试。

创建生产者

在创建生产者对象的时候,要设置一些属性,有三个属性是必选的:

  • bootstrap.servers:指定Broker的地址清单,地址格式为host:port。清单里不需要包含所有的Broker地址,生产者会从给定的Broker里查找到其他Broker的信息;不过建议至少要提供两个Broker的信息保证容错。
  • key.serializer:指定键的序列化器。Broker希望接收到的消息的键和值都是字节数组。这个属性必须被设置为一个实现了org.apache.kafka.common.serialization.Serializer接口的类,生产者会使用这个类把键对象序列化成字节数组。Kafka客户端默认提供了ByteArraySerializer、StringSerializer和IntegerSerializer,因此一般不需要实现自定义的序列化器。需要注意的是,key.serializer属性是必须设置的,即使只发送值内容。
  • value.serializer:指定值的序列化器。如果键和值都是字符串,可以使用与key.serializer一样的序列化器,否则需要使用不同的序列化器。

发送方式

  • 发送并忘记(fire-and-forget):把消息发送给服务器,但并不关心消息是否正常到达,也就是上面样例中的方式。大多数情况下,消息会正常到达,这可以由Kafka的高可用性和自动重发机制来保证。不过有时候也会丢失消息。
  • 同步发送:使用send()方法发送消息,它会返回一个Future对象,调用get()方法进行等待,我们就可以知道消息是否发送成功。
ProducerRecord<String, String> record = new ProducerRecord<>("Topic", "k", "v"); 
try {
    producer.send(record).get; 
} catch (Exception e) {
    e.printStackTrace(); 
}


  • 异步发送:调用send()方法时,同时指定一个回调函数,服务器在返回响应时调用该函数。
ProducerRecord<String, String> record = new ProducerRecord<>("Topic", "k", "v");
// 异步发送消息,并监听回调
producer.send(record, new Callback() { // 1
    @Override
    public void onCompletion(RecordMetadata metadata, Exception exception) { // 2
        if (exception != null) {
            // 进行异常处理
        } else {
            System.out.printf("topic=%s, partition=%d, offset=%s n", metadata.topic(), metadata.partition(), metadata.offset());
        }
    }
});


顺序保证

Kafka可以保证同一个分区里的消息是有序的。考虑一种情况,如果retries为非零整数,同时max.in.flight.requests.per.connection为比1大的数如果某些场景要求消息是有序的,也即生产者在收到服务器响应之前可以发送多个消息,且失败会重试。那么如果第一个批次消息写入失败,而第二个成功,Broker会重试写入第一个批次,如果此时第一个批次写入成功,那么两个批次的顺序就反过来了。也即,要保证消息是有序的,消息是否写入成功也是很关键的。那么如何做呢?在对消息的顺序要严格要求的情况下,可以将retries设置为大于0,max.in.flight.requests.per.connection设为1,这样在生产者尝试发送第一批消息时,就不会有其他的消息发送给Broker。当然这回严重影响生产者的吞吐量。

使用步骤:

导入依赖


<groupId>org.apache.kafka</groupId>
    <artifactId>kafka_2.11</artifactId>
     <version>1.1.0</version>


生产者


public class MyProducer {
    public static void main(String[] args) {
        Properties props = new Properties();
        // Kafka服务端的主机名和端口号
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.85.113:9092,192.168.85.114:9092,192.168.85.118:9092");

        // 等待所有副本节点的应答
        props.put("acks", "all");

        // 消息发送最大尝试次数
        props.put("retries", 0);

        // 一批消息处理大小
        props.put("batch.size", 16384);

        // 请求延时
        props.put("linger.ms", 1);

        // 发送缓存区(RecoderAccumulator)内存大小
        props.put("buffer.memory", 33554432);

        // key序列化
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        // value序列化
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        //发送数据
        KafkaProducer<String, String> kafkaProducer = new KafkaProducer<String, String>(props);
        for (int i = 0; i < 10; i++) {
            kafkaProducer.send(new ProducerRecord<String, String>("first", "testkafka" + i));
        }
        //关闭
        kafkaProducer.close();

    }


消费者


kafka 消费者未指定消费组 kafka消费者确认_生产者消费者_02

顺序是因为发送到不同的分区内


带回调函数的生产者


public class CallBackProducer {
    public static void main(String[] args) {

        Properties props = new Properties();
        // Kafka服务端的主机名和端口号
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.85.113:9092,192.168.85.114:9092,192.168.85.118:9092");

        // key序列化
        props.put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");

        // value序列化
        props.put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer");

        KafkaProducer<String, String> producer = new KafkaProducer<String, String>(props);
        for (int i = 0; i < 10; i++) {
            //可以指定分区和key值
            producer.send(new ProducerRecord<String, String>("fourth", "testKafka2" + i),(recordMetadata, ex)->{
                //成功返回recordMetadata
                if (null == ex) {
                    System.out.println("offset为+++++" + recordMetadata.offset());
                    System.out.println("分区为++++++" + recordMetadata.partition());
                } else {
                    //失败返回exception
                    ex.printStackTrace();
                }
            });
        }

        producer.close();
    }
}


自定义分区器/默认分区


public class DefaultPartitioner implements Partitioner {
    private final ConcurrentMap<String, AtomicInteger> topicCounterMap = new ConcurrentHashMap();

    public DefaultPartitioner() {
    }

    public void configure(Map<String, ?> configs) {
    }

    public int partition(String topic, Object key, byte[] keyBytes, Object value, byte[] valueBytes, Cluster cluster) {
        List<PartitionInfo> partitions = cluster.partitionsForTopic(topic);
        int numPartitions = partitions.size();
        if (keyBytes == null) {
            int nextValue = this.nextValue(topic);
            List<PartitionInfo> availablePartitions = cluster.availablePartitionsForTopic(topic);
            if (availablePartitions.size() > 0) {
                int part = Utils.toPositive(nextValue) % availablePartitions.size();
                return ((PartitionInfo)availablePartitions.get(part)).partition();
            } else {
                return Utils.toPositive(nextValue) % numPartitions;
            }
        } else {
            return Utils.toPositive(Utils.murmur2(keyBytes)) % numPartitions;
        }
    }

    private int nextValue(String topic) {
        AtomicInteger counter = (AtomicInteger)this.topicCounterMap.get(topic);
        if (null == counter) {
            counter = new AtomicInteger(ThreadLocalRandom.current().nextInt());
            AtomicInteger currentCounter = (AtomicInteger)this.topicCounterMap.putIfAbsent(topic, counter);
            if (currentCounter != null) {
                counter = currentCounter;
            }
        }

        return counter.getAndIncrement();
    }

    public void close() {
    }
}


配置自定义的分区器

配置文件内添加自定义的分区器


props.put(ProducerConfig.PARTITIONER_CLASS_CONFIG, "com.sf.kafak.Partitioner.MyPartitioner");


异步转同步-------应用较少


for (int i = 0; i < 10; i++) {
    Future<RecordMetadata> fourth = producer.send(new ProducerRecord<String, String>("fourth", 0, "0", "testKafka2" + i), (recordMetadata, ex) -> {
        //成功返回recordMetadata
        if (null == ex) {
            System.out.println("offset为+++++" + recordMetadata.offset() + "分区为++++++" + recordMetadata.partition());
        } else {
            //失败返回exception
            ex.printStackTrace();
        }
    });
    try {
        //get方法阻塞当前线程
        RecordMetadata recordMetadata = fourth.get();
    } catch (InterruptedException e) {
        e.printStackTrace();
    } catch (ExecutionException e) {
        e.printStackTrace();
    }
}



消费者

  • 创建
  • 创建Kafka的消费者对象的过程与创建生产者的过程是类似的,需要传入必要的属性。在创建消费者的时候以下以下三个选项是必选的:
  • bootstrap.servers :指定 broker 的地址清单,清单里不需要包含所有的 broker 地址,生产者会从给定的 broker 里查找 broker 的信息。不过建议至少要提供两个 broker 的信息作为容错;
  • key.deserializer :指定键的反序列化器;
  • value.deserializer :指定值的反序列化器。
String topic = "Hello";
String group = "group1";
Properties props = new Properties();
props.put("bootstrap.servers", "server:9091");
/*指定分组 ID*/
props.put("group.id", group);
props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);


  • 消费

创建了Kafka消费者之后,接着就可以订阅主题了。订阅主题可以使用如下两个 API :

  • consumer.subscribe(Collection topics) :指明需要订阅的主题的集合;
  • consumer.subscribe(Pattern pattern) :使用正则来匹配需要订阅的集合。
consumer.subscribe(Collections.singletonList(topic))
try {
    while (true) {
        // 轮询获取数据
        ConsumerRecords<String, String> records = consumer.poll(Duration.of(100, ChronoUnit.MILLIS));
        for (ConsumerRecord<String, String> record : records) {
            System.out.printf("topic = %s,partition = %d, key = %s, value = %s, offset = %d,n",
           record.topic(), record.partition(), record.key(), record.value(), record.offset());
        }
    }
} finally {
    consumer.close();
}


  • demo
public class MyConsumer {
    public static void main(String[] args) {

        Properties props = new Properties();
        // Kafka服务端的主机名和端口号
        props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.85.113:9092,192.168.85.114:9092,192.168.85.118:9092");
        //开启自动提交------------------未开启自动提交时不提交offset,每次拉取都会从头
        props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, true);
        // 消费者提交offset延时
        props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, 1000);
        // key/value反序列化
        props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");
        props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");
        //消费者组
        props.put(ConsumerConfig.GROUP_ID_CONFIG,"bigdata");

        KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props);

        //订阅主题(可以订阅多个主题)
        consumer.subscribe(Arrays.asList("first","fourth"));

        while (true) {
            //每次拉取会拉取多个值
            ConsumerRecords<String, String> consumerRecords = consumer.poll(100);//消费者拉取的时间间隔

            //解析拉取的数据
            for (ConsumerRecord<String, String> consumerRecord : consumerRecords) {
                System.out.println(
                        "key+++++++" + consumerRecord.key()
                                + "value+++++" + consumerRecord.value()
                                + "offset++++++" + consumerRecord.offset()
                );
            }

        }
    }
}



OFFSET管理

提交是指更新分区当前位置的操作,分区当前的位置,也就是所谓的偏移量

  • Kafka 的每一条消息都有一个偏移量属性,记录了其在分区中的位置,偏移量是一个单调递增的整数。消费者通过往一个叫作 _consumer_offset 的特殊主题发送消息,消息里包含每个分区的偏移量。 如果消费者一直处于运行状态,那么偏移量就没有 什么用处。不过,如果有消费者退出或者新分区加入,此时就会触发再均衡。完成再均衡之后,每个消费者可能分配到新的分区,而不是之前处理的那个。为了能够继续之前的工作,消费者需要读取每个分区最后一次提交的偏移量,然后从偏移量指定的地方继续处理。 因为这个原因,所以如果不能正确提交偏移量,就可能会导致数据丢失或者重复出现消费,比如下面情况:
  • 如果提交的偏移量小于客户端处理的最后一个消息的偏移量 ,那么处于两个偏移量之间的消息就会被重复消费;
  • 如果提交的偏移量大于客户端处理的最后一个消息的偏移量,那么处于两个偏移量之间的消息将会丢失。

自动提交:

只需要将消费者的 enable.auto.commit 属性配置为 true 即可完成自动提交的配置。 此时每隔固定的时间,消费者就会把 poll() 方法接收到的最大偏移量进行提交,提交间隔由 auto.commit.interval.ms 属性进行配置,默认值是 5s。

使用自动提交是存在隐患的,假设我们使用默认的 5s 提交时间间隔,在最近一次提交之后的 3s 发生了再均衡,再均衡之后,消费者从最后一次提交的偏移量位置开始读取消息。这个时候偏移量已经落后了 3s ,所以在这 3s 内到达的消息会被重复处理。可以通过修改提交时间间隔来更频繁地提交偏移量,减小可能出现重复消息的时间窗,不过这种情况是无法完全避免的。基于这个原因,Kafka 也提供了手动提交偏移量的 API,使得用户可以更为灵活的提交偏移量。

手动提交offset

通常从Kafka拿到的消息是要做业务处理,而且业务处理完成才算真正消费成功。所以在完成业务处理后才能提交offset。手动提交分为:commitSync(同步提交)和commitAsync(异步提交)。

相同点:都会poll的一批数据最高的偏移量提交。

不同点:commitSync会阻塞当前线程,一直到提交成功,并且会自动失败重试;commitAsync则没有失败重试机制,有可能提交失败。

  • 同步提交
public class MyConsumer {
    public static void main(String[] args) {

        Properties props = new Properties();
        // Kafka服务端的主机名和端口号
        props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "192.168.85.113:9092,192.168.85.114:9092,192.168.85.118:9092");
        //关闭自动提交
        props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);
        // key/value反序列化
        props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");
        props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer");
        //消费者组
        props.put(ConsumerConfig.GROUP_ID_CONFIG,"bigdata");

        KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props);

        //订阅主题(可以订阅多个主题)
        consumer.subscribe(Arrays.asList("first","fourth"));

        while (true) {
            //每次拉取会拉取多个值
            ConsumerRecords<String, String> consumerRecords = consumer.poll(100);//消费者拉取的时间间隔

            //解析拉取的数据
            for (ConsumerRecord<String, String> consumerRecord : consumerRecords) {
                System.out.println(
                        "key+++++++" + consumerRecord.key()
                                + "value+++++" + consumerRecord.value()
                                + "offset++++++" + consumerRecord.offset()
                );
            }
            //同步提交,阻塞当前线程一直到提交成功
           //会降低程序的吞吐量
            consumer.commitSync();

        }
    }


  • 异步提交—————生产中使用那个较多
//同步提交,阻塞当前线程一直到提交成功
consumer.commitAsync(new OffsetCommitCallback() {
    @Override
    public void onComplete(Map<TopicPartition, OffsetAndMetadata> map, Exception e) {
        if (null!=e) {
            System.out.println("commit fail for"+e);
        }
    }
});


自定义offset提交/存储(如mysql中)

提交自定义的offset只需要在重载的提交方法中传入偏移量参数即可。


// 同步提交特定偏移量
commitSync(Map<TopicPartition, OffsetAndMetadata> offsets)
// 异步提交特定偏移量
commitAsync(Map<TopicPartition, OffsetAndMetadata> offsets, OffsetCommitCallback


无论以哪种方式提交offset都有可能造成重复消费或数据丢失的问题。可以使用自定义的offset存储方式。

kafka0.9版本之前,offset存储在zookeeper中,0.9版本之后,offset存储在kafka一个内置的topic中。还可以自定义存储的offset(主要借助ConsumerRebalanceListener)。


拦截器

Producer拦截器(interceptor)是在Kafka 0.10版本被引入的,主要用于实现clients端的定制化控制逻辑。

对于producer而言,interceptor使得用户在消息发送前以及producer回调逻辑前有机会对消息做一些定制化需求,比如修改消息等。同时,producer允许用户指定多个interceptor按序作用于同一条消息从而形成一个拦截链(interceptor chain)。Intercetpor的实现接口是org.apache.kafka.clients.producer.ProducerInterceptor,其定义的方法包括:

  • configure(configs)

获取配置信息和初始化数据时调用。

  • onSend(ProducerRecord):

该方法封装进KafkaProducer.send方法中,即它运行在用户主线程中。Producer确保在消息被序列化以及计算分区前调用该方法。用户可以在该方法中对消息做任何操作,但最好保证不要修改消息所属的topic和分区,否则会影响目标分区的计算

  • onAcknowledgement(RecordMetadata, Exception):

该方法会在消息被应答或消息发送失败时调用,并且通常都是在producer回调逻辑触发之前。onAcknowledgement运行在producer的IO线程中,因此不要在该方法中放入很重的逻辑,否则会拖慢producer的消息发送效率

  • close:

关闭interceptor,主要用于执行一些资源清理工作

如前所述,interceptor可能被运行在多个线程中,因此在具体实现时用户需要自行确保线程安全。另外倘若指定了多个interceptor,则producer将按照指定顺序调用它们,并仅仅是捕获每个interceptor可能抛出的异常记录到错误日志中而非在向上传递。这在使用过程中要特别留意。

拦截器链demo


kafka 消费者未指定消费组 kafka消费者确认_apache_03

将时间戳添加到value前,并实现消息数量统计

时间戳拦截器


public class TimeInterceptor implements ProducerInterceptor<String, String> {

    @Override
    public void configure(Map<String, ?> map) {

    }
    @Override
    public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {

        // 创建一个新的record,把时间戳写入消息体的最前部
        return new ProducerRecord(record.topic(), record.partition(), record.timestamp(), record.key(),
                System.currentTimeMillis() + "," + record.value().toString());
    }

    @Override
    public void onAcknowledgement(RecordMetadata recordMetadata, Exception e) {
    }

    @Override
    public void close() {
    }
}


统计失败成功条数


public class CounterInterceptor implements ProducerInterceptor<String, String> {
    private int errorCounter = 0;
    private int successCounter = 0;

    @Override
    public void configure(Map<String, ?> configs) {
    }
    @Override
    public ProducerRecord<String, String> onSend(ProducerRecord<String, String> record) {
        return record;
    }
    @Override
    public void onAcknowledgement(RecordMetadata metadata, Exception exception) {
        // 统计成功和失败的次数
        if (exception == null) {
            successCounter++;
        } else {
            errorCounter++;
        }
    }
    @Override
    public void close() {
        // 保存结果
        System.out.println("Successful sent: " + successCounter);
        System.out.println("Failed sent: " + errorCounter);
    }
}


配置文件内添加拦截器链


//构建拦截链
        List<String> interceptors = new ArrayList<>();
        interceptors.add("com.sf.kafka.interceptor.TimeInterceptor");
        interceptors.add("com.sf.kafka.interceptor.CounterInterceptor");
        props.put(ProducerConfig.INTERCEPTOR_CLASSES_CONFIG, interceptors);