博客
关于我
kafka日志存储(五):LogSegment
阅读量:250 次
发布时间:2019-03-01

本文共 4420 字,大约阅读时间需要 14 分钟。

为了防止Log文件过大,把log切分成很多个日志文件,每个日志文件对应一个LogSegment,在LogSegment中封装一个FileMessageSet和OffsetIndex对象。

 

class LogSegment(val log: FileMessageSet,//操作对应日志文件FileMessageSet对象                 val index: OffsetIndex,//操作索引文件的OffsetIndex对象                 val baseOffset: Long,//第一条消息的offset值                 val indexIntervalBytes: Int,//索引项之间间隔的最下字节数                 val rollJitterMs: Long,                 time: Time) extends Logging {      //自从上次添加索引项之和,在日志文件中累计加入的Message集合的字节数,判断下次索引项添加的时机。      private var bytesSinceLastIndexEntry = 0      //LogSegment的创建时间,当调用truncateTo方法吧整个日志文件清空的时候,此字段会重置为当前时间      var created = time.milliseconds}

LogSegment.append()实现了追加消息的功能。第一个参数是第一条消息的offset,如果是压缩的消息,则是内层消息的第一个offset。

 

def append(offset: Long, messages: ByteBufferMessageSet) {    if (messages.sizeInBytes > 0) {      trace("Inserting %d bytes at offset %d at position %d".format(messages.sizeInBytes, offset, log.sizeInBytes()))      //是否满足添加索引项目的条件      if(bytesSinceLastIndexEntry > indexIntervalBytes) {        //添加索引        index.append(offset, log.sizeInBytes())        this.bytesSinceLastIndexEntry = 0      }      // 写日志文件,更新bytesSinceLastIndexEntry      log.append(messages)      this.bytesSinceLastIndexEntry += messages.sizeInBytes    }}

read方法读取消息,有四个参数

// startOffset指定读取的起始消息的offset// maxOffset 读取结束的offset,可以为空// maxSize 指定读取的最大字节数// maxPosition 指定读取的最大物理地址  def read(startOffset: Long, maxOffset: Option[Long], maxSize: Int, maxPosition: Long = size): FetchDataInfo = {    if(maxSize < 0)      throw new IllegalArgumentException("Invalid max size for log read (%d)".format(maxSize))    // 日志文件的长度    val logSize = log.sizeInBytes // this may change, need to save a consistent copy    // 转换为物理地址,通过offsetIndex.lookup和FileMessageSet.searchFor,查找方法已在之前的博客中介绍    val startPosition = translateOffset(startOffset)    // if the start position is already off the end of the log, return null    if(startPosition == null)      return null    val offsetMetadata = new LogOffsetMetadata(startOffset, this.baseOffset, startPosition.position)    // if the size is zero, still return a log segment but with zero size    if(maxSize == 0)      return FetchDataInfo(offsetMetadata, MessageSet.Empty)    // 计算读取的字节数    val length = maxOffset match {      case None =>        // maxOffset为空,由maxPosition、maxSize决定读取的长度        min((maxPosition - startPosition.position).toInt, maxSize)      case Some(offset) =>        // maxOffset换成物理地址        if(offset < startOffset)          return FetchDataInfo(offsetMetadata, MessageSet.Empty)        val mapping = translateOffset(offset, startPosition.position)        val endPosition =          if(mapping == null)            logSize // the max offset is off the end of the log, use the end of the file          else            mapping.position        min(min(maxPosition, endPosition) - startPosition.position, maxSize).toInt    }    //返回消息    FetchDataInfo(offsetMetadata, log.read(startPosition.position, length))  }

LogSegment的recover方法根据日志文件重新索引文件。

 

def recover(maxMessageSize: Int): Int = {      // 清空索引文件,只是移动position指针,后续的写入会覆盖原有的内容。    index.truncate()    //修改索引文件的大小    index.resize(index.maxIndexSize)    //记录了已经通过验证的字节数    var validBytes = 0    //最后一个索引项对应的物理地址    var lastIndexEntry = 0    //FileMessageSet迭代器    val iter = log.iterator(maxMessageSize)    try {      while(iter.hasNext) {        val entry = iter.next        entry.message.ensureValid()        //符合添加索引的条件        if(validBytes - lastIndexEntry > indexIntervalBytes) {          // we need to decompress the message, if required, to get the offset of the first uncompressed message          val startOffset =            entry.message.compressionCodec match {              case NoCompressionCodec =>                entry.offset              case _ =>                //对消息进行解压缩,获取第一个消息的offset                ByteBufferMessageSet.deepIterator(entry).next().offset          }          //添加索引项          index.append(startOffset, validBytes)          lastIndexEntry = validBytes        }        //累加validBytes        validBytes += MessageSet.entrySize(entry.message)      }    } catch {      case e: CorruptRecordException =>        logger.warn("Found invalid messages in log segment %s at byte offset %d: %s.".format(log.file.getAbsolutePath, validBytes, e.getMessage))    }    //对日志文件进行截断,抛弃后面验证失败的message    val truncated = log.sizeInBytes - validBytes    log.truncateTo(validBytes)    index.trimToValidSize()    truncated  }

 

转载地址:http://gjxx.baihongyu.com/

你可能感兴趣的文章
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_无分页功能_02_转换数据_分割数据_提取JSON数据_替换拼接SQL_添加分页---大数据之Nifi工作笔记0037
查看>>
NIFI从PostGresql中离线读取数据再导入到MySql中_带有数据分页获取功能_不带分页不能用_NIFI资料太少了---大数据之Nifi工作笔记0039
查看>>
nifi使用过程-常见问题-以及入门总结---大数据之Nifi工作笔记0012
查看>>
NIFI分页获取Mysql数据_导入到Hbase中_并可通过phoenix客户端查询_含金量很高的一篇_搞了好久_实际操作05---大数据之Nifi工作笔记0045
查看>>
NIFI分页获取Postgresql数据到Hbase中_实际操作---大数据之Nifi工作笔记0049
查看>>
NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
查看>>
NIFI同步MySql数据源数据_到原始库hbase_同时对数据进行实时分析处理_同步到清洗库_实际操作06---大数据之Nifi工作笔记0046
查看>>
Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
查看>>
NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
查看>>
NIFI大数据进阶_FlowFile生成器_GenerateFlowFile处理器_ReplaceText处理器_处理器介绍_处理过程说明---大数据之Nifi工作笔记0019
查看>>
NIFI大数据进阶_FlowFile生成器_GenerateFlowFile处理器_ReplaceText处理器_实际操作---大数据之Nifi工作笔记0020
查看>>
NIFI大数据进阶_Json内容转换为Hive支持的文本格式_实际操作_02---大数据之Nifi工作笔记0032
查看>>
NIFI大数据进阶_Json内容转换为Hive支持的文本格式_操作方法说明_01_EvaluteJsonPath处理器---大数据之Nifi工作笔记0031
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka消费者处理器_来消费kafka数据---大数据之Nifi工作笔记0037
查看>>