Hadoop生态圈之Flume(一)

发布时间:2022-12-02 17:00

1. 概述

       Flume是Cloudera提供的一个高可用的,高可靠的,分布式的海量日志采集、聚合和传输的软件。

       Flume的核心是把数据从数据源(source)收集过来,再将收集到的数据送到指定的目的地(sink)。为了保证输送的过程一定成功,在送到目的地(sink)之前,会先缓存数据(channel),待数据真正到达目的地(sink)后,flume在删除自己缓存的数据。

2. 运行机制

  • flume 本身是一个 Java 进程,在需要采集数据机器上启动 ---->  agent 进程
  • agent 进程里面包含了:source(采集源)、sink(下沉地)、channel(数据传输通道)
  • 在整个数据的传输的过程中,流动的是event,它是Flume内部数据传输的最基本单元。event将传输的数据进行封装。如果是文本文件,通常是一行记录,event也是事务的基本单位。event从source,流向channel,再到sink,本身为一个字节数组,并可携带headers(头信息)信息。event代表着一个数据的最小完整单元,从外部数据源来,向外部的目的地去。
  • 一个完整的event包括:event headers、event body、event信息,其中event信息就是flume收集到的日记记录。

ItVuer - 免责声明 - 关于我们 - 联系我们

本网站信息来源于互联网,如有侵权请联系:561261067@qq.com

桂ICP备16001015号