Flink证券项目(四) 高性能数据传输中间件
1.1. 高性能数据传输中间件
在企业级大数据流处理项目中,往往在项目数据源处需要面临实时海量数据的采集。采集数据的性能一般与网络带宽、机器硬件、数据量等因素有直接关系;当其他因素是固定的,这里我们只考虑数据量的话,那么数据量的传输和存储性能是我们首先需要面对和解决的。
由此我们引入了Avro数据序列化框架,来解决数据的传输性能问题。
1.1.1. Apache Avro介绍
Apache Avro(以下简称 Avro)是一个数据序列化系统,是一种与编程语言无关的序列化格式,是提供一种共享数据文件的方式。Avro是Hadoop中的一个子项目,Avro是一个基于二进制数据传输高性能的中间件。Avro可以做到将数据进行序列化,适用于远程或本地大批量数据交互。在传输的过程中Avro对数据二进制序列化后节约数据存储空间和网络传输带宽。
序列化就是将对象转换成二进制流,相应的反序列化就是将二进制流再转换成对应的对象。因此,Avro就是用来在传输数据之前,将对象转换成二进制流,然后此二进制流达到目标地址后,Avro再将二进制流转换成对象。
Avro特点:
·1.丰富的数据结构
·2.一个紧凑的,快速的,二进制的数据格式
·3.一个容器文件,来存储持久化数据
·4.远程过程调用(RPC)
·5.简单的动态语言集成。
·6.Avro模式是使用JSON定义的 。这有助于以已经具有JSON库的语言实现。
JSON是一种轻量级的数据传输格式,对于大数据集,JSON数据会显示力不从心,因为JSON的格式是key:value型,每条记录都要附上key的名字,有的时候,光key消耗的空间甚至会超过value所占空间,这对空间的浪费十分严重,尤其是对大型数据集来说,因为它不仅不够紧凑,还要重复地加上key信息,不仅会造成存储空间上的浪费,更会增加了数据传输的压力,从而给集群增加负担,进而影响整个集群的吞吐量。而采用Avro数据序列化系统可以比较好的解决此问题,因为用Avro序列化后的文件由schema和真实内容组成,schema只是数据的元数据,相当于JSON数据的key信息,schema单独存放在一个JSON文件中,这样一来,数据的元数据只存了一次,相比JSON数据格式的文件,大大缩小了存储容量。从而使得Avro文件可以更加紧凑地组织数据。
官网地址:http://avro.apache.org/docs/current/gettingstartedjava.html
1.1.2. Avro文件规范
AVRO的Schema是用JSON的格式表示的,Schema可以用
JSON String 来命名一个定义的类型
JSON 对象,形式如:
引用
{“namespace”: “cn.itcast.demo”, “type”: “record”, “name”: “User”, “fields”: [ {“name”: “name”, “type”: “string”}, {“name”: “age”, “type”: [“int”, “null”]}, {“name”: “address”, “type”: [“string”, “null”]} ]}
1.1.2.1. 原生类型
原生类型如下所示:
null: 表示没有值
boolean: 表示一个二进制布尔值
int: 表示32位有符号整数
long: 表示64位有符号整数
float: 表示32位的单精度浮点数
double: 表示64位双精度浮点数
bytes: 表示8位的无符号字节序列
string: Unicode 编码的字符序列
总共就这8种原生数据类型,这些原生数据类型均没有明确的属性。
1.1.2.2. 复杂类型
AVRO支持6种复杂类型,分别是:records, enums, arrays, maps, unions,fixed,这里我门着重讲解Recoeds类型。
1.Records
Records使用类型名称“record”,并且支持三个必选属性。
type: 必有属性。
name: 必有属性,是一个JSON string,提供了记录的名字。
namespace,也是一个JSON string,用来限定和修饰name属性。
doc: 可选属性,是一个JSON string,为使用这个Schema的用户提供文档。
aliases: 可选属性,是JSON的一个string数组,为这条记录提供别名。
fields: 必选属性,是一个JSON数组,数组中列举了所有的field。
每一个field都是一个JSON对象,并且具有如下属性:
(1)name: 必选属性,field的名字,是一个JSON string。例如:
“fields”: [
{“name”: “name”, “type”: “string”},
{“name”: “age”, “type”: [“int”, “null”]},
{“name”: “address”, “type”: [“string”, “null”]}
]
(2)doc: 可选属性,为使用此Schema的用户提供了描述此field的文档。
(3)type: 必选属性,定义Schema的一个JSON对象,或者是命名一条记录定义的JSON string。
(4)default: 可选属性,即field的默认值,当读到缺少这个field的实例时用到。默认值的允许的范围由这个field的Schama的类型决定。
order: 可选属性,指定这个field如何影响record的排序。有效的可选值为“ascending”(默认),“descending"和"ignore”
alias: JSON的string数组,为这个field提供别名。
1.1.3. 快速入门案例
1.1.3.1. 新建工程
使用Idea新建quot父工程,再创建子工程avro。
图一:
图二:
1.1.3.2. 添加依赖
在pom中导入下面的依赖包
<dependencies>
<dependency>
<groupId>org.apache.avro</groupId>
<artifactId>avro</artifactId>
<version>1.8.1</version>
</dependency>
</dependencies>
<build>
<plugins>
<!--maven编译插件-->
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<configuration>
<source>1.8</source>
<target>1.8</target>
</configuration>
</plugin>
<!--Avro编译插件-->
<plugin>
<groupId>org.apache.avro</groupId>
<artifactId>avro-maven-plugin</artifactId>
<version>1.8.1</version>
<executions>
<execution>
<phase>generate-sources</phase>
<goals>
<goal>schema</goal>
</goals>
<configuration>
<!--Avro源文件-->
<sourceDirectory>${project.basedir}/src/main/avro/</sourceDirectory>
<!--Avro编译生成文件-->
<outputDirectory>${project.basedir}/src/main/java/</outputDirectory>
</configuration>
</execution>
</executions>
</plugin>
</plugins>
</build>
1.1.3.3. 定义schema
使用JSON为Avro定义schema。schema由基本类型(null,boolean, int, long, float, double, bytes 和string)和复杂类型(record, enum, array, map, union, 和fixed)组成。
定义一个user的schema,开发步骤:
1.新建文件夹目录src/main/avro和/src/main/java
2.在avro目录下新建文件 user.avsc :
{“namespace”: “cn.itcast.avro”, “type”: “record”, “name”: “User”, “fields”: [ {“name”: “name”, “type”: “string”}, {“name”: “age”, “type”: [“int”, “null”]}, {“name”: “address”, “type”: [“string”, “null”]} ]}
1.1.3.4. maven编译
第一种方式:
编译之后,会在工程目录下生成users.avro文件
第二种方式:
在资料目录“第1章\4.资料\avro\jars”,打开cmd,输入下面命令,也可以获取编译的avro文件。
java -jar avro-tools-1.8.1.jar compile schema user.avsc ./
注意:需要avro编译工具包:avro-tools-1.8.1.jar
avro-tools-1.8.1.jar包下载地址:http://archive.apache.org/dist/avro/
- 点赞
- 收藏
- 关注作者
评论(0)