红帽白皮书新鲜出炉!点击获取,让你的云战略更胜一筹! 了解详情
写点什么

达观数据分析平台架构和 Hive 实践

  • 2016-03-16
  • 本文字数:9639 字

    阅读完需:约 32 分钟

编者按:Hadoop 于 2006 年 1 月 28 日诞生,至今已有 10 年,它改变了企业对数据的存储、处理和分析的过程,加速了大数据的发展,形成了自己的极其火爆的技术生态圈,并受到非常广泛的应用。在 2016 年 Hadoop 十岁生日之际,InfoQ 策划了一个 Hadoop 热点系列文章,为大家梳理 Hadoop 这十年的变化,技术圈的生态状况,回顾以前,激励以后。

近十年来,随着 Hadoop 生态系统的不断完善,Hadoop 早已成为大数据事实上的行业标准之一。面对当今互联网产生的巨大的 TB 甚至 PB 级原始数据,利用基于 Hadoop 的数据仓库解决方案 Hive 早已是 Hadoop 的热点应用之一。达观数据团队长期致力于研究和积累 Hadoop 系统的技术和经验,并构建起了分布式存储、分析、挖掘以及应用的整套大数据处理平台。

本文将从 Hive 原理、数据分析平台架构、数据分析实战、Hive 优化等四个方面来分享一些关于系统架构和 Hive 的心得和实战经验,希望大家有所收获。

1 Hive 原理

Hadoop 是一个流行的开源框架,用来存储和处理商用硬件上的大规模数据集。对于 HDFS 上的海量日志而言,编写 Mapreduce 程序代码对于类似数据仓库的需求来说总是显得相对于难以维护和重用,Hive 作为一种基于 Hadoop 的数据仓库解决方案应运而生,并得到了广泛应用。

Hive 是基于 Hadoop 的数据仓库平台,由 Facebook 贡献,其支持类似 SQL 的结构化查询功能。Facebook 设计开发 Hive 的初衷就是让那些熟悉 sql 编程方式的人也可以更好的利用 hadoop,hive 可以让数据分析人员只关注于具体业务模型,而不需要深入了解 Map/Reduce 的编程细节,但是这并不意味着使用 hive 不需要了解和学习 Map/Reduce 编程模型和 hadoop。对于 Hive 分析人员来说,深入了解 Hadoop 和 Hive 的原理和 Mapreduce 模型,对于优化查询总有益处。

1.1 Hive 组件与模型

Hive 的组件总体上可以分为以下几个部分:用户接口(UI)、驱动、编译器、元数据(Hive 系统参数数据)和执行引擎。Hive 中包含 4 中数据模型:Tabel、ExternalTable、Partition、Bucket。

图:hive 数据模型

a) Table:每一个 Table 在 Hive 中都有一个相应的目录来存储数据;

b) Partition:表中的一个 Partition 对应于表下的一个目录,所有的 Partition 数据都存储在对应的目录中;

c) Buckets:对指定列计算的 hash,根据 hash 值切分数据,目的是为了便于并行,每一个 Buckets 对应一个文件;

d) External Table 指向已存在 HDFS 中的数据,可创建 Partition。

读时验证机制

与传统数据库对表数据进行写时严重不同,Hive 对数据的验证方式为读时模式,即只有在读表数据的时候,hive 才检查解析具体的字段、shema 等,从而保证了大数据量的快速加载。

如果表 schema 与表文件内容不匹配,Hive 会尽其所能的去读数据。如果 schema 中表有 10 个字段,而文件记录却只有 3 个字段,那么其中 7 个字段将为 null;如果某些字段类型定位为数值类型,但是记录中却为非数值字符串,这些字段也将会被转换为 null。Hive 会努力 catch 读数据时遇到的错误,并努力返回。既然 Hive 表数据存储在 HDFS 中且 Hive 采用的是读时验证方式,定义完表的 schema 会自动生成表数据的 HDFS 目录,且我们可以以任何可能的方式来加载表数据或者利用 HDFS API 将数据写入文件,同理,当我们若需要将 hive 数据写入其他库(如 oracle),也可以直接通过 api 读取数据再写入目标库。

再次注意,加载或者写入的数据内容要和表定义的 schema 一致,否则将会造成字段或者表为空。

1.2 HQL 翻译成 MapReduce Job

Hive 编译器将 HQL 代码转换成一组操作符(operator),操作符是 Hive 的最小操作单元,每个操作符代表了一种 HDFS 操作或者 MapReduce 作业。Hive 中的操作符包括:TableScanOperator、ReduceSinkOperator、JoinOperator、SelectOperator、FileSinkOperator、FilterOperator、GroupByOperator、MapJoinOperator 等。

Hive 语句

复制代码
INSERT OVERWRITE TABLE read_log_tmp
SELECT a.userid,a.bookid,b.author,b.categoryid
FROM user_read_log a JOIN book_info b ON a.bookid = b.bookid;

其执行计划为:

图:join 的任务执行流程

1.3 与一般 SQL 的区别

Hive 视图与一般数据库视图

Hive 视图只支持逻辑视图,不支持物化视图,即每次对视图的查询 hive 都将执行查询任务,因此视图不会带来性能上的提升。作为 Hive 查询优化的一部分,对视图的查询条件语句和视图的定义查询条件语句将会尽可能的合并成一个条件查询。

Hive 索引与一般数据库索引

Hive1.2.1 版本目前支持的索引类型有 CompactIndexHandler 和 Bitmap。

CompactIndexHandler 压缩索引通过将列中相同的值得字段进行压缩从而减小存储和加快访问时间。需要注意的是 Hive 创建压缩索引时会将索引数据也存储在 Hive 表中。对于表 tb_index (id int, name string) 而言,建立索引后的索引表中默认的三列一次为索引列(id)、hdfs 文件地址 (_bucketname)、偏移量 (offset)。

Bitmap 位图索引作为一种常见的索引,如果索引列只有固定的几个值,那么就可以采用位图索引来加速查询。利用位图索引可以方便的进行 AND/OR/XOR 等各类计算,Hive0.8 版本开始引入位图索引,位图索引在大数据处理方面的应用广泛,比如可以利用 bitmap 来计算用户留存率(索引做与运算,效率远好于 join 的方式)。如果 Bitmap 索引很稀疏,那么就需要对索引压缩以节省存储空间和加快 IO。Hive 的 Bitmap Handler 采用的是 EWAH( https://github.com/lemire/javaewah)压缩方式。

2 数据分析平台

2.1 架构与模块

达观数据分析平台包括数据收集加载模块、数据分析计算模块、任务调度系统以及可视化系统。

图:数据分析平台基本框架

数据收集模块

数据模块负责收集移动端 app、网页端以及服务器端大量的日志数据。移动端可自行开发数据上报功能或者使用 sdk 来上报数据。网页端利用植入的 js 将用户的行为进行上报,服务器端通过 http server 来收集上报的数据。服务器端的日志信息可以通过 DX 模块 (一个跨库的数据交换系统) 来将待处理数据推入 hive 数据分析平台。除此之外,数据来源还包括大量的 user 、item 基本数据等等。数据收集完成将所有需要处理分析的原始数据推入 hadoop 平台。从物理形式来看,即将待分析数据写入 HDFS。

数据 ETL 模块

一般而言,上报的数据都是非结构化或者半结构化的。ETL(抽取、转换、加载)模块负责将所有的非结构或者半结构的数据转换成结构化的数据并加载到 hive 库表中。例如对于用户访问日志(可能是 web server 日志),我们需要从每行日志中抽取出用户的标识(cookie、imei 或者 userid),ip 来源、url 等。从形式上来看,ETL 将 HDFS 的原始数据结构化,以表的形式提供分析。

数据分析与计算

根据业务需求和功能,利用 HQL 实现各种统计分析。一个 Hive 任务的来源表可能是多个,结果数据也有可能会写入多张表。

图:Hive 任务执行输入输出

任务调度系统

从上图可以看出,Hive 任务之间存在依赖关系,不至于 Hive 任务之间存在依赖,Hive 任务与 DX 任务之间、DX 任务之间都可能存在某种依赖关系,达观数据分析平台支持的任务类型还包括 MR 任务、shell 任务等,达观数据分析平台自行开发司南调度系统来完成平台中所有任务的调度。关于司南调度系统可见后续讨论。

数据分析平台模块

图:数据分析平台基本模块

接下来将陆续介绍,数据分析平台中的两个重要模块:DX 数据交换系统以及任务调度系统。

2.2 DX 数据交换

DX 系统可以在关系型数据库、Hive、FTP 等系统之间实现数据的交换。DX 定义了 Writer 和 Reader 接口来抽象对数据的读写操作,对于各种存储类型的数据,需定制他们的实现方法。

关系型数据库利用 JDBC 实现其读写功能;对于 Hive 而言,直接利用 HDFS API 实现对 HDFS 文件的读写,由于 Hive 的读时验证机制,需要在读写 Hive 表文件时,定义其字段个数、名称等信息,保证与表定义一致;FTP 文件目前的处理方法是先将数据从 FTP 服务器拉下来,然后将读取文件内容,写入 Hive 数据库。

以上过程是其他数据源到 Hive 的数据传输过程,Hive 数据同样可以通过 DX 系统写入其他数据源。

2.3 任务调度

达观数据分析平台开发的司南调度系统将任务分为资源依赖型和实践依赖型。时间依赖型任务类似于 crontab 定时任务一样,到时触发其执行。资源依赖型任务需要其依赖的资源都满足时才会触发其执行。可调度的任务类型包括 DX 任务、Hive 任务、MR 任务、shell 任务等。

司南系统中最为关键的是 dispatcher 模块,该模块通过 zookeeper 来调度任务在 agent(执行任务的代理服务器,需要设置多个)上的运行,关于 zookeeper 如何协调分布式应用的一致性在此不再累述。

2.4 架构演化

达观数据分析平台在使用过程中,不断提高其易用性和稳定性。在大量的研究和开发过程中,平台从无到有,走出第一步到功能完善、发挥巨大的业务价值。

从分散的数据交换到集中的数据交换系统

在使用统一的数据交换系统 DX 后,各业务系统的数据可以更好的进行汇聚和打通,进行统一的分析和处理。

从分散的作业调度到集中的任务调度系统

每天几千规模的任务数使得任务的调度极其困难,特别是当任务之间存在依赖关系时,显然简单的通过 crontab 已经无法满足业务的需求。司南调度系统保证所有任务有序正确的运行。

从批量式处理到集成流式处理

随着实时统计分析的需求越来越多,hive 查询基于 MR 任务来实现的缺点日益明显(任务启动开销大)。为了提供实时的数据分析请求,平台开始引入 storm 流式计算模型。Storm 以数据流为驱动。触发计算,每来一条数据就产生一次计算结果,时效性非常高,在业界也得到了丰富的应用。

从关系型数据库到 Hbase

初期,数据分析的结果数据都是通过 DX 导入关系型数据库,以便数据可视化平台调用或者其他系统使用,大量的数据造成关系数据库的日益庞大,带来严重的性能问题。HBase 是一个开源、列式分布式的数据库,基于 HDFS 文件系统,可以方面的和 Hive 进行集成。经过集成 HBase,为可视化平台和线上系统提供服务,降低 DX 任务量,降低访问延迟。

3 Hive 分析实践

3.1 Schema 设计

没有通用的 schema,只有合适的 schema。在设计 Hive 的 schema 的时候,需要考虑到存储、业务上的高频查询造成的开销等等,设计适合自己的数据模型。

设置分区表

对于 Hive 来说,利用分区来设计表总是必要的,分区提供了一种隔离数据和优化查询的便利的方式。设置分区时,需要考虑被设置成分区的字段,按照时间分区一般而言就是一个好的方案,其好处在于其是按照不同时间粒度来确定合适大小的数据积累量,随着时间的推移,分区数量的增长是均匀的,分区的大小也是均匀的。

避免小文件

虽然分区有利于隔离数据和查询,设置过多过细的分区也会带来瓶颈,主要是因为过多的分区意味着文件的数目就越多,过多增长的小文件会给 namecode 带来巨大的性能压力。同时小文件过多会影响 JOB 的执行,hadoop 会将一个 job 转换成多个 task,即使对于每个小文件也需要一个 task 去单独处理,带来性能开销。因此,hive 表设计的分区不应该过多过细,每个目录下的文件足够大,应该是文件系统中块大小的若干倍。

选择文件格式

Hive 提供的默认文件存储格式有 textfile、sequencefile、rcfile 等。用户也可以通过实现接口来自定义输入输的文件格式。

在实际应用中,textfile 由于无压缩,磁盘及解析的开销都很大,一般很少使用。Sequencefile 以键值对的形式存储的二进制的格式,其支持针对记录级别和块级别的压缩。rcfile 是一种行列结合的存储方式(text file 和 sequencefile 都是行表 [row table]),其保证同一条记录在同一个 hdfs 块中,块以列式存储。rcfile 的聚合运算不一定总是存在,但是 rcfile 的高压缩率确实减少文件大小,因此实际应用中,rcfile 总是成为不二的选择,达观数据平台在选择文件存储格式时也大量选择了 rcfile 方案。

3.2 统计分析

本节将从排序和窗口函数两个方面的介绍 Hive 的统计分析功能。

排名

热门排名在实际的业务场景中经常遇见。例如最受欢迎的书籍、销量 TOP100 的商品等等。再实际情况下,我们不仅需要考虑各量化指标,还需要考虑置信度问题。

最简单的排名:ORDER BY value LIMIT n

上述查询仅仅考虑了量化指标,排名不够平滑,波动较大。

各种排名方法众多,达观数据分析平台在进行 item 排名多采用基于用户投票的排名算法。如基于威尔逊区间的排名算法,该算法可以较好的解决小样本的不准确问题。

图:威尔逊区间

窗口分析函数

Hive 提供了丰富了数学统计函数,同时也提供了用户自定义函数的接口,用户可以自定义 UDF、UDAF、UDTF Hive 0.11 版本开始提供窗口和分析函数( Windowing and Analytics Functions ),包括 LEAD、LAG、FIRST_VALUE、LAST_VALUE、RANK、ROW_NUMBER、PERCENT_RANK、CUBE、ROLLUP 等。窗口函数与聚合函数一样,都是对表子集的操作,从结果上看,区别在于窗口函数的结果不会聚合,原有的每行记录依然会存在。窗口函数的典型分析应用包括:按分区聚合(排序,top n 问题)、行间计算(时间序列分析)、关联计算(购物篮分析)。

我们以一个简单的行间计算的例子说明窗口函数的应用(关于其他函数的具体说明,请参考 hive 文档)。用户阅读行为的统计分析需要从点击书籍行为中归纳统计出来。用户浏览日志结构如下表所示,每条记录为用户的单次点击行为。

通过对连续的用户点击日志分析,通过 Hive 提供的窗口分析函数可以计算出用户各章节的阅读时间。

复制代码
SELECT userid, bookid, chapterid, end_time – start_time as read_time
FROM
(
SELECT userid, bookid, chapterid, log_time as start_time,
lead(log_time,1,null) over(partition by userid, bookid order by log_time) as end_time
FROM user_read_log where pt=’2015-12-01
) t;

通过上述查询既可以找出 2015-12-01 日所有用户对每一章节的阅读时间。只能通过开发 mr 代码或者实现 udaf 来实现上述功能。

窗口分析函数关键在于定义的窗口数据集及其对窗口的操作,通过 over(窗口定义语句)来定义窗口。日常分析和实际应用中,经常会有窗口分析应用的场景,例如基于分区的排序、集合、统计等复杂操作。例如我们需要统计每个用户阅读时间最多的 3 本书:

图:行间计算示意图及代码

窗口函数使得 Hive 的具备了完整的数据分析功能,在实际的应用环境中,达观数据分析团队大量使用 hive 窗口分析函数来实现较为复杂的逻辑,提高开发和迭代效率。

3.3 用户画像

用户画像即基于真实数据的用户模型。简单来说,用户画像提取了用户的属性信息、行为信息,从而归纳统计出其人口学特征、偏好特征等。建立用户模型的首要任务就是提取特征,既包括用户基本特征,也包括行为特征和统计特征。

用户模型本质上就是刻画用户兴趣的模型,而用户的兴趣模型是多维度、多尺度的。刻画用户模型还需要从时间上进行度量,甚至是进行多尺度的组合,根据用户行为统计时间的长短,可以将用户的偏好分为短期偏好和长期偏好。偏好的权重即为用户的偏好程度的度量。

对用户偏好的描述,还需要考虑置信度的问题,例如对于一个阅读行为极其稀疏的用户来说,刻画其阅读类别偏好是毫无意义的。

图:用户画像刻画

3.4 反作弊分析

众所周知,存在排名就可能存在作弊。搜索广告、索互联网刷单、刷榜现象层出不穷。一般来说,作弊的目的都是为了提高自己的排名,或者是降低对手的排名。利用 Hive 对数据进行分析可以过滤掉较明显的作弊数据,达到数据清洗的目的。

例如对于一个刷榜作弊行为,需要作弊着不断刷日志行为来提高其排名,我们可以指定若干规则来过滤作弊数据。如同 IP 同物品同行为数目异常、同用户 ID 行为频次异常、同物品 ID 行为频次异常等等。如下图,如果相比于所有 item 的平均增长趋势,如果某 item 的增长趋势相对平均水平过大,那么其作弊的概率就比较高。

图:作弊数据趋势与平均趋势数据对比

作弊分析还需要结合业务需求和特点,采用合适的机器学习算法来进行更进一步的判断和过滤,达到反作弊的目标。

4 Hive 优化

达观的数据仓库基于 Hive 搭建,每日需要处理大量的计算流程,Hive 的稳定性和性能至关重要。众多的任务需要我们合理的调节分配集群资源,合理的配置各参数,合理的优化查询。Hive 优化包含各个方面,如 job 个数优化、job 的 map/reducer 个数优化、并行执行优化等等,本节将主要讨论 HQL 中的无时不在的 JOIN 的优化经验。

4.1 Join 语句

对于上述的 join 语句,其中 book_info 表数量为千规模,

复制代码
INSERT OVERWRITE TABLE read_log_tmp
SELECT a.userid,a.bookid,b.author
FROM user_read_log a JOIN book_info b ON a.bookid = b.bookid;

该语句的执行计划为:

图:map join 的任务执行流程

对于小数据量,hive 会自动采取 map join 的方式来优化 join,从 mapreduce 的编程模型来看,实现 join 的方式主要有 map 端 join、reduce 端 join。Map 端 join 利用 hadoop 分布式缓存技术通过将小表变换成 hashtable 文件分发到各个 task,map 大表时可以直接判断 hashtable 来完成 join,注意小表的 hashtable 是放在内存中的,在内存中作匹配,因此 map join 是一种非常快的 join 方式,也是一种常见的优化方式。如果小表够小,那么就可以以 map join 的方式来完成 join 完成。Hive 通过设置 hive.auto.convert.join=true(默认值) 来自动完成 map join 的优化,而无需显示指示 map join。缺省情况下 map join 的优化是打开的。

Reduce 端 join 需要 reducer 来完成 join 过程,对于上述 join 代码,reduce 端 join 的 mr 流程如下,

图:reduce 端 join 的 mapreduce 过程

相比于 map join, reduce 端 join 无法再 map 过程中过滤任何记录,只能将 join 的两张表的所有数据按照 join key 进行 shuffle/sort,并按照 join key 的 hash 值将 <key,value> 对分发到特定的 reducer。Reducer 对于所有的键值对执行 join 操作,例如 0 号(bookid 的 hash 值为 0)reducer 收到的键值对如下,其中 T1、T2 表示记录的来源表,起到标识作用:

图:reduce 端 join 的 reducer join

Reducer 端 join 无法避免的 reduce 截断以及传输的大量数据都会给集群网络带来压力,从上图可以看出所有 hash(bookid) % reducer_number 等于 0 的 key-value 对都会通过 shuffle 被分发到 0 号 reducer,如果分到 0 号 reducer 的记录数目远大于其他 reducer 的记录数目,显然 0 号的 reducer 的数据处理量将会远大于其他 reducer,因此处理时间也会远大于其他 reducer,甚至会带来内存等其他问题,这就是数据倾斜问题。对于 join 造成的数据倾斜问题我们可以通过设置参数 set Hive.optimize.skewjoin=true,让 hive 自己尝试解决 join 过程中产生的倾斜问题。

4.2 Group by 语句

我们对 user_read_log 表按 userid goup by 语句来继续探讨数据倾斜问题,首先我们 explain group by 语句:

explain select userid,count(*) from user_read_log group by userid

图:goup by 的执行计划

Group by 的执行计划按照 userid 的 hash 值分发数据,同时在 map 端也做了本地 reduce,group by 的 shuffle 过程是按照 hash(userid) 来分发的,实际应用中日志中很多用户都是未注册用户或者未登录,userid 字段为空的记录数远大于 userid 不为空的记录数,当所有的空 userid 记录都分发到特定某一个 reducer 后,也会带来严重的数据倾斜问题。造成数据倾斜的主要原因在于分发到某个或某几个 reducer 的数据量远大于其他 reducer 的数据量。

对于 group by 造成的数据倾斜问题,我们可以通过设置参数

set hive.map.aggr=true (开启 map 端 combiner);

set hive.groupby.skewindata=true;

这个参数的作用是做 reduce 操作的时候,拿到的 key 并不是所有相同值给同一个 Reduce,而是随机分发,然后 reduce 做聚合,做完之后再做一轮 MR,拿前面聚合过的数据再算结果。虽然多了一轮 MR 任务,但是可以有效的减少数据倾斜问题可能带来的危险。

Hive 解决数据倾斜

正确的设置 Hive 参数可以在某种程度上避免的数据倾斜问题,合适的查询语句也可以避免数据倾斜问题。要尽早的过滤数据和裁剪数据,减少后续处理的数据量,使得 join key 的数据分布较为均匀,将空字段随机赋予值,这样既可以均匀分发倾斜的数据:

复制代码
select userid,name from user_info a
join (
select case when userid is null then cast(rand(47)*100000 as int)
else userid
from user_read_log
) b on a.userid = b.userid

如果用户在定义 schema 的时候就已经预料到表数据可能会存在严重的数据倾斜问题,Hive 自 0.10.0 引入了 skew table 的概念,如建表语句

复制代码
CREATE TABLE user_read_log (userid int,bookid, …)
SKEWED BY (userid) ON (null) [STORED AS DIRECTORIES];

需要注意的是,skew table 只是将倾斜特别严重的列的分开存储为不同的文件,每个制定的倾斜值制定为一个文件或者目录,因此在查询的时候可以通过过滤倾斜值来避免数据倾斜问题:

复制代码
select userid,name from user_info a
join (
select userid from user_read_log where pt=’2015and userid is not null
) b on a.userid = b.userid

可以看出,如果不加过滤条件,倾斜问题还是会存在,通过对 skew table 加过滤条件的好处是避免了 mapper 的表扫描过滤操作。

4.3 Join 的物理优化

Hive 内部实现了 MapJoinResolver(处理 MapJoin)、SkewJoinResolver(处理倾斜 join)、CommonJoinResolver(处理普通 Join)等类来实现 join 的查询物理优化(/org/apache/hadoop/hive/ql/optimizer/physical)。

CommonJoinResolver 类负责将普通 Join 转换成 MapJoin,Hive 通过这个类来实现 mapjoin 的自动优化。对于表 A 和表 B 的 join 查询,会产生 3 个分支:

1) 以表 A 作为大表进行 Mapjoin;

2) 以表 A 作为大表进行 Mapjoin;

3) Map-reduce join

由于不知道输入数据规模,因此编译时并不会决定走那个分支,而是在运行时判断走那个分支。需要注意的是要像完成上述自动转换,需要将 hive.auto.convert.join.noconditionaltask 设置为 true(默认值),同时可以手工控制转载进内存的小表的大小(hive.auto.convert.join.noconditionaltask.size)。

MapJoinResolver 类负责迭代各个 mr 任务,检查每个任务是否存在 map join 操作,如果有,会将 local map work 转换成 local map join work。

SkewJoinResolver 类负责迭代有 join 操作的 reducer 任务,一旦单个 reducer 产生了倾斜,那么就会将倾斜值得数据写入 hdfs,然后用一个新的 map join 的任务来处理倾斜值的计算。虽然多了一轮 mr 任务,但是由于采用的 map join,效率也是很高的。良好的 mr 模式和执行流程总是至关重要的。

5 总结

本文详细介绍了达观大数据分析平台的基本架构和原理,基于 hadoop/hive 的大数据分析平台使海量数据的存储、分析、挖掘逐步成为现实,并带来意想不到的益处。作为数据分析平台主力军的 Hive 仍然处在不断的发展之中,将 HQL 理解成 Mapreduce 程序、理解 Hadoop 的核心能力是更好的使用和优化 Hive 的根本。达观数据团队也将紧跟技术发展潮流,结合自身的业务需求,采取合理的框架架构,提升数据平台的处理能力。

6 参考资料

作者简介

文辉,同济大学计算机应用技术专业硕士,现任达观数据联合创始人,主要负责达观数据爬虫系统、推荐系统等主要系统的研究和开发。曾就职于盛大文学数据中心部门,负责推荐系统、爬虫系统、数据挖掘和分析等大数据系统的研发工作,在爬虫系统、Hadoop、数据挖掘等方面具备充足的研发和实践经验。


感谢杜小芳对本文的审校。

给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ @丁晓昀),微信(微信号: InfoQChina )关注我们。

2016-03-16 16:235962

评论

发布
暂无评论
发现更多内容

CleanMyMac4.20汉化免费版Mac清理工具

茶色酒

CleanMyMac4.20

通过TiDB Operator为已有TiDB集群部署异构集群

TiDB 社区干货传送门

集群管理 管理与运维 故障排查/诊断 安装 & 部署 扩/缩容

Region is unavailable的排查总结

TiDB 社区干货传送门

管理与运维 故障排查/诊断 扩/缩容

Oracle ASM磁盘组配置、日常运维、故障处理等操作资料汇总

墨天轮

数据库 oracle asm 磁盘管理

数据标注工具,多维度体验优化|ModelWhale 版本更新

ModelWhale

人工智能 标注 标注工具 团队协同 模型管理

柏拉图会反对ChatGPT吗?~深度好文| 社区征文

李韧

人工智能 ChatGPT

你没有必要完全辞去工作

宇宙之一粟

创业 个人成长 思维方式 工作 打工人

首届玄铁 RISC-V 生态大会上海举办 龙蜥操作系统持续深度参与标准共建

OpenAnolis小助手

芯片 risc-v 龙蜥操作系统 平头哥 生态大会

MQTT 5.0连接属性

EMQ映云科技

物联网 IoT mqtt 企业号 3 月 PK 榜 连接属性

GitHub上线重量级分布式事务笔记,再也不怕面试官问分布式了

小小怪下士

Java 程序员 分布式 分布式事务 后端

AI+人类,实现高效网络安全

HummerCloud

人工智能 网络安全

关于加解密、加签验签的那些事 | 得物技术

得物技术

java

研讨会回顾 | Perforce发布数字资产管理工具Helix DAM,帮助您按时按预算交付虚拟产品

龙智—DevSecOps解决方案

版本控制 数字资产 游戏开发 数字资产管理 芯片研发

Atlassian Server用户新选择 | 云版和本地部署的数据中心版,总有一个适合您

龙智—DevSecOps解决方案

迁移 Server Atlassian

课程作业及比赛任务,已支持 Notebook 内直接提交|ModelWhale 版本更新

ModelWhale

人工智能 机器学习 数据分析 canvas 模型管理

详解命令模式本质及其在高复杂调用中的实践案例

阿里技术

设计模式 命令模式

代码质量与安全 | SAST与DAST有什么区别?

龙智—DevSecOps解决方案

klocwork SAST DAST 静态应用程序安全测试 动态应用程序安全测试

CI/CD | 不可忽略的Jenkins基础架构修复问题

龙智—DevSecOps解决方案

ci cicd jenkins CI/CD CloudBees

DTO、VO、BO、PO、DO的用法区别,居然这么多人搞不清楚.....

程序知音

云图说丨Astro Canvas一站式数据可视化开发,分钟级构建业务大屏

华为云开发者联盟

云计算 后端 华为云 华为云开发者联盟 企业号 3 月 PK 榜

从“13天”到“0天”延时,揭秘火山引擎DataLeap SLA保障最佳实践

字节跳动数据平台

大数据 数据治理 数据研发 企业号 3 月 PK 榜

vivo全球商城:库存系统架构设计与实践

vivo互联网技术

系统架构 电商 库存

DBT 收购 Transform,指标平台已成现代数据栈关键拼图

Kyligence

数据分析 指标管理

思码逸任晶磊:ChatGPT 时代的软件研发数据与效能提升

思码逸研发效能

机器学习 研发效能 ChatGPT

基于Mindspore2.0的GPT2预训练模型迁移教程

华为云开发者联盟

人工智能 华为云 华为云开发者联盟 企业号 3 月 PK 榜

FL Studio21最新版DAW数字音频工作站

茶色酒

FL Studio FL Studio 21

基于 Flink 流计算实现的股票交易实时资产应用

Apache Flink

大数据 flink 实时计算

TiDB 的事务和一致性校验工具 BANK

TiDB 社区干货传送门

实践案例 故障排查/诊断 数据库架构选型

物理机安装 TiKV 时 RAID 卡在线配置方式

TiDB 社区干货传送门

实践案例 集群管理 安装 & 部署

Stable Diffusion原理详解

jarodyv

人工智能 机器学习 计算机视觉 Stable Diffusion 生成式AI

从代理机制到Spring AOP,这篇给你安排得明明白白的

做梦都在改BUG

Java spring aop 代理机制

达观数据分析平台架构和Hive实践_架构_文辉_InfoQ精选文章