AI实践哪家强?来 AICon, 解锁技术前沿,探寻产业新机! 了解详情
写点什么

一位数据科学家的独白

  • 2020-02-26
  • 本文字数:2098 字

    阅读完需:约 7 分钟

一位数据科学家的独白

最近几年,云的出现以及企业纷纷向互联网转型导致了数据大爆炸。因此,数据科学家在市场上供不应求。据《哈佛商业评论》称,21 世纪数据科学家是最性感的职业。他们每天畅游在大数据的海洋里,与 AI 和深度学习为伴,探索并发现撬动世界变革的力量。 而在真正的数据科学家眼中,他们对自己的认知却与外界有所不同,本文就是一位数据科学家的自白。


过去 5 年,我一直从事“ 数据科学家 ”这个工作,人们都觉得这个工作“很性感”,但其实我始终弄不明白到底哪儿“性感”。可能除了我新烫的头发看起来有点像韩国欧巴外,其他的都和性感这个词不沾边儿。


那么,我就先来为大家揭秘数据科学家每天要做的工作有哪些?


通过分析 LinkedIn 上的职位发布,我得出了以下内容,我总结了一些最为日常的工作内容:


  • 了解业务和客户,对假设问题进行验证;

  • 建立预测模型和机器学习流水线,进行 A / B 测试;

  • 历史数据的分析挖掘:包括跟各种产品线相关的业务分析,用户画像,用户行为分析,用户留存分析等;

  • 开发算法为业务线赋能;

  • 进行实验并研究新技术和方法,提高技术能力;


这些工作听起来是不是很性感?


而这些,仅仅是数据科学家工作的“冰山一角”。


在 CrowdFlower 的一份调查中揭露了数据科学家每天的日常工作:



通常,我们认为数据科学家每天都在构建算法、研究数据并进行预测分析。从上表中可以看出,这并不是他们的主要工作内容,实际上,他们大部分时间都在收集数据集、清理和管理数据。

为什么需要高效的数据清理专家?

数据湖是存储公司所有数据的集中存储库。企业或组织可以使用数据湖中的数据来构建机器学习模型。但令人不解的是,有人把数据湖当成了数据存储中转站,或者是超大硬盘。


许多组织最初实施数据湖时,对如何处理收集中的数据一无所知。他们不明就里地去收集一切数据,根本不去考虑其实际用途。尽管数据湖的核心作用是将公司的所有数据集中在一个地方,但需要根据特定的项目需求对数据湖进行定制化设计。不进行合理规划就像创建一个新的“未命名文件夹 ”,然后在其中复制并粘贴公司所有数据,到头来只会变为一团乱麻。


及时清理数据是十分必要的。其实,数据科学家并不喜欢处理杂乱的数据,所以他们不得不花费很长的时间来进行数据清理、数据标记和数据精练。在调查数据科学家最不喜欢做的工作排名时,我们得到了这样的结论:他们最不喜欢的,也是花费时间最长的工作就是清理和管理数据。



数据科学家最不喜欢的工作内容排名

“脏数据”无所不在

每个处理数据的人都应该听说过“ 脏数据”一词。因为原始数据存在各种各样的问题,如篡改数据、数据不完整、数据不一致、数据重复、数据存在错误、异常数据等,这些情况我们统称为存在“脏数据”。“脏数据”的存在不仅浪费时间,而且可能导致最终分析有误。


数据不完整是指某些基础特征缺失。例如,假设你的任务是预测房价,在这其中“房子的面积”对于预测房价来说至关重要,但是如果这部分信息缺失,这项任务很可能就无法完成,因此模型的效果也就会不佳。


数据不准确和不一致是指数值在技术上是正确的,但放在场景中就是错误的。例如,一名员工变更了他的地址,但是并未及时更新,或者某一组数据有多个副本,但是数据科学家使用的版本是过时的版本,这些都指的是数据的不准确和不一致。


重复数据是一个普遍的问题。我与大家分享下我在一家电商公司发生的一件事。根据设计,当访问者单击“领取优惠券”按钮时,网站会响应到服务器上,随后我们就能计算出有多少用户收集到了优惠券。


网站一直运行良好,但突然有一天网站发生了点状况,而我却对此一无所知。前端开发人员在有人成功领取优惠券时添加了另外一个响应,理由是某些优惠券可能缺货。他们新添加的另外一个响应是想跟踪单击该按钮的访问者以及已经领取完优惠券的访问者。


在添加完新的响应后,两个响应结果都发到了同一个日志表中。等我再查看我的报告工具时,发现领取的优惠券的数量似乎在一夜之间翻了一番!在前一天部署模型时,我还天真地以为我的新模型会很完美,但后来我才意识到我只是做了重复计算。



数据科学家最应该掌握的十大技能

除了数据清理和管理,数据科学家还要做什么?

这个世界每天都充斥着海量的数据,有的来自人工输入,有的来自机器日志,但无论是那种数据,数据整理都是现实世界中数据科学家工作的重要部分。为了使监督学习更加有效,我们需要可靠的、带有标签的数据,标记错误的数据无法建立预训练模型,但问题在于,没有人喜欢这项繁杂的、枯燥的数据标记工作。


许多人将数据科学家的工作描述为 80/20 原则。也就是说他们会用 20%的时间来构建模型,而其他 80%的时间用于收集、分析、清理和重组数据。处理脏数据是数据科学家工作中最耗时的部分。


尽管这项工作做起来很让人厌烦,但数据清理在任何一个项目中都是十分重要的,凌乱的数据不会产生好的结果,就像很多人都听过一句话“输入的是垃圾,得到的也会是垃圾”。


如果要来对我的工作进行个总结,我会认为我是 40%的数据清洁工、40%的数据管理员,最后 20%的…算命先生,因为我还要在出现问题时进行诊断和分析,找出症结所在。


原文链接:


https://towardsdatascience.com/data-scientist-the-dirtiest-job-of-the-21st-century-7f0c8215e845


2020-02-26 10:521740

评论

发布
暂无评论
发现更多内容

WorkPlus助力中交四航局打造数字化管理新模式,释放企业生产力

BeeWorks

百度工程师教你玩转设计模式(装饰器模式)

百度Geek说

Java 设计模式 12 月 PK 榜 装饰器模式

软件设计中最关键的“开闭原则”,究竟指什么呢?

JAVA旭阳

架构 后端

AI技术实践|用腾讯云智能文本图像增强打造一个掌上扫描仪

牵着蜗牛去散步

人工智能 腾讯云 文字识别 图像处理

JavaScript进阶(十三)JavaScript 空值合并运算符、可选链操作符、空值赋值运算符讲解

No Silver Bullet

JavaScript 12月月更 空值合并运算符 可选链操作符 空值赋值运算符讲解

Dubbo架构设计与源码解析(三)责任链模式

京东科技开发者

dubbo 过滤器 filter 责任链 provider

企业IM软件WorkPlus,组织高效协作与一体化办公首选

BeeWorks

科班出生和培训出身的前端程序员哪个好?

小谷哥

携手 StarRocks 打造极速统一数据底座,理想汽车获 DAMA 中国 “数据治理最佳实践奖”

StarRocks

跨平台应用开发进阶(四十二)vue与nvue页面设计方案探究

No Silver Bullet

uni-app Vue 12月月更 nvue

【12.16-12.23】写作社区优秀技术博文一览

InfoQ写作社区官方

热门活动

如何保证设计出合理的架构1-4

程序员小张

「架构实战营」

扬州万方:基于申威平台的 Curve 块存储在高性能和超融合场景下的实践

网易数帆

nvme 分布式存储 curve 12 月 PK 榜

JAVA培训学习后就业好吗

小谷哥

【重磅干货】如何构建 API 生态促进企业上下游合作

石臻臻的杂货铺

API

培训学习大数据门槛低吗

小谷哥

金融科技 DevOps 的最佳实践

SEAL安全

DevOps 最佳实践 FinTech 12 月 PK 榜

你的企业IM安全吗?对于私有化的即时通讯软件你了解多少?

BeeWorks

火山引擎DataTester上线“流程画布”功能,支持组合型A/B实验分析

字节跳动数据平台

大数据 AB testing实战 12 月 PK 榜

前端培训学习后好就业吗?

小谷哥

中移链已在BSN-DDC基础网络上线元交易功能

BSN研习社

BSN-DDC

搭建"积木"=编程?

间隔

敏捷价值流管理

敏捷开发

敏捷 敏捷开发 价值流 价值流管理

BitSail issue持续更新中,快来挑战,赢取千元礼品!

字节跳动数据平台

大数据 开源 12 月 PK 榜

Team Lead 的日常工作

QE_LAB

敏捷团队

阿里灵杰:与开发者一起推动AI创新落地

阿里云大数据AI技术

人工智能 阿里云 开发者 AI技术

Java本地高性能缓存实践

阿里技术

cache 本地缓存 缓存Java

大数据开发培训机构有哪些?

小谷哥

“自动驾驶+昇腾AI” 西安交大团队解决高级辅助驾驶的关键难题

极客天地

跨平台应用开发进阶(三十八)uni-app前端监控方案:基调听云APP探究

No Silver Bullet

uni-app 前端监控 12月月更 基调听云APP

一位数据科学家的独白_大数据_Jingles_InfoQ精选文章