写点什么

干货分享 | 阿里 PB 级 Kubernetes 日志平台建设实践

  • 2019-05-24
  • 本文字数:10737 字

    阅读完需:约 35 分钟

干货分享 | 阿里PB级Kubernetes日志平台建设实践

随着近两年的发展,Kubernetes 早已成为容器编排领域的标准,现在非常多的企业基于 Kubernetes 构建整个微服务的开发、运维平台,而日志是其中必不可少的核心功能。本文整理自阿里云日志服务技术专家元乙在 QCon 全球软件开发大会(北京站)2019 上的演讲,他的分享主要介绍了阿里超大规模下 Kubernetes 日志平台的架构实践,通过日志采集、处理、分析、监控、异常诊断等全方位技术,实现 Kubernetes 以及业务应用真正意义上的可观察性。点此下载演讲 PPT。




                                           ​

计算形态的发展与日志系统的演进



                                        ​


在阿里的十多年中,日志系统伴随着计算形态的发展在不断演进,大致分为 3 个主要阶段:


  1. 在单机时代,几乎所有的应用都是单机部署,当服务压力增大时,只能切换更高规格的 IBM 小型机。日志作为应用系统的一部分,主要用作程序 Debug,通常结合 grep 等 Linux 常见的文本命令进行分析。

  2. 随着单机系统成为制约阿里业务发展的瓶颈,为了真正的 Scale out,飞天项目启动:2009 年开始了飞天的第一行代码,2013 年飞天 5K 项目正式上线。在这个阶段各个业务开始了分布式改造,服务之间的调用也从本地变为分布式,为了更好的管理、调试、分析分布式应用,我们开发了 Trace(分布式链路追踪)系统、各式各样的监控系统,这些系统的统一特点是将所有的日志(包括 Metric 等)进行集中化的存储。

  3. 为了支持更快的开发、迭代效率,近年来我们开始了容器化改造,并开始了拥抱 Kubernetes 生态、业务全量上云、Serverless 等工作。要实现这些改造,一个非常重要的部分是可观察性的工作,而日志是作为分析系统运行过程的最佳方式。在这阶段,日志无论从规模、种类都呈现爆炸式的增长,对日志进行数字化、智能化分析的需求也越来越高,因此统一的日志平台应运而生。

日志平台的重要性与建设目标



          


                                 ​


日志不仅仅是服务器、容器、应用的 Debug 日志,也包括各类访问日志、中间件日志、用户点击、IoT/移动端日志、数据库 Binlog 等等。这些日志随着时效性的不同而应用在不同的场景:


  1. 准实时级别:这类日志主要用于准实时(秒级延迟)的线上监控、日志查看、运维数据支撑、问题诊断等场景,最近两年也出现了准实时的业务洞察,也是基于这类准实时的日志实现。

  2. 小时/天级别:当数据积累到小时/天级别的时候,这时一些 T+1 的分析工作就可以开始了,例如用户留存分析、广告投放效果分析、反欺诈、运营监测、用户行为分析等。

  3. 季度/年级别:在阿里,数据是我们最重要的资产,因此非常多的日志都是保存一年以上或永久保存,这类日志主要用于归档、审计、攻击溯源、业务走势分析、数据挖掘等。


在阿里,几乎所有的业务角色都会涉及到各式各样的日志数据,为了支撑各类应用场景,我们开发了非常多的工具和功能:日志实时分析、链路追踪、监控、数据清洗、流计算、离线计算、BI 系统、审计系统等等。其中很多系统都非常成熟,日志平台主要专注于智能分析、监控等实时的场景,其他功能通常打通的形式支持。

阿里日志平台现状



             


                              ​


目前阿里的日志平台覆盖几乎所有的产品线和产品,同时我们的产品也在云上对外提供服务,已经服务了上万家的企业。每天写入流量 16PB 以上,对应日志行数 40 万亿+条,采集客户端 200 万,服务数千 Kubernetes 集群,是国内最大的日志平台之一。

为何选择自建

日志系统存在了十多年,目前也有非常多的开源的方案,例如最典型的 ELK(Elastic Search、Logstash、Kibana),通常一个日志系统具备以下功能:日志收集/解析、查询与检索、日志分析、可视化/告警等,这些功能通过开源软件的组合都可以实现,但最终我们选择自建,主要有几下几点考虑:


  1. 数据规模:这些开源日志系统可以很好的支持小规模的场景,但很难支持阿里这种超大规模(PB 级)的场景。

  2. 资源消耗:我们拥有百万规模的服务器/容器,同时日志平台的集群规模也很大,我们需要减少对于采集以及平台自身的资源消耗。

  3. 多租户隔离:开源软件搭建的系统大部分都不是为了多租户而设计的,当非常多的业务 / 系统使用日志平台时,很容易因为部分用户的大流量 / 不恰当使用而导致打爆整个集群。

  4. 运维复杂度:在阿里内部有一套非常完整的服务部署和管理系统,基于内部组件实现会具备非常好的运维复杂度。

  5. 高级分析需求:日志系统的功能几乎全部来源与对应的场景需求,有很多特殊场景的高级分析需求开源软件没办法很好的支持,例如:上下文、智能分析、日志类特殊分析函数等等。



Kubernetes 日志平台建设难点

围绕着 Kubernetes 场景的需求,日志平台建设的难点主要有以下几点:


  1. 日志采集:采集在 Kubernetes 中极其关键和复杂,主要因为 Kubernetes 是一个高度复杂的场景,Kubernetes 中有各式各样的子系统,上层业务支持各种语言和框架,同时日志采集需要尽可能的和 Kubernetes 系统打通,用 K8 的形式来完成数据采集。

  2. 资源消耗:在 Kubernetes 中,服务通常都会拆的很小,因此数据采集对于服务自身的资源消耗要尽可能的少。这里我们简单的做一个计算,假设有 100W 个服务实例,没个采集 Agent 减少 1M 的内存、1%的 CPU 开销,那整体会减少 1TB 的内存和 10000 个 CPU 核心。

  3. 运维代价:运维一套日志平台的代价相当之大,因此我们不希望每个用户搭建一个 Kubernetes 集群时还需再运维一个独立的日志平台系统。因此日志平台一定是要 SaaS 化的,应用方/用户只需要简单的操作 Web 页面就能完成数据采集、分析的一整套流程。

  4. 便捷使用:日志系统最核心的功能是问题排查,问题排查的速度直接决定了工作效率、损失大小,在 K8s 场景中,更需要一套高性能、智能分析的功能来帮助用户快速定位问题,同时提供一系列简单有效的可视化手段进行辅助。

阿里 PB 级 Kubernetes 日志平台建设实践

Kubernetes 日志数据采集

无论是在 ITOM 还是在未来的 AIOps 场景中,日志获取都是其中必不可少的一个部分,数据源直接决定了后续应用的形态和功能。在十多年中,我们积累了一套物理机、虚拟机的日志采集经验,但在 Kubernetes 中不能完全适用,这里我们以问题的形式展开:

问题 1: DaemonSet or Sidecar



        


                                  ​


日志最主要的采集工具是 Agent,在 Kubernetes 场景下,通常会分为两种采集方式:


  1. DaemonSet 方式:在 K8S 的每个 node 上部署日志 agent,由 agent 采集所有容器的日志到服务端。

  2. Sidecar 方式:一个 POD 中运行一个 sidecar 的日志 agent 容器,用于采集该 POD 主容器产生的日志。


每种采集方式都有其对应的优缺点,这里简单总结如下:


DaemonSet方式Sidecar方式
采集日志类型标准输出+部分文件文件
部署运维一般,需维护DaemonSet较高,每个需要采集日志的POD都需要部署sidecar容器
日志分类存储一般,可通过容器/路径等映射每个POD可单独配置,灵活性高
多租户隔离一般,只能通过配置间隔离强,通过容器进行隔离,可单独分配资源
支持集群规模中小型规模,业务数最多支持百级别无限制
资源占用较低,每个节点运行一个容器较高,每个POD运行一个容器
查询便捷性较高,可进行自定义的查询、统计高,可根据业务特点进行定制
可定制性高,每个POD单独配置
适用场景功能单一型的集群大型、混合型、PAAS型集群


在阿里内部,对于大型的 PAAS 集群,主要使用 Sidecar 方式采集数据,相对隔离性、灵活性最好;而对与功能比较单一(部门内部/产品自建)的集群,基本都采用 DaemonSet 的方式,资源占用最低。

问题 2:如何降低资源消耗



                                        ​


我们数据采集 Agent 使用的是自研的 Logtail,Logtail 用 C++/Go 编写,相对开源 Agent 在资源消耗上具有非常大的优势,但我们还一直在压榨数据采集的资源消耗,尤其在容器场景。通常,为了提高打日志和采集的性能,我们都使用本地 SSD 盘作为日志盘。这里我们可以做个简答的计算:假设每个容器挂载 1GB 的 SSD 盘,1 个物理机运行 40 个容器,那每台物理机需要 40GB 的 SSD 作为日志存储,那 5W 物理机则会占用 2PB 的 SSD 盘。


为了降低这部分资源消耗,我们和蚂蚁金服团队的同学们一起开发了 FUSE 的日志采集方式,使用 FUSE(Filesystem in Userspace,用户态文件系统)虚拟化出日志盘,应用直接将日志写入到虚拟的日志盘中,最终数据将直接从内存中被 Logtail 采集到服务端。这种采集的好处有:


  1. 物理机无需为容器提供日志盘,真正实现日志无盘化。

  2. 应用程序视角看到的还是普通的文件系统,无需做任何额外改造。

  3. 数据采集绕过磁盘,直接从内存中将数据采集到服务端。

  4. 所有的数据都存在服务端,服务端支持横向扩展,对于应用来说他们看到的日志盘具有无线存储空间。

问题 3:如何与 Kubernetes 无缝集成



                                        ​


Kubernetes 一个非常大的突破是使用声明式的 API 来完成服务部署、集群管理等工作。但在 K8s 集群环境下,业务应用/服务/组件的持续集成和自动发布已经成为常态,使用控制台或 SDK 操作采集配置的方式很难与各类 CI、编排框架集成,导致业务应用发布后用户只能通过控制台手动配置的方式部署与之对应的日志采集配置。


因此我们基于 Kubernetes 的 CRD(CustomResourceDefinition)扩展实现了采集配置的 Operator,用户可以直接使用 K8s API、Yaml、kubectl、Helm 等方式直接配置采集方式,真正把日志采集融入到 Kubernetes 系统中,实现无缝集成。




           


                               ​

问题 4:如何管理百万级 Logtail



        


                                  ​


对于人才管理有个经典的原则:10 个人要用心良苦,100 个人要杀伐果断,1000 个人要甩手掌柜。而同样对于 Logtail 这款日志采集 Agent 的管理也是如此,这里我们分为 3 个主要过程:


  1. 百规模:在好几年前,Logtail 刚开始部署时,也就在几百台物理机上运行,这个时期的 Logtail 和其他主流的 Agent 一样,主要完成数据采集的功能,主要流程为数据输入、处理、聚合、发送,这个时期的管理基本靠手,采集出现问题的时候人工登录机器去看问题。

  2. 万规模:当越来越多的应用方接入,每台机器上可能会有多个应用方采集不同类型的数据,手动配置的接入过程也越来越难以维护。因此我们重点在多租户隔离以及中心化的配置管理,同时增加了很多控制相关的手段,比如限流、降级等。

  3. 百万规模:当部署量打到百万级别的时候,异常发生已经成为常态,我们更需要的是靠一系列的监控、可靠性保证机制、自动化的运维管理工具,让这些机制、工具来自动完成 Agent 安装、监控、自恢复等一系列工作,真正做到甩手掌柜。

Kubernetes 日志平台架构



       


                                    ​


上图是阿里 Kubernetes 日志平台的整体架构,从底到上分为日志接入层、平台核心层以及方案整合层:


  1. 平台提供了非常多的手段用来接入各种类型的日志数据。不仅仅只有 Kubernetes 中的日志,同时还包括和 Kubernetes 业务相关的所有日志,例如移动端日志、Web 端应用点击日志、IoT 日志等等。所有数据支持主动 Push、被动 Agent 采集,Agent 不仅支持我们自研的 Logtail,也支持使用开源 Agent(Logstash、Fluentd、Filebeats 等)。

  2. 日志首先会到达平台提供的实时队列中,类似于 Kafka 的 consumer group,我们提供实时数据订阅的功能,用户可以基于该功能实现 ETL 的相关需求。平台最核心的功能包括:

  3. 实时搜索:类似于搜索引擎的方式,支持从所有日志中根据关键词查找,支持超大规模(PB 级)。

  4. 实时分析:基于 SQL92 语法提供交互式的日志分析方法。

  5. 机器学习:提供时序预测、时序聚类、根因分析、日志聚合等智能分析方法。

  6. 流计算:对接各类流计算引擎,例如:Flink、Spark Stream、Storm 等。

  7. 离线分析:对接离线分析引擎,例如 Hadoop、Max Compute 等。

  8. 基于全方位的数据源以及平台提供的核心功能,并结合 Kubernetes 日志特点以及应用场景,向上构建 Kubernetes 日志的通用解决方案,例如:审计日志、Ingress 日志分析、ServiceMesh 日志等等。同时对于有特定需求的应用方/用户,可直接基于平台提供的 OpenAPI 构建上层方案,例如 Trace 系统、性能分析系统等。


下面我们从问题排查的角度来具体展开平台提供的核心功能。

PB 级日志查询



                                     ​


排查问题的最佳手段是查日志,大部分人脑海中最先想到的是用 grep 命令查找日志中的一些关键错误信息, grep 是 Linux 程序员最受欢迎的命令之一,对于简单的问题排查场景也非常实用。如果应用部署在多台机器,那还会配合使用 pgm、pssh 等命令。然而这些命令对于 Kubernetes 这种动态、大规模的场景并不适用,主要问题有:


  1. 查询不够灵活,grep 命令很难实现各种逻辑条件的组合。

  2. grep 是针对纯文本的分析手段,很难将日志格式化成对应的类型,例如 Long、Double 甚至 JSON 类型。

  3. grep 命令的前提条件是日志存储在磁盘上。而在 Kubernetes 中,应用的本地日志空间都很小,并且服务也会动态的迁移、伸缩,本地的数据源很可能会不存在。

  4. grep 是典型的全量扫描方式,如果数据量在 1GB 以内,查询时间还可以接受,但当数据量上升到 TB 甚至 PB 时,必须依赖搜索引擎的技术才能工作。


我们在 2009 年开始在飞天平台研发过程中,为够解决大规模(例如 5000 台)下的研发效率、问题诊断等问题,开始研支持超大规模的日志查询平台,其中最主要的目标是“快”,对于几十亿的数据也能够轻松在秒级完成。




                                           ​

日志上下文



                                        ​


当我们通过查询的方式定位到关键的日志后,需要分析当时系统的行为,并还原出当时的现场情况。而现场其实就是当时的日志上下文,例如:


  • 一个错误,同一个日志文件中的前后数据;

  • 一行 LogAppender 中输出,同一个进程顺序输出到日志模块前后顺序;

  • 一次请求,同一个 Session 组合;

  • 一次跨服务请求,同一个 TraceId 组合


在 Kubernetes 的场景中,每个容器的标准输出(stdout)、文件都有对应的组合方式构成一个上下文分区,例如 Namesapce+Pod+ContainerID+FileName/Stdout。


为支持上下文,我们在采集协议中对每个最小区分单元会带上一个全局唯一并且单调递增的游标,这个游标对单机日志、Docker、K8S 以及移动端 SDK、Log4J/LogBack 等输出中有不一样的形式。




                                           ​                                           




                                       ​

为日志而生的分析引擎



                                       ​


在一些复杂的场景中,我们需要对日志中的数据进行统计来发现其中规律。例如根据 ClientIP 进行聚合来查找攻击源 IP、将数据聚合计算 P99/P9999 延迟、从多个维度组合分析等。传统的方式需要配合流计算或离线计算的引擎进行聚合计算,再对接可视化系统进行图形化展示或对接告警系统。这种方式用户需要维护多套系统,数据实时性变差,并且各个系统间的衔接很容易出现问题。




                                        ​


因此我们平台原生集成了日志分析、可视化、告警等相关的功能,尽可能减少用户配置链路。通过多年的实践,我们发现用户最容易接受的还是 SQL 的分析方式,因此我们分析基于 SQL92 标准实现,在此基础上扩展了很多针对日志分析场景的高级函数,例如:


  1. 同比环比:前后数据对比是日志分析中最常用的方式之一,我们提供了同比/环比函数,一个函数即可计算今日 PV 同比昨日、上周的增幅。

  2. IP 地理函数:基于淘宝高精度 IP 地理库,提供 IP 到国家、省、市、运营商、经纬度等的转换,例如常见的 Nginx 访问日志、K8s Ingress 访问日志中的 remote-ip 可以直接用来分析地理位置分布。

  3. Join 外部数据源:将日志和 MySQL、CSV 等做 Join 分析,例如根据 ID 从数据库中查找用户对应的信息、和 CMDB 中的网络架构数据做关联等。

  4. 安全函数:支持日志安全分析中的常见方式,例如高危 IP 库查找、SQL 注入分析、高危 SQL 检测等。




                                           ​

智能日志分析

在日志平台上,应用方/用户可以通过日志接入、查询、分析、可视化、告警等功能可以完成异常监控、问题调查与定位。但随着计算形态、应用形态以及开发人员职责的不断演变,尤其在近两年 Kubernetes、ServiceMesh、Serverless 等技术的兴起,问题的复杂度不断上升,常规手段已经很难适用。于是我们开始尝试向 AIOps 领域发展,例如时序分析、根因分析、日志聚类等。

时序分析

通过时序预测相关方法,我们可以对 CPU、存储进行时序建模,进行更加智能的调度,让整体利用率如丝般平滑;存储团队通过对磁盘空间的增长预测,提前制定预算并采购机器;在做部门/产品预算时,根据历年账单预测全年的消费,进行更优的成本控制。


稍微大一些的服务可能会有几百、上千甚至上万台的机器,通过人肉很难发现每台机器行为(时序)的区别,而通过时序聚类就可以快速得到集群的行为分布,定位出异常的机器;同时对于单条时序,可以通过时序异常相关的检测方法,自动定位异常点。




       


                                    ​

根因分析

时序相关的函数主要用来发现问题,而查找问题根源还需要模式分析相关的方法(根因分析,Root Cause Analysis)。例如 K8s 集群整体 Ingress 错误率(5XX 比例)突然上升时,如何排查是因为某个服务问题、某个用户引起、某个 URL 引起、某个浏览器引起、某些地域网络问题、某个节点异常还是整体性的问题?通常这种问题都需要人工从各个维度去排查,例如:


  1. 按照 Service 去 Group,查看 Service 之间的错误率有无差别;

  2. 没有差别,然后排查 URL;

  3. 还没有,按照浏览器;

  4. 浏览器有点关系,继续看移动端、PC 端;

  5. 移动端错误率比较高,看看是 Android 还是 IOS;


这种问题的排查在维度越多时复杂度越高,排查时间也越久,可能等到发现问题的时候影响面已经全面扩大了。因此我们开发了根因分析相关的函数,可以直接从多维数据中定位对目标(例如延迟、失败率等)影响最大的一组(几组)维度组合。


为了更加精确的定位问题,我们还支持对比两个模式的差异,例如今天发生异常时,和昨天正常的模式进行对比,快速找到问题的原因;在发布时进行蓝绿对比以及 A/B Test。

智能日志聚类

上面我们通过智能时序函数发现问题、通过根因分析定位到关键的维度组合,但涉及到最终的代码问题排查,还是离不开日志。当日志的数据量很大时,一次次的手动过滤太过耗时,我们希望可以通过智能聚类的方式,把相似的日志聚类到一起,最终可以通过聚类后的日志快速掌握系统的运行状态。




       


                                    ​

上下游生态对接



                                        ​


Kubernetes 日志平台主要的目标在解决 DevOps、Net/Site Ops、Sec Ops 等问题上,然而这些并不能满足所有用户对于日志的所有需求,例如超大规模的日志分析、BI 分析、极其庞大的安全规则过滤等。平台的强大更多的是生态的强大,我们通过对接上下游广泛的生态来满足用户越来越多的日志需求和场景。

优秀应用案例分析

混合云 PAAS 平台日志管理



                                           ​


某大型游戏公司在进行技术架构升级,大部分业务会迁移到基于 Kubernetes 搭建的 PaaS 平台上,为提高平台整体的可用性,用户采集混合云架构,对于日志的统一建设与管理存在很大困难:


  • 众多内部应用方:不希望应用方过多的接触日志采集、存储等细节,并且能够为应用方提供全链路的日志;

  • 1000+微服务:需要支持大规模的日志采集方式;

  • 多云+线下 IDC:希望多个云厂商以及线下 IDC 采用的是同一套采集方案;

  • 应用周期短:部分应用的运行生命周期极短,需要能够及时将数据采集到服务端;

  • 海外数据回国:海外节点的日志回国分析,需尽可能保证传输稳定性和可靠性。


用户最终选择使用阿里云 Kubernetes 日志平台的方案,使用 Logtail 的方案解决采集可靠性问题,通过公网、专线、全球加速的配合解决网络问题,由系统管理员使用 DaemonSet 统一采集所有系统组件级别的日志,应用方只需使用 CRD 采集自己的业务日志。对于平台侧,系统管理员可以访问所有系统级别日志,并进行统一的监控和告警;对于应用侧,应用方不仅可以查到自己的业务日志,还能访问到和业务相关的中间件、Ingress、系统组件日志,进行全链路的分析。

二次开发日志管理平台



                


                           ​


在阿里有很多大的业务部门希望基于我们标准的日志平台进行二次开发,来满足他们部门的一些特殊需求,例如:


  • 通过各类规则以及接口限制规范数据接入。

  • 通过 TraceID 将整个调用链串联,构建 Trace 平台。

  • 部门内部多用户的权限细化管理。

  • 部门内部各个子部门的成本结算。

  • 与一内部些管控、运维系统打通。


这些需求可以基于我们提供的 OpenAPI 以及各语言的 SDK 快速的实现,同时为了减少前端的工作量,平台还提供 Iframe 嵌入的功能,支持直接将部分界面(例如查询框、Dashboard)直接嵌入到业务部门自己的系统中。

未来工作展望



        


                                  ​


目前阿里 Kubernetes 日志平台在内外部已经有非常多的应用,未来我们还将继续打磨平台,为应用方/用户提供更加完美的方案,后续工作主要集中在以下几点:


  1. 数据采集进一步精细化,持续优化可靠性和资源消耗,做到极致化的多租户隔离,争取在 PaaS 平台使用 DaemonSet 采集所有应用的日志。

  2. 提供更加便捷、智能的数据清洗服务,在平台内部就可以完成异构数据的清洗、规整等工作。

  3. 构建面向 Ops 领域的、可自动更新的、支持异构数据的知识图谱,让问题排查的经验可以积累在知识库中,实现异常搜索与推理。

  4. 提供交互式的训练平台,构建更加智能的 Automation 能力,真正实现 Ops 的闭环。




                                        ​

相关工作与参考




作者简介


元乙,阿里云日志服务技术专家,负责阿里巴巴集团、蚂蚁金服、阿里云等全站日志采集基础设施建设与维护,覆盖数百万服务器、数万应用、每天数十 PB 数据,历经多次双十一考验。目前主要关注 Kubernetes、微服务、IoT 等领域的 DevOps、AIOps 技术。


最后,QCon 全球软件开发大会(北京站)2019 已经圆满结束,QCon 上海 2019 即将起航,点击此处了解详情。


2019-05-24 14:128674

评论 1 条评论

发布
用户头像
这也算是干货分享?出了阿里云就无法使用的方案,又在ZB,能不能收敛些?
2019-05-27 13:05
回复
没有更多了
发现更多内容

View,2018android面试题

android 程序员 移动开发

WebView交互架构项目实战(三),阿里P7亲自教你

android 程序员 移动开发

Retrofit-+-RxJava-+-OkHttp-让网络请求变的简单-封装篇

android 程序员 移动开发

WebP 探寻之路,kotlin环境搭建

android 程序员 移动开发

Weex原理之带你去蹲坑(1),androidui开发工具

android 程序员 移动开发

Tomcat体系架构,2021吊打面试官系列

android 程序员 移动开发

使用策略模式重构电商折扣和支付场景

Tom弹架构

Java 架构 设计模式

我的毕业总结

张文龙

#架构实战营

TCP_UDP协议详解,大牛带你直击优秀开源框架灵魂

android 程序员 移动开发

TCP粘包半包问题和解决,android实战开发-天气预报PPT

android 程序员 移动开发

ViewDragHelper之手势操作神器,vue数据双向绑定

android 程序员 移动开发

Weex原理之带你去蹲坑,kotlin参数默认值

android 程序员 移动开发

Router_一款单品、组件化、插件化全支持的路由框架,安卓开发面试题自定义view

android 程序员 移动开发

volatile关键字在Android中到底有什么用?,零基础入门android

android 程序员 移动开发

View系列:硬件加速,安卓面试项目

android 程序员 移动开发

阿里:“6大核心调优技术”曝光,真是小母牛坐飞机,牛逼上天了!

Java高级开发

架构 JVM Java 分布式 Java性能调优 M-SQL

ScrollView嵌套RecyclerView滑动冲突相关问题,BAT这种大厂履历意味着什么

android 程序员 移动开发

一周信创舆情观察(10.25~10.31)

统小信uos

StateMachine使用及源码解读,kotlin面试题

android 程序员 移动开发

华泰证券研究所谢春生:从全球看金融 IT 架构的变化

BoCloud博云

云计算 系统架构 金融科技

VirtualAPK 详解和使用,网易云的朋友给我这份339页的Android面经

android 程序员 移动开发

终于有人把阿里巴巴的“双11”高并发系统秒杀架构终极版教程,整理成册了

Sakura

Java 程序员 架构 面试 计算机

RxJava 沉思录(三),android开发入门与实战网盘

android 程序员 移动开发

Sqlite全面学习(一),oppo android面试

android 程序员 移动开发

ViewPager中使用Fragment时防止数据预加载,腾讯架构师深入讲解Android开发

android 程序员 移动开发

ViewPager(二),android移动应用开发教程

android 程序员 移动开发

阿里内部热捧“Spring全线笔记”,不止是全家桶,太完整了

Java spring 程序员 springmvc springboot

远程连接Windows服务器

坚果

云服务器 11月日更

ViewPager翻页特效(2_特效关键代码),android混合开发专利

android 程序员 移动开发

华为云数据库限量秒杀11.11元/年,错过再等一年!

华为云数据库小助手

GaussDB 优惠券 华为云数据库

Room增删改查,真香!,android编程实战pdf

android 程序员 移动开发

干货分享 | 阿里PB级Kubernetes日志平台建设实践_文化 & 方法_元乙_InfoQ精选文章