收录了 压缩数据库 频道下的 50 篇内容
压缩对于时序数据库是至关重要的。因为时序数据库面对的物联网场景每天都会产生上亿条数据。众所周知,在大数据时代的今天数据的重要性是不言而喻的,数据就是公司的未来。但如果无法对这些时序数据进行很好的管理和压缩,那将给客户带来非常高的成本压力。 压缩是个非常大的话题,本文希望能够先从大的宏观角度给出一个轮廓,讲述压缩的本质,压缩的可计算性问题。再从时序数据压缩这一个垂直领域,给出无损压缩和有损压缩各一个例子进行说明,希望能够抛砖引玉。
对于大量历史数据存储的需求, OceanBase 的 SSTable 存储格式和数据编码压缩功能可以使 OceanBase 更轻松地支持超大容量的数据存储。
2017年2月3日,Facebook宣布将开源他们的高性能时序数据存储引擎Beringer。Beringei是用来解决其内部监控数据存储和查询需求的数据库,其特点是读写速度快,属于内存数据库的一种。本文将会详细介绍Beringei的来龙去脉以及它的设计思路、应用场景和特点。
采用Apache搜索引擎Lucene从事相关开发工作的开发者通常都会依靠代码剖析器(code profiler)、调试源代码、或者给Lucene代码手工增加跟踪代码等方法来捕捉其Lucene实现的性能变化。而Lucid Imagination出品的一个免费产品LucidGaze则提供了另一种方法。Infoq注意到了该产品并对Lucid Imagination进行了采访。
Grafana 希望从仪表盘解决方案转变为可观察性平台,成为你需要调试系统时的首选。Prometheus、Jaeger、kubectl 各自有自己的局限性,于是 Grafana 自己构建了开源的日志聚合分析工具:Loki。
本次被收录的研究成果中,新型数据结构设计、AI智能调参优化等均属于业界首次提出。腾讯云数据库多次入选SIGMOD,表明腾讯云数据库在存储、智能管控等方面的积累与前沿创新获得了国际权威认可。
编者荐语:数据压缩,我想经常做数据库内核开发的同学并不陌生,像StoneDB就采用了多种智能压缩算法,平均可提供10倍左右的压缩比,在部分生产环境中可以达到30倍的压缩效果,本文来自石原子科技合伙人祁国辉老师,给大家介绍数据压缩的相关技术,推荐阅读。
“关系型数据库市场一年的份额为90亿美元。我希望将它压缩到30亿美元,并占据三分之一的份额”,这是前MySQL首席执行官Marten Mickos曾经的豪言壮语。虽然MySQL直到被收购也没有达到Mickos的预期,但现在,他的预言似乎正在变成现实。
本次分享介绍X-DB FPGA异构计算加速的探索与实践。
使用 Azure SQL 数据库中的内存中技术可在各种工作负荷上实现性能改善:事务工作负荷(联机事务处理 (OLTP))、分析工作负荷(联机分析处理 (OLAP))和混合工作负荷(混合事务/分析处理 (HTAP))。 由于查询和事务处理的效率提升,内存中技术还可降低成本。 用户通常不需要升级数据库的定价层即可实现性能提升。 在某些情况下,即使是降低定价层,使用内存中技术也能实现性能改善。
从 1960s 到现在,数据库技术经历了多层变革,这里面是很多数据库领域工程师的深厚沉淀,也涌现了很多图灵奖的大师。
我对生成式AI大模型的未来充满了希望,同样,我对向量数据库行业也非常看好。
本次分享介绍把分布式一致性协议Raft与MySQL高可用集群相结合,打造一款新式分布式数据库架构(MyNewSQL)。
数据仓库到底该怎么用?
众所周知,在数据库的历史上,每次存储介质的变化都会引发软件的变革。
摘要:物联网设备产生的数据是典型的时序数据,而时序数据库是存储时序数据的专业数据库系统,因此数据压缩对时序数据库来说是一项必不可少的能力。
当今世界是一个充满着数据的互联网世界,生活的方方面面都在不断产生着数据,比如出行记录、消费记录、浏览的网页、发送的消息等等。
一个数据库包打天下的时代已经结束了
“免费版”国产数据库长什么样?
俗话说得好,内行看门道,外行看热闹。那么,如何才能快速达成从“看热闹”到“看门道”这一身份的转换?