从四种时序数据库选型脱颖而出,TDengine在工控边缘侧的应用
moboyou 2025-03-28 13:17 33 浏览
作者:冰茹
小 T 导读:和利时始创于 1993 年,业务集中在工业自动化、交通自动化和医疗大健康三大领域,结合自动化与信息化两方面的技术优势,提出了“智能控制、智慧管理、自主可控、安全可信”的战略指导方针。围绕集团三大业务,公司对工业互联网、大数据、5G、信息安全等新兴技术开展更深入的研究和应用示范,打造面向各领域应用的工业互联网平台,进一步促进智能制造解决方案的落地应用。
在物联网场景下,面对庞大的时序数据处理需求,Oracle、PostgreSQL 等传统关系型数据库越来越吃力。基于此,目前国内外主流工业互联网平台几乎都已经采用时序数据库,来承接海量涌入的工业数据。
究其原因,可以从数据的三个核心需求来解释。我们都知道,企业在选择数据库、文件系统等产品时,最终目的都是为了以最佳性价比来满足数据的三个核心需求:数据写入、数据读取、数据存储。时序数据库完全是按照时序数据的三个需求特征进行设计和开发的,在数据处理上更加具有针对性:
- 在数据写入上,如果将时间看作一个主坐标轴,时序数据通常是按照时间顺序抵达,抵达的数据几乎总是作为新条目被记录,在数据处理操作上 95%-99%都是写入操作;
- 在数据读取上,随机位置的单个测量读取、删除操作几乎没有,读取和删除都是批量的,从某时间点开始的一段时间内读取的数据可能非常巨大;
- 在数据存储上,时序数据结构简单,价值随时间推移迅速降低,通常都是通过压缩、移动、删除等手段来降低存储成本。
而关系型数据库主要应对的数据特点却大相径庭:
- 数据写入:大多数操作都是 DML 操作,插入、更新、删除等
- 数据读取:读取逻辑一般都比较复杂
- 数据存储:很少压缩,一般也不设置数据生命周期管理
因此,从数据本质的角度而言,时序数据库(不变性、唯一性以及可排序性)和关系型数据库的服务需求完全不同。这也是我们一开始就锁定时序数据库来满足工业互联网场景的核心原因。
一、时序数据库选型
我们对包括 InfluxDB、OpenTSDB、HolliTSDB(和利时自研时序数据库)、TDengine 在内的四款时序数据库进行了选型调研及相关测试。测试数据的频率为 1 秒钟,数据集包含 10000 台设备,每台设备有 10000 条记录,每条数据采集记录包含 3 个标签字段、2 个数据字段、1 个时间戳字段。测试对比项包括占用磁盘空间、百万条数据遍历查询、聚合查询(COUNT、AVG、SUM、MAX、MIN)。测试结果如下所示:
- 占用磁盘空间
- 百万条数据遍历查询
- 聚合查询 COUNT
- 聚合查询 AVG
- 聚合查询 SUM
- 聚合查询 MAX
- 聚合查询 MIN
同等条件下,TDengine 的压缩率最高,数据占用的存储空间最小;在原始数据查询上,OpenTSDB 最慢,TDengine 与 HolliTSDB 在伯仲之间;在聚合查询操作上,TDengine 最快,HolliTSDB 的速度和 InfluxDB 相当,OpenTSDB 最慢。同时,InfluxDB 只能单机部署,集群版本并未开源,且查询性能存在瓶颈,其 QPS 约为 30-50。
从性能测试结果来看,我们选择 TDengine 的原因主要源于以下几点:
- TDengine 在查询性能维度上的表现非常优异,满足了我们的业务查询需求
- 集群功能开源,方便横向扩展,更弹性
- 在开源热潮之下,支持如 TDengine 一般的国产开源数据库、操作系统、中间件等也是企业的必修课
最终我们决定接入 TDengine,以享受更多元的本地化支持和响应。
二、技术架构与实现
目前 TDengine 作为边缘版时序数据库在搭建使用,具体的技术架构如下图所示:
基于 TDengine 进行建库建表思路如下:
CREATE STABLE IF NOT EXISTS ts_super
(time TIMESTAMP, s BIGINT, vl BIGINT,vf DOUBLE,vb BOOL,vs BINARY(16349))
TAGS
(innerId BIGINT, namespace BINARY(256), id BINARY(256), type BINARY(1), seq int);
在构建列时,包含元素为 time(时间,主键)、s(数据质量)、vl(整形类型数据 L)、vf(浮点型数据 F)、vb(布尔型数据 B)、vs(字符串数据 S),其中 time、s 是必填的列,剩余列则要根据测点类型填写,比如测点上报的是整形数据,就只需要设置 time、s、vl 这三列,vf、vb、vs 这三列为 null。
在构建 tag 时,要包括 innerId(测点内部编码)、id(测点 id)、type(测点类型,L/F/B/S)、seq (序号,L/F/B 类型数据设置为 0,S 类型测点的 seq 可能为 0,1,2,3...)
同时,在建库建表的操作中我们也碰到了一些小问题,放在这里给大家做下参考:
- 因为表名不支持特殊字符,所以需要再生成一个唯一编码作为表名;
- 查询语句会被填充,导致查询过程性能变慢,网卡被打满。这种情况下只需要将查询请求手动压缩,就能有效降低带宽占用率;
- TDengine 字符串最长可以有 16374 字节 ,超过的话需要从逻辑上处理。我们采用的方案是如果长度超过 16374 ,截取该字符串,同一个测点再建新的表,通过 tag 关联。
三、实际效果展示
1. 数据库配置
TDengine 集群 5 个节点,副本数设置为 3。修改配置为:
- minTablesPerVnode 10
- tableIncStepPerVnode 10
- compressMsgSize 1024
- rpcForceTcp 1
- httpMaxThreads 16
各节点机器配置如下:
2. 查询客户端配置
客户端共有三台主机,每台主机上分别运行时序查询及其对应的 AB,各主机上的时序查询独立运行,分别启动一/二/三个时序查询及其对应的 AB 进行性能测试。
3. 数据说明
共 1000 个测点,80000 万条数据,数据频率为每秒钟 1 条。存储分布如下所示,存储压缩率不超过 1/10。
4. 查询结果
在我们的业务查询当中,增加 QPS 的主要方式是增加查询的并发数。AB 从 1 到 2,QPS 增加了 45%,平均响应时间不超过 1000ms,很好满足了客户需求。
5. 资源消耗(统计 3 个查询服务的实例)
- TDengine node 节点资源消耗
在查询过程中,数据是相对均匀的分布,但是不同节点的 CPU 消耗仍然有较大的方差。这是由于 TDengine 的 RESTful 的底层是在服务端通过单独的代理线程作为客户端查询,所以会受到请求均匀度的影响。如果 TDengine 在后续可以做代理层面的负载均衡,相信能够缩小这个偏差。
6. 查询服务资源消耗
在查询段的节点资源消耗还是相当大的,因为需要对查询请求和结果进行处理。在具体业务中,可以考虑使用 RPC 接口来降低查询服务的 CPU 消耗。
四、写在最后
TDengine 在本项目中展现出的性能效果非常显著,推动本次项目快速且高质量落地,实现降本增效的目标。接下来,希望 TDengine 能够在以下两个方向上有更大的进步,也祝愿我们的合作能够越来越紧密:
- 希望可以通过触发器或协处理器等方式,在服务端做数据过滤再返回,解决网络压力过大的问题
- 希望能够进一步改善长度限制的问题
查看博客: 你写,我“奖”|TDengine 用户故事征集 | 涛思数据活动详情,
iPhone 13 Pro 等你带回家!
相关推荐
- php宝塔搭建部署实战服务类家政钟点工保姆网站源码
-
大家好啊,我是测评君,欢迎来到web测评。本期给大家带来一套php开发的服务类家政钟点工保姆网站源码,感兴趣的朋友可以自行下载学习。技术架构PHP7.2+nginx+mysql5.7+JS...
- 360自动收录简介及添加360自动收录功能的详细教程
-
以前我们都是为博客站点添加百度实时推送功能,现在360已经推出了自动收录功能,个人认为这个功能应该跟百度的实时推送功能差不多,所以我们也应该添加上这个功能,毕竟360在国内的份额还是不少的。360自动...
- 介绍一个渗透测试中使用的WEB扫描工具:Skipfish
-
Skipfish简介Skipfish是一款主动的、轻量级的Web应用程序安全侦察工具。它通过执行递归爬取和基于字典的探测来为目标站点准备交互式站点地图。该工具生成的最终报告旨在作为专业Web应用程序安...
- 好程序员大数据培训分享Apache-Hadoop简介
-
好程序员大数据培训分享Apache-Hadoop简介 好程序员大数据培训分享Apache-Hadoop简介,一、Hadoop出现的原因:现在的我们,生活在数据大爆炸的年代。国际数据公司已经预测在20...
- LPL比赛数据可视化,完成这个项目,用尽了我的所有Python知识
-
LPL比赛数据可视化效果图完成这个项目,我感觉我已经被掏空了,我几乎用尽了我会的所有知识html+css+javascript+jQuery+python+requests+numpy+mysql+p...
- 网站被谷歌标记“有垃圾内容”但找不到具体页面?
-
谷歌的垃圾内容判定机制复杂,有时违规页面藏得深(如用户注册页、旧测试内容),或是因第三方插件漏洞被注入垃圾代码,导致站长反复排查仍毫无头绪。本文提供一套低成本、高执行性的解决方案。你将学会如何利用谷歌...
- 黑客必学知识点--如何轻松绕过CDN,找到真实的IP地址
-
信息收集(二)1、cms识别基础为什么要找CMS信息呢?因为有了CMS信息之后,会给我们很多便利,我们可以搜索相应CMS,有没有公开的漏洞利用根据敏感文件的判断:robots.txt文件robots....
- Scrapy 爬虫完整案例-提升篇
-
1Scrapy爬虫完整案例-提升篇1.1Scrapy爬虫进阶案例一Scrapy爬虫案例:东莞阳光热线问政平台。网站地址:http://wz.sun0769.com/index.php/que...
- 如何写一个疯狂的爬虫!
-
自己在做张大妈比价(http://hizdm.com)的时候我先后写了两个版本的爬虫(php版本和python版本),虽然我试图将他们伪装的很像人但是由于京东的价格接口是一个对外开放的接口,如果访问频...
- 程序员简历例句—范例Java、Python、C++模板
-
个人简介通用简介:有良好的代码风格,通过添加注释提高代码可读性,注重代码质量,研读过XXX,XXX等多个开源项目源码从而学习增强代码的健壮性与扩展性。具备良好的代码编程习惯及文档编写能力,参与多个高...
- Python爬虫高级之JS渗透登录新浪微博 | 知了独家研究
-
小伙伴们看到标题可能会想,我能直接自己登陆把登陆后的cookie复制下来加到自定义的请求头里面不香嘛,为什么非要用python模拟登录的过程?如果我们是长期爬取数据,比如每天早上中午和晚上定时爬取新浪...
- 使用Selenium实现微博爬虫:预登录、展开全文、翻页
-
前言想实现爬微博的自由吗?这里可以实现了!本文可以解决微博预登录、识别“展开全文”并爬取完整数据、翻页设置等问题。一、区分动态爬虫和静态爬虫1、静态网页静态网页是纯粹的HTML,没有后台数据库,不含程...
- 《孤注一掷》关于黑客的彩蛋,你知道多少?
-
电影总是能引发人们的好奇心,尤其是近日上映的电影《孤注一掷》。这部电影由宁浩监制,申奥编剧执导,是一部反诈骗犯罪片。今天给大家讲解一下影片潘生用的什么语言,以及写了哪些程序。揭秘影片中的SQL注入手法...
- python爬虫实战之Headers信息校验-Cookie
-
一、什么是cookie上期我们了解了User-Agent,这期我们来看下如何利用Cookie进行用户模拟登录从而进行网站数据的爬取。首先让我们来了解下什么是Cookie:Cookie指某些网站为了辨别...
- 「2022 年」崔庆才 Python3 爬虫教程 - urllib 爬虫初体验
-
首先我们介绍一个Python库,叫做urllib,利用它我们可以实现HTTP请求的发送,而不用去关心HTTP协议本身甚至更低层的实现。我们只需要指定请求的URL、请求头、请求体等信息即...
- 一周热门
- 最近发表
- 标签列表
-
- curseforge官网网址 (16)
- 外键约束 oracle (36)
- oracle的row number (32)
- 唯一索引 oracle (34)
- oracle in 表变量 (28)
- oracle导出dmp导出 (28)
- oracle 数据导出导入 (16)
- oracle两个表 (20)
- oracle 数据库 字符集 (20)
- oracle安装补丁 (19)
- matlab化简多项式 (20)
- 多线程的创建方式 (29)
- 多线程 python (30)
- java多线程并发处理 (32)
- 宏程序代码一览表 (35)
- c++需要学多久 (25)
- c语言编程小知识大全 (17)
- css class选择器用法 (25)
- css样式引入 (30)
- html5和css3新特性 (19)
- css教程文字移动 (33)
- php简单源码 (36)
- php个人中心源码 (25)
- 网站管理平台php源码 (19)
- php小说爬取源码 (23)