教育培训 > sql一次查询需要关联十几张表,有什么优化方案么?

sql一次查询需要关联十几张表,有什么优化方案么?

2020-08-16 17:16阅读(282)

sql一次查询需要关联十几张表,有什么优化方案么?sql优化已经到极限了,还是很慢:不知道开发的同学有没有遇到过类似这样的需求:相同类型的数据在多个系统中,

1

不知道开发的同学有没有遇到过类似这样的需求:

  • 相同类型的数据在多个系统中,如果要得到全部的信息,就要连续调多个系统的接口;

  • 业务复杂,一个需求需要关联几张表甚至几十张表才能得到想要的结果;

  • 系统做了分库分表,但是需要统计所有的数据。

那么此类需求要如何满足呢?我们选择了“通过 ETL 提前进行数据整合”的方案。

什么是 ETL

说到ETL,很多开发伙伴可能会有些陌生,更多的时候 ETL 是用在大数据、数据分析的相关岗位;我也是在近几年的工作过程中才接触到ETL的,现在的项目比较依赖 ETL,可以说是项目中重要的一部分。


ETL 是三个单词的缩写:

  • Extraction:抽取、提取;就是把数据从数据库里面取出来;

  • Transformation:转换;包括但不限于:数据筛选校验、数据关联、数据内容及结构的修改、运算、统计等等;

  • Loading:加载;将处理后的数据保存到目标数据库。

从这三个单词基本可以了解 ETL 的作用:将各个业务系统的数据,通过抽取、清洗、转换之后,将加工后的数据落地到数据库中(数据仓库);在这个过程中,ETL 可以将分散、零乱、标准不统一的数据整合到一起。



使用场景

我接触过的项目,使用ETL工具的场景有这个几种:

1. 报表、BI系统:

在公司建设的初期,业务比较少,系统也比较少,一台数据库就搞定了;随着公司业务的增加,业务系统被拆成很多系统;随着数据量的继续增加,单个系统的数据增加到一定程度的时候,也做了分库分表;

这时候领导、业务人员在用数据做分析的时候,数据来源可能是多个系统的多张表,这时候企图通过一个复杂的 SQL 跑出来结果就很困难了;通常公司会建立一个数据仓库,通过ETL工具把数据抽取到数据仓库中,再做数据的拟合和展示。

2. 跨系统的数据加工或查询:

我们现在所在公司,业务系统有几百个,由于业务流程比较复杂,前端系统在做业务操作的时候,在正式提交交易之前,有很多业务校验;

比如要查询客户在 X 系统的交易历史,在 Y 系统的交易历史,在 Z 系统的交易历史;那么就需要分别调用 X、Y、Z 系统的接口,这个对前端系统很不友好,那么通常的解决方案是什么?

  • A 方案:做一个中间服务,中间服务去调用 X、Y、Z 系统的接口,客户端直接调用这个中间服务;这种方案只是把前端要做的事情,转移到了中间服务;

  • B 方案:整合 X、Y、Z 三个系统,建服务中台;这种方法很好,但是极为难,对于很多公司来说,别说把 X、Y、Z 三个系统整合成一个中台系统,就是其中一个系统本身进行重构,都是非常困难的;

  • C 方案:把 X、Y、Z 三个系统中需要的数据,通过 ETL 抽取加工到一个数据仓库中,对外提供服务;这个系统最大的好处是在不改造 X、Y、Z 三个系统的前提下,又可以实现跨系统的查询。

我们在 C 方案的基础上又往前做了一步,就是将落地后的数据又做了一次加工,将需要跨表关联的数据,提前关联好存入 MongoDB 中,对外提供查询服务;这样可以将多表关联查询,变成了单表查询。


吐数据 VS 抽数据

接上文中第二个例子中的 C 方案,有些同学可能会有个疑问:数据抽取,需要抽取哪些数据呢?为什么不让这些系统把数据吐出来呢?

答案也简单,“有的时候,数据不一定能吐出来”。

  • MySQL 数据库往外吐数据有比较成熟的中间件,比如 Canal,它可以通过监听 Mysql 的 binlog 日志来获取数据,binlog 设置为 row 模式,能够获取到每一条新增、删除、修改的日志,同时还能获取到修改前后的数据;

  • 其他商用数据库,比如 Oracle、DB2 等,我也查阅过相关的资料,也是有触发器机制,可以当数据发生变化的时候通知出来,比如调用一段程序,将数据发送到消息队列中,再由其他程序监听消息队列做后续处理。

不管什么类型的数据库,这种“吐数据”的方案,对于基础设施的要求都比较高,并且对原有系统有一定的侵入性;所以我们采用了对原有系统侵入性更小的方案:主动抽数据。


ETL 方案的优缺点

1. 优点

  • 侵入性较低,数据源系统只需要开通数据库的访问权限即可,为保证数据抽取对业务的影响,通常是访问源系统的备库,并且单独设置一个只读权限的数据库用户;

  • 支持不同类型数据源的数据抽取,比如源库有 Mysql、DB2、Oracle,通过 ETL 也可以轻松搞定;

  • 数据整合,将不同业务系统的相同数据整合在一起,比如有些系统 M/F 表示男女,有些系统 1/0 表示男女,ETL 在抽取加工后转换成统一的编码;

2. 缺点

  • 比较致命的一个缺点,就是数据抽取和加工有一定的延迟,需要根据业务场景进行评估,是否接受这个延迟;

  • 可能会受到源库表结构变化的影响;

  • 如果源库中的表没有时间戳,或者时间戳不准确,那么增量抽取就变得很困难;

  • 需要招聘 ETL 开发岗,从我目前的经验看,不是特别好招。

我将持续分享Java开发、架构设计、程序员职业发展等方面的见解,希望能得到你的关注。

2

您好,我是一名互联网行业开发工程师,同时也是优质vlog领域创作者,欢迎关注我!

sql一次查询关联十几张表,这太夸张了,最多容忍一次查询5张表或以下,不然那笛卡尔积等太可怕了,一次十几张表的关联多半都是表结构没设计好,从下面这些方法去优化吧:

优化方法

1、部分表可以冗余经常查询的字段

2、设计表的时候满足第二范式就好了,这样减少表关联

3、一些名称等字段数据,查询时可以利用redis映射出来,没必要再关联表去查询,减少关联表的数量

4、把一些边缘表的数据缓存起来

5、涉及到orderby、groupby的字段,就建下索引,减少文件排序的产生;尽量都能保证命中索引,优化前可以先explain

6、索引不要盲目去建,要适量合适去建,不然会拖慢查询,适得其反

最后

sql的优化和设计是绕不开的,希望大家都可以参考下方法,再结合自己的业务去优化,不要盲目去优化。

3

什么业务需要关键这么多表检索?用物化视图做多次查询,或先优化一下脑子

4

互联网时代倡导非关系型数据库,首先保证单表查询速度到极致,然后程序设计数据关联最终算出结果,这才是解决之道。强烈依赖关系型数据库是一种偷懒的方式,当今海量数据时代,关系型数据库用武之地也就剩下对速度要求不高的后台统计和用户量低的场景。

5

一、关联表数据经常变,或者每次查询关联得表都不一样,要求实效性高,比如最近一分钟。

数据不大的话建议还内存数据库。否则无解。

二、数据变化少,比如每天,每四个小时。查询业务固定,实效性要求低,比如今天查昨天的。

做关联查询物化,写成临时表,定时更新。

6

良好的设计数据库,这种情况往往是糟糕的数据库设计的问题。找个对数据库有深入了解大牛,帮忙规划一下,要不了几天,但很解决问题。

7

我记得阿里巴巴开发手册规定了一次join不能超过3张表,为什么会有这种规范,显然是在某种业务场景下要多做数据冗余,方便查询,性能更高,带来的缺点就是更新可能会更复杂,而三范式结构更清晰,数据量大性能必然会下降,所以要有取舍,设计表结构时,要三范式和反范式结合而用,否则那些头部互联网公司哪个业务不复杂,虽然可以用es和hbase,但如果都是join十多张表那都不用玩了,我所在的物流公司,业务也是非常复杂,刚来公司的时候就发现,前期表结构规划不合理,也没有采用es等中间件做数据聚合,一个简单的例子,扫条码码入库,全链路压测吞吐连10都不到,走读下代码,一个获取订单信息的查询10张表,整个流程中还有多个系统的同步调用,基本上随便都是七八张表以上,本身也是个新项目,跑了一年左右了,量没有特别大,但是业务复杂的牵一发动全身,这种系统就别想重构了,大公司你懂的,所以首先就是各种sql优化,能提高多少是多少,待了半年左右就走了,再待下去量上来,系统扛不住,天天就得加班挨叼了。所以说一个好的设计,至少可以让你系统能抗的住未来一两年的业务的增长。

8

本人写sql也有好多年了,但一次查询关联10几张表的情况还没碰到过。但是这种情况还是有优化的方法的。

首先查询关联10几张表,不管是内联还是外联,不管怎么优化你的sql语句,比如建索引,指定返回列,where加限制条件,我相信你的结果还是会很慢的。 因为这已经不是技术层面可以去优化的,建议还是从业务层面去优化。

不管多复杂的业务我们都可以去分解它,将它分解成一段段的子结果集,可以将它们作为临时表或者结果表存储起来,在最终的查询时可以从分解的子集去查询,这样就避免了多表关联,而且这样代码可读性,可维护性更好。也符合我们设计代码的基本原则。

9

这种情况一般都是因为前期设计没做好。。数据结构重构一遍吧。。。。

或者分开查。连表的逻辑放到程序里做。。

10

看看你的sql,才能找出问题,一般可以提供一些冗余字段,索引,只返回必要字段

相关问答推荐