用sequoiasql-postgresql创建一个关联表怎么优化

本篇内容介绍了“用sequoiasql-postgresql创建一个关联表怎么优化”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

【用户咨询】 
用sequoiasql-postgresql创建一个关联表,存入500W数据。在创建索引的情况下,用pg进行简单的group by查询,平均耗时是50秒,是否可以进一步优化? 
【问题描述】 
1.集群部署情况 
   三台主机对应一个分区组,每台主机均部署有coord、cata、data节点。 
2.表属性 
   一个500w数据的关联表b_qt_swdj和一个800w数据的pg原生表b_qt_swdj1,两个表结构相同,一共39个字段。 
3.sample和语句 
   对关联表执行查询: 
   ①SELECT sw_scjy_yb,count(se_scjy_yb) as count FROM b_qt_swdj group by sw_scjy_yb; 
   ②SELECT count(1) from b_qt_swdj; 
   对原生表执行查询: 
   ③SELECT sw_scjy_yb,count(se_scjy_yb) as count FROM b_qt_swdj1 group by sw_scjy_yb; 
   ④SELECT count(1) from b_qt_swdj1; 
    用db内置sql执行①,耗时57秒。执行②,耗时33秒。 
    用pg执行①,耗时50秒。执行②,耗时44秒。

用pg执行③,耗时8秒。执行④,耗时3秒。 
4.网络带宽 
    传输数据时约为46MB/S。 

【解决办法】 
SELECT sw_scjy_yb,count(se_scjy_yb) as count FROM b_qt_swdj1 group by sw_scjy_yb;在pg耗时和使用sdb内置sql耗时差不多,都是50S左右。跟pg关系不大。 
从pg的访问计划(见截图三)来看,绝大部分耗时也是在select上。 
建议一:应该考虑在sdb端对表做分区,提高数据抽取并发度去提高性能。 
建议二:对于大表的统计推荐使用SparkSQL作为sql引擎。 

“用sequoiasql-postgresql创建一个关联表怎么优化”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注蜗牛博客网站,小编将为大家输出更多高质量的实用文章!

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:niceseo99@gmail.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

评论

有免费节点资源,我们会通知你!加入纸飞机订阅群

×
天气预报查看日历分享网页手机扫码留言评论电报频道链接