PG索引对导入性能影响

测试环境

1.1 硬件环境

CPU内存数据
2路Intel(R) Xeon(R) CPU E5-2620 v3 @ 2.40GHz 共24个逻辑核64G 2T sata*8

1.2 软件环境

操作系统:Red Hat Enterprise Linux Server release 7.4 (Maipo) 内核:3.10.0-693.el7.x86_64

PG:PostgreSQL 10.6

1.3 测试表

基础表结构:

CREATE TABLE test (

 a varchar(64),

 b varchar(64),

 c varchar(64),

 d varchar(64),

 e varchar(64),

 f varchar(64),

 g varchar(64),

 h varchar(64),

 i varchar(64),

 j varchar(64),

 k varchar(64),

 l TIMESTAMP

) ;

索引:

create index idx_1 on test(a);

create index idx_2 on test(b);

create index idx_3 on test(f);

create index idx_4 on test(i);

create index idx_5 on test(l);

数据样例:

9dfdd3a8-b65a-4705-a0ff-daf1819861d2 1111111111111111111 阿大 13888888888 陕H11111 546687257794821 460073102018579 a7:8e:c5:d3:2d:6c 4212922510 T1n5C9011216 2018-10-08 10:55:47

入库性能

2.1 总体结果

使用copy命令入库,每个文件1000W条,行长约180B。分别测试无索引、1个索引、3个索引、5个索引的导入性能。

2.1.1 测试结果

表中存量数据(千万)012345678910111213141516171819
no index2222222322232522252223222222222223232323
1 index(raid0*8)61797172741247678156781301297920280221209113247259
3 index(raid0*8)153214182275192324192362390419562121419142539328341694548500054638309
5 index(raid0*8)22622532725538743046798926002670295827863452426464821123619992   
3 index(单盘)136176185223177363202321207341309563329504       
5 index(单盘)185264282335242376419456355211663          

续:

表中存量数据(千万)2021222324252627282930313233343536
no index2222222222222322222223232322232223
1 index(raid0*8)271389396509567719875103697410161435158419731860207921187809

2.1.2 总结

  1. 索引对PG导入性能影响非常大。
  2. 在表数据量到达拐点之后(根据索引数及磁盘IO能力决定,即使只有1个索引),导入时间呈指数级增长。
  3. 更好的磁盘IO只能延缓拐点的到来,无法避免性能急剧降低。
  4. 根据上述实验结果,单表的数据量在小于7000W时,导入性能略有下降,但基本还算稳定。所以建议:
    • 实际使用时如果索引小于等于5个,单表数据量大于5000W条就必须采取如分区、分库、分表等措施,同时每个分区也不得超过5000W。
    • 如果索引大于5个,优先考虑降低索引个数,如过实在不能降低,则单个分区数据量不得大于2000W条。

PyGreSQL入门

——简单整理翻译自官方文档:http://www.pygresql.org/contents/tutorial.html

  • 创建数据库连接

只需import DB类并创建一个实例,填入相应的连接信息,例:

如果省略参数,则会使用默认值:

dbname,user默认为当前系统用户,host为localhost,port为5432。

  • 执行SQL语句

DB.query()

  • 获取所有表名

DB.get_tables(),类似psql中\d:

  • 获取表属性

DB.get_attnames(),类似psql中\d table:

  • 检查权限

DB.has_table_privilege()

  • 插入数据

DB.insert()   –注:GP不支持

该方法将完整的行作为字典返回,包括自增列。可以将字典赋值给变量:

  • 批量插入数据

Connection.inserttable()

在插入大量数据时,批量插入性能比单条插入快很多

  • 查询数据

DB.query()

将查询结果放入元组:

或字典:

或named tuple:

使用DB.get_as_dict()可以轻松的将整张表数据加载到Python 字典中:

  • 修改数据

DB.update()

也可使用DB.query()

返回值:‘7’表示更新的行数。

  • 删除数据

DB.delete()

1表示删除的行数,再次执行就会显示0行被删除:

  • 删除表

  • 关闭连接

更高级的特性和详细信息,参阅:http://www.pygresql.org/contents/pg/index.html

 

PG数据库插件性能对比测试

简介

PG-Strom是在PostgreSQL上的GPU插件,可以使用GPU进行运算。

cstore_fdw是PostgreSQL上的列式插件,使用该插件可以对表进行列式存储。

对比原生PG与使用上述插件的导入及查询性能。

系统配置

CPUIntel(R) Xeon(R) CPU E5-2650 v4 @ 2.20GHz*4
内存8G
磁盘260G ssd
GPUNVIDIA Tesla P40(24G显存)*1

性能测试

原始数据美国2008年飞行数据(MapD官方提供)行长约400B,共2.1亿行,84G

3.1 入库性能

数据库导入性能表大小数据压缩比
pg-strom9.3w/s66G1.27
pg-strom多进程导入23.9w/s66G1.27
cstore_fdw7w/s3.8G22.1

3.2 查询性能

测试语句:

Sql1: select count(*) from flights;
Sql2: select count(*) from flights where origin_country=’USA’;
Sql3: select count(*) as cnt,avg(distance) as dis from flights where flight_month=10;
Sql4: select origin_city,dest_city,count(*) as cnt,avg(airtime) as atime from flights group by origin_city,dest_city order by cnt desc,atime;
Sql5: select origin_state,dest_state,count(*) as cnt,avg(airtime) as atime from flights where distance<175 group by origin_state,dest_state ;

性能对比:

无缓存:

Sql 查询耗时(ms)pgpg with pg-stromcstore_fdwpg-strom & cstore_fdw
sql170833861962447835965
sql2143490907824931647441
sql3754908869967667902
sql412866669421914162485152
sql5212259919564123039182

有缓存:

Sql 查询耗时(ms)pgpg-stromcstore_fdwpg-strom & cstore_fdw
sql171456869462250335686
sql2142894910043974338782
sql3742878887445954686
sql412706289276811936264952
sql5211838881074195138719

测试结论

  1. 入库性能:PG一个导入进程只能用满1核,故需要多进程导入才能达到性能上限。但是cstore_fdw不支持多进程并发导入,只支持单进程。
  2. cstore_fdw插件数据压缩比很高,甚至高于vertica的13.12。
  3. 两个插件较原生PG均能大幅提高性能,且可以共同生效。
  4. 有无缓存对PG性能基本没有影响,只有cstore_fdw插件在有缓存场景下性能有所提升。
  5. 分析型业务可以使用cstore_fdw插件提速,但是该插件使用外部表,功能上限制较大,不支持删除与修改。