PostgreSQL这样优化,运维就能省心多了

白鳝 2023-03-27 11:28:21
数据库优化是一个综合工程,不仅仅是需要DBA参与,更重要的是研发设计人员针对PG数据库的特点来进行相关的优化设计。不过对于DBA来说,一旦接到上线和运维任务,基本上都是木已成舟,软件设计方面留下的坑已经挖好,DBA的作为已经十分有限了。不过既然要干运维,那么少不了就要参与优化。PG的优化工作该如何开展呢?今天我从几个主要的方面聊聊PG优化的几个常见的角度。针对PG数据库,只要做好了下面几个方面的优化工作,那么运维起来也就比较省心了。

 

  • 硬件资源问题:如果数据库服务器硬件资源不足,例如 CPU、内存、磁盘 IO 等,会导致系统性能下降,响应时间变慢。

 

  • 操作系统配置不合理:如果操作系统没有针对PG数据库进行优化,那么PG数据库也无法发挥最佳的效能,因此针对PG数据库的优化,从操作系统参数调整入手永远是不会错的。

 

  • 文件系统配置不合理:对于一些负载较高的大型数据库来说,如果无法发挥后端存储的IO能力,或者说让后端磁盘出现了性能问题,那么就会严重影响PG数据库的性能甚至稳定性。对于大型数据库来说,文件系统设计与配置一定要十分用心。

 

  • SQL不够优化:如果应用没有经过优化,可能会导致查询效率低下,索引设计不合理,缺少必要的索引,过多的单列索引以及索引类型使用不合理等都会带来性能问题。最后不合理多表的 JOIN、WHERE 子句和大表并行扫码都可能成为性能杀手。

 

  • 数据库结构设计不合理:如果数据库结构设计不合理,可能会导致查询效率低下,例如表过度归一化、大表未分区或者分区设置不合理,表或者索引的的FILL FACTOR参数设置不合理导致的热块冲突。索引设计不合理产生的不必要的写成本过高。应该存储到对象存储中的非结构化数据存储到PG数据库中等。表分区设计不合理,时序数据没有使用timescaledb的自动分区与自动压缩特性也会导致时序数据访问的性能不佳。

 

  • 数据库参数设置不合理:如果 PostgreSQL 数据库参数设置不合理,可能会导致数据库性能低下,例如 shared_buffers、work_mem、WAL/Checkpoint 等参数的设置等。

 

  • 并发控制不合理:如果数据库并发控制不合理,可能会导致性能下降,这方面包含事务隔离级别设置不合理,并发度相关参数设置不合理等。

 

  • 缓存命中率低:如果缓存命中率低,会导致频繁的磁盘 IO 操作,从而降低数据库性能。

 

  • 访问冷数据的性能不足:PG数据库是采用DOUBLE CACHE机制的,冷数据是指在SHARED BUFFERS和OS CACHE中都不存在的数据,这些数据一旦要访问,要产生大量的物理IO,访问性能较差。

 

  • 自动化任务冲突:如果数据库中存在大量的自动化任务,例如备份、VACUUM、定时任务等,可能会导致任务之间的冲突,从而影响系统性能。

 

硬件资源不足的问题我们就不多加讨论了,这种情况一般会出现在CPU、IO等方面,在分析这方面问题的时候,需要关注R队列的长度是否超过CPU逻辑核数的2倍以上,对于IO来说,不仅仅要看IOPS/IO吞吐量等指标,更重要的是要看IO延时是否合理。

 

操作系统配置不合理是绝大多数PG数据库都存在的问题,这方面实际上是有一些最佳实践的。

 

[sysctl]

vm.swappiness = 1

vm.dirty_background_ratio = 10

vm.dirty_ratio = 40

vm.dirty_expire_centisecs = 3000

vm.dirty_writeback_centisecs = 500

kernel.shmmax = 18446744073692700000

kernel.shmall = 18446744073692700000

kernel.shmmni = 4096

kernel.sem = 250 512000 100 2048

fs.file-max = 312139770

fs.aio-max-nr = 1048576

net.ipv4.ip_local_port_range = 2048 65499

# Permits sockets in the time-wait state to be reused for new connections:

net.ipv4.tcp_tw_reuse = 1

net.core.netdev_budget = 1024

net.core.netdev_max_backlog = 2048

net.core.rmem_default = 262144

net.core.rmem_max = 4194304

net.core.wmem_default = 262144

net.core.wmem_max = 1048576

kernel.panic_on_oops = 1

# We don't need NUMA balancing in this box:

kernel.numa_balancing = 0

# Used if not defined by the service:

net.core.somaxconn = 4096

# Other parameters to override throughput-performance template

net.ipv4.tcp_rmem = 4096 87380 16777216

net.ipv4.tcp_wmem = 4096 65536 16777216

net.ipv4.tcp_window_scaling = 1

net.netfilter.nf_conntrack_max = 250000

net.ipv4.tcp_max_syn_backlog=4096

[vm]

transparent_hugepages=never

 

上面是一个红帽公司对于PG数据库RHEL参数优化的建议,大家可以参考,对于绝大多数高负载的系统来说,都是有效的。大家要注意的是,关于脏块回写的设置,对于不同的写IO负载以及不同的底层IO硬件,可能调整会有不同,甚至会有截然相反的配置策略。要注意的是,绝对不能因为不合理的脏块刷新策略导致了OS IO负载的过载。在此前提下,缩短IO写盘的周期对于提高并发负载是有帮助的。

 

文件系统的设计对于大型系统来说十分关键,除了使用XFS与EXT4等带日志的文件系统并且打开日志功能外,设置文件系统的mount参数对性能也有很大影响。文件系统的条带大小、块大小要与PG数据库匹配,MOUNT时也要加入nobarrier、noatime,nodiratime等参数,并做好扇区对齐,除此之外就是文件存储方面的性能优化了。

 

很多DBA都只会设置一个$PGDATA,整个数据库都放在同一个文件系统上,这需要对文件系统底层的卷做十分细致的优化,确保整个卷的IO能力是优秀的,这一点总是无法做到的。因此在数据库设计的时候就通过WAL与数据文件分离,热数据与冷数据分离,通过表空间隔离热点IO等方式规划PG数据库的文件存储。如果应用系统已经无法通过表空间来隔离IO热点,那么通过软连接将部分库的目录迁移到其他文件系统也是一个可行的方案。

 

对于数据库参数来说,实际上不同的应用场景下的最佳调整方案是不同的,一般来说,设置合理的shared_buffers,以及优化好相关的而bgwriter,WAL,checkpoint,work_mem,VACUUM等相关的参数,就能够满足大多数应用的需求了。在这里我们就不做过多的讨论了。在这方面我以前写过十多篇文章,有兴趣的朋友可以到公众号通过搜索“性能优化”或者通过公众号的菜单去查找。

 

并发控制不合理方面的问题是比较容易被忽视的问题,事务隔离级别用错对于性能的影响极大,不过一般情况下我们都是使用read committed,不要轻易去修改数据库级的事务隔离级别。

 

并发的另外一个方面是系统中的各类并发访问的控制,特别是并行执行的设置。max_worker_processes、max_parallel_workers、max_parallel_maintenance_workers和max_parallel_workers_per_gather等参数对数据库的并发度控制都至关重要。

 

如果并发相关的设置过小,那么当活跃会话数量不高的时候,无法充分发挥服务器硬件的资源优势,造成巨大的浪费。PG数据库可以支撑巨大的数据库与极高的并发,因此如果服务器的配置足够好,系统资源使用率不高,但是应用性能无法达到设计要求,那么我们就应该关注一下是否并发控制相关的参数设置过低了。默认的PG参数里,max_worker_processes是偏小的,仅仅是8,对于有上百甚至上千个逻辑核数的服务器来说是完全不够用的。

 

当然如果因为并发控制参数设置的过高而导致了CPU等资源出现了不足,因为IOPS过大或者IO吞吐量过大,底层存储能力不足导致的IO延时过大等现象,那么适当调低这些参数对数据库的整体性能提升是有帮助的。

 

PG的SHARED_BUFFERS设置不合理可能会导致缓冲区命中率不高,从而影响SQL的执行性能。不过PG数据库是使用DOUBLE BUFFER机制的,要想为你的应用调整好缓冲区并不容易。再怎么调整都无法满足不同场景的应用,有些时候DBA真的很难通过调整来优化这方面的性能。对于一些定期的报表等应用,在跑批之前做数据预热可能是DBA能够控制的优化方法,也是最为有效的提升统计报表性能的方法。

 

最后一点,自动化任务冲突是所有数据库都会遇到的性能问题,如果数据库备份,大批量统计作业与大数据量导入导出同时发生再好的硬件也可能撑不住,因此在设计这些定期任务的时候,一定要通过算法将这些作业分开,千万不要让这些大型操作存在最大公约数。否则哪怕现在你的系统没问题,几年后,还是会出问题的。

 

作者丨白鳝
来源丨公众号:白鳝的洞穴 (ID:baishan755)
dbaplus社群欢迎广大技术人员投稿,投稿邮箱:editor@dbaplus.cn
最新评论
访客 2024年04月08日

如果字段的最大可能长度超过255字节,那么长度值可能…

访客 2024年03月04日

只能说作者太用心了,优秀

访客 2024年02月23日

感谢详解

访客 2024年02月20日

一般干个7-8年(即30岁左右),能做到年入40w-50w;有…

访客 2023年08月20日

230721

活动预告