采用资源组管理内存和资源
采用资源组管理内存和资源
采用资源组管理Greenplum数据库资源。
在Greenplum数据库集群中,内存、CPU和并发事务管理对性能影响非常巨大。资源组是Greenplum数据库 提供的用来强制限制内存、CPU和并发事务的全新资源管理模式。
配置Greenplum数据库内存
一直增加系统内存是不可能的,客户可以通过配置资源组来管理可预期的工作负载,这样能够避免 内存溢出的情况发生。
以下操作系统和Greenplum数据库内存设置对采用资源组来管理日常工作是非常有用的:
-
vm.overcommit_memory
该Linux内核参数在/etc/sysctl.conf文件中设置,用来指定操作系统 分配给系统进程使用多少内存的方法。vm.overcommit_memory在 Greenplum数据库所在的机器上必须设置为2。
-
vm.overcommit_ratio
该Linux内核参数在/etc/sysctl.conf文件中设置,用来执行应用进程 可以使用的内存百分比;剩余的内存留给操作系统。操作系统默认值(Red Hat上默认是50)对于 部署Greenplum数据库集群基于资源组的管理方式是一个不错的初始值。如果感觉内存利用率太低, 便可以提高该值;如果内存或交换分区使用太高,就减少该设置。
-
gp_resource_group_memory_limit
系统分配给Greenplum数据库的内存百分比。默认值为.7(70%)。
-
gp_workfile_limit_files_per_query
设置gp_workfile_limit_files_per_query以限制每个查询允许使用的临时溢出文件 (工作文件)的最大数量。当查询要求的内存比它能分配的更多时,它将创建溢出文件。当上述限制被超过时,查询 会被中止。默认值为零,允许无限多的溢出文件并且可能会填满文件系统。
-
gp_workfile_compression
如果有很多溢出文件,则设置gp_workfile_compression来压缩这些溢出文件。 压缩溢出文件可能有助于避免IO操作导致磁盘子系统过载。
其他考虑因素:
- 不要启用操作系统大页配置。
- 当您配置资源组内存时,提前考虑出现segment实例或segment主机宕机时,镜像segment变成 主segment对系统内存的占用。
配置资源组
Greenplum数据库资源组能提供管理集群负载的强有力手段。当您在系统中配置资源组时,考虑以下常规指导方法:
- 任何具有SUPERUSER权限的用户提交的事务都在默认资源组 admin_group下运行。在调度和运行任何Greenplum管理工具 时都要牢记这一点。
- 确保为每一个非管理员用户分配一个用户组。如果不给用户分配资源组,那么该用户 提交的查询会被默认资源组default_group处理。
- 采用资源组参数CONCURRENCY来限制某个资源组可以并发 运行的活动查询的数量。
- 采用MEMORY_LIMIT和MEMORY_SHARED_QUOTA参数 控制运行在资源组中的查询可以申请的最大内存数量。
- Greenplum数据库会将无保留内存(100-(所有资源组MEMORY_LIMIT总和)) 全部分配给全局共享内存池。该内存本着一视同仁的原则,先到先得。
- 基于实时需求和负载的变化来动态调整资源组满足业务要求。
- 采用gptoolkit视图检查资源组使用情况,来监控资源组工作良好。
低内存查询
SET memory_spill_ratio=0;
管理工具和admin_group并行
Greenplum数据库用户SUPERUSERs的默认资源组是admin_group。 admin_group资源组的默认CONCURRENCY值为10。