尽管有足够的空间,Postgres还是无法抽真空(无法调整共享内存段字节的大小)



我有一个带有的docker组合文件

postgres:
container_name: second_postgres_container
image: postgres:latest
shm_size: 1g

我想用吸尘器吸一张桌子,但是ERROR: could not resize shared memory segment "/PostgreSQL.301371499" to 1073795648 bytes: No space left on device

第一个数字比右边的小,而且我在服务器上有足够的空间(只占32%(

我想知道它是否认为码头集装箱不够大(因为它会按需调整大小(?((,或者问题出在哪里?

纸币

docker ps  -a
CONTAINER ID        IMAGE               COMMAND                  CREATED             STATUS              PORTS                    NAMES
95c689aa4d38        redis:latest        "docker-entrypoint.s…"   10 days ago         Up 10 days          0.0.0.0:6379->6379/tcp   second_redis_container
f9efc8fad63a        postgres:latest     "docker-entrypoint.s…"   2 weeks ago         Up 2 weeks          0.0.0.0:5433->5432/tcp   second_postgres_container
docker exec -it f9efc8fad63a df -h /dev/shm
Filesystem      Size  Used Avail Use% Mounted on
shm             1.0G  2.4M 1022M   1% /dev/shm
df -m
Filesystem     1M-blocks   Used Available Use% Mounted on
udev               16019      0     16019   0% /dev
tmpfs               3207    321      2887  11% /run
/dev/md1          450041 132951    294207  32% /
tmpfs              16035      0     16035   0% /dev/shm
tmpfs                  5      0         5   0% /run/lock
tmpfs              16035      0     16035   0% /sys/fs/cgroup
tmpfs               3207      0      3207   0% /run/user/1000
overlay           450041 132951    294207  32% /var/lib/docker/overlay2/0abe6aee8caba5096bd53904c5d47628b281f5d12f0a9205ad41923215cf9c6f/merged
overlay           450041 132951    294207  32% /var/lib/docker/overlay2/6ab0dde3640b8f2108d545979ef0710ccf020e6b122abd372b6e37d3ced272cb/merged

thx

这是并行查询内存不足的迹象。原因可能是容器上共享内存的限制性设置。

您可以通过将max_parallel_maintenance_workers设置为0来解决此问题。那么VACUUM将不使用并行工作线程。

我想明白了(一个朋友帮忙:(

我想我数不出1073795648比我需要的真空度略高,所以确实是10g而不是1g的shm尺寸有助于

转到C:Program FilesPostgreSQL15datapostgresql.conf并滚动到

# - Asynchronous Behavior - 

并添加

max_parallel_workers_per_gather = 0 # taken from max_parallel_workers
max_parallel_maintenance_workers = 0    # taken from max_parallel_workers

好好工作!!

最新更新