全球主机交流论坛
标题:
nginx 做缓存果然还是不行啊
[打印本页]
作者:
skwinx
时间:
2017-11-1 00:13
标题:
nginx 做缓存果然还是不行啊
用nginx 缓存到了180GB图片之后开始 持续报错
cache loader process 6015 exited on signal 9
复制代码
暂时用 kangle顶上 过段时间看看kangle是否有异常。
作者:
skwinx
时间:
2017-11-1 00:15
Google只搜到 官方论坛2011年的一个报错
https://forum.nginx.org/read.php?2,212289
作者:
mzxx
时间:
2017-11-1 00:30
牛X, 这么大的图片.
作者:
ecosway598
时间:
2017-11-1 00:36
提示:
作者被禁止或删除 内容自动屏蔽
作者:
malaohu
时间:
2017-11-1 01:03
羡慕大佬~
作者:
qibinghua
时间:
2017-11-1 02:42
多做几层文件目录
作者:
dabiantai
时间:
2017-11-1 02:45
赌五毛是被oom干掉了,看一下dmesg有没有报错
作者:
神猪
时间:
2017-11-1 13:17
大佬pm个svip吧。。。
作者:
ultramancliub
时间:
2017-11-1 13:50
求一个SVIP
作者:
janfou
时间:
2017-11-1 14:06
我不知道LZ的180G是多少个文件,如果文件过多分层太少,会严重削弱系统对缓存文件的读取。
我尝试过1层缓存,把全站40W条记录全部缓存成html,读的时候已经感觉到慢了,改写文件的时候CPU速度飙升,然后我把 levels 改成 2:2,情况大有好转。因为要花费时间去做缓存,就没尝试1:1:2的差异。
个人理解,Nginx对缓存的处理是没问题的,反而是OS对文件的读写会引起一系列的问题,简单说:用户要科学分配缓存文件的管理
作者:
skwinx
时间:
2017-11-1 15:48
janfou 发表于 2017-11-1 14:06
我不知道LZ的180G是多少个文件,如果文件过多分层太少,会严重削弱系统对缓存文件的读取。
我尝试过1层缓 ...
levels=1:2
也许可能是这个问题,我再尝试尝试改成 2:2 需要时间来验证。
作者:
傻逼真的很傻
时间:
2017-11-1 16:04
提示:
作者被禁止或删除 内容自动屏蔽
作者:
lsza
时间:
2017-11-1 17:40
楼主悄悄pm个ssvip给我
欢迎光临 全球主机交流论坛 (https://fd.vvwvv.eu.org/)
Powered by Discuz! X3.4