- 主题:php大数据超时
我常去的小说网站的手机版有bug,如果分成多搂,就不能看全文
于是我自己写了一个php页面挂在512j的收费虚拟主机上,把该网站
转成手机能看的。
主要的转换是使用egrep_replace过滤扰乱字符和html代码,原站的这些处理把一个100
多k的页面能变成600k大小。问题是这个程序在非高峰期还不错,在高峰期经常失去响应
。我想是因为egrep处理这么大的一个数组时间太长超时引起的。
有没有办法让它不要超时呢?比如说把它分段处理输出?这样能解决响应超时问题吗?
但是这样比如说一个<font color="FFF">ajhdgfkj!#@!$#</font>的扰乱码被中间切断,
岂不是没有被过滤?
--
FROM 211.99.222.*
不是有个strip_tags函数么……
【 在 wsxl (不二色) 的大作中提到: 】
: 我常去的小说网站的手机版有bug,如果分成多搂,就不能看全文
: 于是我自己写了一个php页面挂在512j的收费虚拟主机上,把该网站
: 转成手机能看的。
: ...................
--
FROM 123.127.134.*
re,先把干扰字符干掉,再strip_tags,然后如果还是长就切成几页
【 在 yegle (一阁@bobopopo是大牛) 的大作中提到: 】
: 不是有个strip_tags函数么……
--
FROM 114.255.44.*
问题是扰乱字符里面有\x00,必须先干掉这个才能用grep干掉扰乱字符
我现在是
1:去\x00
2:去扰乱字符a(无色)
3:去扰乱字符B(字符大小为零)
4:去控制码
哪个都不短
【 在 sunggsun (没有) 的大作中提到: 】
: re,先把干扰字符干掉,再strip_tags,然后如果还是长就切成几页
--
FROM 211.99.222.*