我常去的小说网站的手机版有bug,如果分成多搂,就不能看全文
于是我自己写了一个php页面挂在512j的收费虚拟主机上,把该网站
转成手机能看的。
主要的转换是使用egrep_replace过滤扰乱字符和html代码,原站的这些处理把一个100
多k的页面能变成600k大小。问题是这个程序在非高峰期还不错,在高峰期经常失去响应
。我想是因为egrep处理这么大的一个数组时间太长超时引起的。
有没有办法让它不要超时呢?比如说把它分段处理输出?这样能解决响应超时问题吗?
但是这样比如说一个<font color="FFF">ajhdgfkj!#@!$#</font>的扰乱码被中间切断,
岂不是没有被过滤?
--
FROM 211.99.222.*