Awstats 统计文件被下载的 Top 10

如何统计站点中下载次数最多的文件? 从 Antezeta 学来一招,在配置文件中添加一段 ExtraSection ,类似如下:

ExtraSectionName10="Downloads (doc,rar,sql,pdf,sh,tgz,zip) - Top 10"
ExtraSectionCodeFilter10="200 304"
ExtraSectionCondition10="URL,(.*((\.doc)|(\.rar)|(\.sql)|(\.pdf)| \
(\.sh)|(\.tgz)|(\.zip)))"
ExtraSectionFirstColumnTitle10="Download"
ExtraSectionFirstColumnValues10="URL,(.*)"
ExtraSectionFirstColumnFormat10="%s"
ExtraSectionStatTypes10=HBL
ExtraSectionAddAverageRow10=0
ExtraSectionAddSumRow10=1
MaxNbOfExtra10=10
MinHitExtra10=1 

可以添加或减少需要匹配的文件类型。
有朋友问我 Blog 首页下方的”最多阅读的文章”如何得到的,其实也是用 Awstats 得到的数据。细节内容请参考:AWStats Enhancements and Extensions
另外,根据 添加 egosurf 页面 的思路,又添加了在线书签的页面。不过遇到一个非常奇怪的原因。非常奇怪…
无独有偶,在后台 web 服务器的错误访问日志上也观察到很奇怪的现象,奇怪,非常非常奇怪 @*%*$$&*…..ooooooops

为什么有的订阅者会显示重复标题?

前一段时间就有朋友在留言中说订阅本站 RSS 后,每篇 Blog 都会显示两次。当时以为是个别现象而忽略。今天又有人说遇到这个问题:
FeedSky 烧录的种子会重复显示同一标题
稍加分析,只要用 FeedSky 烧录的 Feed 就有这个问题。看到 FeedSky 吕欣欣在线上,在后台检查后说我包含了两个 RSS 地址在 Feed 里面。这…不可能啊…
原来上次 FeedBurner 不能访问, Blog RSS 地址修改 的时候我把 index.xml 指向我在 FeedBurner 烧录的 Feed 地址 ,而 FeedSky 的处理机制存在问题: 不认识 http 重定向(HTTP 状态值 301、302、303、307)。认为里面有两个地址,每个都显示一次。就成了现在的样子。
前几天有人讨论“Feedsky 和抓虾zhuaxia,谁更有技术”的问题,我的感觉是 FeedSky 虽然占领了很好的资源,但技术上可不怎么样,一直以来,FeedSky 的解析速度、UI 都很糟糕,最近速度倒是有所改善,可是又发现这么一个不该发生的失误。这也是前一段时间 FeedBurner 出问题的时候我没有切换到 FeedSky 的一个主要原因。
提醒一下本 Blog 的用户,请统一使用 https://www.dbanotes.net/index.xml 订阅吧。
EOF

买个盗版也是个不容易的事情

昨天跋山涉水的去买DVD(我可没说是正版), 一进门看见老板娘正在收拾打包,说最近风声太紧。这回据说是全国范围打击盗版,昨天看网上的消息,说什么焦点访谈最近还有一期节目说什么打击盗版取得成果了,联想到公安部发出B级通缉令 缉拿贩卖盗版光盘嫌疑人,我知道碟友们的日子以后要不好过了。
要说咱们这片地搞什么都要一窝蜂,这会儿打击盗版颇有”除四害”的架势,不取得”成效”不罢休,这群大爷们怎么都不想想打击打击腐败呢? 打击腐败难度太大,打击打击学术腐败不也成么? 如果这个也不行,打击打击票贩子什么的
没有人说盗版这事情好,可是你总要给电影爱好者一个选择更多正版的权力吧? 每年上架或者进入院线的电影就那么几部,弄不好还被剪刀手弄得七零八碎的,能好看么? 买回来能舒心么?
有人说,线下买不到咱不还有网络么? 去网上下载啊,你还别着急,估计用不了多久,什么 BT、电驴啊,该屏蔽的屏蔽,该封杀的封杀,要想娱乐? 去看看央视的综艺节目洗洗脑,这样的生活你还不满意? 你这人要求咋这么高呢?
EOF

Dreamhost 上一条命令备份 del.icio.us

Dreamhost 这样的虚拟主机的 Shell 服务有什么好处? 举一个小例子:

curl --silent -L --user YourUserName:YourPassword -o \
del.icio.us_backup.xml -O 'https://api.del.icio.us/v1/posts/all'

一条命令就可以简单的把你 del.icio.us 所有条目备份到你的 Web 服务器上。注意其中的 -L 参数,能够有效的对付跳转。如果想定期备份,又怕密码出现在命令行上,可以考虑把这个命令写到一个脚本里,能提高一点点安全。然后在 Crontab 里定期调度执行。
更多信息参见:Backing up del.icio.us
如果用 Wget :

wget  --http-user=YourUserName --http-passwd=YourPassword  \
-O del.icio.us_backup.xml https://api.del.icio.us/v1/posts/all 

题外话:个人感觉从功能上比较的话, curl 要比 wget 好很多。curl 也有力有不逮之处,比如对某个 Web 目录做镜像的功能。
如果是程序员开发 Web 程序, curl 绝对是 Web 调试的瑞士军刀。
-Update: del.icio.us 最近对 API 做了升级
EOF