分类归档: Web

Movable Type 3.32 发布了, 升级么?

Movable Type 发布了 3.32 新版本: We’ve Updated; So Should You!, But, How We? 现在 MT 对 个人免费版本的支持真是越来越差了,谁让你不掏钱呢.
查看 Change Log(昨天这个 Log 还是看不到的) ,修复的 Bug 列表好长一串,还好,没有太严重的安全问题就成。
今天又看到 MT 的官方 Blog 在推荐 FastSearch 插件,不过这个功能是基于 MySQL 的 fulltext indexing 实现的,不知道对中文支持如何,可不要象 Feeds.app lite 插件那样乱码一片。
我个人最希望 MT 添加的一个功能是草稿自动保存, 很多次写了半天的东西因为浏览器不稳定,一下子就没有了,沮丧的心情难以形容。
EOF

对一些 Web 2.0 站点的小建议

1) 不要推出真的 Beta 版产品
很多国外相对成功的 Web 2.0 公司都喜欢把产品打上 Beta 标记,实际上人家的产品真的已经很成熟了。反观,国内的很多 Web 2.0 站点推出的所谓 Beta 版本程序,可能只是 Alpha 的稳定性,甚至更差。我就见过某站点的 Top100 Blog 排行,其中有 30 多个是重复的,这样的简单错误挂在那里足足有几个月。用户会相信这个排行榜的技术含量么? 国内的 Web 2.0 公司是从模仿做起,模仿没有错误,但是不要给人不踏实的感觉。
2) 推广脚本不要”出卖”用户
一般的 Web 2.0 都会借助一些小脚本来进行推广[协助本站/推广本站]:一段小代码,用户贴在自己的 Blog 上,借助用户的口碑传播。但这个地方要注意:尽量用中立性的内容,不要随意更换脚本内的内容。”世界上最大”、”世界上最好” 之类的字眼最好不要使用,因为帮你推广的用户很容易会受到读者的质疑:某某站点就是你眼中的最好么? 还有的 Web 2.0 随意更换引用代码的内容,字体变个颜色啦,加上点挑逗性的词啦,都不可取。
3) 让用户真诚的称赞你,而不是自己发一些软文
有时间发那些什么 “仅一年的时间,目前我们的用户已经达到了1880万人” 之类的没人相信的话,还不如多写写站点的改进,多听听用户的声音。毕竟 Web 2.0 不能靠[忽悠]来成功。
4) 不要太渴望套现赚钱
最初作这个站点的目的是什么 ? 套现?赚钱?上市然后走人? 还是想为互利网用户真的带来一点有价值的东西? 盯着前者的“创业者”我认为很难真的做到”尊重用户,用户第一”,用户在他们眼里或许只是”赚钱的工具,套现的砝码”。而那些拿到了几万、几十万投资就放大成几十倍来炒作的公司,动机就很可疑了。
给 Web 2.0 站点的一点小建议,或许 那些追捧、依赖 Web 2.0 应用的互联网用户也该看看,你所使用的站点靠普么?

Swish-e, 在 Dreamhost 构建小型搜索引擎

自从搭上 Dreamhost 的贼船之后,我就在幻想 Dreamhost 什么时候能够支持 Nutch 就好了,这样就可以搭建一个个人的搜索引擎。令人沮丧的是 Dreamhost 似乎一直没有支持 Nutch 的打算(当然,Nutch 这个东西一旦能够被支持,一个普通的用户恐怕要吃掉所有的资源)。
今天从 Vingel 的 Blog 上看到他使用的 Swish-e, 是一个不错的选择。
安装 Swish-e 相对比较顺利。参见指导手册的 Installing without root access 部分。详细的设置记录随后给出吧。
初步效果参见: http://www.search.dbanotes.net/
准备把 Oracle 的文档索引一份,便于自己使用。
现在 Oracle 9i, Apache HTTPD 2.0 的文档已经可以搜索了。
这个工具一个最大的缺点: 不支持 Unicode,所以只能搜索英文文档。
EOF

Dreamhost 上一条命令备份 del.icio.us

Dreamhost 这样的虚拟主机的 Shell 服务有什么好处? 举一个小例子:

curl --silent -L --user YourUserName:YourPassword -o \
del.icio.us_backup.xml -O 'https://api.del.icio.us/v1/posts/all'

一条命令就可以简单的把你 del.icio.us 所有条目备份到你的 Web 服务器上。注意其中的 -L 参数,能够有效的对付跳转。如果想定期备份,又怕密码出现在命令行上,可以考虑把这个命令写到一个脚本里,能提高一点点安全。然后在 Crontab 里定期调度执行。
更多信息参见:Backing up del.icio.us
如果用 Wget :

wget  --http-user=YourUserName --http-passwd=YourPassword  \
-O del.icio.us_backup.xml https://api.del.icio.us/v1/posts/all 

题外话:个人感觉从功能上比较的话, curl 要比 wget 好很多。curl 也有力有不逮之处,比如对某个 Web 目录做镜像的功能。
如果是程序员开发 Web 程序, curl 绝对是 Web 调试的瑞士军刀。
-Update: del.icio.us 最近对 API 做了升级
EOF