2月3日国际报道 美国白宫已悄悄把禁止Google等搜索引擎访问的网页数目提高到原来的三倍,这么做就信息公开透明而言是坏消息,还是风马牛不相干?
奥巴马宣誓就职后数小时,就有博客与IT记者开始检视新白宫网站,希望从robots.txt文档窥探新政府的科技与隐私政策的未来方向。网站通过robots.txt文档,划出搜索引擎可以爬梳的界线。
奥巴马1月20日上任后,白宫网站起初贴出的robots.txt文档只有两行:
User-agent: *
Disallow: /includes/
一群IT专家与博客立刻撰文赞扬,指出这显示奥巴马对信息公开、透明的承诺。
但一周后,白宫网站悄悄开始扩大使用robots.txt的搜索引擎拦截机制。截至上周五早晨,该文档内容已扩充到包含下列几行:
User-agent: *
Disallow: /includes/
Disallow: /search/
Disallow: /omb/search/
可以这么说:白宫在一天之内,把禁止搜索引擎爬梳的网站数目提高到原先的三倍。不过,同样重要的是,这么做没什么大不了的,事实上,这根本无关紧要。
原因是,布什白宫使用robots.txt完全合法。诚如Friendfeed工程师Kevin Fox在Google Blogoscoped里所言:
“这件事有点蠢,旧的robots.txt排除内部搜索结果页和HTML网页里重复的文字版。这正是robots.txt的功用。Google的网管人员指南里就指出,使用robots.txt可避免爬梳到不能为使用者增添搜索价值的搜索结果页,或其他自动产生的网页。”
“可想而知,一个8年旧网站的robots.txt,绝对比才面世一日的网站的robots.txt来得长。而且,它又不是内含限制访问最高机密( '/secrets/top')或限制访问卡特里娜飓风反应( '/katrina/response/')这样的字眼。”
简单说,建立、管理robots.txt文档的是工程师,不是律师或政府决策人士,所以凭这个文档来评断美国总统的IT政策立场,是不适宜的。
相反地,要评断总统的IT政策方向,应看他对实际问题的作法而定,例如他任命多少前任RIAA和MPAA律师,出任联邦贸易委员会(FTC)和联邦通讯委员会(FCC)的职位?又任命谁担任新的网络安全官员?
至于检视奥巴马总统对信息公开透明的承诺可知,他已经违反先前的承诺。他曾保证,会在所有非紧急法案签署前五日,先把法案全文张贴在白宫网站(Whitehouse.gov)上。但日前签署的2009年Lilly Ledbetter Fair Pay Act,却显然未先贴上白宫网站五天之久。
要评断奥巴马,是要检视这类具体细节,而不是凭robots.txt文档就遽下断语。(Chris Soghoian)