白宫扩大使用搜索拦截程序 探奥巴马IT政策立场
来源:cnfol 更新时间:2009-02-04

 2月3日国际报道 美国白宫已悄悄把禁止Google等搜索引擎访问的网页数目提高到原来的三倍,这么做就信息公开透明而言是坏消息,还是风马牛不相干?

  奥巴马宣誓就职后数小时,就有博客与IT记者开始检视新白宫网站,希望从robots.txt文档窥探新政府的科技与隐私政策的未来方向。网站通过robots.txt文档,划出搜索引擎可以爬梳的界线。

  奥巴马1月20日上任后,白宫网站起初贴出的robots.txt文档只有两行:

  User-agent: *

  Disallow: /includes/

  一群IT专家与博客立刻撰文赞扬,指出这显示奥巴马对信息公开、透明的承诺。

  但一周后,白宫网站悄悄开始扩大使用robots.txt的搜索引擎拦截机制。截至上周五早晨,该文档内容已扩充到包含下列几行:

  User-agent: *

  Disallow: /includes/

  Disallow: /search/

  Disallow: /omb/search/

  可以这么说:白宫在一天之内,把禁止搜索引擎爬梳的网站数目提高到原先的三倍。不过,同样重要的是,这么做没什么大不了的,事实上,这根本无关紧要。

  原因是,布什白宫使用robots.txt完全合法。诚如Friendfeed工程师Kevin Fox在Google Blogoscoped里所言:

  “这件事有点蠢,旧的robots.txt排除内部搜索结果页和HTML网页里重复的文字版。这正是robots.txt的功用。Google的网管人员指南里就指出,使用robots.txt可避免爬梳到不能为使用者增添搜索价值的搜索结果页,或其他自动产生的网页。”

  “可想而知,一个8年旧网站的robots.txt,绝对比才面世一日的网站的robots.txt来得长。而且,它又不是内含限制访问最高机密( '/secrets/top')或限制访问卡特里娜飓风反应( '/katrina/response/')这样的字眼。”

  简单说,建立、管理robots.txt文档的是工程师,不是律师或政府决策人士,所以凭这个文档来评断美国总统的IT政策立场,是不适宜的。

  相反地,要评断总统的IT政策方向,应看他对实际问题的作法而定,例如他任命多少前任RIAA和MPAA律师,出任联邦贸易委员会(FTC)和联邦通讯委员会(FCC)的职位?又任命谁担任新的网络安全官员?

  至于检视奥巴马总统对信息公开透明的承诺可知,他已经违反先前的承诺。他曾保证,会在所有非紧急法案签署前五日,先把法案全文张贴在白宫网站(Whitehouse.gov)上。但日前签署的2009年Lilly Ledbetter Fair Pay Act,却显然未先贴上白宫网站五天之久。

  要评断奥巴马,是要检视这类具体细节,而不是凭robots.txt文档就遽下断语。(Chris Soghoian)