据国外媒体报道,一家由新闻机构和出版商组成的组织周四向各搜索引擎服务商提出建议,要求后者改变现有网络资源利用方式,以使各网站对其内容获得更多控制权。
目前谷歌、雅虎及其他搜索服务商搜索引擎数据库中的所有网页,都是由robot程序自动抓取收录。如果某家网站不希望特定数据被搜索引擎抓取,就需要建立一个robots.txt文档,以控制搜索引擎索引软件的抓取活动。利用现有技术,网站可阻止搜索引擎对单独网页、特定目录或整个网站的抓取。但上述新闻出版组织周四在一份名为“自动内容访问协议(acap)”的提议书中表示,各网站今后应获得更多控制权。
acap提出了一系列建议,其中包括各网站可限制搜索引擎保留所抓取内容的时间、可要求搜索引擎不得抓取网页内的任何链接等。分析人士称,如果acap提议被各搜索商采纳,出版商将提供更多版权保护的内容;但网民们同时会发现,很多网站将以更快速度从搜索引擎中消失。世界报业协会(wan)会长加文·奥莱利(gavin o'reilly)认为,robots.txt技术出现于1994年,它一直适用于搜索引擎,但不利于内容创建者的版权保护。
业界人士称,与robots.txt一样,acap提议也是出于自愿使用原则,但不排除各大搜索引擎被迫同意使用acap的可能性;搜索引擎也可排斥acap提议,并通过法律途径解决相应冲突。此前一些新闻组织称,谷歌未经许可擅自发布内容持有人的新闻摘要、标题和图片。谷歌对此表示,此类引用皆在版权法规许可的范围内进行。美联社ceo汤姆·柯力(tom curley)认为,acap提议对保护美联社原创新闻具有重大意义。
据悉,谷歌、雅虎和微软分别派出代表参加周四举行的acap提议大会,但都没有公开承诺将使用acap技术。











