☆ ☆ ☆ № ➊ Omnilogic Forum + More ☆ ☆ ☆

Your advertisement here ($5/day, $28/week or $90/month)

Your ad here ($5/day, $28/week or $90/month)

Your ads here ($5/day, $28/week or $90/month)

Author Topic: 搜索引擎优化的历史  (Read 2485 times)

0 Members and 1 Guest are viewing this topic.

PageRank

  • PageRank fan
  • SEO Admin
  • SEO sr. member
  • *****
  • Posts: 402
  • SEO - karma: +68/-0
  • PR (PageRank)
    • View Profile
    • Red moles
搜索引擎优化的历史
« on: February 16, 2011, 06:14:46 PM »
http://zh.wikipedia.org/wiki/SEO

早期搜索引擎

   网站管理员以及网络内容提供者在90年代中期开始使用搜索引擎来优化网站。此时第一代搜索引擎开始对互联网分门别类。一开始,所有网站管理员得做的事只有提交所属网站到各家搜索引擎。这些引擎跑一些蜘蛛机器人(spider)──截取于网页程序中找到连至其他网页的连结──并且存储所找到的数据。过程中同时包含了将网页下载并存储至搜索引擎拥有者的服务器中,这时有另外一个软件称为Indexer来截取页面中不同的信息——页面中的文字、文字的位置、文字的重要性以及页面所包含的任何连结,之后将页面置入清单中等待过些时日后,再来截取一次。随着联机文件数目日积月累,越来越多网站员意识到基本搜索 (organic search,亦翻为随机搜索) 条目的重要性,所以较普及的搜索引擎公司开始整理他们的列表,以显示根据最洽当适合的网页为优先。搜索引擎与网站员的战争就此开始,并延续至今。

一开始搜索引擎是被网站管理员本身牵着走的。早期版本的搜索算法有赖于网站员提供信息,如关键字的基本定义标签(meta tag)。当某些网站员开始滥用标签,造成该网页排名与连结无关时,搜索引擎开始舍弃标签并发展更复杂的排名算法。由于数繁不及备载,仅枚举数个分析目标如下:

在标题签里的文字,如 <h1>引擎</h1>
域名,如 wikipedia.org
统一资源定位符下属的目录与文件名,如 http://zh.wikipedia.org/wiki/Seo
关键字密度
关键字接近度,如 '软盘、软碟' '硬盘、硬碟'
图形连结的 Alt 属性,如 <img src=".../powerby_mediawiki_88x31.png" alt="MediaWiki" />
由于这些都还在网站人员的眼皮下打滚,搜索引擎陆陆续续碰到诸多滥用与操纵排名等难题。为了要提供较好的结果给用户,搜索引擎必须调适到让他们的搜索结果表现出最适当的结果,而非某些不道德的网络员产生的、只有塞满关键字的无用网页。由此,新种类的搜索引擎应运而生。

 当代搜索引擎

  Google由两名在斯坦福大学深造的博士生拉里·佩奇(Larry Page) 和谢尔盖·布林(Sergey Brin)开始。他们带来了一个给网页评估的新概念,称为“网页级别” (PageRank),是Google搜索引擎算法重要的开端。网页级别十分倚赖导入链接(incoming link),并利用这种每个导入某网页的链接相当于给该网页价值投一票的理论创建起逻辑系统。越多导入链接意味着该网页越有“价值”。而每个导入链接本身价值直接根据该链接从何而来的网页级别,以及相反的该页导出链接 (outgoing link) 。

在网页级别帮助下,Google 在服务相关的结果上证明它相当优异。Google 成为了最普遍和最成功的搜索引擎。由于网页级别度量了站点外因子, Google 感到它会比页内因子难以动手脚。

然而道高一尺魔高一丈。网站员们已经开发出对付Inktomi搜索引擎的链接操作工具和计划。这些方法证明对Google 算法一样管用。许多站集中于交换、买卖大量链接。随着网站员寻求获取链接只单单要影响Google送更多流量给该站,而不管是否对站点访客有用否这种行为增加,网页级别对原始算法的信赖度渐渐被破坏了。

此时,是Google 和其它查寻引擎对广大范围的站外因子仔细查看的时候。开发更加聪明的算法有其他原因。互联网已经膨胀到拥有非技术的广大族群。他们经常无法使用先进的提问技术来取得信息;而且他们得面对比起发展早期更庞大数据、更复杂的索引。搜索引擎必须开发具备预测性、语义性、语言性和启发性算法。

目前,网页级别的缩小版仍然被显示在Google 工具条上,不过网页级别只不过是Google考虑在网页分级时超过100个因素里中的一个。

今天,大多数搜索引擎对它们的如何评等的算法保持秘密。搜索引擎也许使用上百因素在排列目录;每个因素本身和因素所占比重可能不断的在改变。

大部分当代搜索引擎优化的思路──哪些有效、哪些没效──这些很大部分在于观察与根据内线消息来的猜测。某些优化员得运行控制下的实验以取得不同优化方法的结果。

尽管如此,以下是搜索引擎发展它们算法时的一些考虑,这份Google专利清单也许可让读者可猜出他们会走哪条路线:

站点的年龄
自该网域注册后过多久
内容的年龄
新内容增加的规律性
链接的年龄,连接站点的名誉和其相关程度
一般站内因素
负面站内因素 (例如,太多关键字汇标(meta tag),很显然被优化过,会对站点造成伤害)
内容的独特性
使用于内容的相关术语 (搜索引擎关系到的术语的方式视同如何关系到网页的主要内容)
Google网页级别 (只被使用在Google 的算法)
外在链接、外部链接的链接文字、在那些和在站点/网页包含的那些链接
引证和研究来源(表明内容是研究性质)
在搜索引擎数据库里枚举的词根与其相关的术语(如 finance/financing)
导入的逆向链接,以及该链接的文字
一些导入链接的负面计分 (或许那些来自低价值页、被交换的逆向链接等)
逆向链接取得速率:太多太快意味着“不自然”的链接购买活动
围绕在导出链接、导入的逆向链接周围的文字。例如一个链接如果被 "Sponsored Links" (赞助商连结)包围,该链接可能会被忽略。
用 "rel=nofollow" 建议搜索引擎忽略该链接
在站点该文件的结构深度
从其他资源收集的网格表,譬如监视当搜索结果导引用户到某页后,用户有多频繁按浏览器的返回钮
从来源像:Google AdWords/AdSense、Google 工具条等程序收集的网格表
从第三方数据分享协议收集的网格数据 (譬如监测站点流量的统计程序提供商)
删除导入链接的速率
使用子网域、在子网使用关键字和内容质量等等,以及从这些活动来的负面计分
和主文件语义上的连结
文件增加或改动的速率
主机服务商 IP 和该 IP 旗下其它站点的数量/质量
其他链接站会员 (link farm / link affiliation) 与被链接的站 (他们分享IP吗? 有一个共同的邮递地址在"联络我们 (Contact Us)" 页吗?)
技术细节像利用301重定向被移除的网页、对不存在网页显示404服务器标头而非200服务器标头、适当的利用 robots.txt
主机服务商正常运行时间
是否站点对不同类的用户显示不同的内容(称为“掩饰”(cloaking))
未及时矫正、无效的导出的链接
不安全或非法内容
HTML代码品质,以及错误出现数
由搜索引擎自他们搜索结果观察到的实际点击通过率评等
由最常访问搜索结果的人手动评等
PR or PageRank (sometimes: "Page Rank").

 

Place your ads here ($4/day, $21/week or $60/month)

Your advertisements here ($4/day, $21/week or $60/month)

About the privacy policy

How Google uses data when you use our partners’ sites or apps

Post here to report content which violates or infringes your copyright.