做SEO
我们是认真的!

【济南seo】全面认识搜索引擎优化(SEO)

搜索引擎最佳化(又称搜索引擎优化, 其英文叫 Search Engine Optimization,简称SEO)是一种利用搜索引擎的搜索规则来提高目的网站在有关搜索引擎内的提名的方式。由于不少研究发现,搜索引擎的用户往往只会留意搜索结果最开首的几项条目,所以不少网站都希望透过各种形式来影响搜索引击的排序。当中尤以各种依靠广告维生的网站为甚。

所谓“针对搜索引擎作最佳化的处理”,是指为了要让网站更容易被搜索引擎接受。搜索引擎会将网站彼此间的内容做一些相关性的资料比对,然后再由浏览器将这些内容以最快速且接近最完整的方式,呈现给搜寻者。

搜索引擎优化对于任何一家网站来说,要想在网站推广中取得成功,搜索引擎优化都是至为关键的一项任务。同时,随着搜索引擎不断变换它们的排名算法规则,每次算法上的改变都会让一些排名很好的网站在一夜之间名落孙山,而失去排名的直接后果就是失去了网站固有的可观访问量。所以每次搜索引擎算法的改变都会在网站之中引起不小的骚动和焦虑。可以说,搜索引擎优化是一个愈来愈复杂的任务。

早期搜索引擎

网站管理员以及网络内容提供者在90年代中期开始使用搜索引擎来优化网站。此时第一代搜索引擎开始对因特网分门别类。一开始,所有网站员得做的事只有提交所属网站到各家搜索引擎。这些引擎跑一些蜘蛛机器人(spider)──撷取于网页程式中找到连至其他网页的连结──并且储存所找到的资料。过程中同时包含了将网页下载并储存至搜索引擎拥有者的服务器中,这时有另外一个软件称为Indexer来撷取页面中不同的资讯——页面中的文字、文字的位置、文字的重要性以及页面所包含的任何连结,之后将页面置入清单中等待过些时日后,再来撷取一次。随着线上文件数目日积月累,越来越多网站员意识到基本搜寻 (organic search,亦翻为随机搜寻[1]) 条目的重要性,所以较普及的搜索引擎公司开始整理他们的列表,以显示根据最洽当适合的网页为优先。搜索引擎与网站员的战争就此开始,并延续至今。

一开始搜索引擎是被网站管理员本身牵着走的。早期版本的搜寻算法有赖于网站员提供资讯,如关键字的基本定义标签(meta tag)。当某些网站员开始滥用标签,造成该网页排名与连结无关时,搜索引擎开始舍弃标签并发展更复杂的排名算法。由于数繁不及备载,仅列举数个分析目标如下:

在标题签里的文字,如:引擎域名,如:wikipedia.org 统一资源定位符下属的目录与档名,如:’软盘、软碟’ ‘硬盘、硬盘’ 图形连结的Alt属性,如:由于这些都还在网站员的眼皮下打滚,搜索引擎陆陆续续碰到诸多滥用与操纵排名等难题。为了要提供较好的结果给使用者,搜索引擎必须调适到让他们的搜索结果表现出最适当的结果,而非某些不道德的网络员产生的、只有塞满关键字的无用网页。由此,新种类的搜索引擎应运而生。

Google 由两名在斯坦福大学的博士生佩吉 (Larry Page) 和布林 (Sergey Brin) 开始。他们带来了一个给网页评估的新概念。这个概念, 称网页级别 (PageRank), 是从Google 算法[2]重要的开端 。网页级别十分倚赖导入链结 (incoming link) ,并利用这种每个导入某网页的链结相当于给该网页价值投一票的理论建立起逻辑系统。越多导入链结意味着该网页越有“价值”。而每个导入链结本身价值直接根据该链结从何而来的网页级别,以及相反的该页导出链结 (outgoing link) 。

在网页级别帮助下,Google 在服务相关的结果上证明它相当优异。Google 成为了最普遍和最成功的搜索引擎。由于网页级别度量了站点外因子, Google 感到它会比页内因子难以动手脚。

然而道高一尺魔高一丈。网站员们已经开发出对付Inktomi 搜索引擎的链结操作工具和计划。这些方法证明对Google 算法一样管用。许多站集中于交换、买卖大量链接。随着‘网站员寻求获取链结只单单要影响Google送更多流量给该站,而不管是否对站点访客有用否’这种行为增加,网页级别对原始算法的信赖度渐渐被破坏了。

此时,是Google 和其它查寻引擎对广大范围的站外因子仔细检视的时候。开发更加聪明的算法有其他原因。因特网已经膨胀到拥有非技术的广大族群。他们经常无法使用先进的提问技术来取得资讯;而且他们得面对比起发展早期更庞大资料、更复杂的索引。搜索引擎必须开发具备预测性、语义性、语言性和启发性算法。

目前,网页级别的缩小版仍然被显示在Google 工具条上,不过网页级别只不过是Google考虑在网页分级时超过100个因素里中的一个。

今天,大多数搜索引擎对它们的如何评等的算法保持秘密。搜索引擎也许使用上百因素在排列目录;每个因素本身和因素所占比重可能不断的在改变。

大部分当代搜索引擎优化的思路──哪些有效、哪些没效──这些很大部分在于观察与根据内线消息来的猜测。某些优化员得执行控制下的实验以取得不同优化方法的结果。

尽管如此,以下是搜索引擎发展它们算法时的一些考虑,另,这份Google 专利清单[3]也许读者可猜出他们会走哪条路线:

站点的年龄 自该网域注册后过多久 内容的年龄 新内容增加的规律性 链接的年龄,连接站点的名誉和其相关程度 一般站内因素 负面站内因素 (例如,太多关键字汇标(meta tag),很显然被优化过,会对站点造成伤害) 内容的独特性 使用于内容的相关术语 (搜索引擎关联到的术语的方式视同如何关联到网页的主要内容) Google网页级别 (只被使用在Google 的算法) 外在链接、外部链接的链结文字、在那些和在站点/网页包含的那些链接 引证和研究来源(表明内容是研究性质) 在搜索引擎数据库里列举的词根与其相关的术语(如 finance/financing) 导入的逆向链结,以及该链结的文字 一些导入链结的负面计分 (或许那些来自低价值页、被交换的逆向链结等) 逆向链结取得速率:太多太快意味着“不自然”的链结购买活动 围绕在导出链结、导入的逆向链结周围的文字。例如一个链结如果被 “Sponsored Links” (赞助商连结)包围,该链结可能会被忽略。 用 “rel=nofollow” 建议搜索引擎忽略该链接 在站点该文件的结构深度 从其他资源收集的网格表,譬如监视当搜寻结果导引用户到某页后,用户有多频繁按浏览器的返回钮 从来源像:Google AdWords/AdSense、Google 工具条等程序收集的网格表 从第三方资料分享协议收集的网格资料 (譬如监测站点流量的统计程式提供商) 删除导入链结的速率 使用子网域、在子网使用关键字和内容质量等等,以及从这些活动来的负面计分 和主文件语意上的连结 文件增加或改动的速率 主机服务商 IP 和该 IP 旗下其它站点的数量/质量

其他链结站会员 (link farm / link affiliation) 与被链结的站 (他们分享IP吗? 有一个共同的邮递地址在”联络我们 (Contact Us)” 页吗?) 技术细节像利用301重定向被移除的网页、对不存在网页显示404服务器标头而非200服务器标头、适当的利用 robots.txt 主机服务商正常运行时间 是否站点对不同类的用户显示不同的内容 (掩饰 (cloaking)) 未及时矫正、无效的导出的链结 不安全或非法内容 HTML代码品质,以及错误出现数 由搜索引擎自他们搜寻结果观察到的实际点击通过率评等 由最常存取搜寻结果的人手动评等

【济南seo】全面认识搜索引擎优化(SEO)
未经允许不得转载:广州seo小雨 » 【济南seo】全面认识搜索引擎优化(SEO)