毕业设计论文基于SEO的网络行销平台设计与实现.doc
《毕业设计论文基于SEO的网络行销平台设计与实现.doc》由会员分享,可在线阅读,更多相关《毕业设计论文基于SEO的网络行销平台设计与实现.doc(68页珍藏版)》请在三一办公上搜索。
1、基于SEO的网络行销平台设计与实现摘要:本论文介绍了基于SEO的网络行销平台设计与实现,该平台主要分为SEO基础、SEO技术、SEO实例演示、搜索引擎结构分析和搜索引擎工作原理等几个部分。该平台利用SEO技术实现了孝感麻糖网()关键词“孝感麻糖”在Google搜索引擎中的良好排名效果。本文首先提出了搜索引擎概述,分析了搜索引擎的结构和搜索引擎的工作原理,特别对搜索引擎的结构和工作原理进行了大量研究。然后深入研究SEO(搜索引擎优化)的各项技术,最后重点根据研究得出的理论方法运用到实际网站上,得到预期的效果。网站的效果可以在Google搜索引擎中查询关键词“孝感麻糖”而看到。关键词:搜索引擎;搜
2、索引擎优化(SEO);搜索引擎结构;搜索引擎原理Design and Realization of network marketing platform based on SEOAbstract:This paper describes the network of SEO marketing platform based on the design and implementation, the platform consists of basic SEO, SEO techniques, SEO examples, the structure of search engines and s
3、earch engine works, and several other parts. The platform leverages technology to achieve the Xiaogan Sesame Chips SEO Network () keyword Xiaogan Sesame Chips in the Google search engine to rank well in the results.This paper presented an overview of search engines, analyzes the structure of search
4、engines and search engines work, in particular, the structure of search engines and working principle of a large number of studies. And in-depth study SEO (search engine optimization) of the technical, the final focus of the light of the theoretical methods applied to come to the actual site to get
5、the desired results. Sites in the Google search engine results for the query keyword Xiaogan Sesame Chips and see.Key Words: Search engine; Search engine Optimization (SEO); Search engine Structure; Search engine principle目 录1 搜索引擎概述11.1搜索引擎概念11.2搜索引擎发展历程12 搜索引擎结构分析32.1搜索引擎的搜索器32.2 搜索引擎的索引器42.3搜索引擎的
6、检索器52.4UI(用户接口)63搜索引擎的工作原理83.1网页搜集83.2网页处理93.3查询服务114 Web信息检索124.1 Web信息检索基础124.2Web信息检索核心135 Web搜索技术165.1搜索引擎主要指标165.2搜索引擎爬虫(Spider)175.3 Robots协议206 SEO概述226.1 SEO226.2 SEO目的226.3 SEO具备的知识237 SEO与网站257.1 网站域名257.2 网站空间267.3 网站结构288 SEO与关键词328.1 网站标签328.2 关键词获取348.3 关键词放置358.4 关键词密度368.5 长尾关键词378.6
7、 关键词趋势389 SEO与网站内容399.1内容为王399.2 撰写内容409.3 转载内容4310 SEO与网站链接4410.1 站内链接4410.2 站外链接4811 孝感麻糖网站SEO方案5111.1 优化目的5111.2 优化部分5111.3 优化详细说明5112. 结束语56【参考文献】57附录58致 谢64641 搜索引擎概述1.1 搜索引擎概念搜索引擎是指根据一定的策略、运用特定的计算机程序搜集互联网上的信息,在对信息进行组织和处理后,并将处理后的信息显示给用户,是为用户提供检索服务的系统。我们知道在浩瀚的互联网中想找到我们需要的咨询,在没有搜索引擎这个工具帮助下是很困难的。当
8、然客观来说,搜索引擎也并不是唯一的选择。在互联网发展的初期只是一些特殊的用户上传或下载FTP站点。当某一个用户需要在这些站点上查找需要的文档,除了利用知道文件明确的地址来获得文件,就只能一个一个的浏览每个文件,可想这样查找文件时相当的麻烦、浪费和困难的。搜索引擎的出现解决了上面的难题,在搜索引擎的搜索框中,输入你想查询的关键词,然后单击搜索按钮,稍等一会儿,你就会看到若干相关网页的介绍以及查询关键词的链接。然后你可以任意点击一个链接,查找是否是你想要的信息。搜索引擎也并不是在你点击搜索按钮之后,马上去检索整个互联网。它为您呈现的结果是在预先整理好的网页数据库中的网页,因此它能够很快帮助用户找到
9、所需要的信息。这也意味着搜索引擎要周期或不定期的去检索整个互联网,因为互联网上有很多新出现的网站,有很多更新频率较高的网站。其实真正的并不是上面介绍的这种“事先准备”型的搜索引擎,而是对互联网上几亿到几百亿网页进行检索,然后根据关键词进行检索和分类。最后包含所有的网页和关键词分类网页。当用户再进行搜索时候,所有的页面均包含了用户查找的关键词。这些关键词的相关性高低,排名前后都是经过科学、公正、复杂和快速而得出来的。1.2 搜索引擎发展历程前面提到了在互联网早期想找到查询的文件是非常的麻烦的,1990年,在McGill大学中,一个学生下定决心要解决这个难题,他就是Alan Emtage。他发明了
10、互联网的第一个搜索工具Archie。这个工具不同与现在的搜索引擎,它是在指定的网络中下载匿名的FTP站点文件列表。第一个真正具有现代意义的搜索引擎出现在1993年,它就是Wandex搜索引擎。发明者为Matthew Gray,他也是一名在校大学生。Wandex搜索引擎首次具有网页索引和搜索功能的程序。也是第一个使用网络爬虫(Spider)技术的搜索引擎。1993年,同时也诞生了另一个搜索引擎:Excite。1994年,Yahoo!搜索引擎诞生。1995年,Alta Vista搜索引擎诞生。1996年,Inktomi搜索引擎诞生。1997年,目前流行的Googel搜索引擎诞生。1998年,MSN
11、 Search搜索引擎诞生。目前国际上占有比较大市场的搜索引擎Google诞生于1997年,中国目前比较大的搜索引擎百度成立于2001年。可见搜索引擎发展是比较迅速的。目前在国内搜索引擎主要以百度为统治地位。随着搜索引擎的蓬勃发展,SEO也越显突出,一个企业通过SEO网络行销平台,收入倍增的例子越来越多,现在和未来加入这个领域的企业将是越来越多。目前国内研究搜索引擎优化的领域人的数量与日俱增。这还与搜索引擎优化主要特点有关,主要是投资成本低,效果明显。2 搜索引擎结构分析搜索引擎是指根据一定的策略、运用特定的计算机程序来搜集互联网上的信息。用户使用时候只需要在搜索引擎提供的搜索窗口中输入需要查
12、找信息的关键词搜索引擎主要有四个组成部分,分别为:搜索器、索引器、检索器和搜索界面。这四个部分基本构成了搜索引擎的体系机构。下面我将来研究搜索引擎的各部分的具体内容。2.1搜索引擎的搜索器搜索器是搜索引擎体系结构中比较重要的一部分,它的功能是在浩瀚的互联网海洋里不停的抓取网页,搜集信息。从而为以后其它各部分的工作铺垫。搜索引擎的搜索器一般叫做网络爬虫,目前网民普遍称为“网络蜘蛛”或者简称为“蜘蛛”(蜘蛛的英文为:spider)。通过它的字面意思我们不能理解它的功能,它在“爬行”时要又快又广又多地搜集各种各样的新信息;当我们在浏览网页时候,会发现一个网站的内容经常会更新,并且频率一般比较高,因为
13、一些信息具有实时性,超过一段时间后就会成为过时无用的垃圾信息,因此蜘蛛需要在规定的周期去抓取网页里面的内容,同时还要判别那些网页是更新过的,那些页面的内容已经陈旧,没有更新了,那些页面里面的链接是死链接,哪些页面已经是不需要再“爬行”等等。那么搜索器是如何搜集网站的相关信息了?一般是用下面的方法:“蜘蛛”从一个URL开始,顺着这个URL的超链接,利用各种方式在互联网中的网站之中发现信息,然后不断重复,于此同时搜索器也要把搜集到的所有网页存储起来。通过上面的介绍相信你对搜索引擎的搜索器有一定的认识。下面分析的是搜索器的一项比较重要技术,那就是网页内容提取技术。要知道网页内容提取技术首先要了解的是
14、搜索引擎建立索引,处理的对象只是文本文件。但是一般一个网站有若干网页组成,并且每张网页上会有不同格式的文件,如图片、flash、pdf、word、多媒体等等丰富多彩的格式。上面说过搜索引擎处理的是文本文件,那么索引器就会把网页里面的文本文件提取出来。而这项技术的支持是系统采用了各种各样的插件,遇到不同的格式的网页就会采取不同的插件来处理。2.2 搜索引擎的索引器索引器是搜索引擎的一个比较重要部分,它一般使用集中式索引算法或者分布式索引算法。索引器的算法对索引器,对搜索引擎是至关重要的,比如:我们熟悉的百度新闻,它是“由机器每5分钟自动选取更新”,比较具有实时性,并且数据量也是相当的大。此时索引
15、器的算法对索引器的影响就显得十分突出了。因此有人说,一个搜索引擎的有效性在很大的程度上取决于索引器的质量(精确的说应该归功于索引器的索引算法)。接下来我们一起来系统了解索引器的功能,索引器的功能是理解搜索器(上一节已经描述过了)搜索的信息,并对收集回来的网页进行分析,提取相关网页信息,如网页的关键词、页面使用的编码、网页URL等等。然后更具搜索引擎的相关算法进行大量复杂的计算,得到一些相关信息,然后利用这些相关信息建立相应的网页索引数据库。2.1.1索引项上面了解了索引器的一些知识,下面有必要对索引项有所了解。比如我们平时所说的索引器索引的时间,编码,作者,标题等等都属于索引项。索引项可以分为
16、两种,一种是客观索引项,另一种是内容索引项。其中客观索引项是与文档的内容无关的,比如,我们发一遍帖子,里面的发帖作者,发帖时间,帖子地址等等都是客观索引项;而内容索引项是反应文档内容的,其理解起来就很容易了,在此就不举例了。内容索引又可以分为单索引项和多索引项两种。2.1.2中文分词搜索引擎索引英语单词或者句子时候,是比较容易提取的,因为英文单词之间是用空格分开的,而这一切都是约定俗成的。但是对于汉语书写的句子,就不能凭空格区别了,必须要进行词语的切分,也就是常说的分词。中文分词是文本提取的基础,对于输入的一段中文,然后进行中文分词,然后搜索引擎达到识别语句含义的效果。中文分词的方法一般可以分
17、两种,一种是机械匹配方法(基于字符串匹配的分词方法),另一种是概率统计方法。其中机械匹配是建立在已有的词典大全上的,是和里面词语匹配而得到的分词结果。它一般分词方法有:正向最大匹配法(由左到右的方向),逆向最大匹配法(由右到左的方向),最少切分(使每一句中切出的词数最小)和双向最大匹配法(进行由左到右、由右到左两次扫描)。概率统计方法是通过概率统计后,然后再进行处理而得到分词。那么到底哪种分词算法的准确度更高了?到目前没有定论。一般对于任何一个成熟的分词系统来说,不可能单独依靠某一种算法来实现,都需要综合不同的算法。2.3搜索引擎的检索器首先我们一起来了解搜索引擎是如何把用户需要的信息反馈给用
18、户的。当用户在搜索引擎的搜索窗口中输入需要查找的关键词。如下图:图1 百度搜索界面然后搜索引擎的系统程序从网页索引数据库中找到符合该关键词的所有相关网页(未收录的不在其中)。此处需要补充说明一下的是,搜索引擎已经对网页的关键词的相关度已经算好了,只要按照已经现成的相关度数值排序,当然相关度越高,那么关键词排名就越靠前。最后页面生成系统将搜索结果的网页内容描述信息和网站标题以及标题链接按照约定的规则组织以来反馈给用户。例如下面是百度搜索“孝感学院”之后的界面图。其中的“孝感学院论坛-孝感学院|孝感学院新技术学院|春晖湖论坛”为网站的title部分,是比较网站核心内容的精简描述。接着下面的具体描述
19、文字是网站的描述信息,也就是我们常见的META标签里面description信息。图2 百度搜索“孝感学院”输出界面通过上面的具体实例和描述我们不难看出检索器的功能,具体来说是针对用户的查询关键词请求,在索引库中快速检索文档,接着对文档与用户查询的进行评比,对将输出的结果进行排序等操作,然后实现信息的反馈。2.4 UI(用户接口)UI(User Interface)即用户接口,其主要目的是方便用户使用搜索引擎,充分的利用搜索引擎来从搜索提供的结果中,快速找到有用的信息;其作用是输入用户查询,显示查询结果,反馈用户信息等。UI的设计思想是“以人文本”,通过设计来适应人类的思维行为习惯。在前面图1
20、中我们看到了百度的搜索界面,此界面为用户提供了搜索接口,在这个接口中,我们可以输入我们想要搜索的关键词,同时我们可以根据搜索引擎提供的接口去限制我们需要搜索的信息。例如:我们在百度里面需要搜索关于孝感学院的word(word文档的扩展名是.doc)文档,我们可以输入:“filetype:doc 孝感学院”那么我们会看到全部都是匹配的关于孝感学院的word文档列表。通过上面对搜索引擎结构分析,可以明白各大搜索引擎的处理能力和技术均有差别,因此抓取网页会有差别,排序算法也会有差别。例如:谷歌和百度搜索引擎的数据库都存储了互联网上几亿到几十亿的网页索引,数据量也是几千GB到几万GB,但是搜索引擎虽然
21、建立超过20亿网页的索引数据库,但是也占不到互联网上普通网页的30%,一般不同搜索引擎之间的网页数据重叠率一般在70%以下。根据这个原理,我们想要搜索更广更全的信息,可以使用不同的搜索引擎,这样我们将会有更大选择信息的余地。3搜索引擎的工作原理搜索引擎工作原理可以从它的工作中看出,一般搜索引擎工作原理分为三步,分别是:抓取网页,建索引数据库和在索引数据库中排序。下面分别来看看三部分是如何工作的。抓取网页:根据前面的介绍,我们很容易知道搜索引擎利用爬虫沿着任何网页中的所有URL爬行到其它的网页,不断的重复这个过程,然后把爬行过的网页收集回来。建索引数据库:搜索引擎的分析索引系统程序对收集回来的网
22、页进行分析,提取网页的信息,然后根据一定相关度算法进行大量复杂计算,得到每一个网页针对页面内容中及链接中的每一个关键词的相关度,然后用这些相关信息建立网页索引数据库。索引数据库中排序:排序后的关键词,就是在用户输入关键词搜索后,搜索系统程序从网页索引中找到符合该关键词的所有相关网页。因为所有相关网页针对该关键词的相关度已经算好,索引只需要按照现成的相关度排序,相关度越高,网站排名越靠前。最后页面生成系统将搜索结果的网页内容描述信息和网站标题以及标题链接按照约定的规则组织以来反馈给用户。3.1网页搜集 搜索引擎网页搜集过程并不是在用户提交关键词后进行及时搜索的,二是预先将网页搜集好并且进行相关的
23、处理之后等待用户的查询。我们知道,一般在网络比较顺畅时候,从网上下载一张网页大约需要1秒钟,因此如果用户在查询的时,即时去网上抓取成千上万张网页,一个个分析处理后再和用户的查询匹配,这样查询时间就会很慢,这样不能满足用户的需求,严重影响用户体验。有时可能有多个用户重复抓取一张网页,面对大量的用户查询,不可能每来一个查询,系统就到网上“搜索”一次。大规模的搜索引擎是将一批预先搜集好的网页进行管理和维护,那么如何去维护了?有以下几种方法:第一种方法:定期搜集法每次搜集替换上一次的内容,称之为“批量搜集”。由于每一次都是重新来一次,对于大规模搜索引擎来说,每次搜集的时间通常会花费几周的时间。这样的开
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 毕业设计 论文 基于 SEO 网络 行销 平台 设计 实现
![提示](https://www.31ppt.com/images/bang_tan.gif)
链接地址:https://www.31ppt.com/p-4862437.html