SEO优化文档解答_第1页
SEO优化文档解答_第2页
SEO优化文档解答_第3页
SEO优化文档解答_第4页
SEO优化文档解答_第5页
已阅读5页,还剩7页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、一.W3C认证和标准?W3C标准的“网页结构、表现、行为分离,互不干涉抢功”理念且不说SEO,其实按照这个理念建设起来的网站,网页打开速度会明显的加快。因为按照这个理念,网页将会分成html、css、js三种类型的文件,而css、js又是可以缓存的,所以浏览一个这样的网页其实就是下载html代码就行了,速度当然变快啦。W3C标准不能滥用标签,代码冗余,所有不会出现表格那样多层嵌套的问题。网站要通过W3C标准,需要注意以下几个问题:1.文件类别宣告的正确写法 (不可小写) A:过度标准(Transitional) !DOCTYPE html PUBLIC -/W3C/DTD XHTML 1.0

2、Transitional/EN B:框架标准(Frameset) !DOCTYPE html PUBLIC -/W3C/DTD XHTML 1.0 Frameset/EN C:严格标准(Strict) 包含以上须注意的问题,还有其他更严格的标准 结尾3.所有标识元素名称都使用小写4.W3C标准必须为程式指定类型type=text/javascript,所以要写为 正确 或者 载入外部.js: 正确 5. 绝对不可省略双引号或单引号6. W3C要求必须添加链接标签的title、图片标签的alt属性7. W3C标准规定不允许使用框架标签8. 标准注解文字不可包含-符号, 在样式表的注释中注意尽量避

3、免用中文9. 使用表格常犯的错误 在做表格通常会指定宽与高例如: 内容 这样做是没有办法通过,可使用CSS来控制标识元素的高度.table height:100px; TEXT 但若使用太多表格,在CSS一一指定不同高,也不是好方法其实很简单将高度height属性指定在储存格就可以了通过测试 TEXT 但这不是W3C标准,建议多使用div代替不必要的table10. 非标识一部分的符号以编码表示(窗体内包含以下符号也必须用编码表示) 以 > 表示 & 以 & 表示 程序中的连结 & 也要改用 & 错误 正确 11. 所有属性都必须有值12. 合理安排使用文本加粗,斜体,下

4、划线13. 网页标准可以随时将重要的内容调前,之后使用css重新定位。例如页面效果图中中间的文字比较重要,可以先把重要的内容放在左边的代码的前面,方便搜索引擎,之后使用css将它调会到效果图的位置。14. 修饰性图片文本替换,js、flash文字图片还原 有些网站为了追求炫眼效果,采用了图片按钮,图片新闻flash切换,文本的js跑到效果这样大大将原本属于图片,文字链接的代码变成了搜索引擎读不懂的js代码、flash,或者是直接插入原本不是内容的修饰性图片替换了文字。如果这些刚好又包含了热门关键字,那么搜索收录量将损失很大。 对此按照W3C标准做的话,就可以避免以上问题: 修饰性图片文本替换:

5、就是说将不是内容而是修饰的图片变成底图显示,不干扰搜索引擎,让它忽略它。而有增加文字,之后使用css隐藏掉,这样也增加了可以搜索的文字。常见使用于logo,按钮,菜单。 js、flash文字图片还原:这是我近来提出来的一个思路,还没有广泛给大家知道的方法(呵呵,大家接不接受还是个问题):将js,flash显示的内容转为html,之后使用js读取html,传递参数启动原来的效果、并且隐藏html,只是比原来增加了几个步骤。详细可以参考我写的文章:如何减少JS对搜索的负面影响。网站通过W3C好处:1. 提升网站形象通过W3C认证的网站不足5%,只有极少的网站会通过W3C认证。所以通过W3C认证,会

6、大大提高网站形象,客户会觉得您的网页非常的专业。2. 有利于网站排名符合W3C标准的网页,一般用CSS+DIV呈现,这使网页源码简洁,结构化程序更高,易于被搜索机器人检索,收录,这会给网站带来更高的排名。3. 可以带来更多的客户符合W3C标准的网页,能够被更多的使用者所浏览。如视弱,色盲等残障人士;内容能被更广泛的设备访问,如屏幕阅读机,智能型手机。搜索机器人,并能够兼容各种主流浏览器,如:IE,FireFox,Mozillz,Safari,Chrome,and Opera,从而不会因为兼容而难题导网页排版不正常或变形,失去潜在客户。4. 速度更快因为符合W3C标准,网页原始程序简洁,网站页面

7、共享。使得网站大幅度精简,提高浏览速度,使网站显示更快速。5. 维护容易采取W3C标准的网页设计,则只需要改变CSS文件,就能达到前面修改的目的,不必再费力的去修改网页内码。二系统的页面T、D、KTitle(标题栏)TITLE指的就是网站的最上面的标题栏。大部分网站在这里写上的都是自己的网站的名称,这其实是丢失了一个很好的突出关键字的机会。搜索引擎在检索到一个网站的时候,首先进入它的眼睛的就是网页最上端的TITLE的内容。但是也不要疯狂的在这里狂加关键字,依据现在的搜索引擎的算法来看,更注重的是用户体验。例如微博营销|关注微博推广、微博赚钱、微博工具、企业微博营销案例,正确的选择是610个汉字

8、的网页标题,最多不要超过30个汉字,如果网页标题字数过少则有可能包含不了有效关键词。Description(描述)description,说白了也就是一段描述性的文字,但是却是很重要的,因为这是展现在用户眼前的。也就是平时我们在搜索引擎里查找网站的时候,网站结果下面的那一大段网站介绍经常就是这个。例如:Keywords(关键词)Keywords,也就是关键词,这是向搜索引擎提醒你网站的所具备的关键字的地方,也是特别容易作弊的地方。以前有些站长就在这里大量的堆砌相同的关键字。当然这种方法在以前有段时间是很好用,不过呈现给访问者的大部分的搜索结果页面就是一大堆没有实际内容的垃圾页面了。但是在搜索引

9、擎引用了新的计算方法后,这种在Keywords里堆砌大量关键字的方法就不再管用了,也被称之为作弊的行为。例如:TDK的写法:页面TDK动态页面TDK通过用 控件来实现。后台代码:string T_D_K=海运;Page.Title=T_D_K;TDK.Text=;前台代码:后台代码:三服务器内robots.txt文件robots.txt文件应为 ASCII 编码的文本文件,而非 HTML 文件。文件名应使用小写字母。robots.txt文件是放在网址根目录的一文档,robots.txt可以屏蔽搜索引擎对于某些特定的网址或者全站的抓取。利用robots.txt文件可以屏蔽掉不想让搜索引擎抓取的内

10、容,或者屏蔽掉重复的内容。robots.txt 文件使用两条规则:(1) User-Agent: 适用下列规则的漫游器 (2) Disallow: 要拦截的网页(3) Allow: 是允许的意思这两行被视为文件中的一个条目。您可根据需要包含任意多个条目。您可在一个条目中包含多个 Disallow 行和多个 User-Agent。robots.txt的写法:第一个,禁止所有搜索引擎访问网站的任何部分那么这样写:User-agent: *Disallow: /第二个,允许所有的robot访问那么这样写:User-agent: *Allow: /第三个,屏蔽某个目录,比如想屏蔽的文件都是在/mulu

11、/目录下面,也就是网址是类似这种形式:/mulu/123.html /mulu/hhh.html 那么可以这样写:User-agent: *Disallow: /mulu/这样搜索因为不会抓取在/mulu/这个文件夹下所有的网址。User-agent: * 指的是下面的语句针对所有搜索引擎,Disallow: /mulu/ 是禁止抓取的意思。注意:在User-agent:和Disallow:这些命令后面要加空格。第四个,屏蔽某种特定URL,比如我想屏蔽的网址是:/wangzhi123.html /wangzhi456.html ,从里面找出的规律就是,网址中都包含/wangzhi,那么写法就不

12、能跟屏蔽目录一样了。可以这样写:User-agent: *Disallow: /wangzhi*也就是搜索引擎支持通配符,用*号可以替代省略的字符。除了可以用Disallow: /wangzhi*,还可以用Disallow: /wangzhi*.html,这样更准确一些。第五个,屏蔽所有特定结尾的URL,比如想屏蔽所有以html结尾的网址,那么有两种写法。使用*做通配符:Disallow: /*html使用$做行结尾:Disallow: html$这两个是一样的意思,看喜欢用哪种了。第六个,屏蔽某个目录,但是允许特定结尾的网址抓取。比如想屏蔽/mulu/这个目录下 除了html之外的所有URL

13、。 那么这么写:User-agent: *Allow: /mulu/*.htmlDisallow: /mulu/Allow:是允许的意思,搜索引擎在执行robots.txt文件的时候,是从上到下执行的,所以 这种写法可以允许抓取/mulu/下.html文件的同时,禁止访问目录下其他文件。第七个,屏蔽某特定搜索引擎的抓取,可以在User-agent:后面带上搜索引擎的蜘蛛代码,比如百度的是Baiduspider,User-agent: Baiduspider那么下面的规则对于百度有效果。蜘蛛的代码可以从网上搜一下,也可以看一下自己的网站日志,看看有哪些蜘蛛抓取。比如禁止百度抓取,允许Google

14、抓取,那么这样写:User-agent: BaiduspiderDisallow: /User-agent: GooglebotAllow: /第八个,屏蔽抓取网站上的图片,仅允许抓取网页。比如百度是Baiduspider,User-agent:Baiduspide那么下秒你的规则对图百度有效果。那么这样写:User-agent: BaiduspiderDisallow: /*.jpg$Disallow: /*.jpeg$Disallow: /*.gif$Disallow: /*.png$Disallow: /*.bmp$第九个,仅允许Baiduspider抓取网页和.gif格式图片,允许抓取

15、网页和gif格式图片,不允许抓取其他格式图片。那么这样写:User-agent: BaiduspiderAllow: /*.gif$Disallow: /*.jpg$Disallow: /*.jpeg$Disallow: /*.png$Disallow: /*.bmp$第十个,仅禁止Baiduspider抓取.jpg格式图片那么这样写:User-agent: BaiduspiderDisallow: /*.jpg$robots.txt文件的格式robots.txt文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL,or NL作为结束符),每一条记录的格式如下所示::。在该文件中

16、可以使用#进行注解,具体使用方法和UN中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:User-agent:该项的值用于描述搜索引擎robot的名字。在robots.txt文件中,如果有多条User-agent记录说明有多个robot会受到robots.txt的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在robots.txt文件中,User-agent:*这样的记录只能有一条。如果在robots.txt文件中,加入User-agent:SomeBot和若

17、干Disallow、Allow行,那么名为SomeBot只受到User-agent:SomeBot后面的Disallow和Allow行的限制。Disallow:该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被robot访问。例如Disallow:/help禁止robot访问/help.html、/helpabc.html、/help/index.html,而Disallow:/help/则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。Disal

18、low:说明允许robot访问该网站的所有url,在/robots.txt文件中,至少要有一条Disallow记录。如果/robots.txt不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。Allow:该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL是允许robot访问的。例如Allow:/hibaidu允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与D

19、isallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。使用*和$:Baiduspider支持使用通配符*和$来模糊匹配url。$ 匹配行结束符。* 匹配0或多个任意字符。四.页面级的URL重写搜索引擎蜘蛛程序确实在爬行动态URL的时候存在一定的困难,所以搜索引擎的蜘蛛爬虫更喜欢html(htm、php)后缀的静态页面,为了获得排名所以有必要对网站做url重写来实现网站的伪静态化实现步骤:(1) 网站添加引用给网站添加两个

20、dll文件URLRewriter.dll和ActionlessForm.dll(可以通过 Reflector查看这两个程序集的内部代码)(2) 修改web.config(1)在节点下添加 (2)在节点下添加(3)在节点下添加 (4)在节点下面添加具体的URL重写规则 格式: /index.(html|htm) 重写后在浏览器显示的页面/Index.aspx 要重写的页面 /index_(w+)_(w+).(html|htm)/Index.aspx?lid=$1&sid=$2 要重写的页面带有参数的时候可以将参数写在名称里面 这里LookFor是服务器查找的页面,SendTo里面是用来替

21、换掉查找到的页面的 一般这个链接是实际存在的URL链接 就是服务器查找的页面通过IIS服务器找到重写后的URL链接(3) 修改站内链接 修改为重写后的链接注意这是重写后的URL链接,不是原来的链接。(4) 修改IIS服务器 找到服务器中该网站 服务器地址 右击网站属性-主目录-配置-添加-可执行文件:c:windowsframeworkv4.0.30319aspnet_isapi.dll扩展名:html动作:GET,POST确认文件是否存在单选框不选这里是在服务器里设置了一个指向了html文件的映射文档-添加index.html并置于顶端 这样就相当于开始默认是重写后的网站地址正常情况下的html是有IIS处理,所以不设置映射。这样设置的目的是为了让HTML交给.net处理,这样重写就生效,如果你要对.htm重写,也要设置一下每个个站点都要配置一下,一个扩展名配置一次.

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论