网站建设资讯详细

网站结构对 SEO 的影响

发表日期:2024-08-03 15:47:52   作者来源:shuimu   浏览:1224       

网站结构对 SEO 的影响
网站结构对SEO有影响,影响的程度究竟如何,是值得深入研究的。以下分别通过DIV+CSS、目录、静态化页面以及robots对SEO的影响,来阐述网站结构对SEO的影响。
1. DIV+CSS 对 SEO 的影响
曾几何时,DIV+CSS这种网页设计与制作模式被网站设计与制作人员大量应用。正因为这样,在对搜索引擎进行优化的过程中,一定要将DIV+CSS对SEO的影响考虑在内。这样,才能使优化效果更为理想。下面主要介绍使用DIV+CSS设计网站的三点优势,从而进一步了解DIV+CSS对SEO的影响。
⑴ 精简代码
以下通过比较DIV+CSS布局与TABLE布局来探究代码精简后所能带来的优势。左下图所示的是一段简单的TABLE布局代码,比较而言,TABLE布局比DIV+CSS布局(如右下图所示)增加了页面代码。


⑵ 能保持视觉的一致性
DIV+CSS的另一个优势是能保持视觉的一致性。因为搜索引擎是按照从上至下、从左至右的顺序访问网站信息的,并且搜索引擎访问的是代码。所以,关键内容在页面中的分布位置就显得尤为重要。采用DIV+CSS进行布局的话,代码比TABLE要精简,这就是DIV+CSS的优势。CSS文件统一控制页面和区域,这样在TABLE布局时会避免发生页面与页面、区域与区域之间的显示效果偏差。
⑶ 提高修改代码的效率
网站的内容需要不断地更新,这就关系到代码的修改。那么修改代码的便捷程度会影响到速度, DIV+CSS在这方面是占有优势的。到CSS里找到相应的ID,就可以实现相应代码的修改工作。在不破坏页面其他部分布局样式的基础上,这样修改页面时所带来的便捷性更具优势。
使用DIV+CSS设计网站正是为了符合SEO的理念来架构网站,是一种对搜索引擎友好的网站架构形式。它可以帮助我们在建立之初就将搜索引擎优化技术应用于网站中,避免在建设完成之后再通过技巧与手段去达到排名的效果。正确的页面布局对于蜘蛛的抓取网页的收录以及关键词的排名是非常有利的。
 

2. 目录对 SEO 的影响
目录级别和目录文件名,都对SEO有着不同程度的影响,因此需要重视目录对SEO的影响。这可以为搜索引擎的优化效果增加不少分数。

⑴ 目录级别
搜索引擎抓取的过程是根据目录往下逐级抓取,因为每一级目录中有若干的页面,所以目录如果存放在3级以上就基本不太可能被抓取到。直接导致的后果是影响页面的收录数,使页面的收录数量减少。可以在首页添加重要内容页的链接,实现优化效果。
⑵ 目录文件名
如果仔细观察,可以发现指向目录的路径和文件名也是影响关键词排名的一个较为重要的因素。以“网站建设”为例,若将其作为核心关键词,那么目录名称可以是“网站建设.html”,下面可以扩展核心关键词作为子栏目,如网站建设推广、网站建议方案、网站建设策划等,然后用“**关键词”作为单页面的关键词。
3. 静态化页面以及 robots 对 SEO 的影响
静态化页面以及robots同样对SEO有不可忽视的影响。以下分别具体分析静态化页面以及robots对SEO的影响。
⑴ 静态化页面
在进行优化的过程中,经常会有这样一个误解,认为搜索引擎更喜欢抓取静态化页面,就将动态页面改为静态页面,这种做法要不得。当然静态页面会降低系统负载,无形中提高系统性能和稳定性。其实,对于动态页面和静态页面,搜索引擎没有更喜欢抓取哪个页面或者更不喜欢抓取哪个页面的区别。反应到页面上,没有动态页面与静态页面的好坏,能为网站提高被收录数的才是好页面。
⑵ robots 文件
关于robots.txt的详细内容,介绍如下几点。
① 什么是 robots.txt 文件
robots.txt是一个协议,而不是一个命令。robots.txt是搜索引擎访问网站时要查看的第一个文件。robots.txt文件告诉蜘蛛程序,在服务器上可以查看什么文件。每个网站都可以自主控制网站是否愿意被搜索引擎收录,或者指定搜索引擎只收录指定的内容。
② robots.txt 文件的格式
User-agent: 定义搜索引擎的类型 。
Disallow: 定义禁止搜索引擎收录的地址 。
Allow: 定义允许搜索引擎收录的地址。
③ robots 文件对 SEO 的影响
robots文件为SEO创造了条件,因为这个网站文件是蜘蛛爬取网站首先抓取的文件。通过编写不同的文件内容,告诉蜘蛛访问网站的范围,可以有效地控制蜘蛛的爬取路径,使一些不想让搜索引擎看到的文件不被蜘蛛爬取。
④使用方法
下面通过具体的例子介绍robots.txt文件的使用方法。例如,可使用如下图所示的指令允许所有的访问,将其写入robots.txt文件中即可实现。

可在代码第一行User-agent后输入搜索引擎蜘蛛的名称。“User-agent:”项中的值为通配符“星号(*)”,表示所有搜索引擎的类型。
代码第二行allow后输入“允许”或者“许可”的条件。若后面不添加内容,表示允许,无限制。
例如,不允许机器人访问网站下的所有目录,可以在robots.txt文件中使用如下图所示的指令。

代码第一行:输入搜索引擎蜘蛛为百度蜘蛛(Baiduspider)。在“User-agent:”项中的值为Baiduspider(百度蜘蛛),表示不允许百度搜索引擎访问。
代码第二行:“Disallow:”项中的值为通配符“斜杠(/)”,表示要拦截整个网站。
代码第三行:输入搜索引擎蜘蛛为百度蜘蛛(baiduspider)。在“User-agent:”项中的值为Baiduspider(百度蜘蛛),表示不允许百度这个搜索引擎访问。
代码第四行:“Disallow:”项中的值为通配符“斜杠(/)”,表示要拦截整个网站。