很多的人认为网站就是一个站点,只要搜索词写好了就有人搜索到,但是SEO有那样的简单,那绝对不会让好多的人去专门的学习SEO,学习这个事情,同时网站不会有SEO这个职业,所以一个网站像做起来必须遵循SEO的优化方式来做,方可获得更加好的排名展现。
一、title、keywords、description三大标签都是必不可少的,如果不懂,那你完蛋了
<title>标题</title>
<meta name=”keywords” content=”关键词” />
<meta name=”description” content=”网站描述” />
二、H标签
H标签主要是区分主要问题和次要问题的一个划分线,一个文章,详情页必须有H1标签,其次的H1 、H2、H3……都是次要,但是可以重复。为的就是提高网站的体验度。
三、CSS、JS文件
HTML页面内尽量不要出现css样式和js代码,用外部引用的方式来展现,而且引用的方式不要过多,过多会增加服务器的请求次数。一般css文件和JS文件各一个就好。JS文件的引用最好是放在页面的底部。百度搜索引擎不会抓取JS动态文件。
<script type=”text/javascript” src=”/assets/common/js/jquery.min.js”></script>
<link rel=”stylesheet” href=”/assets/home/about/css/swiper-3.3.1.min.css”>
代码优化
三、nofollow设置
为了避免权重流失,所有的出站连接要加上nofollow属性,比如QQ在线咨询、微博连接等,这样才会集权网站的权重,同时网站不想被抓取,同时不需要分散权重的页面内链,都的加上nofollow。
<a rel=”nofollow” href=”网址” target=”_blank”>
四、target=”_blank”代码
这个代码作用是让该链接在新窗口页面打开,这样做可以优化跳出率,增加用户在页面的停留时间。
五、a标签title属性和图片的alt属性
搜索引擎不会识别网站的图片,所以必须加上Alt的图片属性,增加网站内容的质量。
六、Robots.txt协议
搜索引擎在抓取一个网站的时候,第一时间看robots 文件,这里可以识别到哪些文件可以抓取,哪些文件不可以避免权重流失,抓取到垃圾页面。
nofollow和robots.txt的区别
nofollow决定权重的分配权,robots.txt决定收录
nofollow针对的是一个链接,robots.txt针对的是一个全站
这个就是最直白的一个解释。
七、不要用table布局
这个标签几乎已经被淘汰了,要用div布局更好一些、优化代码
八、canonical标签,很重要的
canonical是 Google、雅虎、微软等搜索引擎一起推出的一个标签,它的主要作用是用来解决由于网址形式不同内容相同而造成的内容重复问题。这个标签对搜索引擎作用非常大,简单的说它可以让搜索引擎只抓取你想要强调的内容。现在百度也已经全面支持这个标签了。
这样做避免网站相同内容网页的重复展示及权重的分散,提升规范网页的权重,优化规范网页的排名。我观察了好多站点,都没有这个标签。建议尽快加上。
减少相似页面。
<link rel=”canonical” href=”该网页的网址”/>
转载请注明出处!纯像SEO/http://www.chunxiangseo.com/youhua/820.html