你这个问题挺大的,如果你是个SEO,建议你多学习一些相关知识。SEO工作很大比重在站内,只有站内做的好,关键词分配合理,结构足够合理,才能尽可能的让搜索引擎多爬取我们的内容;收录的页面越多,用户找到我们的机会越大。
如何做网站?
如何让搜索引擎爱上我们的网站?
怎么让搜索引擎更好的找到我们?这就需要提一下咱们的主题:搜索引擎优化(SEO),这个概念已经不是新鲜玩意儿了,百度一下就有一大票的教程和培训机构,但是细看一下发现大家似乎都在讲如何做内容,如何做外链,有的说内容为王,外链为皇,有的说站群是小站的出路,有的说聚合页面营销才是优化的最好方式。
但是很少有人系统的去介绍这些方法应该在什么阶段用。这就导致很多站长看到一个方法就往自己网站上套,然后就开始每天盯着排名去看,咦,怎么还没上升啊!哎呀,排名咋还掉下去了。种种猜测开始在脑子里翻腾,也开始怀疑这个方法是不是靠谱。
其实不是这个方法不对,而是用的时机不对。因为讲SEO的太多,我这里不会去讲他是什么东西,怎么做才是SEO。我这里讲的是如何运用组合拳去打出漂亮的连击,让我们的网站能突围成功获得好的排名。
因为SEO的知识面涉及很广,我们会分成模块来讲,先从站内开始,内在决定外在,不管是人还是搜索引擎他们喜欢一个网站是因为它有料,在这里可以知道自己想知道的东西,那这就需要我们用心去经营我们的网站,用心去创作内容。那怎么用心呢?
选择我们的关键词
关键词是用户通过搜索引擎找到我们的唯一方式,搜索引擎将关键词和我们的网页做了一个映射关系,在搜索引擎的数据库里,关键词就是我们网页的代表符号,那么网上相关的内容这么多,一个关键词可能代表了非常非常多的页面,我们怎么让我们的网页排到前面呢?这就是搜索引擎排名,我们要寻找符合我们的关键词,符合我们的关键词可能非常多,选择的时候要讲究技巧。
1、不选大的关键词
比如我现在负责的易观方舟产品官网,我们的产品是做大数据分析的,我们的客户要在百度里面找到我们会通过什么词来找呢?大数据分析这个词可能是我们首先想到的,但是这个词的价值并不高,为什么呢?大数据分析知识,大数据分析模型,大数据分析产品等等相关的关键词都可能会触发这个关键词,但对我们最有价值的是大数据分析产品这个关键词,那么我们就不能把精力花在这个大词上面,应该集中火力去做大数据分析产品这个词。不做大词是因为大词的难度大,价值低,吸引的客户不精准。
2、挖掘符合我们的长尾关键词
长尾关键词其实就是我们关键词的补充,比如大数据分析产品,产品就是大数据分析的补充,组合成了一个新词,这个新词我们还可以挖掘更多的长尾关键词,比如大数据分析产品对比,大数据分析产品价格等,不同的关键词我们要有相应的落地页面。
如何挖掘这些关键词呢,我们可以通过相关的工具帮助我们,有很多免费的工具可以供我们选择,国外的关键词挖掘工具有Google Trends、Google Search Console 等免费的工具,国内的我比较喜欢使用爱站,虽然挖掘的多了需要付费,但是免费的也能帮我们挖掘很多关键词出来。
通过工具我们可以了解现在用户经常搜索哪些词,在这些词当中筛选出对我们有价值的关键词作为我们的页面关键词。
3、通过竞品网站挖掘有价值的关键词
这个方法需要我们打开我们的友商网站,看看他们的栏目页title(网页标题)用的是什么关键词,还有可以通过在搜索引擎搜索框里输入site:xxxx.com域名看到收录的页面,看看他们标题用了哪些关键词,将这些关键词记录下来,友商是对手也是老师,他们选择的关键词也会成为我们选词的关键参考。
▌结构优化,让搜索引擎进来就爱上
搜索引擎爬取我们的页面都是通过自己的爬虫进行,比如百度的Baidu Spider,谷歌的Googlebot,其它的搜索引擎也都有自己的爬虫,咱们不赘述了。这些爬虫是帮助我们网站被搜索引擎收录的好朋友,我们要服务好。
投其所好才能让它常来坐坐,它们比较喜欢符合W3C标准,结构规范的网页,喜欢文字多,没有死胡同的页面,他们比较懒,希望进来就知道哪个是主题,哪个是次要内容。没错他们就是这么智能而又有温度。怎么招待它们呢?
1、TDK优化
<title>易观方舟_大数据用户行为分析平台_助力企业精益成长</title>
<meta name="keywords" content="易观方舟,数据采集,全端数据接入,私有化部署,实时查询,用户分群,用户画像,全景用户画像,用户分析,用户行为分析,大数据用户行为分析,精细化运营,运营闭环,用户触达,用户召回,精益成长">
<meta name="description" content="易观方舟通过全端数据采集,结合易观第三方数据,支持多模型多维度实时用户行为分析,实现多通道有效触达用户,用数据驱动用户精细化运营,助力企业精益成长。">
T: title,就是我们的页面标题,这个是它了解这个页面是干啥的第一视角,我们想让用户用什么关键词搜索到这个页面,那么这里必须放上相关的关键词。重要程度不言而喻。
D:description,页面的介绍,比较实用的就是页面在搜索引擎列表里面时这里可以简单概括我们是做什么的,有些会将电话放在这里,方便直接沟通。
K:keywords, 关键词,现在存在的意义很低了,可以把我们页面的关键词放在这里,虽然没啥用了。
尤其是title,我们要重点关注,这里面的词,是直接决定能否搜到我们的关键。
2、页面内容布局
刚才提到了,网页标题是蜘蛛判断我们这个页面是做什么的中心点,那么我们页面的内容理当是围绕这个主题进行展开。
这里不得不提的就是关键词密度,我们的内容里面必须要包含这个标题的关键词,并且密度要在2%-8%之间。不然这个标题关键词写了也不会有好的排名。
3、H1标签不可滥用
我们在写页面时,往往不会细想HTML元素的组合用法,因为我们可以重置掉HTML原生的所有样式,就算用错了元素,页面呈现的效果依然那么美丽,可是这里要说一句,咱们的小蜘蛛很敏感,看到元素用法不规范,轻者不开心,重者扭头就走。
所以我们要规范使用,而里面最重要的就是这个H1标签,我们都知道H1标签是标识主题的意思,当蜘蛛看到这个标签时,它会默认这个是当前页面的标题,和我们title一个等级,但是如果这个页面出现了多个H1时,小蜘蛛就混乱了,搞不懂这个页面到底哪个是中心思想,要么随便找一个当标题,要么直接去下一个页面了。所以谨记,一个页面有且只有一个H1标签,其它的子标题都用H2代替,再低一级的用H3。
4、导航结构设计
网站导航一般在整个网站来说是统一的,有些企业站会在导航上面放一个首页,并且是第一位,其实可以删掉,不过为了方便用户返回首页一般很多人这么放,如果有这个首页的词,建议把链接nofollow掉,为的就是不希望首页有这样的关键词存在。
导航的位置非常重要,他是蜘蛛爬行入口,导航层级越浅,蜘蛛收录页面的概率越高,所以把我们核心页面放在导航入口是非常重要的,导航也是让蜘蛛反复游走的重要通道,同时也是一个很好的内链。
导航这里切记用js去动态加载分类,因为蜘蛛对js动态加载的内容是不识别的,如果二级分类是鼠标放上去才出现的,那么一定要在源码里面有这个二级内容,只是暂时隐藏。不要通过数据请求去获得。
5、logo部分优化
logo每个网站都有,但是这里往往很多人会处理不好,因为这里一般放首页地址,所以一般没有任何文字,一张图片链接到首页,往往会分化权重,这里和导航首页关键词一样应该把链接地址做nofollow,首页是我们网站权重最大的地方,我们期望他的入口都是按照我们指定的关键词走,好比一条水渠,保持水流流速最好的办法是避免太多缺口,就是这个道理。
6、所有的出站链接应该都做nofollow
网站一般都有备案信息,链接到国家工信局网站,这种链接要么删掉,要么做nofollow处理,不允许分化我们的权重。保证咱们这条收录的水渠是最大的,同时水量按照我们规划的方向流淌。引导蜘蛛正确走路,抓取该抓取的页面。
像这样页面规范,入口清晰,指示清楚的网页,蜘蛛怎么能不爱呢?
▌借助工具,持续优化网站
这里不得不提的就是方舟是如何帮我们优化方舟官网的,一个好的工具确实能让我们事半功倍,当我们离开工具时,往往靠的是以往经验再配合上猜测,通过测试来验证想法,这个过程往往会花费很长的时间。可能还会出现数据不精准,影响我们判断的情况,所以我们需要一款趁手的工具。来帮助我们及时发现问题,并能第一时间的做出数据反馈,帮我们及时改进。
方舟的热图分析工具帮助我们做结构搭配的决策,曾经我们有过一个讨论,体验Demo按钮旁边放一个下载按钮,是否会分化用户点击demo按钮,把下载按钮换成一行文字会不会更好,当我们打开热图分析时,数据已经告诉我们结果。
我们在做页面响应式设计时,参考了方舟事件分析里的设备纬度,告诉我们应该重点关注哪些终端的体验。
知道哪些搜索引擎来的比较多,针对相应渠道做优化,精准而且高效。
我们可以通过爬虫的来访时间和周期,规划下次大迭代应该在什么时候,让爬虫第一时间更新我们的内容,爬虫来访频率就这样可视化的呈现在了我们的眼前,以往通过看系统日志来判断爬虫轨迹成为历史。
▌坚持原创,蜘蛛的胃口越调越好
优化是为了扫除爬虫来我们网站的障碍,内容才是爬虫喜欢我们的根本,没有内容结构再优也没用,内容很差,全部都是抄袭来的文章,爬虫也不会收录这些页面,所以坚持创作原创内容才能留住这个小宝贝儿。
搜索引擎最近几次大的升级,对文章的雷同度判断越来越精准,以往大家通过调整下段落顺序,改改里面的词就算作原创的情况已经行不通了,这也就要求我们不要投机取巧,用心创作。
如何让我们的网站结构足够合理?
除了上面讲的几点以外,还有以下几个方面。接下来我会按照我们从建站到运营这个顺序逐个展开。
▌robots
这是网站和搜索引擎的一个协议,robots会直接告诉搜索引擎,我是不是欢迎你过来,也是我们给搜索引擎的一把钥匙。
robots必须要优先放到网站根目录的。爬虫进入我们网站时,首先会寻找的就是这个文件,当这个文件存在时,会按照这个文件里指定的范围进行爬取,如果禁止所有蜘蛛爬取行为,它会直接走掉不在抓取。
所以我们利用这个robots特性,可以将我们不想公布出去的目录结构进行隐藏,比如后台管理等敏感目录。当然也可以利用这个特性进行导流,让搜索引擎不必把精力浪费在无用的目录或者页面上,只抓取我们想让让它抓取的页面。
▌面包屑导航设计,小功能大作用
这是很容易被忽视的一个技巧,尤其是新手站长,我们普遍认为,导航上面有首页或者logo了,为什么要多这一行文字?面包屑导航有以下几个作用:
1、标识位置,方便访问
面包屑除了可以告诉我们用户当前所处位置以外。还可以让用户返回上一级目录,同时蜘蛛很喜欢面包屑导航,因为蜘蛛在爬取文章时,可以很方便的返回上一级目录,进入父级目录继续抓取。
2、增加内链关键词
我们还可以利用这个功能,给我们父级目录做关键词指定,我们的目录关键词一般有2-3个,网站导航只能给这个目录一个关键词指向,我们通过不同的子页面给父级目录做第二个关键词指向时,相当于增加了一个内链。
3、王牌辅助,不可夺主
面包屑导航是一个辅助功能,它可以告诉用户当前所在的位置,但是不能完全代替主导航。
4、层级关系而非浏览历史
面包屑导航应该表达的是层级关系,而不是浏览历史,我看到很多网站采用动态生成的面包屑,主要就是记录用户的浏览记录,这是错误的做法,用户浏览的多了,这里会非常复杂,逻辑也不清晰。
面包屑可以告诉用户,当前处于哪一层级,父级是谁,这样用户的思路很清晰,如果对当前栏目其它内容比较感兴趣,很方便就可以进入其他页面。
面包屑 导航最后一个层级不要放置链接地址,因为当前页面本来就处于这个地址,放链接是无意义的。
5、分隔符清晰
分隔符清晰,看起来逻辑很清晰,比较常用的做法是右尖括号,比如上面Apple官网的设计,还有用斜杠 “/”,或者空格。这样能够清晰的表达是递减的关系。
6、最后一个层级可以作为标题存在
比如方舟博客,切换栏目时,头部的文字不变的,但是栏目地址却变了,我们就将最后一层改为H1标签,告诉搜索引擎,这个页面的标题是这个。
▌图片应用,让不可能变成可能
搜索引擎无法解析图片的编码,所以搜索引擎看待图片就是一片空白,他不知道这个图片里是什么内容;现在图片的识别技术在提升,相信有一天会实现图片内容的识别。
鉴于此,我们在做网站开发时需要注意以下几个点:
网站避免大范围图片应用;
图片多,体积大,影响页面加载速度,所以我们应该在上传之前,将图片进行无损压缩,保证图片清晰度的情况,让它变得足够小。推荐一个小工具:https://tinypng.com/ ;
图片增加alt 标签,alt标签是可被搜索引擎读取的,在这里放置图片表达的主题,让搜索引擎明白这个图片是做什么的。
▌sitemap,给蜘蛛一个地图
蜘蛛按照链接地址进行爬取页面的,但是每个网站的权重不一样,蜘蛛在这个网站抓取页面的深度和停留时间就不一样,这就会导致有些页面层级较深,没有被蜘蛛抓取到。我们需要一个办法,直接告诉蜘蛛我的页面在哪里,地址是什么?
这就是sitemap,我们将我们网页的地址放到这个文件,让搜索引擎蜘蛛更好的抓取我们的页面。
这个文件可以告诉搜索引擎,哪些页面重要,哪些次要,应该重点抓取哪些,哪些更新频率高等等,sitemap的格式目前有三个,txt格式、XML格式和sitemap索引格式。
txt格式适合小网站,链接不多,可以将连接地址一行一条放上去。
XML格式适合中小网站,里面主要放标题和链接地址。也是大家用的最多的格式。但是由于文件大小限制和考虑到蜘蛛爬取的顺畅度,如果文章太多,会导致文件过大。
这里我们就需要用sitemap索引的形式来进行文件切分,将一个大的sitemap分为多个小的,然后主sitemap里面放子sitemap文件的地址。
如何正确的使用sitemap网站地图?
文件里的网址条数不要超过5万条,文件大小不要超过10M,这么做可以保证我们的文件更好的被爬虫爬取,不给它造成抓取压力;
保持更新频率,爬虫在爬取sitemap时有间歇性,那么我们应该在它下次过来之前,保证我们的sitemap里面有我们的新内容;
动态更新sitemap,研发一个功能,实现每当更新文章时,同时向sitemap里新增一条网址记录,这样保证sitemap里面的数据是最新的。
▌内链,让蜘蛛尽情的爬行
影响关键词排名除了内容很好以外,还有就是链接指向。
打个比方,我们知道长沙有臭豆腐,而做这个臭豆腐的有很多家,如何实现提到臭豆腐就想到一个品牌呢?当所有人都说一家臭豆腐好吃的时候,久而久之,想到臭豆腐就想到这家;链接也是同样的道理,当有很多词指向你,就可以排名更靠前。
链接指向有站内链接,我们称为内链,站外链接,为外链。
内链,就是我们站内的关键词指向。比如易观方舟官网,我们将所有的用户行为这个词,都指向了产品介绍里的用户行为分析这个页面。当爬虫来到我们网站时,当看到这么多链接都指向一个页面时,那么这个词就是这个页面的目标关键词,当用户在搜索引擎搜索这个词时,会优先展示这个页面。
内链是我们做SEO比较重要的注意方向,因为外链资源有很多的不确定性,质量也参差不齐,而内链是完全由我们自己主导的。
每个页面都有一个目标关键词,当A页面出现B页面的目标关键词时,应该将这个词指向到B页面上。一个页面最多放5个内链,因为我们要考虑用户体验,一个页面全都是链接,会让访客以为这个是广告站,因为我们为了凸显这个关键词会加粗或者变色,这样的关键词太多,让人很反感,所以要注意内链词的密度问题,经过实测5%是建议内链密度。
如何收集内链关键词呢?我们通过方舟渠道分析来挖掘近期的关键词分布,将这些词收集起来作为我们的页面关键词。方舟比百度统计的关键词收集更有价值,我们可以看到这个词是哪个搜索引擎过来的,跳出率怎样,留存情况如何等等,也可以针对这批用户进行下钻分析,了解这些用户接下来做了什么,为何流失。
我们的网页做内链时也应该注意,比如这个页面是讲用户行为分析的,那么我们将这个词链接到产品页,相关性就非常高,这就是一条高质量的内链,相关性不强的链接,效果会打折扣。
如果网站文章很多,我们可以研发一个内链关键词库,将我们的关键词和链接地址存入数据库;当页面上出现这个词时,自动替换链接地址到目标页面上,这样会大大节省我们编辑文章时的时间。
▌分页技巧
分页是为了让较长的内容,分段展示。比如分类列表页内容很多,我们可以分为10条内容一页。这样可以让用户体验很好,便于阅读。
而怎么处理好这个分页,让搜索引擎也体验很好呢?需要我们了解下搜索引擎在爬取页面时的规律,那就是看到页面连接时就往里面钻。想想一下如果我们把一个分类页面,20个页的链接都展示出来,就多了20个入口,这样爬虫在爬取文章时,不会因为文章深度问题,降低抓取量。
我们看到现在很多网站喜欢点击加载更多,然后加载10条内容出来。其实这个做法对搜索引擎非常不友好,因为有些是js来请求的数据,搜索引擎对这样的链接是不会触发的。这也就影响我们的收录量。
对比这两个分页哪个更受搜索引擎欢迎?
▌聚合营销思维,事半功倍
什么是标签聚合,我们先说下聚合的意思,聚合是指将同一个类型的内容进行汇总,主要目的是为了便于用户阅读,方便访客的存在,也会得到搜索引擎的认可。
网站是由页面组成的,页面分为两类,单页和聚合页,聚合页将单页按照一定的规则汇总到一起生成了新的页面,比如内容分类这就是聚合页。
既然可以生成新的页面,那么我们通过适当的操作就可以将我们现有内容进行重新洗牌,重新组合聚合为新的页面,这样可以帮助我们事半功倍的增加收录页面。
标签其实就是给我们内容的一个关键词,当前文章主要阐述的几个点。一个文章可能会有多个标签,不同的标签我们生成一个单独的标签页,里面的文章就是相同标签的文章。
这个标签页就是我们的聚合页,是自动生成的,节省了我们人力还增加了我们的页面数量。
需要注意,标签页并不是我们建站初期要使用的技巧,它是我们内容达到一定量级之后才可以觉醒的技能,因为标签页不适合内容少的网站,内容很少还用聚合就会导致页面之间的内容重复度非常高,导致页面没有新意,反而影响搜索引擎的抓取;如果网站出现大量的重复内容,可能会导致蜘蛛过来的频率降低。
我们去看下旅游类网站,比如携程,他们一个文章可以聚合多个分类,比如自驾游文章,还可以以地区,旅游时间,价格等等进行聚合。又有不同的专题页以相同的主题进行聚合,比如吃住类型的酒店聚合页,国家类型的酒店聚合页等等。
分类聚合
专题聚合
每个标签或者分类对应就是一个页面,每个标签又代表了不同的含义,既方便了用户浏览,同时也增加了搜索引擎的收录量。
到此,我们说了网站在建站初期应该注意的站内优化知识点,结构优化、关键词挖掘、导航技巧、内容技巧、robots、面包屑导航、图片技巧、分页、sitemap、内链关键词还有聚合页面。
只有前期基础打好,后面的持续优化才能更好的开展。蜘蛛对我们网站的好感度才会持续提升。我们应该按照上面的注意项去用心打磨我们的网站。
让搜索引擎喜欢上我们的网站,收录的够多够好,才能让更多的人进入网站,了解网站,很多新手站长因为缺少数据支撑很难发现网站现在有哪些问题?导致网站一直处于爬虫不待见的境地。
建议各位站长在建站之初就部署一个用户行为分析工具。
来源:Analysys易观
最新回答