网站程序优化
网站怎么靠什么挣钱
成本是服务器,网络服务如带宽接入检测技术等硬件设备,技术人力的维护。利润是网站上的广告位,前提是网站内容主题和所涉及的行业信息的服务等带来的客户群,有了客户群就可以对网络上的人提供广告位招募工作,前期肯定是不挣钱的,或者搞电子商务,帮助一些专业领域的行业进行业务拓展和网络营销,或者有稳定货源进行线上销售。这一切首先是网站的定位,广告公司投放广告一般是找信息发布的网站,选好行业还是可以挣到钱,所以先定位网站功能吧,能挣广告公司和用户群两边的钱才是扭亏为盈的王道。举例,淘宝首页广告位主图10万-20万一天,前提是有技术上和信誉上能证明给广告公司提供相应的浏览量和点击率。招聘网站,提供各种信息发布的广告位,以及招聘信息服务增值业务产生的利润,如信息置顶等。信息论坛,提供交易平台服务从中收取服务费用。当然即便是像客户群很大的人人网,开心网,facebook,其实本身也是不挣钱的,因为仅凭广告投入是无法达到盈利的目的。企业投放广告的力度是有限的,而且传媒也不单是网络一种方式,所以影响 网站广告的定价机制。希望上述言论给予你帮助
网站被百度抓取一次异常后什么操作?
随着搜索引擎的不断变更和规划,越来越多的网站被降权,到处都可以听到“网站又被降权了”、“我的网站被降权怎么办?”、“网站是不是被降权了啊”、“怎么看网站是不是被百度降权了”等等之类的声音,很多站长都已经犹如惊弓之鸟了,看到网站一点变化就觉得网站被降权了。其实很多时候网站正常的波动是会有的,不是所有不利的现象都是降权,网站被百度降权有几个表现,快照回档、排名下降、收录骤减、秒收的文章几小时就被删除、文章收录后直接搜索文章名搜不到等。这几项中任意一项都是降权的现象,但是有这样的现象并不一定就是降权。我们需要结合网站运营过程的历史数据来对是否降权进行初步判断。百度降权表现查询1、网站百度快照问题快照问题其实不是问题。百度并没有说好网站就会快照隔天,差网站就会快照停滞。而且我们也经常看到一个半年前的快照排在好多大站首页前面。快照停滞或回档并不需要大惊小怪。出现快照问题我们首先问一下是否最近有长时间不更新网站的现象、或者是否购买了链接或软文。其实百度快照系统本身也是有问题的。经常看到快照内容更新但快照时间不更新。所以不要太把快照当回事了。2、网站排名下降正常优化的网站,理论上搜索引擎排名应该是持续上升的。但是上升到一定程度可能就会出现徘徊不前甚至倒退。这时不要轻易怀疑自己的优化方法或网站技术问题。先看一下竞争对手的网站,或许是自己网站在文章质量、内链、外链、网站规模方面不如人家,亦或是人家的优化技术更胜一筹呢。所以排名下降并不意味着降权。如果从第一页一下子到了10页之后甚至是搜不到了,这才是降权。3、网站收录骤减收录量反映着一个网站的流量来源。通常情况下,搜索引擎排名一定的网站,收录量越多流量也就越大。手里的网站收录量突然减少我们需要看一下之前有排名的页面是否还存在,如果存在可以初步推断是百度算法调整。如果掉了好多那就可能是降权了。所以这时我们应该分析一下被删除的收录页面是否存在采集、抄袭或工具伪原创现象。百度识别无价值页面是需要一段时间的,对于无价值的页面早晚都会删除。不过如果一下子删除过多页面,对网站还是有一定影响的。当然,如果一个收录数百或的网站一下子收录量变为个位数。如果百度系统不出问题,八成是降权了。4、首页不在第一位site、domain不在第一也要分情况,这个如果新站site或是domain不在第一,也不必太害怕,因为网站刚上线,权重比较低,不在第一也算是正常。但是如果一个老站,之前site和domain都在第一,但是更新以后不在第一了,那么就要引起注意了,一般网站是有问题了,当然也不是一个绝对。但是应该足够引起重视了。site不在第一,关键词排名大量下降百度排名是按照权重来排名的,site出来的权重高的排在了前面,权重低的排在了后面。如果site的首页内页后面那就是说首页的权重还不如内页,那网站一般情况下是被降权了。这个时候要结合核心关键词是不是大幅度的下降,要是没有大幅度的下降的话证明是没有被降权的。要是大幅度的下降了。证明网站已经被降权了!伴随的还有就是不带www的排名好过带www的这样一般是被降权了!5、网站秒收文章搜不到秒收是一种境界,但是收录之后没有排名却是我们很不希望看到的问题。文章被秒收说明网站比较受搜索引擎关注,但是收录没有排名也是一个权重低的表现。新站如此,被降权的网站也如此。如果之前发布的文章有排名,现在被秒收的文章却没有排名,那肯定是降权了。6、网站外链骤减外链骤降这个现象很多站长朋友也经常经历过,碰到搜索引擎更新,网站外链骤降几千甚至几万,这种情况多半是网站外链的质量的问题,当然如果减少几十,几百,那可能是搜索引擎对互联网的信息整合,删掉重复信息,这也不必担心,但是如果外链骤降到正常数量的一半以上,那么就要小心了。总结:网站降权的表现还有很多,但是有表现不一定就是真被降权了,一定要做好数据分析,同时把网站降权的众多表现综合起来判断,并且要知道搜索引擎之前有什么动作,你之前有什么动作。百度降权恢复网站降权一直是站长头疼的事情,降权可大可小,轻则收录变慢、重则直接K站封域名。网站被降权后如何处理呢?很多站长都不知所措。一些人试图用改版来尝试解决降权问题,这是不对的,盲目的操作不仅不会为网站带来权重恢复的希望,甚至更会为网站带来雪上加霜的致命危险,想必不少站长都吃过这样的苦。查询到网站降权的迹象后,不要盲目操作,自乱阵脚。网站降权不要急,冷静分析才是王道,检查降权时间、分析近期操作、查看服务器、了解搜索引擎变化,主动找好网站被降权的原因,对症下药才是解决问题的根本。1、服务器问题导致降权:升级硬件、增加防护除了百度算法变更和百度系统失常之外,一切降权的原因都来自我们网站。所以我们在慌乱之余,先查一下服务器近期是否出现过问题(DDOS攻击、线路不稳定、机房升级),DNS是否出现过故障,再就是网站是否被挂马。服务器和DNS的问题可以通过百度站长平台里的网站异常提醒工具看出。这里面会记录着服务器无法连接或百度蜘蛛无法抓取网站的时间和次数。必要时需要联络服务器提供高或域名注册商进行百度蜘蛛抓取测试,排除服务器屏蔽百度蜘蛛或DNS无法被百度识别情况。2、挂马导致降权:删除恶意代码、修复漏洞、申请删除快照网站被挂马是大多数新手站长最苦恼的问题。挂马不但影响网站权重,还影响网站给客户的形象。明显的挂马会篡改网站标题、网站内容,添加大量垃圾链接,导致网站面目全非。还有一种是隐藏挂马是页面不显示,只显示在源代码里,通常以黑链为主。在绿萝时代,网站被挂黑链是很容易被降权的,不过只要发现的及时,也是可以很快恢复的。还有一种挂马使用了搜索引擎欺骗技术,只针对搜索引擎挂马(黑链),而用户正常浏览以及查看源文件都无法发现黑链链接,只是从快照中可以发现。当然用模拟搜索引擎抓取的工具也可以查看。这种不可见的黑链和可见黑链危害是一样的。都要尽可能早地删除。删除之后,快照却不会立刻删除或更新,这时就需要我们向百度提交删除快照的申请。把原因详细说一下,过一两天就会收到百度的回馈的。3、无价值内容或不相关内容导致降权:减少网站向这种页面的权重导向,使用nofollow进行权重保护内容为王是我们一直强调的课题,无论什么时候搜索引擎都会优先尊重有价值的内容的。所以你的网站要想有好的排名,内容质量一定要过关。这个内容质量,我们要从三个方面来考量:一是可读性、二是原创性、三是篇幅。可读性主要是针对那些用伪原创工具进行的词语替换来说的,一篇不通顺的文章不但能够使搜索引擎理解混乱,同时来自读者的跳出率也会间接反映给搜索引擎使之对此页面扣分。原创不需要多说,搜索引擎喜欢新颖独特的内容,抄袭来的不但增加搜索引擎的负担,还会降低搜索引擎对你网站的兴趣。篇幅是很多站长忽略的问题。一篇文章要想有价值至少要有完整的意思,而几句话的文章说得再好,也是没有竞争力的。所以要想文章有好的排名,必须要保证文章在一屏以上。4、垃圾外链、黑链、被K友链带来的网站降权:拒绝外链、删除友链,同时适当补充同行业的有价值的链接绿萝2.0让的外链行业倒闭了,不但外链权重大打折扣,外链的质量和变化率还直接影响着网站的稳定性。虽然有人铤而走险靠买外链获得了不错的排名,但是把命运交给内容之外的因素本身就是一种冒险。问题出在链接上,我们首先要从链接上入手。多数降权是因为外链不稳定造成的,这包括数量的不稳定和权重的不稳定。买外链很难把握住日增数量(主要指的是被百度收录的外链数量),再加上如果发布外链的平台是站群或同类型的站,很可能被一次性全删除或屏蔽,到时候外链量突然减少不降你的权才怪。除了垃圾外链影响,也要看一下是不是友链的网站被K了,百度友情链接连坐惩罚已经不是一次两次了。就如同法律上包庇罪犯也是犯罪一样。所以友链被降权了赶紧处理一下吧。5、长期不更新、无外链导致的网站降权:更新文章,发外链引蜘蛛搜索引擎喜欢活跃的网站,长期不更新的“死站”对搜索引擎来说是没有什么价值的,除非你网站的内容独一无二,并且没有人能够复制走你的东西。这样的站严格地说不算降权,排名下降是因为被更优秀的网站挤下去了,只要好好更新内容、发外链自然会回到应有的排位的。6、改版换程序造成的网站降权:301重定向、百度站长平台提交对应URL规则,将旧外链和友链尽可能转移到新页面上来改版是网站发展到一定阶段后常有的事,为了扩大受众、突出特色或增加功能,必须进行一些结构或功能方面的调整。而网站大幅度修改容易让搜索引擎突然“不认识你”,所以你需要做的就是让搜索引擎接受你的新面孔,将旧的页面重定向到新页面上来,同时将旧的外链也指向新页面。你网站短暂的降权期很快就会恢复的。7、HTTP响应状态错误导致降权:设置调整为正确的HTTP状态一种是301重定向误用为302重定向,或者使用JS或meta进行重定向跳转。另一种是404错误跳转到首页或返回200状态。搜索引擎承认的可以完善传递权重的重定向是301重定向,其他的重定向不但传递权重效果不好,还容易被判定为作弊,所以一定要保证你要传递权重时使用的是301重定向,这主要用在网站换域名、页面更换路径。而404错误页是用来告诉读者该页面不存在,同时也是告诉搜索引擎此页面不存在,无需要再来抓取信息。如果这时给搜索引擎返回200,说明页面是正常页面,那网站中存在的N个404错误页都成了雷同甚至完全相同的正常页,这会让搜索引擎觉得你网站相似度过高,内容价值过低而降权的。所以,一旦知道这方面的错误一定要第一时间改正。8、页面的重复度过高或大量垃圾转载:规范重复页面,更新高质量内容网站有很多重复的标题或发布了很多内容完全一样或相近的内容,没有删除,并且都被收录了,网站就会受到处罚。很多产品站、企业站,除了图片和产品的一些参数不一样之外,内页的产品页内容基本上是重复的,对这些重复内容,百度会给予很大的处罚,这种情况就是相似度过高,如果很多页面一模一样,就会被处罚,这个时候如果不是必须,我们不要删除这些重复页面,因为大量的删除会造成死链,加大了404的负担,可以把重复的页面直接robots屏蔽掉或是用Canonical标签规范主页面。还有经常性的转载或采集低质量内容是百度现在打击的,如果质量低导致降权就要从内容着手,更新高质量内容。9、残留死链接降权:提交死链,做重定向有些网站在改版中会对URL链接进行调整,甚至删除掉弃之不用的HTML页面。这样的站点,修改URL的页面较少基本不会产生问题,但若涉及到的页面众多,网站必然被降权!修改URL地址后,新的地址会与旧的页面产生内容的重复。删除页面后会出现大量的404错误页,对此的负面影响短时间内无法解决!这个时候我们需要提交网站死链、并且一一重定向到对应网址上。网站降权原因很多,找到原因是关键,快照问题就去查外链和内容质量、数量;收录量就去检查内容质量、数量、内链;网站打不开就是查服务器。然后逐一排查问题,对症下药。找不到降权原因找到了降权原因当然好,但是很多时候降权原因不是那么好找的,那么在找到降权原因之前,我们要怎么做呢?1、对网站进行全面诊断对网站进行全面的诊断,分析网站不利于排名或是严重失误的地方,制定一个整改策略,不要在降权期间一下子就全部改掉,要平稳执行,并且结合后续的操作来实施。2、有规律的更新高质量的内容有规律的更新高质量的内容,更新的内容量可以相对之前减少一点,但是需要是用户需求,搜索引擎需要的高质量内容,切不可大量采集,更新的内容一定要是和网站相关的相关,和网站的主题保持密切相关性,可以挖掘组合一些高质量的长尾关键词来制作标题,然后根据这个长尾关键词来进行原创写作。内容最好不要加锚链接,因为我们不知道被降权的具体原因,如果是锚链接添加不当被降权的,如果再加锚链接就是火上浇油了,页面不要过多的采用优化技术,追求自然最好。3、优化网站源代码大多数的网站都是自己设置的,同时大多数的人也都在想着美观。当然以实现这些非常华丽的页面的同时,也要在一个网站的后台,需要写大量的代码。而在写代码的时候,大家一定要注意,检查网站是否过度使用了H标签,如果H标签过多,适当调整一下。检查网站是否使在Alt标签中堆砌关键词,如果有,建议合理去布置。当一个网站正常的时候也不要随便去更改源代码,保证网站的稳定性。4、停止友情链接交换全面检查现有的友情链接,并停止新交换友情链接,现有友情链接,如果收录明显减少,外链明显减少,site不是第一,友情链接类型不相关,降权前期刚交换的友情链接都应该去掉。这里强调一下友情链接要注意“友情”两字,去掉链接的时候,要通知对方,去掉链接的原因。当对方的权重恢复了,可以再次合作,因此一定要注意尊重他人,才能被他人尊重的道理。但是如果可以确定不是友情链接导致降权,那么我们就可以适当的来换友链,增加外部推荐,缩短降权恢复时间。5、有规律的做高质量的外链网站被降权后,外链建设格外小心,外链建设一定要有规律,避免大起大落的情况发生,这个关键时刻经不起大风大浪,做外链也要注意相关性,要注意外链的质量和外链的广泛度。当然外链越广越好,外链要自然,避免首页外链过多,而内页的链接却不做,做到首页和内页的外链平衡。建议,网站被降权后,适当减少外链每天的数量,重点是外链的质量。6、其他方面的注意事项网站被降权后,尽量不要改变关键词的密度,关键词的位置,网站的结构,尽量不要更改正常的代码,把波动降到最低。这个阶段服务器也一定要稳定,是讨好百度的阶段。写在最后如果网站被降权了,首先找降权的原因,能发现问题解决问题是最好的方法。如果找不到具体降权原因,木木seo觉得有规律更新高质量原创内容,有规律外链建设,减少网站波动是最有效的方法。如果以上问题都注意了,百度还是没收录,最后一招就是改首页TITLE,几个月之后还没用就建议改版换站了。百度现在注重的是平稳性、自然度、用户体验度。恢复的过程就是一个讨好搜索引擎的过程,因此网站被降权后,最好不要过多的采用优化技术。朴实无华,追求自然,满足客户需要的高质量原创文章和高质量外链是最好的恢复手段。网站结构问题、源代码问题、友情链接如果没问题或一直就没有更改过的就不要去更改了,降权的时候要尽量减少网站的波动。比如,网站检查出有iframe框架,大量用了H标签,alt中堆砌了关键词的情况,如果早就有了,你不需要这个时候去更改,因为这些问题早就有了,一般不会是你这次降权的原因,但是如果你网站降权的这段时间刚好搜索引擎正在排查的就是这些问题,那么毫无疑问,你必须要改了。另外,如果长时间不能恢复,那么这些诊断出来问题以及不利于优化和用户体验的地方就需要全部改掉了,给搜索引擎一个新面貌,重新来过。
改正后要多久恢复正常?
这要取决于管理员审核了,一般需要一周或一个月时间才能收录,同时要确保网站拥有一定的内容,最好是原创的,因为百度的算法这几年有了很大调整,比较看重网站质量,有的网站一周就被收录了,但三个月后又不收录,这都是因为网站的质量所决定的。如果不行的话可以考虑调整一下您网站的内容重心。望采纳!
如何设置网站关键词,进行网站优化有哪些方法?
网站的seo优化分很多方面,从域名的选取到空间的选择,再到符合seo的网站设计等是一个系统的工程。一、选择好网站空间和域名 ,选择好的域名是必须的,应选择简短易记的域名,当然这样的域名可能很难找寻了,如果没有合适的域名也要避免不要试用下划线和过长的域名这会影响网站的收录和客户的记忆,对于SEO而言,最基本也是最关键的一个重要因素,就是空间的正常与否。然而即使很多的活生生的例子也无法让站长重视起网站的空间,很多站长认为自己的网站才起步,空间只要凑合着能用就行了。其实我不赞同,尤其是你想这个网站能长期运营的时候,选择一个好的空间是非常有必要的。从哪些方面来判断呢?现在很多的站长都分享过此类的文章,其一稳定性,三天两头打不开的及时换掉。其二IIS数,这个非常重要,IIS数越大越好,这样才能同时支持的用户同时访问而不会出现问题。其三带宽,同时越大越好,独享比共享的好。其四安全性,笔者用过星外的系统感觉还不错,防火墙比较牛。其四独立性,用独立服务器建新站效果比虚拟主机要好得多。其实不管是新站还是老站,选择一个好的网站空间绝对不能马虎的,要么你就不要做,要做就做好。一个好的空间对于新站做SEO优化其利弊只要你体验一下就知道了。 二、精简网站代码 如果你的网站程序源码是网络上下载的,那么存在大量的冗余代码并不是什么奇怪的事,比如说一些多余的空格、回车、重复的DIV标签、JS调用代码等等,这些都会影响到你后期的SEO优化操作。特别是对于新站而言,在上线之前首先必须的要进行一次网站代码的精简,不管是自己写的代码还是下载下来的代码,全都要检查一次,可以使用DW来检查和清理,这个程序只要会用的话,对于精简代码是非常有效的。一些该合并的标签就合并了,一些该删除的标签代码就删除了,冗余代码中最常见的就是空格符和回车符这两种,相信每套在网络上下载的程序都会带有这样的垃圾代码。精简代码有利于提高页面的打开速度,对于后期的SEO优化操作非常有帮助。 三、选择关键词 据笔者发现,很多的站长打算建立一个新站之前,首先想的不是要先找关键词,而是先想着怎么上线,关键词等到网站上线正常之后,才慢慢的通过百度指数、下拉框、相关搜索及关键词查询工具进行寻找挑选。其实对于标准的新站SEO操作而言,这是一种大忌。尤其是现在搜索引挚普遍对新站都是非常照顾的,一个合法的新站只要上线一两天,基本上都可以被收录了,特别是使用老域名来建新站的,上线当天就被收录是很容易的。但是如果你的网站上线被收录之后才来寻找选择关键词的话,那样子为了优化肯定会改标题,然而收录之后再改标题、关键词标签、描述标签和布局关键词,自然就会与先前被搜索引挚收录的页面产生差别,从而被删除或者快照停滞在收录前也是很正常的。笔者建议站长让新站上线之前,首先需要挑选好关键词,并且该在哪里放什么关键词,哪个关键词放到哪里比较合适都需要一一做好做到位,千万不要等到上线被收录之后再进行挑选关键词或者更改这里那里的,那是非常严重的优化错误,很容易让新站陷入一个快照不能更新的怪圈。 四、设定好相关细节设置 新站做SEO优化,其中肯定离不开一些基本的标签设置工作了,前面咱们说了关键词这一块的,然而除了关键词这一块还有很多需要认真处理的相关细节。一般的网站操作SEO优化,其中必定需要处理的有:一301重定向,必须先确定自己的首选域是带WWW还是不带WWW的,把副域名设置301重定向到主域名上。二设置404页面,为了屏弊无效链接或者用户输入错误的页面网址而准备的。三设置ROBOTS文,告诉蜘蛛哪些能抓吧些不能抓。四建立网站地图。引导蜘蛛充分爬行抓取网站页面。五设置标题。六设置相关的H标签和STRONG标签。七合并JS代码,减少JS代码溢出。八给图片设置自动增加ALT标签。在新站上线做SEO优化之前,这些相关的细节设置都要做好的,这样对于上线进行SEO优化操作才能更轻松,同进更利于快速获取收录速度。 五、收集外链资源 不管是哪种类型的网站,要进行SEO优化,肯定离不开外链建设这一环。网络上没有一个做SEO优化的站点是不进行外链建设的。同样的对于新站上线做SEO优化而言,首先并不是上线之后等着收录获取排名就行了,个中的准备功夫必须做到位,而对SEO优化效果影响非常重要的一环外链建设时,首先需要先收集一些可用的外链资源,这是为了给新站上线进行SEO优化时所需的外链建设做准备。咱们可以根据一些前辈们留下的经验来收集外链资源,比如先查看对手的外链来源,分析其外链哪些有质量有哪些可以略过,把有质量的用EXCEL整理记录下来,然后再通过搜索引挚常用命令如inurl,domain等命令来进行外链资源的收集。其实很多新站上线之后,由于自己不知道去哪里做外链,使得有时候收录的速度很慢,或者是做的外链都是属于垃圾外链,所以,收集外链资源对于一个新站进行SEO优化操作可想而知是有多重要的一项准备工作了。 不管是做新站还是老站的SEO优化,笔者认为只有把准备工作做到位了,才能使自己实施起来更轻松。要不然像很多的站长今天在这里发了一天的外链,明天还是一样在这里发,因为他不知道自己该去哪里,只能继续待在这里了。手上没有一份量大的外链资源是很难在刹时间找到有质量的外链发布平台的。因此,新站上线做SEO优化操作之前的准备工作做得好与不好,到不到位可想而知是有多重要的了。
如何设置网站关键词,进行网站优化有哪些方法?
网站的seo优化分很多方面,从域名的选取到空间的选择,再到符合seo的网站设计等是一个系统的工程。一、选择好网站空间和域名 ,选择好的域名是必须的,应选择简短易记的域名,当然这样的域名可能很难找寻了,如果没有合适的域名也要避免不要试用下划线和过长的域名这会影响网站的收录和客户的记忆,对于SEO而言,最基本也是最关键的一个重要因素,就是空间的正常与否。然而即使很多的活生生的例子也无法让站长重视起网站的空间,很多站长认为自己的网站才起步,空间只要凑合着能用就行了。其实我不赞同,尤其是你想这个网站能长期运营的时候,选择一个好的空间是非常有必要的。从哪些方面来判断呢?现在很多的站长都分享过此类的文章,其一稳定性,三天两头打不开的及时换掉。其二IIS数,这个非常重要,IIS数越大越好,这样才能同时支持的用户同时访问而不会出现问题。其三带宽,同时越大越好,独享比共享的好。其四安全性,笔者用过星外的系统感觉还不错,防火墙比较牛。其四独立性,用独立服务器建新站效果比虚拟主机要好得多。其实不管是新站还是老站,选择一个好的网站空间绝对不能马虎的,要么你就不要做,要做就做好。一个好的空间对于新站做SEO优化其利弊只要你体验一下就知道了。 二、精简网站代码 如果你的网站程序源码是网络上下载的,那么存在大量的冗余代码并不是什么奇怪的事,比如说一些多余的空格、回车、重复的DIV标签、JS调用代码等等,这些都会影响到你后期的SEO优化操作。特别是对于新站而言,在上线之前首先必须的要进行一次网站代码的精简,不管是自己写的代码还是下载下来的代码,全都要检查一次,可以使用DW来检查和清理,这个程序只要会用的话,对于精简代码是非常有效的。一些该合并的标签就合并了,一些该删除的标签代码就删除了,冗余代码中最常见的就是空格符和回车符这两种,相信每套在网络上下载的程序都会带有这样的垃圾代码。精简代码有利于提高页面的打开速度,对于后期的SEO优化操作非常有帮助。 三、选择关键词 据笔者发现,很多的站长打算建立一个新站之前,首先想的不是要先找关键词,而是先想着怎么上线,关键词等到网站上线正常之后,才慢慢的通过百度指数、下拉框、相关搜索及关键词查询工具进行寻找挑选。其实对于标准的新站SEO操作而言,这是一种大忌。尤其是现在搜索引挚普遍对新站都是非常照顾的,一个合法的新站只要上线一两天,基本上都可以被收录了,特别是使用老域名来建新站的,上线当天就被收录是很容易的。但是如果你的网站上线被收录之后才来寻找选择关键词的话,那样子为了优化肯定会改标题,然而收录之后再改标题、关键词标签、描述标签和布局关键词,自然就会与先前被搜索引挚收录的页面产生差别,从而被删除或者快照停滞在收录前也是很正常的。笔者建议站长让新站上线之前,首先需要挑选好关键词,并且该在哪里放什么关键词,哪个关键词放到哪里比较合适都需要一一做好做到位,千万不要等到上线被收录之后再进行挑选关键词或者更改这里那里的,那是非常严重的优化错误,很容易让新站陷入一个快照不能更新的怪圈。 四、设定好相关细节设置 新站做SEO优化,其中肯定离不开一些基本的标签设置工作了,前面咱们说了关键词这一块的,然而除了关键词这一块还有很多需要认真处理的相关细节。一般的网站操作SEO优化,其中必定需要处理的有:一301重定向,必须先确定自己的首选域是带WWW还是不带WWW的,把副域名设置301重定向到主域名上。二设置404页面,为了屏弊无效链接或者用户输入错误的页面网址而准备的。三设置ROBOTS文,告诉蜘蛛哪些能抓吧些不能抓。四建立网站地图。引导蜘蛛充分爬行抓取网站页面。五设置标题。六设置相关的H标签和STRONG标签。七合并JS代码,减少JS代码溢出。八给图片设置自动增加ALT标签。在新站上线做SEO优化之前,这些相关的细节设置都要做好的,这样对于上线进行SEO优化操作才能更轻松,同进更利于快速获取收录速度。 五、收集外链资源 不管是哪种类型的网站,要进行SEO优化,肯定离不开外链建设这一环。网络上没有一个做SEO优化的站点是不进行外链建设的。同样的对于新站上线做SEO优化而言,首先并不是上线之后等着收录获取排名就行了,个中的准备功夫必须做到位,而对SEO优化效果影响非常重要的一环外链建设时,首先需要先收集一些可用的外链资源,这是为了给新站上线进行SEO优化时所需的外链建设做准备。咱们可以根据一些前辈们留下的经验来收集外链资源,比如先查看对手的外链来源,分析其外链哪些有质量有哪些可以略过,把有质量的用EXCEL整理记录下来,然后再通过搜索引挚常用命令如inurl,domain等命令来进行外链资源的收集。其实很多新站上线之后,由于自己不知道去哪里做外链,使得有时候收录的速度很慢,或者是做的外链都是属于垃圾外链,所以,收集外链资源对于一个新站进行SEO优化操作可想而知是有多重要的一项准备工作了。 不管是做新站还是老站的SEO优化,笔者认为只有把准备工作做到位了,才能使自己实施起来更轻松。要不然像很多的站长今天在这里发了一天的外链,明天还是一样在这里发,因为他不知道自己该去哪里,只能继续待在这里了。手上没有一份量大的外链资源是很难在刹时间找到有质量的外链发布平台的。因此,新站上线做SEO优化操作之前的准备工作做得好与不好,到不到位可想而知是有多重要的了。
网站性能优化怎么办
一、前端优化网站性能优化是一个很综合的话题,涉及到服务器的配置和网站前后端程序等各个方面,我只是从实际经历出发,分享一下自己所尝试过的网站性能优化方法。之所以在标题上挂一个web2.0,是因为本文更偏重于中小网站的性能优化,我所使用的系统也是典型web2.0的LAMP架构。首先讲讲前端的优化,用户访问网页的等待时间,有80%是发生在浏览器前端,特别是页面和页面中各种元素(图片、CSS、Javascript、 flash…)的下载之上。因此在很多情况下,相对于把大量的时间花在艰苦而繁杂的程序改进上,前端的优化往往能起到事半功倍的作用。雅虎最近将内部使用的性能测试工具yslow向第三方公开,并发布了著名的网站性能优化的十三条规则,建议你下载并安装yslow,并作为测评网站优化效果的工具。下面我挑其中特别有价值的具体说明一下优化的方法:对于第一次访问您网站,尚未在浏览器cache中缓存您网站内容的用户,我们可以做的事情包括:1)减少一个页面访问所产生的http连接次数对于第一次访问你网站的用户,页面所产生的http连接次数是影响性能的一个关键瓶颈。对策:- 尽量简洁的页面设计,最大程度减少图片的使用,通过放弃一些不必要的页面特效来减少javascript的使用。- 使用一些优化技巧,比如利用图片的背景位移减少图片的个数;image map技术;使用Inline images将css图片捆绑到网页中。- 尽量合并js和css文件,减少独立文件个数。2) 使用gzip压缩网页内容使用gzip来压缩网页中的静态内容,能够显著减少用户访问网页时的等待时间(据说可达到60%)。主流的web服务器都支持或提供gzip压缩,如果使用apache服务器,只需要在配置文件中开启 mod_gzip(apache1.x)或mod_deflate(apache2.x)即可。凡是静态的页面,使用gzip压缩都能够显著提高服务器效率并减少带宽支出,注意图片内容本身已经是压缩格式了,务必不要再进行压缩。3)将CSS放在页面顶端,JS文件放在页面底端CSS的引用要放在html的头部header中,JS文件引用尽量放在页面底端标签的后面,主要的思路是让核心的页面内容尽早显示出来。不过要注意,一些大量使用js的页面,可能有一些js文件放在底端会引起一些难以预料的问题,根据实际情况适当运用即可。4)使JS文件内容最小化具体来说就是使用一些javascript压缩工具对js脚本进行压缩,去除其中的空白字符、注释,最小化变量名等。在使用gzip压缩的基础上,对js内容的压缩能够将性能再提高5%。5)尽量减少外部脚本的使用,减少DNS查询时间不要在网页中引用太多的外部脚本,首先,一次dns的解析过程会消耗20-120毫秒的时间;其次,如果在页面中引用太多的外部文件(如各种广告、联盟等代码),可能会因为外部文件的响应速度而将你的网站拖得很慢。如果不得不用,那么就尽量将这些脚本放在页脚吧。不过有一点需要提及,就是浏览器一般只能并行处理同一域名下的两个请求,而对于不同子的域名则不受此限制,因此适当将本站静态内容(css,js)放在其他的子域名下(如 static.xxx.com)会有利于提高浏览器并行下载网页内容的能力。对于您网站的经常性访问用户,主要的优化思路就是最大限度利用用户浏览器的cache来减少服务器的开销。1)在header中添加过期时间(Expires Header)在header中给静态内容添加一个较长的过期时间,这样可以使用户今后访问只读取缓存中的文件,而不会与服务器产生任何的交互。不过这样做也存在一些问题,当图片、CSS和js文件更新时,用户如果不刷新浏览器,就无法获得此更新。这样,我们在对图片、css和js文件修改时,必须要进行重命名,才能保证用户访问到最新的内容。这可能会给开发造成不小的麻烦,因为这些文件可能被站点中的许多文件所引用。flickr提出的解决办法是通过url rewrite使不同版本号的URL事实上指向同一个文件,这是一个聪明的办法,因为url级别的操作效率是很高的,可以给开发过程提供不少便利。要理解为什么这样做,必须要了解浏览器访问url时的工作机制:a. 第一次访问url时,用户从服务器段获取页面内容,并把相关的文件(images,css,js…)放在高速缓存中,也会把文件头中的expired time,last modified, ETags等相关信息也一同保留下来。b. 用户重复访问url时,浏览器首先看高速缓存中是否有本站同名的文件,如果有,则检查文件的过期时间;如果尚未过期,则直接从缓存中读取文件,不再访问服务器。c. 如果缓存中文件的过期时间不存在或已超出,则浏览器会访问服务器获取文件的头信息,检查last modifed和ETags等信息,如果发现本地缓存中的文件在上次访问后没被修改,则使用本地缓存中的文件;如果修改过,则从服务器上获取最新版本。我的经验,如果可能,尽量遵循此原则给静态文件添加过期时间,这样可以大幅度减少用户对服务器资源的重复访问。2)将css和js文件放在独立外部文件中引用将css和js文件放在独立文件中,这样它们会被单独缓存起来,在访问其他页面时可以从浏览器的高速缓存中直接读取。一些网站的首页可能是例外的,这些首页的自身浏览可能并不大,但却是用户访问网站的第一印象以及导向到其他页面的起点,也可能这些页面本身使用了大量的ajax局部刷新及技术,这时可以将 css和js文件直接写在页面中。3)去掉重复的脚本在IE中,包含重复的js脚本会导致浏览器的缓存不被使用,仔细检查一下你的程序,去掉重复引用的脚本应该不是一件很难的事情。4)避免重定向的发生除了在header中人为的重定向之外,网页重定向常在不经意间发生,被重定向的内容将不会使用浏览器的缓存。比如用户在访问www.xxx.com,服务器会通过301转向到www.xxx.com/,在后面加了一个“/”。如果服务器的配置不好,这也会给服务器带来额外的负担。通过配置apache的 alias或使用mod_rewrite模块等方法,可以避免不必要的重定向。还有一些,比如使用CDN分发机制、避免CSS表达式等、避免使用ETags等,因为不太常用,这里就不再赘述了。做完了上述的优化,可以试着用yslow测试一下网页的性能评分,一般都可以达到70分以上了。当然,除了浏览器前端和静态内容的优化之外,还有针对程序脚本、服务器、数据库、负载的优化,这些更深层次的优化方法对技术有更高的要求。本文的后半部分将重点探讨后端的优化。二、后端优化上次写完web2.0网站前端优化篇之后,一直想写写后端优化的方法,今天终于有时间将思路整理了出来。前端优化可以避免我们造成无谓的服务器和带宽资源浪费,但随着网站访问量的增加,仅靠前端优化已经不能解决所有问题了,后端软件处理并行请求的能力、程序运 行的效率、硬件性能以及系统的可扩展性,将成为影响网站性能和稳定的关键瓶颈所在。优化系统和程序的性能可以从以下的方面来入手:1)apache、mysql等软件的配置的优化尽管apache和mysql等软件在安装后使用的默认设置足以使你的网站运行起来,但是通过调整mysql和apache的一些系统参数,还是可以追求更高的效率和稳定性。这个领域中有很多专业的文章和论坛(比如: http://www.mysqlperformanceblog.com/),要想掌握也需要进行深入的研究和实践,这里就不重点讨论了。2)应用程序环境加速这里仅以我最常应用的php开发环境为例,有一些工具软件可以通过优化PHP运行环境来达到提速的目的,其基本原理大致是将PHP代码预编译并缓存起来,而不需要改变任何代码,所以比较简单,可以将php的运行效率提升50%以上。比较常用的免费php加速工具有:APC( http: //pecl.php.net/package-info.php?package=APC)、Turck MMCache( http://turck-mmcache.sourceforge.net)、php accelebrator(www.php-accelerator.co.uk),还有收费的Zend Performance Suite3)将静态内容和动态内容分开处理apache是一个功能完善但比较庞大的web server,它的资源占用基本上和同时运行的进程数呈正比,对服务器内存的消耗比较大,处理并行任务的效率也一般。在一些情况下,我们可以用比较轻量级的web server来host静态的图片、样式表和javascript文件,这样可以大大提升静态文件的处理速度,还可以减少对内存占用。我使用的web server是来自俄罗斯的nginx,其他选择方案还包括lighttpd和thttpd等。4)基于反向代理的前端访问负载均衡当一台前端服务器不足以应付用户访问时,通过前端机实现web访问的负载均衡是最快速可行的方案。通过apache的mod_proxy可以实现基于反向代理的负载均衡,这里推荐使用nginx做代理服务器,处理速度较apache更快一些。5)应用缓存技术提高数据库效能,文件缓存和分布式缓存数据库访问处理并发访问的能力是很多网站应用的关键瓶颈,在想到使用主从结构和多farm的方式构建服务器集群之前,首先应该确保充分使用了数据库查询的缓存。一些数据库类型(如mysql的innoDB)自身内置对缓存的支持,此外,还可以利用程序方法将常用的查询通过文件或内存缓存起来。比如通过 php中的ob_start和文件读写函数可以很方便的实现文件形式的缓存,而如果你拥有多台服务器,可以通过memcache技术通过分布式共享内存来对数据库查询进行缓存,不仅效率高而且扩展性好,memcache技术在livejournal和Craigslist.org等知名网站应用中都得到了检验。6)服务器运行状态的检测,找到影响性能的瓶颈所在系统优化没有一劳永逸的方法,需要通过检测服务器的运行状态来及时发现影响性能的瓶颈,以及可能存在的潜在问题,因为网站的性能,永远取决于木桶中的短板。可以编写一些脚本来检测web服务的运行,也有一些开源的软件也提供了很好的功能7)良好的扩展架构是稳定和性能的基础一些技巧和窍门可以帮你度过眼前的难关,但要想使网站具备应付大规模访问的能力,则需要从系统架构上进行彻底的规划,好在很多前人无私的把他们架构网站的经验分享给我们,使我们可以少走甚多弯路。我最近读到的两篇有启发的文章:- 从LiveJournal后台发展看大规模网站性能优化方法 - Myspace的六次重构最后不得不提到程序编码和数据库结构对性能的影响,一系列糟糕的循环语句,一个不合理的查询语句、一张设计不佳的数据表或索引表,都足以会使应用程序运行的速度成倍的降低。培养全局思考的能力,养成良好的编程习惯,并对数据库运行机制有所了解,是提高编程质量的基础。
网站性能优化怎么办
一、前端优化网站性能优化是一个很综合的话题,涉及到服务器的配置和网站前后端程序等各个方面,我只是从实际经历出发,分享一下自己所尝试过的网站性能优化方法。之所以在标题上挂一个web2.0,是因为本文更偏重于中小网站的性能优化,我所使用的系统也是典型web2.0的LAMP架构。首先讲讲前端的优化,用户访问网页的等待时间,有80%是发生在浏览器前端,特别是页面和页面中各种元素(图片、CSS、Javascript、 flash…)的下载之上。因此在很多情况下,相对于把大量的时间花在艰苦而繁杂的程序改进上,前端的优化往往能起到事半功倍的作用。雅虎最近将内部使用的性能测试工具yslow向第三方公开,并发布了著名的网站性能优化的十三条规则,建议你下载并安装yslow,并作为测评网站优化效果的工具。下面我挑其中特别有价值的具体说明一下优化的方法:对于第一次访问您网站,尚未在浏览器cache中缓存您网站内容的用户,我们可以做的事情包括:1)减少一个页面访问所产生的http连接次数对于第一次访问你网站的用户,页面所产生的http连接次数是影响性能的一个关键瓶颈。对策:- 尽量简洁的页面设计,最大程度减少图片的使用,通过放弃一些不必要的页面特效来减少javascript的使用。- 使用一些优化技巧,比如利用图片的背景位移减少图片的个数;image map技术;使用Inline images将css图片捆绑到网页中。- 尽量合并js和css文件,减少独立文件个数。2) 使用gzip压缩网页内容使用gzip来压缩网页中的静态内容,能够显著减少用户访问网页时的等待时间(据说可达到60%)。主流的web服务器都支持或提供gzip压缩,如果使用apache服务器,只需要在配置文件中开启 mod_gzip(apache1.x)或mod_deflate(apache2.x)即可。凡是静态的页面,使用gzip压缩都能够显著提高服务器效率并减少带宽支出,注意图片内容本身已经是压缩格式了,务必不要再进行压缩。3)将CSS放在页面顶端,JS文件放在页面底端CSS的引用要放在html的头部header中,JS文件引用尽量放在页面底端标签的后面,主要的思路是让核心的页面内容尽早显示出来。不过要注意,一些大量使用js的页面,可能有一些js文件放在底端会引起一些难以预料的问题,根据实际情况适当运用即可。4)使JS文件内容最小化具体来说就是使用一些javascript压缩工具对js脚本进行压缩,去除其中的空白字符、注释,最小化变量名等。在使用gzip压缩的基础上,对js内容的压缩能够将性能再提高5%。5)尽量减少外部脚本的使用,减少DNS查询时间不要在网页中引用太多的外部脚本,首先,一次dns的解析过程会消耗20-120毫秒的时间;其次,如果在页面中引用太多的外部文件(如各种广告、联盟等代码),可能会因为外部文件的响应速度而将你的网站拖得很慢。如果不得不用,那么就尽量将这些脚本放在页脚吧。不过有一点需要提及,就是浏览器一般只能并行处理同一域名下的两个请求,而对于不同子的域名则不受此限制,因此适当将本站静态内容(css,js)放在其他的子域名下(如 static.xxx.com)会有利于提高浏览器并行下载网页内容的能力。对于您网站的经常性访问用户,主要的优化思路就是最大限度利用用户浏览器的cache来减少服务器的开销。1)在header中添加过期时间(Expires Header)在header中给静态内容添加一个较长的过期时间,这样可以使用户今后访问只读取缓存中的文件,而不会与服务器产生任何的交互。不过这样做也存在一些问题,当图片、CSS和js文件更新时,用户如果不刷新浏览器,就无法获得此更新。这样,我们在对图片、css和js文件修改时,必须要进行重命名,才能保证用户访问到最新的内容。这可能会给开发造成不小的麻烦,因为这些文件可能被站点中的许多文件所引用。flickr提出的解决办法是通过url rewrite使不同版本号的URL事实上指向同一个文件,这是一个聪明的办法,因为url级别的操作效率是很高的,可以给开发过程提供不少便利。要理解为什么这样做,必须要了解浏览器访问url时的工作机制:a. 第一次访问url时,用户从服务器段获取页面内容,并把相关的文件(images,css,js…)放在高速缓存中,也会把文件头中的expired time,last modified, ETags等相关信息也一同保留下来。b. 用户重复访问url时,浏览器首先看高速缓存中是否有本站同名的文件,如果有,则检查文件的过期时间;如果尚未过期,则直接从缓存中读取文件,不再访问服务器。c. 如果缓存中文件的过期时间不存在或已超出,则浏览器会访问服务器获取文件的头信息,检查last modifed和ETags等信息,如果发现本地缓存中的文件在上次访问后没被修改,则使用本地缓存中的文件;如果修改过,则从服务器上获取最新版本。我的经验,如果可能,尽量遵循此原则给静态文件添加过期时间,这样可以大幅度减少用户对服务器资源的重复访问。2)将css和js文件放在独立外部文件中引用将css和js文件放在独立文件中,这样它们会被单独缓存起来,在访问其他页面时可以从浏览器的高速缓存中直接读取。一些网站的首页可能是例外的,这些首页的自身浏览可能并不大,但却是用户访问网站的第一印象以及导向到其他页面的起点,也可能这些页面本身使用了大量的ajax局部刷新及技术,这时可以将 css和js文件直接写在页面中。3)去掉重复的脚本在IE中,包含重复的js脚本会导致浏览器的缓存不被使用,仔细检查一下你的程序,去掉重复引用的脚本应该不是一件很难的事情。4)避免重定向的发生除了在header中人为的重定向之外,网页重定向常在不经意间发生,被重定向的内容将不会使用浏览器的缓存。比如用户在访问www.xxx.com,服务器会通过301转向到www.xxx.com/,在后面加了一个“/”。如果服务器的配置不好,这也会给服务器带来额外的负担。通过配置apache的 alias或使用mod_rewrite模块等方法,可以避免不必要的重定向。还有一些,比如使用CDN分发机制、避免CSS表达式等、避免使用ETags等,因为不太常用,这里就不再赘述了。做完了上述的优化,可以试着用yslow测试一下网页的性能评分,一般都可以达到70分以上了。当然,除了浏览器前端和静态内容的优化之外,还有针对程序脚本、服务器、数据库、负载的优化,这些更深层次的优化方法对技术有更高的要求。本文的后半部分将重点探讨后端的优化。二、后端优化上次写完web2.0网站前端优化篇之后,一直想写写后端优化的方法,今天终于有时间将思路整理了出来。前端优化可以避免我们造成无谓的服务器和带宽资源浪费,但随着网站访问量的增加,仅靠前端优化已经不能解决所有问题了,后端软件处理并行请求的能力、程序运 行的效率、硬件性能以及系统的可扩展性,将成为影响网站性能和稳定的关键瓶颈所在。优化系统和程序的性能可以从以下的方面来入手:1)apache、mysql等软件的配置的优化尽管apache和mysql等软件在安装后使用的默认设置足以使你的网站运行起来,但是通过调整mysql和apache的一些系统参数,还是可以追求更高的效率和稳定性。这个领域中有很多专业的文章和论坛(比如: http://www.mysqlperformanceblog.com/),要想掌握也需要进行深入的研究和实践,这里就不重点讨论了。2)应用程序环境加速这里仅以我最常应用的php开发环境为例,有一些工具软件可以通过优化PHP运行环境来达到提速的目的,其基本原理大致是将PHP代码预编译并缓存起来,而不需要改变任何代码,所以比较简单,可以将php的运行效率提升50%以上。比较常用的免费php加速工具有:APC( http: //pecl.php.net/package-info.php?package=APC)、Turck MMCache( http://turck-mmcache.sourceforge.net)、php accelebrator(www.php-accelerator.co.uk),还有收费的Zend Performance Suite3)将静态内容和动态内容分开处理apache是一个功能完善但比较庞大的web server,它的资源占用基本上和同时运行的进程数呈正比,对服务器内存的消耗比较大,处理并行任务的效率也一般。在一些情况下,我们可以用比较轻量级的web server来host静态的图片、样式表和javascript文件,这样可以大大提升静态文件的处理速度,还可以减少对内存占用。我使用的web server是来自俄罗斯的nginx,其他选择方案还包括lighttpd和thttpd等。4)基于反向代理的前端访问负载均衡当一台前端服务器不足以应付用户访问时,通过前端机实现web访问的负载均衡是最快速可行的方案。通过apache的mod_proxy可以实现基于反向代理的负载均衡,这里推荐使用nginx做代理服务器,处理速度较apache更快一些。5)应用缓存技术提高数据库效能,文件缓存和分布式缓存数据库访问处理并发访问的能力是很多网站应用的关键瓶颈,在想到使用主从结构和多farm的方式构建服务器集群之前,首先应该确保充分使用了数据库查询的缓存。一些数据库类型(如mysql的innoDB)自身内置对缓存的支持,此外,还可以利用程序方法将常用的查询通过文件或内存缓存起来。比如通过 php中的ob_start和文件读写函数可以很方便的实现文件形式的缓存,而如果你拥有多台服务器,可以通过memcache技术通过分布式共享内存来对数据库查询进行缓存,不仅效率高而且扩展性好,memcache技术在livejournal和Craigslist.org等知名网站应用中都得到了检验。6)服务器运行状态的检测,找到影响性能的瓶颈所在系统优化没有一劳永逸的方法,需要通过检测服务器的运行状态来及时发现影响性能的瓶颈,以及可能存在的潜在问题,因为网站的性能,永远取决于木桶中的短板。可以编写一些脚本来检测web服务的运行,也有一些开源的软件也提供了很好的功能7)良好的扩展架构是稳定和性能的基础一些技巧和窍门可以帮你度过眼前的难关,但要想使网站具备应付大规模访问的能力,则需要从系统架构上进行彻底的规划,好在很多前人无私的把他们架构网站的经验分享给我们,使我们可以少走甚多弯路。我最近读到的两篇有启发的文章:- 从LiveJournal后台发展看大规模网站性能优化方法 - Myspace的六次重构最后不得不提到程序编码和数据库结构对性能的影响,一系列糟糕的循环语句,一个不合理的查询语句、一张设计不佳的数据表或索引表,都足以会使应用程序运行的速度成倍的降低。培养全局思考的能力,养成良好的编程习惯,并对数据库运行机制有所了解,是提高编程质量的基础。
SEO需要学会做网站吗?谈SEO和代码的关系
很多人觉得难、会放弃,外加自己学到点三脚猫SEO功夫弄点文字+外链就做排名了,每天重复干着苦逼的事情。时间久了就彻底对SEO不信任了。
回到正题,我们来说说SEO与代码之间的关系。 SEO和代码的关系:
从广义上来讲SEO是属于推广网站,编程开发做网站属于建站。两者表面上看不相关,目前针对中小型网站的网站运营模式也不相关。因为大多数企业的网站找建站公司建设完成过后就交给聘请的SEO人员进行管理了。而很多SEO人员只会点SEO基础,写点文章发发外链,当一个超级编辑。其实SEO会贯穿整个网站建设+运营的过程,从网站打算建站到后续的网络营销推广,SEO都需要参与其中负责一块。那么从建站方面来说SEO会负责什么呢?1.HTML的代码优化。 2.链接布局 3.网站布局 4.URL布局 5.相关技术 等等,只有这些和建站开发人员很好的沟通,做错来的网站才可能是营销型的经典网站。
以上建站过程中需要SEO参与讨论的问题其实都是建站开发程序员该考虑到的问题,如果中国的程序员在建站过程中一切按照W3C去写HTML 与CSS,那么HTML 代码上面SEO参与的相对来说算是比较少的。但是可悲的是,中国程序员很少严格按照规范去做的。所以建站开发过程很多需要SEO去参与并集合SEO需要优化的地方给予优化。
想必很多朋友都遇到过这样的网站,浏览器访问可以看见网站内容很丰富,但是一看百度快照只有框架,没有任何文字。这种就是开发程序员乱用技术(AJAX)的后果,虽然从技术上考虑这样没的问题。但是从优化和该技术实现的最终目的来看,这是程序员自己不按照规范处理的问题。
而对于一个程序员来说,他们要研究的是技术而并非网站运营问题。大公司技术部门和推光营销部门分工明细,各种环节都有人监控并把握。对于小公司来说或许就一个推广部门,或许就一个不懂SEO推广的技术与一个苦逼SEO。
我们可以想想如果你不懂代码优化、不懂HTML ,只知道写文章发外链。时间长了百度依然没有收录,这时候你就会很迷茫。连个收录都没的或者收录甚少,会严重打击你的积极性。可能这些问题就是因为程序员开发不当乱用技术造成的,而你如果不懂技术,你要做的就是遇到一个牛逼的程序员。要不然你就得懂,并指导他操作。并不要求你去处理技术上的东西。 SEO需要自己会做网站吗?
做SEO并不是一定要自己会做网站,原因很简单,SEO操作的仅仅的了解什么技术不能干什么?如 目前重要信息不能放在FALSH、JS、iFROM 、AJAX里面。并不是喊你去学会做FASLH。网站建站和SEO名义上没什么关联。SEO涉及到的只有用哪个技术问题完成什么功能和HTML问题。其他优化问题其实应该说是程序员自身该考虑的问题,而并非SEO需要协助程序员完成的。如:代码执行效率、代码安全、易于维护等等。
SEO不需要会用高级代码语言建站。如PHP、C#.NET、ASP、Java等等。但是你得了解整个网站构成和各种语言的简介,以及会下载开源程序如织梦快速完成一个平台的搭建。如果你采用虚拟主机,你得弄清楚虚拟主机控制面板上面的所有功能,都干嘛的。如404,301,默认首页设置,域名绑定与解析、网站编码问题、目录权限等。如你使用的Windows服务器至少得了解IIS的所有需要用到的功能吧。 SEO需要了解并熟悉HTML:
作为SEO需要了解并熟悉HTML以及CSS的原理以及能看懂并简单修改。再者就是需要了解网站服务器执行原理,客户端浏览器执行原理以及浏览器渲染加载页面元素的原理。只有明白这些,你才能更好的优化你的网站。HTML和CSS并不难,只要肯下功夫认真去学习两天即可搞定。很多人不懂,看着代码晕乎不是因为他比别人笨而是因为他心里懦弱了。
基础实践练手:打开百度统计=》优化分析=》网站速度诊断,百度统计诊断出的问题,你自己好好的分析下认为可以修改的大伙操作下。通过这个可以让你快速了解浏览器执行原理,以及网站速度优化方式。
结语:最近李学朋会多收集并整理书写代码优化方面的文章,希望大伙都对这个有一定的了解。