企业网站建设

建站知识

今日已发布信息: 393211
累计注册用户: 78151672

谷歌优化 谷歌理解导入链接

导入链接 您的网站 其中一个

概述: 在返回最相关的结果给用户的过程中,有超过200多个因素(包括对于网站内容的分析和上面提到的导入链接)在起作用。   那么您怎样才能获得更多用户以及增加有价值的导入链接呢?   很多网站管理员都写过他们是如何成功的获取更多网站用户的。我们下面编辑了一些想法和资源,希望它们能够对所有的网络用户有所帮助。在您的网站及网络上创建独特的、引人注目的内容

  导入链接指的是从外部网站的页面上链回您的网站的链接。导入链接能够给您的网站带来新的用户,而且当这些链接是有价值的、网站编辑自愿选择的链接时,他们对于谷歌来说也会成为衡量您网站重要性的正面因素之一。其他一些因素包括像我们对您网站内容的分析、和某个地理位置的相关性等等。就像很多人都知道的那样,相关性高的、高质量的导入链接会影响您网站的PageRank(我们排名算法的其中一个要素)。高质量的链接常常会很自然地链向那些具有引人注目的内容或者提供独特服务的网站。

  这些指标是怎样融入排名算法的呢?

  比如说我有一个网站叫cctv23.com,提供给用户很多种不同的网站模板和网站设计的技巧。其中一个最重要的排名因素是我的网站的内容。除此之外,可能还有其他三个网站链向我,但是其中一个导入链接是来自一个垃圾网站。对于谷歌来说,我们只想要另外两个高质量的导入链接在排名中对于PageRank的计算起作用。

  对于一个用户的查询,在返回最相关的结果给用户的过程中,有超过200多个因素(包括对于网站内容的分析和上面提到的导入链接)在起作用。

  那么您怎样才能获得更多用户以及增加有价值的导入链接呢?

  很多网站管理员都写过他们是如何成功的获取更多网站用户的。我们下面编辑了一些想法和资源,希望它们能够对所有的网络用户有所帮助。在您的网站及网络上创建独特的、引人注目的内容

 

  黄山手机建站  暑假托管   今日推荐免费建站   分类信息   自贡网站建设公司

 

  创建博客:定期地制作一些视频,做一些原创的研究,发表一些有趣的帖子。如果您对网站的主题充满激情的话,是有很多种方法来获取更多用户的。

  如果您对写博客特别感兴趣,请参阅我们帮助中心里给博客们的特别建议。

  教给读者一些新的事物,发掘新的新闻,或具娱乐性或具洞察力,展示您的专业知识,访问您所在行业的不同人物并且突出其让人感兴趣的方面。让您的网站具有价值。

  对于您感兴趣的话题,认真地参与相关的博客和用户评论。以此向网络社区提供您见解独特的看法。

  提供一个有用的产品或者服务。如果网站的访问者能够从您所提供的产品或者服务获中获得价值,他们更有可能链向您的网站。欲了解更多可操作的想法,请参阅我非常喜欢的对Matt Cutts的采访中他提到的一些几乎不需要成本就能帮您提高网站流量的方法。对于网站管理员来说是非常好的初级读本。(即使在写这篇帖子之前,我已经将这个网址转发给很多朋友了。

  寻求商业发展机会

  使用网站管理员工具中“链接>含外部链接的网页”来了解其他对您的网站感兴趣的人。通过了解谁链向您以及他们是怎么链向您的来扩展您的网络社交。或许会有您以前没有意识到的新观众或用户群对您的网站感兴趣。例如,如果cctv23.com的网站管理员注意到一些外部链接是从艺术学校过来的,他们就可能开始参与这个艺术社区——收到新的反馈意见,推广他们的网站和想法。

  当然,要负责任地寻求在这个空间内可能出现的机会。不要从事大规模的寻求链接;没有人喜欢格式化的信函,而且也很少会有那些高质量网站的网站管理员对于这样的请求做出积极的反应。一般来说,很多在人际关系方面促成企业发展的成功技巧也可以应用到在线网站上。

  现在您已经了解了更多关于内部链接、导出链接和导入链接的信息(今天的帖子),我们欢迎您在博客的评论中发表看法。也谢谢您参与我们的链接专题系列活动。

  最新信息——更多商业发展机会:

(在你们交谈的时候,看看他们是不是会纠正无效链接。:) 这是将无效链接转为免费链向您网站的比较重要的部分的绝佳方法。

  除了联系这些网站管理员之外,您也可以使用301重定向将流量从旧的页面转向新的位置。这对于那些仍然收藏了指向您的旧页面的链接的用户是很有好处的,而且您也会很高兴地发现谷歌会将PageRank和其他一些信息通过这些重定向适当地传递到新的页面的。

 

怎样打造网站品牌和知名度

  树立网站品牌是每个网站发展壮大必经的一个历程,每个知名的网站都是一个品牌,只要网站有了品牌和知名度,做我们什么事情都得心应手了。

  一、重复,重复,再重复

  如果有人在你面前提起“脑白金”这个词,估计你会记忆犹新。再比如说起新浪、搜狐等这些网站相信大家都很熟悉。为什么会有这样的效果呢?

  其实,广告的效果除了吸引以外,还需要“重复”,让观众的脑海里不停的出现这个名字,即使一个记忆力很差的人,说一次没能记住,说十次、二十次,没能记住也总有点记忆吧?对了,这个就是广告的“重复”性的作用,我们可以大量的投放广告,用户到了这个网站可以看到你的广告,到了另外一个站也是你的广告,别人就感觉这个网站很专业,时间长了,慢慢就会在浏览者心目中树立了一个品牌。

  二、加上“专家”提示

  在我们发表文章的时候,在文章中融入网站的名字或者要打造的品牌的名字。例如我要树立“冰暖”这个名字,我们在文章的头尾或中间都可以写上例如“冰暖提示:”、“经过冰暖调查”等一类的词语,显得网站更专业了。例如“男人女人吧专家建议”这些词经常都会在文章中出现,见多了,就会有这样一种感觉:“男人女人吧的专家太多了,很厉害,以后有什么问题都到这个网站里查查。”慢慢的坚持下去,网站很快就会树立起品牌了。

  三、专家报道、媒体采访

  如果你或你的网站被一些知名的网站报道过,一些权威的官方或媒体宣传过,采访过,那么一下子就会让人感觉这个人很牛,感觉他应该很厉害,或感觉这个网站应该很多专家。这样,网站的品牌和知名度一下就提高了,并且给人的感觉还是很深刻的。当然这种方法不是每个人都能做得到,但是如果做到了,那就会得到很好的效果。

  上面是个人感觉比较实用的提高网站品牌和知名度的方法。当然方法还有很多,关键是大家如何去做以及是否达到预期的效果而已。

理解排名的七个要素让你的网站快速提高

  刚刚开始学习网站优化的时候都会觉得排名很难提升,其实只要把影响排名细节的因素做好了,排名自然就会上去了。  

 

  1.服务器的因素

  服务器决定网站打开的速度,如果用户点击网站发现很慢的情况下就会关闭网站,如果蜘蛛来抓取网站的时候,出现打不开的现象,那么就会影响网站的收录,影响收录那么就会影响网站的排名,所有网站访问速度和稳定是优化的第一步,一定要做好。

  2.网站内容的因素。

  首先讲一下百度的工作原理,web站点-蜘蛛爬行抓取-分析页面的内容质量(如果分析内容觉得重复性太多的话,蜘蛛会放弃抓取)-存储数据库。所有在内容质量这里这里不能卡主,什么样的内容质量是好的呢?就是蜘蛛的数据库里面没有的,也就是常说的原创文章,如果八内容的质量搞好,收录就会提高,自然就会获得排名。

  3.title标题和keywords、Description标签

  网站的的标题title标签一定要做好,一定不要多个一面同一个标题。

  keywords关键词标签,虽然百度官方说不是很重要,但是我觉得还是要做,理由是:我们不只是做百度,我们还做谷歌、360、搜狗这些搜索引擎。

  Description描述标签,这个是显示在搜索结果的页面上显示的,一定要些好,这样可以吸引用户点击。

  4.页面排版的因素

  网站的排名一定要根据数据的分析来做排版,可以根据用户的强弱需求要做。把用户需求的东西展现出来,不需要用户查找就能找到想要的答案,节省用户查找时间的成本。网络上的时间是按秒来算的,举个例子,如果一个用户打开一个网站3-4秒还打不开就会觉得好慢,马上关闭页面。如果在现实中约会迟到1-2分钟都会觉得你很准时,迟到十分钟也不算什么,但是在网络上就不行了。

  5.域名和URL的影响因素

  域名:

  顶级级域名

  oiik.com/

  二级域名

  xx.oiik.com/

  二级目录

  xx.oiik.com/xx

  域名的权重高低排序:顶级域名-二级域名-二级目录...

  url:

  主页

  xx.oiik.com/

  栏目页

  xx.oiik.com/xx

  内页

  xx.oiik.com/xx/xx.html

  URL的权重高低排序:主页-栏目页-内容页

  静态页面

  xx.oiik.com/xx/xx.html

  动态页面

  xx.oiik.com/xx/?11

  参数页面

  xx.oiik.com/ks?11-?12-?13-?14.....

  准确的来所静态页面比动态页面好,但是百度官方说动态一样可以收录,但是我们还是要做静态的,理由是:虽然百度可以收录动态的,但是不代表谷歌、360、搜狗、必应等其他搜索引擎可以识别动态的。

  6.网站的内链

  做好网站的内链的优化,有助于网站的提高的收录,因为蜘蛛进入网站可以根据网站上的连接一个一个的去爬行,如果网站内链没做好,爬一下就到尽头了,当然就会走了。想要让蜘蛛更好的抓取,一定要把内部连接做好,引导蜘蛛爬行,提高网站的收录,而且内部连接也可以增加网站的权重哦。

  7.关键词的布局。

  对于优化网站来说,好的关键词布局,不仅对网站关键词优化有序性,也能使网站编辑的更有序,关键词做的越细,对以后网站的优化更便利。如果是大神可以去分析一下58是怎么把几百万的关键词做上去的。

  如果你做好了以上的几个细节,基本上你的网站排名会往上升。

朴槿惠被罢免 嫁给国家的女人就这样倒下了

  摘要:韩国宪法法院2017年3月10日上午宣布总统弹劾案最终判决结果,总统弹劾案获得通过,朴槿惠被立即免去总统职务。朴槿惠也成为了韩国历史上第一位被成功弹劾的总统。韩国将于60天内举行大选,选出新总统。

  朴槿惠成为了韩国历史上第一位被成功弹劾的总统。

  韩国宪法法院2017年3月10日上午宣布总统弹劾案最终判决结果,总统弹劾案获得通过,朴槿惠被立即免去总统职务。朴槿惠也成为了韩国历史上第一位被成功弹劾的总统。韩国将于60天内举行大选,选出新总统。

  

 

  “我没有家庭,没有丈夫,没有儿女,国民就是我的家人,让大家幸福是我参政的唯一目的。”这是朴槿惠2011年竞选韩国总统时的表态。由于卢武铉、金大中、金泳三、李明博等多位前总统都因为家庭成员的贪腐丑闻而身败名裂,韩国人很盼望出现一位真正清廉自持的总统。前总统女儿的身份和单纯的家庭关系,使很多人相信朴槿惠是与众不同的,一定能避免贪腐和丑闻。然而,这个神话最近因为一个叫崔顺实的女人而破产,朴槿惠的政治生涯,也因此被推到了悬崖边上。

  1952年2月出生的朴槿惠,当选总统前的人生可以分为两个阶段:父亲去世前和去世后。而这两个阶段人生境遇翻天覆地的变化,是理解朴槿惠和崔顺实关系的密码。1961年,朴槿惠的父亲朴正熙发动军事政变上台,9岁的她和母亲陆英修、妹妹朴槿令和弟弟朴志晚一起入住总统府青瓦台。此后18年,她都是名副其实的“第一公主”,并曾代行“第一夫人”的职责,众星捧月,集万千宠爱于一身。

  在回忆录《绝望锻炼了我》一书中,朴槿惠详细描述了早年家中其乐融融的亲情:“我在父亲36岁、母亲28岁的时候出生,因为是稍晚年纪生下的第一女儿,所以两位对我疼爱有加。父亲下班后会与母亲一起帮我洗澡以消除一天的疲劳。为了看我笑眯眯的脸,不时还会做鬼脸引起我的注意,但我总是哭得惊天动地,几乎连天花板都快掀掉,让两人不知所措。每当这个时候,父亲就会连忙跑到隔壁房间拿出相机,开心地拍下我哭的样子。”

  “不同于给一般人的刚毅军人印象,父亲对待家人特别温柔,有空就会写诗作画送给母亲。某个夏天和家人度假时,父亲在车上画了志晚的素描,当时的情景至今历历在目。”“到了晚上,我们三姐弟常会比赛谁画得好,并请父亲当评审,这时志晚就会先画好父亲的脸硬说自己是第一名。其实他只是把父亲的脸画得大大的,再加上歪歪的眼睛、鼻子、嘴巴而已。看着那幅画,全家人不知该说些什么,笑得前仰后合、乐不可支。”

  应该说,这可能是朴槿惠一生最好的时光:父亲大权在握,母亲因为亲民广受爱戴,一家五口亲密无间。然而,无忧无虑的生活在1974年8月出现了转折。当年8月15日韩国国庆节庆典上,在朴正熙致辞时,受朝鲜当局指使的旅日韩侨文世光从听众席里霍地站了起来,一边向主席台冲去,一边拔出手枪朝朴正熙开枪射击,一颗子弹击中了陆英修的头部,最终致其抢救无效死亡。

  母亲的死让朴槿惠“过了一段行尸走肉的日子,那种悲伤无法言传。或许是因为当时心理压力过大,我出现了停经的现象,身体开始到处疼痛,免疫力下降,甚至变成过敏体质,每天都会打喷嚏”。为了帮助父亲,22岁的朴槿惠结束了在法国的留学生涯,也告别了自己的学者梦,开始代行“第一夫人”职责。

  根据目前披露的资料,崔顺实父女就是在此时介入到朴槿惠的生活当中的,那个时候,他们的主要目的应该是看在朴正熙权势份上的投机。

  崔顺实的父亲崔太敏在日据时期做过警察,战后顺应勃兴的宗教浪潮,转职做牧师,创办了“大韩救国宣教会”。在陆英修去世后,他不断给朴槿惠写信,声称“已故的陆英修女士托梦给我,让我好好照顾她的女儿”。1975年3月,朴槿惠召崔太敏进青瓦台会面。崔太敏当面告诉朴槿惠,自己已被陆英修的灵魂附体,并将陆英修平时的言行举止呈现得惟妙惟肖,让朴槿惠深信他是个具有通灵能力的非凡人物。

  崔顺实是崔太敏六次婚姻中生下的第五个女儿。1976年,崔太敏将多个团体合并成“新心奉仕团”,邀请朴槿惠担任名誉总裁,而他的女儿崔顺实则担任该团大学生总联合会长,两人自此结识。当年“新心奉仕团”以开展志愿活动的名义,从大企业收受资金,而这些企业看在朴正熙和朴槿惠的面子上,无不慷慨解囊。可以说,最近才被揭发的崔氏父女利用和朴槿惠的关系谋利的事情,早在40年前就初露端倪。

  1979年10月26日,朴槿惠一生最大的打击降临:父亲朴正熙带领卫队长车智澈到情报部长金载圭家吃饭,席间朴正熙指责金载圭工作不力,后者一怒之下,拔枪将朴正熙和车智澈射杀。朴槿惠半夜被叫醒,得知消息后的第一反应是:“前方(三八线)有无异常?”这一幕日后被韩国人反复提起,作为朴槿惠是天生的政治家的佐证。

  几天后,朴槿惠带着弟弟、妹妹和一条狗回到了首尔的旧宅,就此开始了18年的隐居岁月。这18年,也是她从高处重重摔下、遍尝人情冷暖的阶段。“我们离开青瓦台后,在政治圈不断出现出卖父亲的言论。我们三姐弟连父母亲的祭日也不敢举行任何公开仪式。”“当时连最亲近父亲的人都对我们变得冷漠,这对我来说是相当大的打击。众多不实的消息不断刊登在报纸和杂志版面上,就连表明自己姓名的人说的也大多是谎言。”“曾经以为非常疼惜我的那些人,在损益计算后改变了太多,反而是一些没有过多少交流的人们,还会心疼我们,试着想要给一些帮助我要感谢的并不是多给我一杯水的人,而是那些心和理念不会因时势而动摇、以一贯真诚态度对我的人,也就是内心诚实的那些人。”

  而崔顺实父女,应该就是“不会因时势而动摇”的少数人之一。在朴槿惠人生最艰难的时候,这对父女对她不离不弃,这肯定让朴槿惠万分感激。崔顺实也不是无知妇女,她曾在德国留学6年,应该是见过世面的,因此才和朴槿惠趣味相投。加上朴槿惠养尊处优惯了,需要有人打理生活,也确实需要崔顺实这个闺蜜。就这样,两人越走越近,成了无话不谈的好姐妹。

  而朴槿惠姐弟三人的不和,更凸显出崔顺实的难能可贵。朴家唯一的男孩、在姐弟中排行最末的朴志晚经受不住世态炎凉,很长时间靠吸毒来排遣情绪。朴槿令更是处处和姐姐作对。1990年,朴槿令从姐姐手中夺下了陆英财团(其母陆英修创办的儿童福利机构)理事长一职;2008年10月,54岁的朴槿令不顾亲友劝阻与40岁的大学教授申东旭结婚,朴槿惠没有参加婚礼。第二年,申东旭在网络上四十余次发表诽谤朴槿惠的言论,后者以“诽谤罪”起诉妹夫,申东旭被判有期徒刑1年半,使这对姐妹间的嫌隙再度加深。近年来,朴槿令的行为越发出格,她公开表示韩国不应该就慰安妇问题持续要求日本道歉,并认为参拜靖国神社是日本的内政,这些言论挑战韩国的主流价值,让身为总统的朴槿惠尴尬万分。

  1994年,崔太敏去世。1997年,在多位总统身陷贪腐丑闻、国民开始怀念朴正熙时代的背景下,朴槿惠重返政坛并当选国会议员,2012年12月当选总统,2013年2月就任。崔顺实利用和总统的特殊关系干涉国政,也就是从这时开始的。

  事实上,关于朴槿惠和崔顺实的关系,韩国政圈早有议论。早在2007年大国家党党内初选时,李明博阵营就抛出了朴槿惠与崔顺实一家的关系问题,质问朴槿惠:“如果朴候选人当选总统的话,会没有崔氏一家操纵国政的可能性吗?”“(我们)提出对崔氏的质疑,朴候选人却说我们会遭‘天谴’,这种过度反应很不寻常。”

  显然,至迟到那个时候,朴槿惠与崔顺实关系过于密切已经是尽人皆知的了,但在近十年后的今天,真相才得以陆续曝光。其中的主要原因在于,政治家也是人,也有社交的自由,仅仅是和崔顺实走得很近并不是什么大不了的事情,关键是这种关系是否牵涉到贪腐等违法行为。崔顺实要贪腐、要干政,必须要等到朴槿惠掌权之后,而外界对真相的了解,总是要滞后很多。这就是为什么朴槿惠2013年2月上台,而崔顺实的行为现在才曝光。

  事实上,这在韩国政坛不是孤例。自1948年以来,大韩民国共有11位总统,朴槿惠之前的10位,无一有好下场,要么被暗杀,要么自杀,最多的是因为亲属贪腐而灰头土脸、身败名裂,而这些丑闻,都是在任职的后期曝光的。崔顺实的不法行为,尽管其中多有狗血情节,但万变不离其宗,不过是上述现象的又一个翻版而已,最大的不同只是她的身份:别人是老婆儿子兄弟,她是闺蜜。

  据中新网2016年11月28日电,据韩媒报道,韩国在野三党将于28日各自拟订弹劾总统朴槿惠的决议草案初稿,并将于29日协商拟定三党统一的弹劾决议草案终稿。

  按照韩国宪法,要弹劾总统,首先需有国会议员提出弹劾动议;在得到三分之二议员赞成之后,弹劾案才能成立;之后,交由宪法法院裁决。在此期间,总统暂时停职,由总理代理国政。如果宪法法庭裁决弹劾案不成立,总统就复职。

  报道指出,韩国国会300名议员中,朴槿惠领导的执政党占128席,在野党166席,无党籍议员6席。弹劾案要成立,至少需要200张赞成票,这意味着,在野党要启动弹劾程序,必须先说服执政党内至少28名议员倒戈,才可能在国会中推过弹劾动议。

  韩国过去只发生过一次在任总统被弹劾的事。2004年3月,两大在野党在国会动议弹劾时任总统卢武铉,理由是卢武铉阵营在2002年底总统竞选期间收取非法政治献金。但宪法法院后判决弹劾不成立,卢武铉复职。

  韩国法律专家和学者指出,虽然对朴槿惠发起弹劾的理由已经很充分,但即使国会通过了弹劾动议,要落实弹劾还是非常困难,因为宪法法院的最终裁决才是弹劾的关键。此外,弹劾程序需要至少半年时间。按估计,弹劾案或许要到明年举行总统大选时才有分晓。

全主动监控网站关键词排名(Python实现)

  从这篇文章开始不打算再花费大量精力去写程序本身的知识,毕竟是各类书籍上有的内容。其余主要需要学习的是内置函数的使用,和一些模块的使用方式,尤其是pycurl, re, threading这些需要慢慢熟悉起来。

  若在学习中有不解的地方,在文章评论中可以提出,如果有空会尽力帮忙解答。

  程序需求

  对于稍大的一个网站,往往会有许多关键词需要每隔一个周期监控它们的排名,以分析SEO效果的好坏,及判断百度Google的动向等等。

  有一个关键在于数据的收集全自动与否的问题。若经常用Google Analytics分析数据的话应该会感觉到,数据分析的需求是多种多样的,只有事先已经有了完善的各个维度的数据以后,才能随着最初的想法进行分析,而不会为数据的匮乏所局限。像Google Analytics这样出色的工具完全自动的将这些数据收集了起来,才给SEO对于流量的多样化分析打下了基础。同样的,如果想分析的时候更自由的话,就需要记录尽多种类的历史数据,如果这些作为每日工作,那将耗时非常长,所以自动化的收集就体现出了其重要性。

  现有的监控排名主要解决方案是使用商业软件Rank Tracker,但它也有些不是很理想的地方。比如对于几乎所有既有软件都存在的问题,功能不灵活。另外它最大的弊端之一在于它一定要找个具有图形界面的系统运行(因为它是Java实现的,有多操作系统版本,所以不一定是Windows)。

  对于DIY的Python脚本,在Linux系统里面可以将其放到crontab中(系统级计划任务),全自动的定时运行收集原始数据。然后在需要的时候,再用另外的脚本来处理原始数据,进行各个维度的分析。所需的一般情况下为:Linux系统的低配置VPS一台,总共不超过100行的Python代码(Windows也能实现这些,但相对比较麻烦)。

  然后再来分析更具体的需求。此处我总结了一些原则:

  1. 除非数据量大到会对硬盘带来压力(比如每日数G的日志的分析等),不然把能想到的尽多的数据都记录下来。因为分析的需求是多变的,数据若全面即可有备无患。

  2. 同上,除非数据量极大,不然务必把历史数据全部保存下来。在大数据量的时候,也需要按实际情况保存一定时间区间的数据(打个比方,前3年每月保存一副本,当年每周保存一副本)。历史数据的对比在很多时候的意义非常大。

  3. 当数据非常单一的时候,使用txt按行保存;当数据比较简单的时候,使用csv按行列储存;当数据比较复杂的时候,可以考虑使用MongoDB等key-value型NoSQL储存;再复杂的时候,使用MySQL之类的关系性数据库储存。但这些不是绝对的,还是要看实际情况而定。

  对于目前的需求,因为是要监控关键词排名趋势,所以一般最多监控几千个关键词就够了。或许网站比较大,想了解数十万的关键词的排名,但对于了解排名趋势的情况下,没必要全部查询,随机选取其中一小部分作为样本就可以了。

  因为最多几千个关键词,所以最好每天记录一次它们的排名数据(保证稳定的情况下,对于单IP,Google每天可以查询5000+词,百度则可以查询数万的词)。而且数据本身,主要为关键词、排名、着陆页URL这几项,文件体积很小,所以每天都保存一份数据。

  数据的储存方式上,此时一般建议选择csv。它和Excel表格(xls)在数据的储存方式上是一模一样的。

  代码实现

  这些代码需要以下运行环境:

  Linux操作系统

  Python的第三方模块pycurl

  Python下载网页的最简单方式是:

import urllib2

print urllib2.urlopen('http://***.com/').read()

  但urllib2模块本身功能虽然还行,却仍离pycurl模块有较大距离。且在做稍微复杂一些的操作时,pycurl模块使用起来比urllib2模块方便很多。pycurl是必须要熟练运用的模块之一,但也因为它上手可能会让人有点头疼,这里我自己写了一个模块,以此即可方便的使用它:

from pycurl import *

import StringIO, time, random

def curl(url, retry=False, delay=1, **kwargs):

'''Basic usage: curl('http://www.oiik.com/'), will download the url.

If set `retry` to True, when network error, it will retry automatically.

`delay` set the seconds to delay between every retry.

**kwargs can be curl params. For example:

curl(url, FOLLOWLOCATION=False, USERAGENT='Firefox')

'''

useragent_list = [

'Mozilla/5.0 (Windows; U; Windows NT 5.1; en-GB; rv:1.8.1.6) Gecko/20070725 Firefox/2.0.0.6',

'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)',

'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727; .NET CLR 3.0.04506.30)',

'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; .NET CLR 1.1.4322)',

'Opera/9.20 (Windows NT 6.0; U; en)',

'Mozilla/4.0 (compatible; MSIE 5.0; Windows NT 5.1; .NET CLR 1.1.4322)',

'Opera/9.00 (Windows NT 5.1; U; en)',

'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; en) Opera 8.50',

'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; en) Opera 8.0',

'Mozilla/4.0 (compatible; MSIE 6.0; MSIE 5.5; Windows NT 5.1) Opera 7.02 [en]',

'Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.7.5) Gecko/20060127 Netscape/8.1',

]

size = len(useragent_list)

useragent = useragent_list[random.randint(0, size-1)]

s = StringIO.StringIO()

c = Curl()

c.setopt(NOSIGNAL, True)

c.setopt(FOLLOWLOCATION, True)

c.setopt(MAXREDIRS, 5)

c.setopt(TIMEOUT, 120)

for key in kwargs:

c.setopt(locals()[key], kwargs[key])

c.setopt(URL, url)

c.setopt(WRITEFUNCTION, s.write)

if ‘USERAGENT’ not in kwargs:

c.setopt(USERAGENT, useragent)

if ‘REFERER’ not in kwargs:

c.setopt(REFERER, url)

while 1:

try:

c.perform()

break

except:

if retry:

time.sleep(delay)

else:

return False

return s.getvalue()

  对于简单的采集里面需要用到的下载功能,已经被整合在了这个模块之中。如User-agent轮换、自动301/302跳转等、使用当前URL作为REFERER的有些取巧的方法等。这个模块的代码可以日后再慢慢理解,现在只要知道它的用法即可。

  首先到放置Python脚本的目录,将前面一段代码保存为curl.py,然后在同一目录下创建一个新文件,输入以下测试代码:

# -*- coding:utf-8 -*-

import curl

print curl.curl('http://g.cn/') #这样即下载了一个网页

#以下是比较保险的下载方式,因为各种原因,就算总体很稳定的网站也偶尔会出现网页暂时无法打开的情况

#当网页下载出错时,如果retry为True,则会不断重试,直到下载完网页

#delay则指定了几次重试之间的时间间隔,以秒为单位

print curl.curl('http://g.cn/', retry=True, delay=1)

#以下用到了一些Curl的参数,详细说明可见:http://curl.haxx.se/libcurl/c/curl_easy_setopt.html

print curl.curl('http://g.cn/', FOLLOWLOCATION=False, COOKIE='mycookie')#p#副标题#e#

  这个模块会在以后几乎每个脚本里面都用到,所以这些基础用法务必牢记。接下来是监控网站关键词排名的正式代码:

  cron.py

# -*- coding:utf-8 -*-

#加载模块,此处大致按功能划分行,是为了能够更方便理解代码

import sys, os, random, time, datetime

import urllib, re

import curl

#sys.argv是系统参数,1:3切片意味着读取参数2,3,分别赋值给两个变量

site, file_keyword = sys.argv[1:3]

keywords = [] #先将keywords声明初始为列表型变量

#迭代文件,每次读取一行文字

for line in open(file_keyword):

line = line.rstrip() #将行尾的空白字符去掉,一般行尾会有换行符等

if line:#判断该行是否是空白行,也可更标准的写作if len(line)!=0:

keywords.append(line) #将读取到的文字加入到keywords列表中

#获取UTC时间,之所以使用UTC时间是为了避免时区问题带来的未知麻烦

#北京时间是UTC+8,如该日UTC时间01:00相当于北京时间09:00

now = datetime.datetime.utcnow()

#将UTC时间格式化,变成如1970-01-01的格式

date = datetime.datetime.strftime(now, '%Y-%m-%d')

#尝试创建文件夹,如果文件夹已创建则跳过

try:

os.mkdir('/home/rank/')

except:

pass

#打开输出数据的文件,以当日的日期命名它

f = open('/home/rank/%s.csv' % date, 'w')

for keyword in keywords:

#因为关键词可能是非ASCII字符集的,所以需要编码

encoded_keyword = urllib.quote_plus(keyword)

#下载SERP并提取链接

url = 'http://www.baidu.com/s?wd=%s&rn=100' % encoded_keyword

#下载SERP,如果出现验证码即延时10分钟并重试

while 1:

html = curl.curl(url, retry=True, delay=60)

if '<img src="http://verify.baidu.com/cgi-bin/' in html:

except:

f.write('%s %d %s ' % (keyword, -1, '-'))

continue

#如果在前100名找到网站,则find=True

find = False

#在SERP上面的URL中,寻找网站并确定排名

for pos, url in enumerate(urls, 1):

if site in url:

f.write('%s %d %s ' % (keyword, pos, url))

find = True

break

#如果前100名没有找到网站

if not find: #更标准的写法是if find==False:

f.write('%s %d %s ' % (keyword, -1, '-'))

delay = random.randint(1,2) #随机设定延时时间为1秒或2秒

time.sleep(delay) #等待x秒以后继续查询下一个词的排名

  这段代码即可监控排名并收集数据。它的使用命令如:python cron.py semwatch.org keywords.txt

  在运行之前,先要把关键词按行分隔,保存成txt文件,并在运行参数中让脚本去读取它。每次运行之后,会在/home/rank/文件夹下,创建一个类似1970-01-01.csv这样文件名的文件,保存着当日的关键词排名情况。

  为了让排名查询能自动化,可以将脚本设置为Linux的计划任务。在终端敲入:crontab -e,即可进入对于计划任务的编辑(它也使用一段脚本控制,而非Windows是图形界面)。为此必须要对VIM编辑器有最基础的了解,至少要能把字打上去并保存,可参考:http://ooxx.me/basic-vi.orz

  在crontab输入并保存:00 05 * * * python cron.py semwatch.org keywords.txt

  此处为了简化一些Linux的环境变量的问题,需要将cron.py, curl.py, keywords.txt三个文件,都放到~文件夹下。crontab的默认执行路径便是~。

  前面一段命令的意思是在每日05:00自动执行脚本。当然需要计算机是处于开机的状态,也因此推荐使用一般不会关机的VPS来做这些监控类任务。此外需要注意的是系统的时间,VPS上面的时区可能和本地不同,可以在终端下使用date命令来确认。

  至此日常排名数据的收集已经完成了,但光收集肯定不行,还需要分析。分析可以是各个角度的,这里以最常用的举例,分析网站关键词排名整体上升或下降的趋势。代码很简单:

  analyse.py

# -*- coding:utf-8 -*-

import os

data = {}

for current in os.walk('/home/rank/'):

file_name = current[2][0]

date = file_name[:-4]

data[date] = 0

for line in open('/home/rank/%s' % file_name):

keyword, pos, url = line.rstrip().split(' ')

pos = int(pos)

if pos!=-1:

data[date] += 100 - pos

for date in data:

print '%s %d' % (date, data[date])

  以一个数值的形式来量化整体的排名,数值越高则代表整体排名越好。可以直接运行python analyse.py,看到分析结果。但是光这样的分析往往是不够的,因为数字不是很形象,一般生成图表会好得多。

  尽管结合Google Chart Tools等API,可以自动生成图表,但多数情况下不推荐这么做,因为比较麻烦。除非这些数据需要面向他人,或是需要每天都去分析排名趋势数据。

  一般来说可以这么做:python analyse.py > data.csv

  这条命令结合了Linux里面的重定向>,此时程序不会再输出内容到屏幕上,而是写入到data.csv文件中。之后即可使用如LibreOffice Calc(Linux下类似Excel的软件)打开它,生成Line Chart来以图形化的方式观察分析数据。

  思路扩展

  一般来说需求决定技术做法,但这里还是推荐初学者选下面的任意一个需求并实现它,不管目前是否有用。因为熟悉一门程序语言最好的方法是多写:

  最简单的扩展,将收集脚本从面向百度的改为可用于Google的。

  可以再写一个分析脚本,使用类似Google Analytics的高级细分的方式,做URL的筛选功能。目前监控的是整个网站的流量趋势,但在加入了筛选功能以后,可以统计诸如/article/和/photo/栏目不同的流量趋势;也可对于同类栏目进行划分,作为对于AB测试的效果追踪。

  可以再改进收集脚本,辅以关键词的搜索量与对于特定排名位置的大致点击率,去估算网站所获得的SEO流量的话,可以更全面的了解其情况。

  可以再大幅改进收集脚本,将SERP上面所有出现的网站的排名都进行统计,则可以完全把握竞争对手的动态。结合一些其它方面的监控以后,可以观察到竞争对手绝大多数站内对SEO有意义的修改,并及时跟进。(此时数据的储存方式最好用数据库来代替CSV,如使用MongoDB)

  如果排名趋势追踪的需求非常重要的话,可以考虑做邮件每日报告及邮件预警之类功能。Python里面使用SMTP很容易,结合第三方邮箱的服务即可方便的发邮件。

  技术扩展

  文中涉及到了一些Python模块路径及Linux环境变量的问题,虽然一般情况下把文件都放在~文件夹下面是可以的,但毕竟这样子文件多了会

优秀网站定义:做一个留得住用户的网站

  站长每天围绕着搜索引擎转,绞尽脑汁的做优化,期望带来更多的用户。而搜索引擎每天围绕谁转呢?其实是用户,不管是筛选优秀网站,还是定义排名规则,归根到底都是以用户为出发点儿进行的。在观察一些成功的网站之后,不难发现一个共同的特点:“可以笼络人心,留得住访客”那么,如何来留得住你的访客呢?SEO优化只是一个给你带来流量的工具,而重点却在本身。

  一、分析客户源:其实可以说是确定网站的推广方向,没有好的推广方向做出的事情也是事倍功半的。有一个明确的目标,才知道该做什么,怎样去做好。

  二、界面友好型:姑且不论其它要素,清晰醒目的界面可以提高用户对网站本身的第一印象。即使网站本身还不够完善,内容也不够健全,至少用户不会点进去就马上选择离开,或许还会转一转其它内容,看看是否有自己需要的东西然后再走。那么判断界面是否友好的标准是什么呢:结构清晰、不存在虚假信息,且广告不影响用户正常体验。

  三、丰富的内容:网站的内容是用户访问的基础,没有丰富的内容其它做的再好也没有人愿意去访问,就更不用提如何留得住访客了。因为用户访问网站为了是什么?无非是两种情况:查信息或者休闲娱乐。但是内容也不要胡乱的去写,有价值,短而精的才是用户最喜欢的东西。而且要结合自己网站去整理内容,专注于一个领域才会显的更专业,有规律的去坚持着更新着新鲜的内容,才会越来越受客户的欢迎。

  四、培养互动性:论坛具有很强的互动性,成功的论坛必然是一个留得住会员的网站。但是对于普通网站如何培养互动性呢?笔者推荐几点:针对时事投票(具有吸引力)、征求反馈(留言板,不要小看其功能,最直接反馈客户需求)、用户调查(主动调查用户需求,可以投放一条广告的形式吸引用户,适当加一定奖励为最好)。利用通讯工具:利用通讯工具可以有效提高网站用户忠诚度(笔者曾做过一个QQ站,因为流量也算不错,当时醒目的写了几个QQ群。之后很快的时间久有人陆陆续续的加入,最后又搞了一个QQ论坛,其中很大一部分会员都是群里的人,这样一来首先论坛的前期维护要简单容易的多了)。

  五、可娱乐性:做一个网站不要只是简单的提供用户所需要的信息,更应了解用户在这之外还会喜欢什么。前文我们说用户访网站无非两种原因:查询信息、休闲娱乐。所以在网站中加入特色的娱乐工具同样可以吸引住客户了。类似一些小游戏,不照样那么多的人去玩吗?看似简单不可思议,却往往起到意想不到的效果。

  六、掌握心理摄氏度:人都是感性一类的动物,总有一个心理摄氏度,感到温暖时会喜悦,即使陌生人之间互相聊天,不经意的赞美其几句都会高兴一下。即使在互联网也是,网页中的一个友情提示,或者一个简单的祝福插件,音乐点歌,都可以使用户对你的网站产生一种信任感。或者站长的我们对于这些觉得没什么,但具体从用户出发,其实用户是很看重这些的,也是很容易要其满足。

  总结:留的住你的用户就要从用户出发,毕竟用户不是搜索引擎,做够了优化以后就会重复的光顾,想做一个成功的网站就要点点滴滴的去发现,去总结得失。

http://huangshan.kvov.com.cn/jzxx32337.html

今日推荐知识库
经典语录
上海的美女走在街上向来目不斜视,高傲地只看前方,穿马路也不例外;上海的男人却大多目不正视,竭力搜索美女,脸上的肌肉已经被培训得可以不受大脑控制而独立行动,见到美女就会调出个笑,因为如此的关注,所以,在上海只听到车子撞老太婆,鲜闻有车子撞上美女。
语录
时间过的真快,才几天就到了五月,这视乎过的真快,我记得有个朋友说过,如果你那天心情好,感觉一天就像一小时,如果那天心情不好一天就像一年,时间的脚步,岁月的痕迹所带来的又是什么,是记忆还是留恋。还是忧伤。
经典语录
他们一定觉得我……我不去他们一定会……大家一定都在背后说我……人常常不小心把自己想得太重要,殊不知,大家只希望把自己的人生过好,别人的事,聊聊就算,所以真的不太需要在乎别人的想法,就像你也不是真的很在乎别人的生活!——小S
语录
老婆你别生气了,以后什么都听你的。我不和你顶嘴。衣服我来洗。饭我来做。地我来拖。钱我来赚。赚回来给你管。笑一个。
语录
天价饭局不是海鲜、金箔,而是请女明星吃饭。