python
Search :

热门知识点: python 字符串
当前位置:python>>seo和python

seo和python

python被越来越多的SEO人员重视

很久没写文章了,先祝大家国庆快乐!从今年开始发现越来越多的seo人开始慢慢的研究技术,也越来越重视技术,这是一个非常好的现象,毕竟流量是通过网站获取的。网站的搭建的过程从头无不充斥着相关的技术,比如HTTP请求,HTML,CSS,网页后端的逻辑处理等。
对SEO人员来说,把技术学好有2个好处:
1 对技术了解的越好,就越能够控制一个网站,能够按照你的想法来走。

2 如果是在大型网站做SEO的话,基本上每天都会和技术和数据打交道。可能每天都是在写代码地方式来做SEO,或者你需要和公司的技术部门来配合做网站的相关的优化工作,对技术越了解,就能和技术人员更好的沟通需求。
...

python程序批量挖掘百度长尾关键词

   挖掘长尾关键词的工具有很多,比如爱站,chinaz的。目前感觉chinaz的百度权重的关键词可以挖掘到一些。比如我需要挖掘

这个域名:www.yoger.com.cn 的百度关键词。

http://mytool.chinaz.com/baidusort.aspx?host=www.yoger.com.cn

算了下,大概可以挖掘到600个关键词,一页有20个,有30页的数据。

目前有python做了这个应用,能够批量挖掘百度长尾关键词。我们只需要收集行业里面的网站,放入去查询就行。

...

python中文分词

python做SEO相关事情,我在之前的文章已经讲到过,今天给大家分享python中文分词的一些知识。

说到分词,如果是做GOOGLE的朋友,那用python分词很简单,可以直接根据空格来分词,或者有相关的nltk模块来处理。

中文分词的话,就比较麻烦,因为不能通过空格来分词,并且分词还得考虑语义问题等。
...

老王pythonSEO蜘蛛日志分析系统,参考(国平的光年日志分析系统)

之前分析日志的时候用过光年日志分析系统,这几天有时间,用python写了一个小型的日志程序。

程序的文件:

data目录:用于存放需要分析的日志文件。
result目录:生成日志结果的目录
template目录:日志模板目录
conf.py:配置文件
apachelog.py :python apache日志分析模块。
check.py: 日志处理主程序
另外用到了python的jinja模板引擎
...

伪原创程序提取文章高频词

很久没写应用了,其实python操作SEO相关的脚本我一直在写,今天给的大家分享一个SEO伪原创的时候,需要提取提取文章的高频词的概念。这个做外贸SEO的时候需要用到。
上代码:
import nltk
from nltk.probability import FreqDist

binfo = '''
shibang Mibile Crusher offers optimum set-up flexibility, from coarse to fine bashing, and is cost efficient. The application improves working safety, reduces the need for quarry highway maintenance, and gives coal minng significantly better access to material information. A further benefit is this : waste material can be separated on-site. shibang Mibile Crusher can be arranged to provide a two-stage crushing and evaluating system, as a three-stage abrasive, secondary and tertiary mashing and screening method, or as three independent units. Getting crushing and evaluating process on small wheels really boosts approach efficiency. shibang Mibile Crusher can be used for all mobile mashing applications, opening up clients opportunities. shibang Collection Cell Crusher is wholly adaptable to all cellular crushing needs.The item sets up a new variety of business opprtunities for trades-people,quarry operators, recycling along with mining applications.
...

wordpress 数据远程同步方法

  今天给大家分享下python在本地远程同步文章数据到wordpress,如果你的网站数据库是支持远程连接的话,那可以用下面的方法。
我当初写这个代码是为了解决wordpress底层站群的文章同步问题,可以让本地的mysql数据通过python脚本远程插入到网站数据库里,从而可以完成定时的更新。当然这个脚本如果部署到服务器上会更好,可以通过windows的计划任务和linux的cron服务来定期的启动这个脚本,从而达到每天更新文章的目的。

写这个脚本主要是要熟悉wordpress的表结构,不然你没法插入数据到wordpress数据表。
...

批量查询网站的pr

    这段时间工作比较忙,博客更新的时间又慢了,前几天刚旅游回来,和部门的同事去了富春江-三清山和姚林仙境,感觉挺不错的,坐了船也爬了山。感受了大自然的秀丽景色。废话不多话,今天给大家分享个python 批量查询网站的pr的应用,前段时间因为要批量的筛选外链的资源,而外链网站的PR则是一个重要的指标,特别是对做GG的SEO的朋友来说,我们肯定是希望筛选出很多有效的而且PR高的外链资源,由于要筛选的网站比较多,只有用程序来做了。代码贴出来,如果大家感兴趣可以运行下看看,要查询的网站我这里是放到文件里,你也可以放到数据库里,然后读出来。结果也是写到文件里,同样你也可以改代码,然后把查询的结果放到数据库里。下面代码:

...

抓取google搜索结果

这段时间由于要做一个系统,时间比较忙,博客更新的就不及时,有点抱歉,还是说今天的话题把:因为要抓取一些google上面的搜索结果数据,开始用的是python传统的获取数据的方法比如:[python beautifulsoup多线程分析抓取网页] , [python SGMLParser] 来获取数据,后来采集了没多久,google就自动封掉了,期间尝试过换IP,模拟浏览器的方法用了一段时间还是不行,看来google防止抓取的功能太强了,正愁没思路的时候,偶然间在网上看到一个方法就是用google提供的api来或者结果,这样省时又省力,于是乎就研究起来了,最后10几行代码就搞定了,之前我写了上百行代码,看来有了python google api来做python 抓取google搜索结果还是挺爽的。

python获取网站外链

  最近为了更好的查询老王python的外链,所以准备写一个python 脚本来查询,一般查询外链比较准确的工具还是yahoo的外链工具,但是有点不方便的就是,yahoo查出的外链要一页一页的翻,好累而且不好方便统计,我是想把网站的外链全部读取到文件里,这样比较好在本地来进行统计。
废话不说,上脚本吧。

#encoding=utf-8
...

分页:[«]1[»]
老王python ® 版权所有 备案号:湘ICP备10012179号