当前位置:
- 首页 » 链接优化
如何撰写网站的robots文件
第一:什么是robots.txt? 这是一个文本文件,是搜索引擎爬行网页要查看的第一个文件,你可以告诉搜索引擎哪些文件可以被查看,哪些禁止。当搜索机器人(也叫搜索蜘蛛)访问一个站点时,它首先会检查根目录是否存在robots.txt,如果有就确定抓取范围,没有就按链接...| 发布:
如何制作404页面
404页面的作用:用户在访问一个错误页面时会跳转到首页,或者出现一个提示的页面供用户选择进入网站的某些重要页面。 404页面的制作: 一、Apache服务器的404页面设置 1、在.htaccess 文件中加入代码: ErrorDocument 404 /Error.html ...| 发布: