谷歌搜索引擎优化SEO创建并提交robots.txt文件

您可以使用 robots.txt 文件控制抓取工具可以访问您网站上的哪些文件。robots.txt 文件应位于网站的根目录下。因此,对于网站 www.example.com,robots.txt 文件的路径应为 www.example.com/robots.txt。robots.txt 是一种遵循漫游器排除标准的纯文本文件,由一条或多条规则组成。每条规则可禁止或允许特定抓取工具抓取相应网站的指定文件路径下的文件。除非您在 robots.txt 文件中另行指定,否则所有文件均隐式允许抓取。

下面是一个包含两条规则的简单 robots.txt 文件:

User-agent: Googlebot

Disallow: /nogooglebot/

User-agent: *

Allow: /

Sitemap: http://www.example.com/sitemap.xml

以下是该 robots.txt 文件的含义:

1、名为 Googlebot 的用户代理不能抓取任何以 http://example.com/nogooglebot/ 开头的网址。

2、其他所有用户代理均可抓取整个网站。不指定这条规则也无妨,结果是一样的;默认行为是用户代理可以抓取整个网站。

3、该网站的站点地图文件路径为 http://www.example.com/sitemap.xml。

如需查看更多示例,请参阅语法部分。

创建 robots.txt 文件的基本准则

要创建 robots.txt 文件并使其在一般情况下具备可访问性和实用性,需要完成 4 个步骤:

1、创建一个名为 robots.txt 的文件。

2、向 robots.txt 文件添加规则。

3、将 robots.txt 文件上传到您的网站。

4、测试 robots.txt 文件。

创建 robots.txt 文件

您几乎可以使用任意文本编辑器创建 robots.txt 文件。例如,Notepad、TextEdit、vi 和 emacs 可用来创建有效的 robots.txt 文件。请勿使用文字处理软件,因为此类软件通常会将文件保存为专有格式,且可能会向文件中添加非预期的字符(如弯引号),这样可能会给抓取工具带来问题。如果保存文件时出现相应系统提示,请务必使用 UTF-8 编码保存文件。

格式和位置规则:

● 文件必须命名为 robots.txt。

● 网站只能有 1 个 robots.txt 文件。

● robots.txt 文件必须位于其要应用到的网站主机的根目录下。例如,若要控制对 https://www.example.com/ 下所有网址的抓取,就必须将 robots.txt 文件放在 https://www.example.com/robots.txt 下,一定不能将其放在子目录中(例如 https://example.com/pages/robots.txt 下)。如果您不确定如何访问自己的网站根目录,或者需要相应权限才能访问,请与网站托管服务提供商联系。如果您无法访问网站根目录,请改用其他屏蔽方法(例如元标记)。

● robots.txt 文件可应用到子网域(例如 https://website.example.com/robots.txt)或非标准端口(例如 http://example.com:8181/robots.txt)。

● robots.txt 文件必须是采用 UTF-8 编码(包括 ASCII)的文本文件。Google 可能会忽略不属于 UTF-8 范围的字符,从而可能会导致 robots.txt 规则无效。

向 robots.txt 文件添加规则

规则是关于抓取工具可以抓取网站哪些部分的说明。向 robots.txt 文件中添加规则时,请遵循以下准则:

● robots.txt 文件包含一个或多个组。

● 每个组由多条规则或指令(命令)组成,每条指令各占一行。每个组都以 User-agent 行开头,该行指定了组适用的目标。

● 每个组包含以下信息:

* 组的适用对象(用户代理)

* 代理可以访问的目录或文件。

* 代理无法访问的目录或文件。

● 抓取工具会按从上到下的顺序处理组。一个用户代理只能匹配 1 个规则集(即与相应用户代理匹配的比较早的最具体组)。

● 系统的默认假设是:用户代理可以抓取所有未被 disallow 规则屏蔽的网页或目录。

● 规则区分大小写。例如,disallow: /file.asp 适用于 https://www.example.com/file.asp,但不适用于 https://www.example.com/FILE.asp。

● # 字符表示注释的开始处。

Google 的抓取工具支持 robots.txt 文件中的以下指令:

● user-agent: [必需,每个组需含一个或多个 User-agent 条目] 该指令指定了规则适用的自动客户端(即搜索引擎抓取工具)的名称。这是每个规则组的首行内容。Google 用户代理列表中列出了 Google 用户代理名称。 使用星号 (*) 会匹配除各种 AdsBot 抓取工具之外的所有抓取工具,AdsBot 抓取工具必须明确指定。例如:

# Example 1: Block only Googlebot

User-agent: Googlebot

Disallow: /

# Example 2: Block Googlebot and Ad***ot

User-agent: Googlebot

User-agent: AdsBot-Google

Disallow: /

# Example 3: Block all but AdsBot crawlers

User-agent: *

Disallow: /

● disallow: [每条规则需含至少一个或多个 disallow 或 allow 条目] 您不希望用户代理抓取的目录或网页(相对于根网域而言)。如果规则引用了某个网页,则必须提供浏览器中显示的完整网页名称。它必须以 / 字符开头;如果它引用了某个目录,则必须以 / 标记结尾。

● allow: [每条规则需含至少一个或多个 disallow 或 allow 条目] 上文中提到的用户代理可以抓取的目录或网页(相对于根网域而言)。此指令用于替换 disallow 指令,从而允许抓取已禁止访问的目录中的子目录或网页。对于单个网页,请指定浏览器中显示的完整网页名称。对于目录,请用 / 标记结束规则。

● sitemap: [可选,每个文件可含零个或多个 sitemap 条目] 相应网站的站点地图的位置。站点地图网址必须是完全限定的网址;Google 不会假定存在或检查是否存在 http、https、www、非 www 网址变体。站点地图是一种用于指示 Google 应抓取哪些内容的理想方式,但并不用于指示 Google 可以抓取或不能抓取哪些内容。详细了解站点地图。 示例:

Sitemap: https://example.com/sitemap.xml

Sitemap: http://www.example.com/sitemap.xml

除 sitemap 之外的所有指令都支持使用通配符 * 表示路径前缀、后缀或整个字符串。

与这些指令均不匹配的行将被忽略。

如需有关每个指令的完整说明,请参阅 Google 对 robots.txt 规范的解释页面。

上传 robots.txt 文件

将 robots.txt 文件保存到计算机后,您便可以将其提供给搜索引擎抓取工具。没有一个统一工具可以帮助您完成这项工作,因为如何将 robots.txt 文件上传到网站取决于您的网站和服务器架构。请与您的托管公司联系,或在托管公司的文档中进行搜索;例如,搜索"上传文件 infomaniak"。

上传 robots.txt 文件后,请测试该文件是否可公开访问,以及 Google 能否解析该文件。

测试 robots.txt 标记

要测试新上传的 robots.txt 文件是否可公开访问,请在浏览器中打开无痕浏览窗口(或等效窗口),然后转到 robots.txt 文件的位置。例如:https://example.com/robots.txt。如果您看到 robots.txt 文件的内容,就可准备测试标记了。

Google 提供了两种测试 robots.txt 标记的方式:

1、Search Console 中的 robots.txt 测试工具。您只能针对您网站上可供访问的 robots.txt 文件使用此工具。

2、如果您是开发者,请了解并构建 Google 的开源 robots.txt 库,该库也用在 Google 搜索中。您可以使用此工具在计算机上本地测试 robots.txt 文件。

向 Google 提交 robots.txt 文件

在您上传并测试 robots.txt 文件后,Google 的抓取工具会自动找到并开始使用您的 robots.txt 文件。您无需采取任何操作。如果您更新了 robots.txt 文件,并需要尽快刷新 Google 的缓存副本,请了解如何提交更新后的 robots.txt 文件。

实用的 robots.txt 规则

下面是一些常见的实用 robots.txt 规则:

实用规则禁止抓取整个网站请注意,在某些情况下,Google 即使未抓取网站的网址,仍可能将其编入索引。
注意:这不适用于各种 AdsBot 抓取工具,此类抓取工具必须明确指定。
User-agent: *
Disallow: /禁止抓取某一目录及其内容在目录名后添加一道正斜线,即可禁止抓取整个目录。禁止抓取的目录字符串可以出现在路径中的任何位置,因此 Disallow: /junk/ 与 https://example.com/junk/ 和 https://example.com/for-sale/other/junk/ 均匹配。
注意:请勿使用 robots.txt 禁止访问私密内容;请改用正确的身份验证机制。对于 robots.txt 文件所禁止抓取的网址,Google 仍可能会在不进行抓取的情况下将其编入索引;另外,由于 robots.txt 文件可供任何人随意查看,因此可能会泄露您的私密内容的位置。

User-agent: *
Disallow: /calendar/
Disallow: /junk/
Disallow: /books/fiction/contemporary/
仅允许某一抓取工具访问网站内容只有 googlebot-news 可以抓取整个网站。
User-agent: Googlebot-news
Allow: /
User-agent: *
Disallow: /允许除某一抓取工具以外的其他所有抓取工具访问网站内容Unnecessarybot 不能抓取相应网站,所有其他漫游器都可以。
User-agent: Unnecessarybot
Disallow: /
User-agent: *
Allow: /禁止抓取某一网页例如,禁止抓取 useless_file.Html 网页。
User-agent: *
Disallow: /useless_file.html禁止 Google 图片访问某一特定图片例如,禁止访问 dogs.jpg 图片。
User-agent: Googlebot-Image
Disallow: /images/dogs.jpg禁止 Google 图片访问您网站上的所有图片如果无法抓取图片和视频,则 Google 无法将其编入索引。
User-agent: Googlebot-Image
Disallow: /
禁止抓取某一特定文件类型的文件例如,禁止抓取所有 .gif 文件。
User-agent: Googlebot
Disallow: /*.gif$禁止抓取整个网站,但允许 Mediapartners-Google 访问内容实施此规则会阻止您的网页显示在搜索结果中,但 Mediapartners-Google 网页抓取工具仍能分析这些网页,以确定要向访问您网站的用户显示哪些广告。
User-agent: *
Disallow: /
User-agent: Mediapartners-Google
Allow: /使用 $ 匹配以特定字符串结尾的网址例如,禁止抓取所有 .xls 文件。
User-agent: Googlebot
Disallow: /*.xls$

TAG:谷歌搜索引擎怎么优化

样子网站seo

什么样子的网站需要seo优化

——什么样子的网站需要SEO优化 图片来源网络,侵权必删。 流量需求高的网站 需要SEO优化的网站通常具有较高的流量需求,一个流量较低的网站可能不需要优化,因为即使优化了,流量也不会有显著的提高,对于流量需求高的网站,优化是必要的,因为优化可以提高网站的排名,从而吸引更多的流量。 竞...
百度
baidu.com
谷歌
google.com
AIseo
seoagi.cn

查看详情

关键词seo

seo关键词排名优化怎样收费

SEO关键词排名优化怎样收费?一文解析背后的秘密 图片来源网络,侵权必删。 SEO关键词排名优化收费概述 SEO关键词排名优化是一种通过优化网站内容和结构,提高网站在搜索引擎结果页(SERP)上的排名,从而增加潜在客户和业务的方法,这个过程需要专业的技术和知识,因此收费情况因服务提供商...
百度
baidu.com
谷歌
google.com
AIseo
seoagi.cn

查看详情

网站推广seo

seo怎样才能优化网站推广

SEO优化网站推广:实用技巧和策略 图片来源网络,侵权必删。 SEO(搜索引擎优化)是一种通过改进网站内容和结构,使其在搜索引擎结果页(SERP)中获得更好的排名,从而吸引更多潜在客户的策略,本文将详细介绍如何使用SEO技巧来优化网站推广。 关键词优化 1、关键词选择:要确定你的...
百度
baidu.com
谷歌
google.com
AIseo
seoagi.cn

查看详情

网络公司正规关键词

正规seo关键词排名网络公司

正规SEO关键词排名网络公司,让您的网站在网络世界中崭露头角 图片来源网络,侵权必删。 标题的重要性 在当今的网络世界里,标题是吸引用户注意力的重要手段,一个好的标题能够让您的网站在众多网站中脱颖而出,吸引更多的用户点击,选择一个合适的标题对于一个网络公司来说至关重要。 正规SEO关...
百度
baidu.com
谷歌
google.com
AIseo
seoagi.cn

查看详情

网站seo

seo网站优seo优化推广

SEO网站优化推广策略:提高排名和流量,增加收益的关键 图片来源网络,侵权必删。 在当今竞争激烈的网络环境中,SEO网站优化推广策略已经成为许多企业寻求提升在线可见度和业务的关键手段,通过优化网站结构和内容,以及利用搜索引擎的规则,我们可以提高网站在搜索引擎结果页面(SERP)上的排名,...
百度
baidu.com
谷歌
google.com
AIseo
seoagi.cn

查看详情

网络推广seo

全网网络推广seo排名优化

全网网络推广SEO排名优化:提升品牌曝光和转化率的秘密武器 图片来源网络,侵权必删。 在当今数字化时代,网络推广已经成为企业品牌曝光和业务增长的重要手段,而SEO(搜索引擎优化)作为网络推广的关键组成部分,对于提高网站在搜索引擎中的排名,吸引潜在客户,提升品牌知名度具有至关重要的作用,本...
百度
baidu.com
谷歌
google.com
AIseo
seoagi.cn

查看详情

网站推广seo

seo搜索优化网站推广排名

提升搜索引擎优化(SEO)以优化网站推广和排名 图片来源网络,侵权必删。 内容: 在当今的网络世界中,搜索引擎是用户寻找信息和服务的首要来源,而网站排名是影响网站流量和营销效果的关键因素,提升网站的搜索引擎优化(SEO)可以帮助您吸引更多的目标受众,提升品牌知名度,并带来更多的商业机会,以...
百度
baidu.com
谷歌
google.com
AIseo
seoagi.cn

查看详情

谷歌搜索引擎优化 (SEO)拆分较大的站点地图详解

谷歌搜索引擎优化SEO拆分较大的站点地图详解

如果您的站点地图大于 50MB,则需要将较大的站点地图拆分成多个站点地图。您可以使用站点地图索引文件同时提交多个站点地图。 站点地图索引文件的 XML 格式与谷歌搜索引擎优化初学者指南
专业
专业SEO团队
全面
百度、搜狗、谷歌
量化
量化SEO执行

查看详情

北京网站优化

云无限SEO公司北京SEO团队更懂SEO规则和SEO排名技术;云无限SEO公司SEO团队助力北京企业提升关键词排名,让用户、搜到你、信任你和选择你!

SEO网站优化

北京SEO优化

添加微信客服

关键词排名

关键词优化

添加微信客服

AI SEO

AI智能SEO

添加微信客服

网络舆情系统

芯大脑舆情系统

添加微信客服

托管代运营

营销推广托管

添加微信客服

北京SEO排名

云无限SEO公司为北京企业提供百度关键词排名和搜索引擎优化服务
  • 21世纪房车网站优化
  • 神州租车网站优化案例
  • 一嗨租车网站优化案例
  • 租车网站SEO优化案例
  • 搬家公司SEO优化
  • 出国移民网站优化
交通出行

【交通出行seo案例】城市z的交通运输的发展,也将会对于未来汽车产业的发展带来深远的影响。过去我们关注的是汽车产品,而在未来我们关注的不是产品本身,而是服务。

立即联系

北京SEO公司

SEO并非简单的技术操作,而是一种综合性的优化策略。我们要做的是协助搜索引擎而不是欺骗它!它涉及到的不止是网站结构、内容质量、用户体验、外部链接这几个方面;还有算法的更替、蜘蛛的引导、快照的更新、参与排序的权重等。

北京SEO公司

如果你的网站无法从搜索引擎获取流量和订单,说明你,从一开始就没有建立正确的SEO策略。
添加微信

北京SEO公司