歌长期以来一直在处理 重复内容,现在它选择在 SERP 中显示的最佳 URL 的过程更加精细。然而,这是一个存在的问题,在线营销专业人士必须解决这个问题,以便在搜索引擎中获得更好的定位。
什么是重复内容?
术语“重复内容”是指在同一网站的多个位置 (URL) 中显示的类似内容。因此,搜索引擎不知道在搜索结果中显示哪个 URL。这可能会损害网站的排名。当人们开始链接到所有不同版本的内容时,问题就会变得更大。
没有单一的方法来处理它,许多人说它应该被消除,其他人则认为它应该被重定向,因此有许多解决方案被公开。
重复内容还可以指在外部站点之间复制的文本。在许多情况下,发生这种情况可能是抄袭或被盗内容。显然,一般来说,稍后发布的内容将被视为重复,谷歌将通过大幅降低其排名来惩罚此类做法。
什么会导致重复内容?
出现重复内容的原因有很多,一般都是指技术原因。对于一个人来说,想要将相同的内容放置在两个或多个页面上而不引用主要来源是不寻常的。
URL 参数:我们添加到 URL 的参数(例如点击跟踪和一些分析)可能会导致内容被发布。
打印机友好:当您有一个包含要打印的内容的页面时,它可以被视为重复内容,特别是当页面的多个版本被索引时。
会话 ID:当每个访问网页的用户被分配一个存储在 URL 中的 ID 时,就会发生这种情况。尤其是当我们想要跟踪用户或者您的网站上有可用的购物车时,这些类型的操作就会发生。
Srappers 和内容联合:很多时候其他网页使用您的内容而不重定向到您的网站,随着您的规模变得越来越大,这种情况会越来越多地发生。然后搜索引擎不知道内容的主要来源是什么,因此它们在搜索结果中组织信息变得更加困难。
万维网对比无 WWW:有时,无论您的网站是否可以通过 WWW 访问,搜索引擎仍然会出现错误。这是一种不太常见的情况,但也会出现在 http 和 https 中。
这些只是可能导致网站上内容重复的众多原因中的一部分。
怎么解决呢?
一般来说,会出现三种情况:阻止它们、重定向它们或规范它们。让我们逐一分析一下:
使用 robots.txt 阻止它们:
这是一开始使用的非常质朴的解决方案。这是一个有效的选项,搜索引擎将关注 robots.txt 中发出的跟踪命令,并且不会索引我们标记的 URL。然而,这样做的问题是,许多人可能会将您的内容链接到被排除的 URL,因此这些链接将不再有助于您的网站攀登网页排名的能力。
机器人.txt 文件
使用 NoIndex/Follow 标签:
NoIndex 值告诉搜索引擎不要索引页面,因此我们设法消除重复的内容。 Follow 值告诉搜索引擎继续抓取在该页面上找到的链接,这样,如果该链接被共享,它将继续在其他网站上建立索引。
301重定向:我们所做的就是将 加纳电话号码库 所有 复的站点重定向到您偏好的站点,这样所有的URL都是有效的并且到达正确的位置。这是一个比前两个更有利的解决方案,但它不是最好的。
rel=”Canonical” 标签:它的工作原理与前一个标签类似,并且实现所需的开发时间要少得多。此标签告诉 Google 应该将相关页面视为 URL 的副本。
此选项比前一个选项更好,因为它不会重定向用户。尽管该页面不会重定向,但在对其进行编程时,您必须指明您的首选 URL。
链接到原始内容:
如果您无法执行上述任何优化,可能 如何利用人工智能实现更好的 B2B 营销 是因为您无法控制显示内容的页面的 <head> 部分。在文章上方或下方添加原始文章的链接始终是一个好主意。
重复内容的问题是所有网站都必 面 加拿大电子邮件线索 对的问题,也是不容忽视的。应用以前的解决方案不仅可以帮助您解决问题,而且还可以使您的页面在搜索结果中的位置更好,并避免搜索引擎,尤其是我们的朋友 Google 的制裁。