Техническая SEO: 3 неловких ошибок, которые нужно проверить прямо сейчас!

  1. Ошибка № 1: раскрытие однострочного кода гибели
  2. Как вы знаете, какой сервер вы используете?
  3. Как вы достигаете своих главных управляющих файлов?
  4. Какой критической строки кода следует избегать?
  5. Ошибка № 2: потеря контроля над параметрами вашего URL
  6. Что, если эти параметры URL уже получили несколько хороших обратных ссылок?
  7. И решения для параметров URL?
  8. Вот пример:
  9. Ошибка № 3: отображение нескольких версий вашего сайта
  10. Проверки:
  11. Действия:
  12. БОНУС: 5-балльный технический SEO контрольный список

SEO - сложная концепция для понимания в лучшие времена

SEO - сложная концепция для понимания в лучшие времена ... Но техническое SEO на совершенно другом уровне!

Несмотря на это, действительно стоит тратить время, часто освежая свои знания.

Учитывая сложный характер этой темы, вы будете рады услышать, что я собираюсь развлечь вас еще больше с использованием юмористических GIF-файлов!

SEO пространство движется невероятно быстро; постоянно вводятся новые тонкости, и только одна маленькая ошибка в коде вашего веб-сайта может сделать вашу заслуженную органическую видимость бесполезной.

И под бесполезным я подразумеваю, казалось бы, «крошечную» техническую ошибку, которая может «убрать» ваш сайт из результатов Google… независимо от того, сколько коллективной энергии и инвестиций вы посвятили контент-маркетинг а также создание ссылок ,

Источник Источник

Наверняка пугающая ситуация - особенно если ваш бизнес зависит от органического трафика для процветания. Вот почему SEO всегда является совместным усилием ... любой, кто имеет доступ к вашему сайту, должен быть знаком с этими потенциальными ошибками, чтобы избежать последствий.

Я собираюсь раскрыть три технические ошибки SEO, которые требуют вашего немедленного расследования. Являетесь ли вы директором по маркетингу, генеральным директором, предпринимателем или другим профессионалом - вы (и вся ваша команда) должны знать об этих катастрофических технических ошибках SEO, которые могут дорого стоить вам и вашему бизнесу.

Ваш сайт построен для оптимального Google видимость в 2017 году ?

Ошибка № 1: раскрытие однострочного кода гибели

Уровень серьезности: высокий

Мы все делаем ошибки, но любые ошибки, сделанные в одном конкретном файле, будут иметь серьезные последствия ... Я говорю о вашем файле .htaccess. Всего один пропущенный символ или лишний пробел в этом файле может привести к сбою вашего сайта!

Перед тем, как раскрыть окончательную ошибку, вот небольшая справочная информация для вас: если вы используете веб-сервер Apache (который в настоящее время используется), не бойтесь; военные вертолеты нигде не видно, но ваш файл .htaccess можно считать главным командным центром вашего сайта - вашей кабиной.

Следующими двумя наиболее популярными серверами являются NGINX и Microsoft-IIS, причем NGINX становится все более широко используемым. Вы можете увидеть (исторически) огромные различия в использовании здесь:

Источник

Просто сделать все немного запутанным; Версия .htaccess для NGINX - это файл с именем nginx.conf, а для Microsoft - файл web.config. Они не похожи на подобные файлы ... но сравнимы, с похожими функциями главного управления.

Все еще со мной? Отлично! Вот еще один GIF, чтобы держать вас в движении.

Источник

В тот момент, когда вы полностью понимаете различные типы серверов

Как вы знаете, какой сервер вы используете?

Вы можете сделать быстрый поиск, используя этот инструмент , Та-да! Цифровой ток использует NGINX:

Как вы достигаете своих главных управляющих файлов?

Вам необходимо найти и получить доступ к этим файлам через FTP (протокол передачи файлов) с помощью клиентского программного обеспечения FTP, такого как FileZilla , Конечно, требуется информация для входа на уровне сервера. Я рекомендую подключиться с помощью SFTP или FTPS быть особо защищенным.

Какой критической строки кода следует избегать?

Я покажу вам SEO-ошибочный код для двух самых популярных серверов, Apache и NGINX.

Для Apache: если у вас есть эта строка кода в вашем файле .htaccess, ваш сайт не будет включен в результаты поиска!

Набор заголовков X-Robots-Tag «noindex, nofollow»

Для NGINX: если у вас есть эта строка кода в вашем файле nginx.conf, ваш сайт также не будет включен в результаты поиска!

add_header X-Robots-Tag «noindex, nofollow»;

Вы можете исследовать наличие этих команд (известных как заголовки HTTP), используя этот инструмент ,

Директивы X-Robots умны для аккуратного и эффективного SEO. Однако используйте их с особой осторожностью, и ВСЕГДА следите за тем, чтобы резервные копии вашего .htaccess (или других подобных файлов) сохранялись и проверялись после каждой модификации сайта.

Иногда изменения в версии разработки вашего сайта могут быть запущены, и эти команды также небрежно переносятся!

Скажем так ... Вы действительно не хотите, чтобы кто-то допустил ошибку в главном управляющем файле вашей компании.

Источник Источник

В тот момент, когда вы обнаружите проблему с вашим файлом .htaccess!

Всегда будьте в курсе внезапных падений трафика, создавая настраиваемые интеллектуальные оповещения в Google Analytics.

Вот некоторые более сочные команды .htaccess для ваших экспериментов SEO - и они обычно могут быть переведены каким-то образом для пользователей NGINX и IIS. Наслаждайтесь!

Ошибка № 2: потеря контроля над параметрами вашего URL

Уровень серьезности: средний

URL является коротким для Uniform Resource Locator - просто причудливое название для веб-адресов каждой страницы в Интернете.

Если вы используете сайт электронной коммерции, крупный новостной сайт или сайт издателя, у вас, скорее всего, будут суффиксы, начинающиеся с '/?' и содержать '=' на большом количестве URL.

Эти суффиксы используются для предоставления одного и того же (или аналогичного) содержимого страницы в различных форматах, т. Е. Отсортированного содержимого страницы по самой высокой цене или наиболее популярных элементов. Они известны как параметры.

Они, как правило, длинные, они всегда неприглядные ... и они могут привести к беспорядку!

  • Такие параметры URL могут быть объявлены в вашем Google Search Console с помощью вкладки "Сканирование" слева, предписывающей Google игнорировать содержимое этих дублированных страниц и не тратить их впустую. распределение сканирования делать это. Тем не менее, я скоро объясню, почему это может привести к потере авторитета от обратных ссылок:

Тем не менее, я скоро объясню, почему это может привести к потере авторитета от обратных ссылок:

  • Ваш файл robots.txt может также направить поисковые системы от сканирования этих страниц. Если ваш параметр включает /? Sort = order_popular, вы можете использовать указанную ниже директиву «подстановочный знак», чтобы Google не сканировал этот параметр, а также все другие параметры, отображающие «/?»:

Пользователь-агент: *
Disallow: /? *

ПРИМЕЧАНИЕ. Это может не помешать другим паукам поисковых систем сканировать эти URL, поскольку подстановочные знаки (*) не являются частью стандартного языка robots.txt.

Теперь, если эти варианты страниц еще не получили каких-либо ссылок и другого внимания, таких как социальные сети, они еще не важны для вашей органичной видимости. В любом случае, они не должны быть включены в результаты поиска.

Источник Источник

URL параметров в Google никого не впечатляют!

Это все о консолидации. Авторитет всего вашего сайта должен быть направлен на лучшую органическую производительность.

Если вы вовремя поймали URL-адреса виновных (до того, как они стали известными) и теперь хотите очистить эти строки параметров, которые могли быть проиндексированы, вот несколько шагов, которые необходимо предпринять…

Если у вас есть сайт меньшего размера, но вы все еще используете параметры, вы можете быстро удалить все некорректные URL-адреса из Google с помощью инструмента «Удалить URL-адреса» консоли поиска (хотя это ручной процесс, один URL-адрес за одним).

Если у вас есть сайт меньшего размера, но вы все еще используете параметры, вы можете быстро удалить все некорректные URL-адреса из Google с помощью инструмента «Удалить URL-адреса» консоли поиска (хотя это ручной процесс, один URL-адрес за одним)

Убедитесь, что ваши главные страницы (без параметров) легко найдены поисковыми системами, объявив их в .xml карта сайта , В качестве дополнительных мер используйте директиву «Разрешить» в файле robots.txt (находится по адресу yourdomain.com/robots.txt), а также объявите там свою карту .xml:

Пользователь-агент: *
Разрешить: / url-без параметра /

Disallow: / url-с-параметром /? *

Карта сайта: https://yourdomain.com/sitemap.xml

Чтобы в таком сценарии ничего не проскальзывало; Вы можете использовать «noindex, следуйте» мета теги роботов на любые URL, которые вы не хотите индексировать, применяя также rel = «канонический» метатег ,

Применение канонического тега сообщает Google, какая страница является вашей главной страницей для любого набора дублированных URL, при этом эффективно направляя любой коллектив ». ссылка сок на эту главную страницу.

<link rel = ”canonical” href = ”http://yourdomain.com/clean-url”>

Вы должны использовать этот тег на всех страницах дубликата и главной странице, чтобы он работал эффективно. Конечно, каждый URL требует измененного тега, который соответствует.

Если у вас большой сайт, вы обязательно должны реализовать динамические канонические теги несколько автоматизировать весь процесс!

ПРИМЕЧАНИЕ 1. Указание Google не сканировать страницы через robots.txt, скорее всего, будет означать, что ваши мета-роботы и канонические теги на этих страницах не распознаются. Однако директивы robots.txt не гарантированно будет следовать - поэтому в таком сценарии эти теги действуют как защитная сеть.

ПРИМЕЧАНИЕ 2. Бюджет сканирования Говорят, что это проблема только для огромных сайтов или те, которые имеют «бесконечные» результаты страницы (например, динамические календари). Таким образом, при желании пользователи с небольшими сайтами могут быть уверены в том, что могут сканировать все страницы, используя при этом либо мета-роботов, либо X-роботов, а также канонические теги для улучшения равенства ссылок.

Источник

Мы почти у цели! Не бросай меня сейчас!

Что, если эти параметры URL уже получили несколько хороших обратных ссылок?

Сначала я объясню, что вы можете сделать со стандартным URL-адресом, который вы не хотите индексировать (URL-адрес без каких-либо параметров, таких как «?» После первой косой черты) в сценарии получения ценных обратных ссылок.

Чтобы проверить обратные ссылки, используйте такой инструмент, как AHREFS ,

Вы бы не указали этот URL в robots.txt (чтобы его можно было сканировать), а вместо этого применили ранее упомянутый тег уровня страницы «noindex, follow», также известный как мета-роботы.

Это вставлено в HTML-раздел <head> вашей страницы:

<meta name = ”robots” content = ”noindex, follow” />

Вам также необходимо сохранить свои канонические теги.

Приведенная выше команда говорит Google передавать заработанный «сок ссылок» на другие страницы, но не индексировать эту конкретную страницу в результатах поиска.

Затем вы могли бы поддерживать порядок в своем доме, удалив страницу из индекса Google через консоль поиска.

Примечание. Прежде чем сделать это, убедитесь, что у вас есть канонические теги, а нужная главная страница уже проиндексирована.

И решения для параметров URL?

Вот где это может быть немного сложно! URL-адреса параметров могут быть сложнее манипулировать из-за их динамической природы (обычно они не являются «статическими» страницами).

В этом случае можно сохранить все полномочия, передаваемые ссылками на веб-сайты, при этом предотвращая дальнейшее нежелательное внимание к этим URL-адресам параметров - опять же, используя динамически применяемые канонические теги а также через умные команды .htaccess на «noindex, следуй» на этих страницах.

Следовательно, они рано или поздно выпадут из индекса Google - но вы можете еще раз использовать инструмент удаления URL для приоритетных страниц в качестве более быстрой альтернативы.

ПРИМЕЧАНИЕ. После первой половины этой статьи вы будете хорошо осведомлены о деликатной природе файла .htaccess! Прежде чем открывать его, всегда проверяйте, используете ли вы тестовую среду, которую легко можно восстановить. Никогда не тестируйте на своем сайте!

Вот еще один приятный трюк, если у вас очень большой сайт, который поглощает ваш бюджет сканирования - и динамические канонические или команды .htaccess вызывают слишком много головной боли:

Пусть ваши разработчики изменят функции параметров преступника (и, следовательно, их сопутствующие URL-адреса), которые получили много сочных ссылок, при этом перенаправляя исходные URL-адреса параметров к их стандартным, непараметрическим аналогам URL-адресов.

Источник

Чего-чего?!

Вот пример:

URL параметра, который получил ценные ссылки:
www.yourdomain.com/hello/?sum=high

URL нового параметра, который обеспечивает такое же (отсортированное) содержимое:
www.yourdomain.com/hello/?sum=high_content

Исходный URL без каких-либо параметров:
www.yourdomain.com/hello/

Перенаправить этот параметр:
www.yourdomain.com/hello/?sum=high

На исходный URL:
www.yourdomain.com/hello/

Перенаправления 301 гарантируют, что вы в полной мере используете «сок ссылок», который заработали такие страницы параметров, что дает вам больше шансов ранжировать свои главные страницы в Google.

Чтобы сохранить его в чистоте, удалите все следы исходных URL-адресов параметров из файла robots.txt.

После того как вы перенаправили, как указано выше, вы можете использовать robots.txt «Запретить» команды для URL-адресов новых параметров.

Примечание. Наиболее удобно блокировать обход URL-адресов параметров через файл robots.txt, если у вас большой веб-сайт или «бесконечные» результаты на странице. Вот еще немного информации о оптимизировать бюджет обхода , Вы также можете следить за нежелательными скачками или снижением скорости сканирования. через вашу консоль поиска Вкладка "Статистика сканирования":

Постоянно   отслеживать новые обратные ссылки   и социальные доли URL-адресов
Постоянно отслеживать новые обратные ссылки и социальные доли URL-адресов. В случае, если ваши новые URL набирают большое количество ссылок, вы можете повторить все шаги выше ...

Тем не менее, канонические и мета-роботы теги noindex, follow являются, как правило, наилучшим основным действием для относительно базовых небольших сайтов.

Всегда принимайте время, чтобы взвесить все за и против, прежде чем вносить какие-либо технические изменения. Буду ли я вносить какие-либо сложные изменения ради максимизации выгоды от одной или двух ссылок? Возможно нет.

Буду ли я вносить изменения в капитал воронки, полученный от 125 мощных обратных ссылок? ДА.

Все это помогает ранжировать желаемые главные страницы, а не ослаблять авторитет вашего сайта.

Ошибка № 3: отображение нескольких версий вашего сайта

Уровень серьезности: высокий

Это одна из худших, но наиболее легко избегаемых ошибок, с которыми я сталкиваюсь ... слишком часто!

Знаете ли вы, что ваш сайт может иметь несколько версий, все они живут одновременно?

www.yourwebsite.com
yourwebsite.com
yourwebsite.com/index.html (на Apache)
https://yourwebsite.com

Все четыре варианта могут показывать одну и ту же страницу и сайт!

Источник Источник

Если бы у Google было выражение для этой ошибки ...

Хотя контент будет точно таким же, поисковые системы будут рассматривать эти домены как совершенно отдельные веб-сайты - что может вызвать проблемы и конфликтовать с индексацией - не говоря уже о путанице для пользователей. Вы также можете получить все ваши сайты, проиндексированные и связанные с других доменов.

Проверки:

  • Во-первых, убедитесь, что вы выбрали предпочитаемый домен в консоли поиска Google.
  • Проверьте перечисленные выше варианты моего домена на своем собственном домене, чтобы узнать, будут ли они автоматически перенаправляться на URL вашего основного домена.
  • Если они не: Хьюстон, у нас может быть проблема!

Действия:

  • Попросите разработчиков по возможности установить 301 (постоянную) переадресацию из всех дублированных версий. (ПОМНИТЕ: все страницы сайта должны быть сопоставлены и перенаправлены на их аналоги, что также может быть быстро достигнуто через .htaccess , если у вас большой сайт).
  • Большинство систем управления контентом ( CMS ), например, WordPress автоматически перенаправит прописные URL-адреса в строчные. Если это не относится к вашей CMS, вы можете включить специальные директивы еще раз в нашем любимом файле: .htaccess!
  • Если по какой-либо причине невозможно перенаправить URL-адреса, я бы применил только канонические теги и теги «noindex, follow», где это применимо, удалив все проиндексированные URL-адреса в Google (используя инструмент удаления URL-адресов через консоль поиска).
    • Опять же, в этом случае - если двойные домены и страницы уже подобрали хорошие ссылки, я бы не стал применять тег «nofollow» или директиву «Disallow» в robots.txt - потому что «значение SEO», которое накапливалось с течением времени, может Потерянный.
    • Также убедитесь, что все внутренние ссылки на вашем предпочтительном домене используют ссылки того же домена, а не ссылки, указывающие на другую версию вашего сайта! Это простая ошибка, чтобы сделать ...
Источник

Поздравляем! Вы сделали это живым!

В качестве специального дополнения, вот еще пять важных технических проверок SEO для вас, чтобы отметить:

БОНУС: 5-балльный технический SEO контрольный список

  • МАКСИМАЛЬНАЯ ИНДЕКСАЦИЯ
    • Поиск в Google и проверка всего проиндексированных страниц> site: yourdomain.com
    • Проверьте Консоль поиска

com   Проверьте   Консоль поиска

  • Гладкие перенаправления
    • Идентифицировать и исправить цепочки перенаправления преступника, используя этот инструмент
      (У вас должно быть только одно перенаправление, с одной страницы на другую)
    • Проверьте мягкие перенаправления «302» с помощью инструмента выше или этот инструмент , а затем применить 301 перенаправления вместо
      (302 перенаправления классифицируются как временные перенаправления и несмотря на капитальный ремонт в работе Google Ходили слухи о том, сколько «связующего сока» они пропустят)
  • ВОДОСВЯЗИ ССЫЛКИ
    • Выявить неработающие ссылки, используя Консоль поиска , затем примените перенаправления 301 к живым страницам

ВОДОСВЯЗИ ССЫЛКИ   Выявить неработающие ссылки, используя   Консоль поиска   , затем примените перенаправления 301 к живым страницам

Источник Источник

Если вы все еще не можете определить или исправление технических ошибок SEO Возможно, пришло время связаться с профессиональным агентством цифрового маркетинга.

У вас есть история успеха результатов поиска после исправления технических ошибок на вашем сайте? Мы хотели бы услышать об этом в Твиттере @DigitalCurrent ,