Scre 🥇 Screaming Frog Guide ⓴⓱: улучшить SEO вашего сайта с 0 до 100

  1. 1. Начальная конфигурация
  2. 1.1.Spider
  3. 1.2.Robots.txt
  4. 1.3.URL переписывание
  5. 1.4.Включить и исключить
  6. Заголовок 1.6.HTTP
  7. 1.7 Индивидуальный поиск и извлечение конкретных данных
  8. режим 2.Playback
  9. 3. Анализ отслеживаемой информации
  10. 3.1- Внутренний: анализ URL проекта
  11. 3.2- Внешний: Анализ исходящих внешних ссылок
  12. 3.3 Протокол: проверка, есть ли у нас URL с http и https
  13. 3.4- Анализ кодов ответов
  14. 3.5- URI: проанализируйте синтаксис ваших URL
  15. 3.6- Названия и описания
  16. 3.7- Заголовки и изображения
  17. 3.8- Директивы
  18. 3.9- Архитектура и уровни глубины
  19. 4. Экспорт информации (отчеты)
  20. Продвинутые методы с Кричащей Лягушкой - [Видео]

Screaming Frog Seo Spider - инструмент, который должен знать каждый, кто интересуется миром веб-страниц и его оптимизацией.

С его помощью мы можем сканировать все URL-адреса портала и найти почти Любой тип сбоя на месте , Хотите оставить свой идеальный сайт? Хорошо, давайте посмотрим подробно и подробно, как работает этот мощный инструмент!

Но сначала ... Вы должны загрузить этот инструмент здесь чтобы иметь возможность следовать этому руководству.

1. Начальная конфигурация

При входе в Screaming первое, что мы видим, это окно, в которое мы поместим URL нашего сайта:

Когда мы нажимаем «Пуск», он начинает отслеживать весь сайт; Теперь есть десятки вариантов и способов, которые вы должны контролировать перед началом работы, поскольку они позволят вам значительно оптимизировать процесс и получать только ту информацию, которую вы хотите.

В верхнем меню нажмите «Конфигурация», чтобы отобразить следующее подменю:

1.1.Spider

Первый показанный вариант - «Паук», в котором мы сможем настроить, какие типы файлов мы хотим отслеживать, какую информацию получить и как.

При нажатии на эту опцию откроется следующее окно:

Что отслеживать?

Первая вкладка «Основные», как мы видим на снимке, позволяет нам выбрать формат файлов для отслеживания. Мы можем включать / исключать изображения, CSS, файлы Javascript и SWF.

Мы также можем попросить вас перейти по внутренним или внешним ссылкам, помеченным как «nofollow» (здесь я оставляю статью, в которой рассказываю обо всем, что связано с nofollow ссылки ).

С опцией «Crawl All Subdomains» мы скажем Screaming, что если он найдет субдомен, он будет рассматривать его как внутреннюю ссылку, а не как внешнюю. Если по какой-либо причине вы хотите начать сканирование по URL-адресу, отличному от корневого, установите флажок «Сканировать вне начальной папки».

Другие параметры используются для отслеживания канонических символов, метки нумерации страниц Rel = 'next' и Rel = 'prev', а также URL-адресов, помеченных Hreflang.

Охо

Если мы уберем эти опции, Screaming будет только извлекать эти данные (например, если URL имеет канонический характер, он сообщит нам, куда он указывает); если, наоборот, мы пометим их, в дополнение к извлечению этой информации будет отслеживаться URL, помеченный как канонический, Next / Prev или Hreflang.

СОВЕТ: Если мы собираемся отслеживать очень большой портал, я рекомендую снять отметки с изображений, CSS, JavaScript и SWF (и Hreflang, если у вас только один язык). Даже в некоторых случаях я не перехожу на внешние ссылки nofollow. Чем меньше элементов вы должны отслеживать, тем быстрее это будет.

ГРАНИЦЫ

Во второй вкладке мы можем установить определенные ограничения, что очень полезно, особенно если мы хотим разграничить очень большую сеть:

  • Общий лимит поиска . Позволяет нам выбрать лимит отслеживаемых URL-адресов. Сначала мы заинтересованы в анализе всей сети, поэтому я никогда ничего не ставлю.
  • Limit Search Depth : Устанавливает максимальный уровень глубины. Уровень 1 будет удалять ссылки, которые 1 клик из дома. Уровень 2 будет подтягивать ссылки, которые на 2 клика от дома. И так соответственно.
  • Ограничить максимальную длину URI для сканирования . Ограничивает максимальную длину (в символах) URL-адресов для сканирования. Пример: если мы введем 100, он не будет отслеживать адреса, в синтаксисе которых содержится более 100 букв.
  • Ограничение максимальной глубины папки : очень похоже на второй вариант, но на этот раз мы ограничиваем его до уровня каталога. Внимание! Для Screaming уровень 0 - это не корень домена, а первый уровень URL; то есть, если мы установим уровень 0, он будет сканировать только те URL, которые имеют 1 каталог (введите luismvillanueva.com/seo). Если мы добавим уровень 1, он будет отслеживать URL-адреса, имеющие максимум 2 уровня каталогов (введите luismvillanueva.com/seo/test).
СОВЕТ: Это действительно полезно на сайтах, которые имеют свои URL в формате SILO. Таким образом, вы можете легко исключить те, которые находятся на очень высоком уровне и остаются только с простыми низкоуровневыми URL-адресами, которые обычно являются категориями.
  • Ограничить количество строк запроса : Ограничить количество параметров при условии, что они имеют тип формата? X =. Пример: domain.com/zapatos?p=rojos имеет 1 параметр. Dominio.com/zapatos?p=rojos_?g=mujer имеет 2 параметра. Очень полезно, если мы хотим исключить комбинации параметров в интернет-магазинах.

ОКАЗАНИЕ

Следующая вкладка «Рендеринг» позволяет нам выбирать между 3 вариантами, которые будут определять, как обрабатывать содержимое страницы: обрабатывать Javascript или нет.

По умолчанию используется опция « Старая схема сканирования AJAX », и в основном она эмулирует систему Google, предложенную в 2009 году для отслеживания содержимого AJAX; хотя с 2015 года он устарел, он больше всего напоминает отслеживание, которое он выполняет в настоящее время.

Я рекомендую всегда оставлять эту опцию, но представьте, что на вашем сайте есть элементы Javascript, которые препятствуют правильному отслеживанию с помощью Screaming. Что делать? Мы выбираем опцию «Только текст», с помощью которой мы будем отслеживать только чистый HTML-код, избегая Javascript.

Наконец, у нас есть третий вариант «Javascript», который выполняет код такого типа, если он у нас есть в Интернете, и даже сделает снимок экрана с тем, как он выглядит. Очевидно, что этот вариант является самым дорогим для инструмента, поэтому вам, безусловно, потребуется гораздо больше времени для завершения процесса.

Выбрав «Javascript», мы можем настроить несколько простых параметров:

Это позволяет нам выбрать время (в секундах), в течение которого код AJAX будет выполняться, пока не будет сделан захват. Мы также можем указать размер экрана во время захвата.

ADVANCED

Если со всем этим вам не хватает, чтобы настроить паука по своему вкусу, давайте перейдем к расширенным опциям!

Хотя это редко, вы можете зайти на сайт, где вам нужно принять куки для правильной навигации. Если это так с вашим порталом, отметьте первый вариант.

« Пауза при высоком использовании памяти » отмечена по умолчанию и очень полезна для очень больших страниц, поскольку Screaming Frog в определенные моменты времени достигает предела своей памяти (помните, что это приложение Java), приостанавливает процесс и предупреждает нас о его сохранении. проект, если мы хотим продолжить.

Вы сделали миграцию или подозреваете, что у вас есть цепочки перенаправления?

Затем выберите « Всегда следить за перенаправлениями ». Крики будут следовать переадресовывает до окончательного URL.

Представьте, что у вас есть URL с 301, который в свою очередь указывает на URL, который также имеет 301. С этой опцией, когда процесс отслеживания будет завершен, вы сможете обнаружить и экспортировать эти цепочки из следующего окна главного меню:

Если мы отметим « Respect noindex », « Respect Canonical » и « Respect Next / Prev », мы не будем извлекать в окончательном отчете URL-адреса, имеющие тег Noindex, канонический URL-адрес, который не является сам по себе, или теги пагинации Next / Prev. ,

СОВЕТ: С этими 3 вариантами вы можете значительно упростить окончательный отчет. Например, если вы не заинтересованы в анализе неиндексируемых страниц (noindex), нажмите «Respect noindex», и таким образом вы позже сохраните удаление этого типа страниц из своего отчета!

Установив флажок « Извлечь изображения из атрибута Img srcset », Screaming удалит все изображения, помеченные атрибутом srcset. Конечно, ваша веб-страница не загружает фотографии таким образом, так как это атрибут CSS, не очень распространенный. Здесь вы можете увидеть пример: https://webkit.org/demos/srcset/

Следующее поле (« Время отклика ») очень интересно, если сеть, которую мы собираемся проанализировать, очень медленная, потому что она позволяет нам отмечать максимальное время (в секундах), в течение которого Screaming должен ждать загрузки URL-адреса. По умолчанию они установлены на 20 секунд; то есть, если пройдет 20 секунд, а URL-адрес не будет загружен в отчет, это даст нам, что URL-адрес имеет код ответа 0 - «Время ожидания соединения».

Обычно портал не должен занимать столько места ... но если по причине X вам нужно подождать больше секунд для URL, эта цифра увеличивается. Конечно ... вам придется долго ждать, если у вас много URL.

Последние 2 поля очень просты: «5XX повторных попыток ответа» указывает, сколько раз Screaming будет пытаться получить доступ к URL с кодом ответа типа 5XX. В поле «Максимальное число перенаправлений для отслеживания» мы указываем максимальное количество перенаправлений, которые следует выполнять в цепочке.

ПРЕДПОЧТЕНИЯ

И мы подходим к последней вкладке настроек, где мы можем изменить по своему вкусу рекомендации, которые Screaming Frog по умолчанию указывает:

Как видите, для Screaming тег заголовка должен иметь от 30 до 65 символов. Все, что выходит из этих рекомендаций, помечает это как ошибку.

Если вы следуете другому типу правил и не хотите, чтобы отчет отображался как ошибка, измените эту информацию по своему вкусу. Вы можете изменить привязку в пикселях заголовка, описания, максимального количества символов, которое должен иметь URL-адрес, H1, H2, атрибут ALT или даже максимальный размер (в килобайтах) изображений.

1.2.Robots.txt

Как только Spider был настроен (он стоил ах ...), мы переходим в окно Robots.txt:

Тихо, потому что это намного проще, чем предыдущий. В настройках мы увидим следующее окно:

Где мы можем:

  • Полностью игнорируйте файл robots.txt нашего портала, поэтому заблокированные URL не будут отображаться как таковые.
  • Показать URL-адреса, заблокированные robots.txt в окончательном отчете. Я рекомендую всегда оставлять его отмеченным, чтобы убедиться, что вы блокируете нужные URL-адреса, вы всегда вовремя удаляете их из окончательного отчета после его проверки.
  • Показать внешние URL-адреса, заблокированные robots.txt

С другой стороны, если вы хотите смоделировать robots.txt для тестирования, выберите опцию «Custom» и добавьте нужные строки:

Конечно, имейте в виду, что внесенные вами изменения не будут внесены в ваш фактический файл robots.txt.

1.3.URL переписывание

Перезапись URL - это расширенная функция, которая позволяет нам изменять синтаксис URL и / или удалять параметры . Обратите внимание, что он не удаляет URL-адреса с параметрами из окончательного отчета, а переписывает эти URL-адреса.

И для чего эта функция может быть полезна?

Особенно для порталов, которые динамически генерируют параметры и которые мы полностью контролируем; В этих случаях мы можем игнорировать их. Я рекомендую, чтобы изначально вы никогда не использовали эту функцию, выполните полный обход, чтобы определить все типы URL.

Для работы с этой опцией нам нужно будет просто поместить в исходное окно параметр, который нужно удалить. Без символов "?" ni '='; то есть представьте, что мы хотим переписать страницы с типом URL luismvillanueva.com/blog?p=2. Мы поместили бы только «p» в начальное окно:

Кроме того, мы можем проверить, как это будет на вкладке «Тест»:

Хотя он выглядит очень светло-серым, мы можем убедиться, что URL-адрес будет выглядеть как https://luismvillanueva.com/blog.

На вкладке « Параметры » мы можем сделать так, чтобы все URL-адреса отчета были написаны строчными буквами.

А на вкладке «Regex Replace» мы можем использовать регулярные выражения, чтобы переписать адреса гораздо более сложным способом. Если вы заинтересованы, вы можете увидеть несколько примеров здесь: https://www.screamingfrog.co.uk/seo-spider/user-guide/configuration/#remove-parameters

1.4.Включить и исключить

Две функции, которые я использую чаще всего и которые я считаю наиболее полезными, это «Включить» и «Исключить». Благодаря им мы можем сделать сегментированное отслеживание ; когда мы сталкиваемся с чрезвычайно большим порталом (тысячи или миллионы URL-адресов), Screaming не может справиться с таким количеством адресов и будет заблокирован в определенный момент.

Поэтому эти варианты просто необходимы для крупных веб-сайтов, и настоятельно рекомендуется, чтобы вы знали, как их использовать и как они работают.

Оба имеют одинаковый внешний вид: окно, в которое мы будем добавлять параметры или папки (по одной на строку) для включения / исключения:

Мы будем использовать регулярное выражение «. *» (Без кавычек) перед или после параметра, чтобы указать, что любой элемент, который находится в этих позициях, должен быть исключен / включен.

С примером это понятнее: если при сканировании мы хотим исключить все фильтры, которые содержат «? Page =», в окне «Исключить» мы добавим. *? Page =. *. Таким образом, все эти URL не будут отслеживаться:

  • com /? page = 23
  • luismvillanueva.com/blog?page=22
  • com / блог? цвет = серый? страница = 23

Вы можете увидеть больше регулярных выражений здесь: https://www.screamingfrog.co.uk/seo-spider/user-guide/configuration/#exclude

СОВЕТ: Много раз, даже если мы отметили возможность не отслеживать изображения на вкладке «Паук», они будут отображаться в окончательном отчете, поскольку эти фотографии связаны между собой. Если вас не интересует фотографирование адресов в итоговом отчете, я рекомендую добавить в окно «Исключить» следующие строки:. * Jpg $. * Png $. * Gif $ TIP2: Еще один прием, который я часто использую, - исключить из окончательного отчета Внешние ссылки для обмена в социальных сетях. Эти гиперссылки обычно повторяются во всех URL-адресах веб-сайта и замедляют отслеживание крика. Сделайте начальное сканирование, чтобы идентифицировать их, а затем добавьте в окно Исключить строки типа:. * Facebook.com / share. *. * Pinterest.com. * И т.д ...

Наконец, очень важно, чтобы вы знали, что если вы исключите кричащий URL-адрес, он вообще не будет его отслеживать, он не будет учитываться или будет удален в окончательном отчете, поэтому, если этот URL-адрес содержит внутренние ссылки на другие URL-адреса, они не будут выполняться. Если URL доступен только через исключенный вами адрес, вы никогда его не достигнете.

1.5.Speed

Когда вы сканируете Screaming Frog, он будет постепенно анализировать все адреса портала со скоростью, пропорциональной загрузке в Интернете.

Иногда может случиться так, что медленная сеть, которая не поддерживает большой объем одновременных пользователей, становится еще медленнее или даже падает, когда мы передаем Screaming Frog. В этих случаях опция «Скорость» может быть очень полезна:

Через который мы вручную контролируем скорость, с которой Screaming отслеживает сайт:

В поле «Максимальное количество потоков» мы указываем максимальное количество одновременных задач (или пауков в данном случае), которые работают. С 5 обычно более чем достаточно, эти данные практически никогда не касаются его.

Если мы нажмем «Ограничить URI / s», это позволит нам изменить максимальное количество URL-адресов в секунду для отслеживания. Если у вас есть сайт, который загружается как черепахи или легко падает, я рекомендую оставлять его между 2 и 5 URL в секунду.

Заголовок 1.6.HTTP

На вкладке «Заголовок HTTP» мы можем изменить User-Agent так, чтобы сеть отвечала тем или иным образом.

Таким образом, мы можем смоделировать, что мы Googlebot, Googlebot Smartphone или Bingbot среди других. По умолчанию будет выбран пользовательский агент Screaming Frog; если анализ портала не продвигает прогрессию (он не отслеживает или URL-адрес), возможно, веб-сервер заблокировал Screaming или просто не отвечает должным образом этому User-Agent. Попробуйте изменить его на Googlebot:

1.7 Индивидуальный поиск и извлечение конкретных данных

Если вы проводите аудит сайта много раз, вам потребуется удалить определенный набор URL-адресов, содержащих элемент X: те, в которых размещен код Google Analytics, где упомянуто ключевое слово X и т. Д.

Благодаря функции «Пользовательский поиск» мы можем разделять URL-адреса, которые содержат (или не содержат) в своем исходном коде то, что нам нужно:

Как только вы закончите отслеживать все URL-адреса, вы сможете увидеть на вкладке «Пользовательские» страницы, где вы нашли указанные.

А если мы хотим извлечь данные? Вы также можете! С опцией «Custom - Extraction» мы можем напрямую получить контент, который находится внутри HTML-тега:

У нас есть разные способы сделать это, используя регулярные выражения, путь Xpath или путь CSSPath; В зависимости от элемента, который вы хотите извлечь, вам будет проще сделать это так или иначе.

Если вы не поняли цели этой функции, я приведу примеры: мы могли бы получить все названия продуктов из интернет-магазина или все условия, которые каждый URL имеет в сухарях.

Давайте теперь приведем реальный пример: в моем блоге у меня есть приблизительные данные минут, которые вы потратите на чтение поста.

В Google Chrome я проверяю элемент, чтобы увидеть исходный код, и копирую Xpath:

Если сейчас я вставлю его в функцию, которую мы только что прокомментировали, я очищаю свой сайт и перехожу на вкладку «Пользовательские» - «Извлечение». Рядом с URL-адресами отображается приблизительное количество минут чтения:

Предел в вашем воображении, вы можете извлечь необходимую информацию!

режим 2.Playback

В главном меню мы также можем изменить режим отслеживания:

- Spider : Screaming будет действовать как паук, переходя по внутренним ссылкам. Он начнет отслеживать по указанному нами адресу:

- Список : с этой опцией Screaming будет анализировать список URL-адресов, которые мы укажем вручную.

С помощью режима «Список» можно делать интересные вещи, такие как анализ всех адресов файла Sitemap и обнаружение тех, которые возвращают ошибки 404, 301 и т. Д.

3. Анализ отслеживаемой информации

Теперь да, когда у вас все настроено, вы можете нажать «Пуск» и начать анализировать ваш сайт. Чем больше страниц вашего сайта, тем больше времени потребуется для завершения всего процесса.

Когда вы достигнете 100%, у вас будут разные панели с огромным количеством информации. Для навигации по всем этим данным вы можете использовать вкладки вверху:

Или прокрутите поле справа, которое включает подразделы, чтобы вы могли перейти непосредственно к тому, что вас интересует:

В центральной панели вы найдете полученную информацию, и в зависимости от того, на какой вкладке вы находитесь, это будет одно или другое:

3.1- Внутренний: анализ URL проекта

По умолчанию мы будем находиться на вкладке «Внутренние», где будут показаны все URL-адреса, найденные Screaming, а также следующие данные:

  • Код состояния и статуса: они указывают код ответа, который может быть 200, 301, 404 и т. Д.
  • канонический
  • Мета-робот
  • название
  • описание
  • Заголовки H1 и H2
  • Размер страницы (в байтах)
  • Количество слов
  • Соотношение текста: соотношение между содержанием и кодом
  • Уровень: уровень глубины, дом будет на уровне 0, URL, который находится на расстоянии одного клика от дома, будет на уровне 1 и т. Д.
  • Inlinks: количество внутренних входящих ссылок, которые имеет URL
  • Outlinks: Количество исходящих внутренних ссылок на другие части сети.
  • Внешние исходящие ссылки: количество внешних внешних ссылок с этого URL.
  • Хеш: Это уникальный идентификационный код, сгенерированный из исходного кода, то есть, если две страницы имеют абсолютно одинаковый код, хеш будет идентичен. Это значение, которое необходимо учитывать, чтобы получить дублированный контент.
  • Время отклика: время в секундах, необходимое для загрузки страницы.

В дополнение ко всему этому мы можем быстро фильтровать по типу контента, поскольку на панели справа в категории «Внутренние» мы видим следующее:

При нажатии на любой из форматов центральная панель будет обновляться, показывая только те URL-адреса, которые соответствуют выбранному значению.

Как получить внутренние входящие ссылки и внутренние исходящие ссылки с определенного URL?

Если вы нажмете на одно направление (в центральной панели), вы увидите окно с различными вкладками внизу. Там вы можете найти как ссылки, так и ссылки на этой странице:

Если вы хотите напрямую экспортировать эту информацию в Excel, щелкните правой кнопкой мыши по нужному URL; Вы увидите раскрывающийся список, подобный следующему:

Где вы можете сохранить Inlinks и Outlinks (в частности, этот URL), а также проверить другие очень интересные элементы, такие как кеш, если он проиндексирован или нет, посмотрите его на archive.org и т. Д.

3.2- Внешний: Анализ исходящих внешних ссылок

Мы переходим на следующую вкладку «Внешние», где мы можем видеть все внешние ссылки, которые у нас есть на нашем сайте, то есть все ссылки, которые мы поместили на другие домены.

Эта панель точно такая же, как «Внутренняя», так как она имеет те же фильтры и те же столбцы информации.

Рекомендуемое использование : проверьте внешние URL-адреса с кодом ответа, отличным от 200, например неработающие страницы (404). Хотя, как мы увидим позже, существуют более простые способы получения всех адресов в соответствии с вашим кодом ответа.

3.3 Протокол: проверка, есть ли у нас URL с http и https

На вкладке протокола отображаются, с одной стороны, адреса, которые используют https, а с другой стороны, те, которые используют http.

Наблюдайте вне ! Если вы настроили, что внешние исходящие ссылки также отслеживаются, они будут смешаны с адресами вашего сайта. Если вам нужны только страницы вашего сайта, у вас не будет выбора, кроме как разместить по алфавиту или экспортировать данные в Excel и удалить внешние.

Особенно интересно проверить эту вкладку, когда мы осуществили переход с http на https.

3.4- Анализ кодов ответов

На четвертой вкладке «Коды ответов» появятся все адреса портала, и мы сможем отфильтровать их в соответствии с кодом ответа, который они дают:

Проанализируйте все, что не имеет кода ответа 200, и примите соответствующие решения в соответствии с необходимостью.

  • Убедитесь, что URL, заблокированные robots.txt, именно те, которые вы хотели
  • Убедитесь, что у вас нет страницы «Нет ответа»
  • Проверьте, все ли ваши перенаправления строго необходимы
  • Убедитесь, что у вас нет битых страниц, что они возвращают 404

3.5- URI: проанализируйте синтаксис ваших URL

Следующее окно отвечает за предоставление вам информации о ваших URL, в частности, как они написаны. Фильтры, которые вы найдете на правой панели, следующие:

  • Символы, не входящие в ASCII: адреса, содержащие странные символы, не относящиеся к кодировке ASCII.
  • Подчеркивает: обнаруживает URL, которые включают в себя низкий бар.
  • Прописные буквы: обнаруживает URL-адреса, содержащие заглавные буквы.
  • Дубликат: обнаруживает URL с одинаковым хешем (обсуждено выше). То есть он обнаруживает идентичные страницы.
  • Параметры: адреса, содержащие параметры. Чрезвычайно полезно сразу увидеть все, что у вас есть, и проверить, не заблокированы ли они роботами, не имеют ли они индекс и т. Д.
  • Более 115 символов: отображает слишком длинные URL-адреса, содержащие более 115 символов. Простые и короткие направления всегда рекомендуются.

3.6- Названия и описания

Обе панели имеют фильтры одного типа:

В один клик мы можем увидеть все страницы, на которых заголовок или описание:

  • Они пусты.
  • Они имеют двойственность с другими внутренними страницами.
  • Они слишком длинные и поэтому целые числа не отображаются в результатах поиска.
  • Они слишком короткие.
  • Они точно такие же, как заголовок H1.
  • Их несколько, то есть в одном адресе у нас есть несколько заголовков или несколько описаний, что было бы неправильно.

3.7- Заголовки и изображения

H1, H2 и изображения являются 3 из самых простых и простых вкладок. Они показывают нам следующую информацию:

Мы можем быстро удалить страницы, которые не имеют заголовков H1 или H2, которые повторяются на нескольких страницах, слишком длинные или повторяются в пределах одного и того же URL-адреса (необязательно с одним и тем же текстом).

В фильтрах изображений мы можем выбрать те, которые весят более 100 КБ, те, которые не имеют атрибута ALT, или те, которые имеют его, но он слишком длинный. Есть 3 элемента, которыми мы, как правило, пренебрегаем, когда речь заходит о SEO, но они могут помочь нам значительно улучшить сайт нашего портала.

3.8- Директивы

Одна из последних панелей, но не менее важная, - это директивы или «Директивы», в которых отображаются ценные данные, такие как:

  • Canonical : URL-адреса, содержащие каноническую метку, либо для себя, либо для другого URL
  • Канонизированный : URL-адреса, содержащие канонический тег, который указывает на другой URL-адрес.
  • Далее / Пред . : Содержать эти теги пагинации.
  • Индекс / Noindex : содержит указанную метку, которая указывает Google, хотим ли мы индексировать ее или нет.
  • Follow / Nofollow : если они содержат этот метатег, который указывает Google следовать или нет гиперссылок, содержащихся в URL.

Как видите, есть и другие фильтры, но менее важные, так как они анализируют довольно устаревшие цели.

3.9- Архитектура и уровни глубины

Хотя это несколько скрыто, если вы посмотрите внимательно в верхнем правом углу над фильтрами, которые мы только что прокомментировали, вы увидите вкладку с надписью «Структура сайта»:

При доступе к нему мы увидим очень иллюстративную графику с распределением уровней глубины, которые имеют наши URL:

В примере мы видим, что большинство страниц находятся на третьем уровне клика из дома. Важно не иметь слишком много URL-адресов на очень удаленных уровнях, так как бот Google будет стоить дороже, чтобы добраться до них.

4. Экспорт информации (отчеты)

Как вы можете видеть, Screaming Frog - чрезвычайно мощное программное обеспечение, с которым любой SEO должен справиться отлично.

Такого объема данных и информации, что бросает нам, что часто наиболее целесообразным является экспорт небольшого сегмента и продолжить работу в Excel.

Для этого в главном меню Screaming есть раздел «Массовый экспорт», который значительно облегчает эту задачу.

Среди всех опций, которые позволяют найти наиболее интересные и наиболее часто используемые мной:

  • Все входящие и все исходящие ссылки : экспортирует все URL-адреса сайта вместе со всеми вашими входящими и исходящими внутренними ссылками соответственно.
  • Коды ответов . Экспортирует наборы URL-адресов в соответствии с имеющимся у них кодом ответа. Хорошо, что он добавляет для каждого адреса страницы, на которых размещена ссылка. То есть, например, мы можем узнать, есть ли у нас редирект 301, где его найти на нашем портале (в какой статье или в каком тексте он находится).

Продвинутые методы с Кричащей Лягушкой - [Видео]

Если вы следовали всем пунктам этого руководства, вы готовы провести аудит любого портала с помощью этого замечательного инструмента. Теперь трудная вещь состоит в том, чтобы интерпретировать все эти данные, которые Screaming дает нам, и принимать правильные решения.

Что вы думаете об этом Кричащем гиде лягушки?

Оставьте мне комментарий с мнением этого урока и с вопросами, которые у вас есть. До скорой встречи!

Я беру эту статью, которая имеет тягу для проведения эксперимента:

  • КВт 1: fasklfhasdlkjfhsdlñfjkhaj (Это идет по ссылке, которая уже есть в меню, это будет вторая ссылка с придуманным якорем, потому что она находится в меню)
  • КВт 2: lñasijdfhvoemcjhaj (Это относится к URL, который связан только отсюда, это будет первая ссылка с придуманным якорем)

Похожие

SEO и эффективная архитектура сайта
... и вы сравните традиционные стратегии офлайнового маркетинга с онлайн-стратегиями и предполагаемой рентабельностью инвестиций, то архитектура сайта это одна из областей, которая, хотя и новая, не должна игнорироваться. Почему ты спрашиваешь? Потому что успешная архитектура веб-сайта включает в себя создание системы ссылок на страницы, которая может помочь вам нацеливать маркетинговые планы и, естественно, охватить большую аудиторию.
SEO обзор - оптимизация сайта
ПОИСК ДВИГАТЕЛЬ ОПТИМИЗАЦИЯ (SEO)
... сейчас является основным маршрутом для исследования любых услуг через Интернет. Ваши потенциальные клиенты будут использовать Google, как и вы, для поиска предлагаемых вами услуг. Увеличение ваших шансов быть найденным в Google приведет к увеличению числа потенциальных клиентов. SEO помогает поставить ваши услуги и контактную информацию перед потенциальными клиентами, а также получить более широкую аудиторию. SEO в целом намного дешевле, чем традиционные методы маркетинга,
Seo Software
С помощью программного обеспечения DOitSEO ваш сайт оптимизирован, чтобы привлечь внимание поисковых систем и заинтересовать посетителей вашего сайта. Наше запатентованное программное обеспечение SEO делает поисковую оптимизацию проще, чем когда-либо прежде. Ни одна другая SEO компания не предоставляет такого упрощенного SEO. Позвоните 760-749-9197, чтобы начать бесплатную пробную версию сегодня!
Архитектура сайта для SEO: полное руководство
... URL-адресе и мета-описании (H1 и Image Tag, если вы действительно занимаетесь оптимизацией). Не менее важно то, что на странице не должно быть * другого * ключевого слова. Причина в том, что если вы попытаетесь настроить таргетинг на несколько ключевых слов, то, как правило, произойдет следующее: документ не будет в достаточной степени описывать первый термин, чтобы он мог ранжироваться по этому термину; и не будет достаточно второго термина, чтобы ранжировать за * этот * термин,
Местное SEO
... или средний бизнес не сможет конкурировать с более крупными брендами на национальном уровне, но вы можете доминировать на местном рынке, используя преимущества локальной поисковой оптимизации"> Возможно, ваш малый или средний бизнес не сможет конкурировать с более крупными брендами на национальном уровне, но вы можете доминировать на местном рынке, используя преимущества локальной поисковой оптимизации. Позвольте SocialSEO показать вам, как. Если вы ищете SEO фирмы в Колорадо-Спрингс
SEO оптимизация структуры сайта
Эта статья была создана, чтобы дать ответ всем тем, кто интересуется: « Почему мой сайт не позиционируется в Google? ». Ответ, по моему опыту, часто заключается в том, что сайт не имеет хорошей структуры . Когда сайт плохо структурирован, все «базовые» оптимизации мира могут быть правильно применены на практике, и вы можете настаивать на ссылках до предела штрафа. Сайт без надлежащей структуры SEO будет изо всех сил пытаться позиционировать себя и сегодня,
10 бесплатных инструментов SEO для закладки страницы!
... статья из Ран Нира на Блог по эконсультанту , английское веб-консалтинговое агентство. _______________ Являетесь ли вы новичком SEO или, наоборот, опытные, мы предпочитаем все автоматизированные инструменты , предпочтительно бесплатные, которые делают
Угловой SEO без внешних библиотек
Проблема, которая все еще часто существует при создании приложений Angular, заключается в поисковой оптимизации. Хотя алгоритм Google уже значительно оптимизирован для одностраничных приложений (SPA), часто возникают проблемы с индексацией контента на этих страницах. Уже существуют решения в виде внешних библиотек, которые предварительно визуализируют страницу на сервере. Однако это может стать проблемой при обновлении до более поздней версии. Поскольку вы делаете большую часть SEO в вашем
SEO аудит / анализ с рекомендациями по оптимизации сайта
... URL и 404 ошибки; Удалить дублированный контент Макет связи; Создание на нем XML + Ping Map; Структура страницы Заголовки, метаописания и другие метатеги; Семантика HTML5, семантические элементы, атрибуты alt; Опишите элементы с микроданными на Schema.org; Улучшить скорость загрузки Внешние факторы (вне страницы) Анализ ссылок сайта; Брендинг,
Видео SEO услуги-Оптимизируйте свой сайт с видео
... идео SEO Услуги являются потенциально важным дополнением к созданию видео для вашей компании или организации. В этом посте мы сосредоточимся на двух способах, которыми службы SEO для видео могут иметь большое значение в результатах, которые вы получаете от своих видео, путем: Оптимизация вашего сайта для поисковых систем Привлечение зрителей к вашим видео на других платформах, таких как YouTube. SEO и видео - как они связаны Если у вас есть веб-сайт,

Комментарии

Как выглядит SEO вашего сайта?
Как выглядит SEO вашего сайта? Знаете ли вы, как улучшить SEO вашего сайта? Вы проверили свой веб-сайт или блог, чтобы увидеть, есть ли контент, который можно рассматривать как метод рассылки спама? Как мне разместить свой сайт в Google? Узнайте, как улучшить SEO сайта Вы также искали дублированный контент с вашего блога / сайта? В прошлом Google штрафовал сайты с дублированным контентом, а сегодня снова изменил правила, заявив, что даже
Как SEO услуги малого бизнеса улучшить продажи и посещаемость сайта и повысить ценность вашего сайта?
Знаете ли вы, как улучшить SEO вашего сайта? Вы проверили свой веб-сайт или блог, чтобы увидеть, есть ли контент, который можно рассматривать как метод рассылки спама? Как мне разместить свой сайт в Google? Узнайте, как улучшить SEO сайта Вы также искали дублированный контент с вашего блога / сайта? В прошлом Google штрафовал сайты с дублированным контентом, а сегодня снова изменил правила, заявив, что даже индексирует дублированный контент, но будет позиционировать
Знает ли Google мобильную версию сайта, сканируется ли и индексируется ли она?
Знает ли Google мобильную версию сайта, сканируется ли и индексируется ли она? Консоль поиска - это отличная помощь для быстрой проверки некоторых проблем сканирования и индексации. Время загрузки Время загрузки мобильных страниц - это приоритетный критерий, который необходимо учитывать при оптимизации, поскольку он оказывает большое влияние на SEO и пользовательский опыт. Чем дольше загрузка страницы, тем больше пользователей покинут сайт. Вы можете увидеть
Есть ли ссылки на другие посты вашего сайта?
Есть ли ссылки на другие посты вашего сайта? Есть ли ссылки на внешние ресурсы. Все это имеет значение, когда вы стремитесь достичь лучших результатов SEO. Немного внутренние советы по созданию ссылок включают: категории Панировочные сухари Карта сайта Рекомендуемое чтение / Вам также может понравиться
Фреймворк дизайна сайта - был ли ваш сайт разработан с использованием фреймворка, оптимизированного для SEO, или который содержит препятствия для ваших посетителей и поисковых роботов?
Фреймворк дизайна сайта - был ли ваш сайт разработан с использованием фреймворка, оптимизированного для SEO, или который содержит препятствия для ваших посетителей и поисковых роботов? Вам понадобится копирайтинг, оптимизированный для посетителей и поисковых систем, или вы будете предоставлять оптимизированный контент для вашего сайта? Опять же, трудно определить цену SEO, не пройдя предварительную анкету SEO. Помните, что чем больше вы делаете, тем меньше SEO будет стоить
Sidenote: Кстати, если изменение ваших страниц так, чтобы поисковые системы оценивали их лучше, это blackhat, тогда не все ли seo blackhat seo?
sidenote: Кстати, если изменение ваших страниц так, чтобы поисковые системы оценивали их лучше, это blackhat, тогда не все ли seo blackhat seo? Хммм кто знает. Я думаю, что я подпишусь на несколько месяцев и посмотрю, как все пойдет. Я люблю видеть, что работает, а что нет в мире черных. 1) Если наставничество «1 на 1» вдвое меньше, чем заявлено на странице продажи только по соображениям безопасности, я думаю, что оно того стоит. Rsnake и другие администраторы
Yoast определяет, как работает ваш пост в целом и с этими ключевыми словами: присутствуют ли они в самых важных местах статей - заголовок, URL, заголовок, контент, мета-описание -?
Yoast определяет, как работает ваш пост в целом и с этими ключевыми словами: присутствуют ли они в самых важных местах статей - заголовок, URL, заголовок, контент, мета-описание -? Тогда все, что вам нужно сделать, это сделать, это сделать: настроить содержание, заголовок и т. Д., Чтобы ваши ключевые слова выглядели достаточно, чтобы Google мог увидеть вашу часть релевантной для этих ключевых слов. Конечно, это должно быть актуально, а не куча ключевых слов, вставленных в контент ... Можете ли
На этот вопрос сложно ответить однозначно, но мы рекомендуем вам задать некоторые вопросы вашего сайта, такие как «Можно ли увидеть более 1 рекламы при просмотре сайта / контента?
На этот вопрос сложно ответить однозначно, но мы рекомендуем вам задать некоторые вопросы вашего сайта, такие как «Можно ли увидеть более 1 рекламы при просмотре сайта / контента?», «Нарушает ли пользователь отвлекающий взгляд на просмотр или нажмите на объявление сверх вашего контента? '. Удалите страницы с тегами, если ваш сайт работает как блог. Веб-мастера, как правило, забывают о страницах с тегами, и когда они это делают, они, как правило, индексируются в Google и предлагают
Сегодняшняя публикация ответит на вопрос «Влияет ли скорость сайта на SEO и рейтинги поиска?
Сегодняшняя публикация ответит на вопрос «Влияет ли скорость сайта на SEO и рейтинги поиска?» Читайте дальше, и я объясню, почему это происходит и какие факторы влияют на скорость загрузки страницы.
Достаточно ли у нас данных, чтобы продемонстрировать ценность?
Достаточно ли у нас данных, чтобы продемонстрировать ценность? Да. Вот несколько идей, которые разработчики оптимизировали, чтобы посмотреть на обычные поисковые данные, которые они получают, и они используют их для демонстрации ценности. 1. Органический поиск против другой деятельности Если наш органический поиск хорошо отслеживается по сравнению с другими цифровыми маркетинговыми каналами, такими как социальные сети или электронная почта? О том же самом? Падение?
Можете ли вы действительно определить успех вашего SEO, основываясь на том, насколько хорошо вы оцениваете ключевые слова, которые почти не влияют на ваш трафик?
Можете ли вы действительно определить успех вашего SEO, основываясь на том, насколько хорошо вы оцениваете ключевые слова, которые почти не влияют на ваш трафик? Навряд ли. Чтобы узнать, какая часть вашего органического трафика приходится на ключевые слова, которые вы не отслеживаете, посетите Google Search Console (ранее Инструменты для веб-мастеров ) и перейдите к поисковой аналитике

С его помощью мы можем сканировать все URL-адреса портала и найти почти Любой тип сбоя на месте , Хотите оставить свой идеальный сайт?
Com/zapatos?
Com/zapatos?
P=rojos_?
Что делать?
Вы сделали миграцию или подозреваете, что у вас есть цепочки перенаправления?
И для чего эта функция может быть полезна?
Com/blog?
С примером это понятнее: если при сканировании мы хотим исключить все фильтры, которые содержат «?
Com/blog?