Scre 🥇 Screaming Frog Guide ⓴⓱: улучшить SEO вашего сайта с 0 до 100

  1. 1. Начальная конфигурация
  2. 1.1.Spider
  3. 1.2.Robots.txt
  4. 1.3.URL переписывание
  5. 1.4.Включить и исключить
  6. Заголовок 1.6.HTTP
  7. 1.7 Индивидуальный поиск и извлечение конкретных данных
  8. режим 2.Playback
  9. 3. Анализ отслеживаемой информации
  10. 3.1- Внутренний: анализ URL проекта
  11. 3.2- Внешний: Анализ исходящих внешних ссылок
  12. 3.3 Протокол: проверка, есть ли у нас URL с http и https
  13. 3.4- Анализ кодов ответов
  14. 3.5- URI: проанализируйте синтаксис ваших URL
  15. 3.6- Названия и описания
  16. 3.7- Заголовки и изображения
  17. 3.8- Директивы
  18. 3.9- Архитектура и уровни глубины
  19. 4. Экспорт информации (отчеты)
  20. Продвинутые методы с Кричащей Лягушкой - [Видео]

Screaming Frog Seo Spider - инструмент, который должен знать каждый, кто интересуется миром веб-страниц и его оптимизацией.

С его помощью мы можем сканировать все URL-адреса портала и найти почти Любой тип сбоя на месте , Хотите оставить свой идеальный сайт? Хорошо, давайте посмотрим подробно и подробно, как работает этот мощный инструмент!

Но сначала ... Вы должны загрузить этот инструмент здесь чтобы иметь возможность следовать этому руководству.

1. Начальная конфигурация

При входе в Screaming первое, что мы видим, это окно, в которое мы поместим URL нашего сайта:

Когда мы нажимаем «Пуск», он начинает отслеживать весь сайт; Теперь есть десятки вариантов и способов, которые вы должны контролировать перед началом работы, поскольку они позволят вам значительно оптимизировать процесс и получать только ту информацию, которую вы хотите.

В верхнем меню нажмите «Конфигурация», чтобы отобразить следующее подменю:

1.1.Spider

Первый показанный вариант - «Паук», в котором мы сможем настроить, какие типы файлов мы хотим отслеживать, какую информацию получить и как.

При нажатии на эту опцию откроется следующее окно:

Что отслеживать?

Первая вкладка «Основные», как мы видим на снимке, позволяет нам выбрать формат файлов для отслеживания. Мы можем включать / исключать изображения, CSS, файлы Javascript и SWF.

Мы также можем попросить вас перейти по внутренним или внешним ссылкам, помеченным как «nofollow» (здесь я оставляю статью, в которой рассказываю обо всем, что связано с nofollow ссылки ).

С опцией «Crawl All Subdomains» мы скажем Screaming, что если он найдет субдомен, он будет рассматривать его как внутреннюю ссылку, а не как внешнюю. Если по какой-либо причине вы хотите начать сканирование по URL-адресу, отличному от корневого, установите флажок «Сканировать вне начальной папки».

Другие параметры используются для отслеживания канонических символов, метки нумерации страниц Rel = 'next' и Rel = 'prev', а также URL-адресов, помеченных Hreflang.

Охо

Если мы уберем эти опции, Screaming будет только извлекать эти данные (например, если URL имеет канонический характер, он сообщит нам, куда он указывает); если, наоборот, мы пометим их, в дополнение к извлечению этой информации будет отслеживаться URL, помеченный как канонический, Next / Prev или Hreflang.

СОВЕТ: Если мы собираемся отслеживать очень большой портал, я рекомендую снять отметки с изображений, CSS, JavaScript и SWF (и Hreflang, если у вас только один язык). Даже в некоторых случаях я не перехожу на внешние ссылки nofollow. Чем меньше элементов вы должны отслеживать, тем быстрее это будет.

ГРАНИЦЫ

Во второй вкладке мы можем установить определенные ограничения, что очень полезно, особенно если мы хотим разграничить очень большую сеть:

  • Общий лимит поиска . Позволяет нам выбрать лимит отслеживаемых URL-адресов. Сначала мы заинтересованы в анализе всей сети, поэтому я никогда ничего не ставлю.
  • Limit Search Depth : Устанавливает максимальный уровень глубины. Уровень 1 будет удалять ссылки, которые 1 клик из дома. Уровень 2 будет подтягивать ссылки, которые на 2 клика от дома. И так соответственно.
  • Ограничить максимальную длину URI для сканирования . Ограничивает максимальную длину (в символах) URL-адресов для сканирования. Пример: если мы введем 100, он не будет отслеживать адреса, в синтаксисе которых содержится более 100 букв.
  • Ограничение максимальной глубины папки : очень похоже на второй вариант, но на этот раз мы ограничиваем его до уровня каталога. Внимание! Для Screaming уровень 0 - это не корень домена, а первый уровень URL; то есть, если мы установим уровень 0, он будет сканировать только те URL, которые имеют 1 каталог (введите luismvillanueva.com/seo). Если мы добавим уровень 1, он будет отслеживать URL-адреса, имеющие максимум 2 уровня каталогов (введите luismvillanueva.com/seo/test).
СОВЕТ: Это действительно полезно на сайтах, которые имеют свои URL в формате SILO. Таким образом, вы можете легко исключить те, которые находятся на очень высоком уровне и остаются только с простыми низкоуровневыми URL-адресами, которые обычно являются категориями.
  • Ограничить количество строк запроса : Ограничить количество параметров при условии, что они имеют тип формата? X =. Пример: domain.com/zapatos?p=rojos имеет 1 параметр. Dominio.com/zapatos?p=rojos_?g=mujer имеет 2 параметра. Очень полезно, если мы хотим исключить комбинации параметров в интернет-магазинах.

ОКАЗАНИЕ

Следующая вкладка «Рендеринг» позволяет нам выбирать между 3 вариантами, которые будут определять, как обрабатывать содержимое страницы: обрабатывать Javascript или нет.

По умолчанию используется опция « Старая схема сканирования AJAX », и в основном она эмулирует систему Google, предложенную в 2009 году для отслеживания содержимого AJAX; хотя с 2015 года он устарел, он больше всего напоминает отслеживание, которое он выполняет в настоящее время.

Я рекомендую всегда оставлять эту опцию, но представьте, что на вашем сайте есть элементы Javascript, которые препятствуют правильному отслеживанию с помощью Screaming. Что делать? Мы выбираем опцию «Только текст», с помощью которой мы будем отслеживать только чистый HTML-код, избегая Javascript.

Наконец, у нас есть третий вариант «Javascript», который выполняет код такого типа, если он у нас есть в Интернете, и даже сделает снимок экрана с тем, как он выглядит. Очевидно, что этот вариант является самым дорогим для инструмента, поэтому вам, безусловно, потребуется гораздо больше времени для завершения процесса.

Выбрав «Javascript», мы можем настроить несколько простых параметров:

Это позволяет нам выбрать время (в секундах), в течение которого код AJAX будет выполняться, пока не будет сделан захват. Мы также можем указать размер экрана во время захвата.

ADVANCED

Если со всем этим вам не хватает, чтобы настроить паука по своему вкусу, давайте перейдем к расширенным опциям!

Хотя это редко, вы можете зайти на сайт, где вам нужно принять куки для правильной навигации. Если это так с вашим порталом, отметьте первый вариант.

« Пауза при высоком использовании памяти » отмечена по умолчанию и очень полезна для очень больших страниц, поскольку Screaming Frog в определенные моменты времени достигает предела своей памяти (помните, что это приложение Java), приостанавливает процесс и предупреждает нас о его сохранении. проект, если мы хотим продолжить.

Вы сделали миграцию или подозреваете, что у вас есть цепочки перенаправления?

Затем выберите « Всегда следить за перенаправлениями ». Крики будут следовать переадресовывает до окончательного URL.

Представьте, что у вас есть URL с 301, который в свою очередь указывает на URL, который также имеет 301. С этой опцией, когда процесс отслеживания будет завершен, вы сможете обнаружить и экспортировать эти цепочки из следующего окна главного меню:

Если мы отметим « Respect noindex », « Respect Canonical » и « Respect Next / Prev », мы не будем извлекать в окончательном отчете URL-адреса, имеющие тег Noindex, канонический URL-адрес, который не является сам по себе, или теги пагинации Next / Prev. ,

СОВЕТ: С этими 3 вариантами вы можете значительно упростить окончательный отчет. Например, если вы не заинтересованы в анализе неиндексируемых страниц (noindex), нажмите «Respect noindex», и таким образом вы позже сохраните удаление этого типа страниц из своего отчета!

Установив флажок « Извлечь изображения из атрибута Img srcset », Screaming удалит все изображения, помеченные атрибутом srcset. Конечно, ваша веб-страница не загружает фотографии таким образом, так как это атрибут CSS, не очень распространенный. Здесь вы можете увидеть пример: https://webkit.org/demos/srcset/

Следующее поле (« Время отклика ») очень интересно, если сеть, которую мы собираемся проанализировать, очень медленная, потому что она позволяет нам отмечать максимальное время (в секундах), в течение которого Screaming должен ждать загрузки URL-адреса. По умолчанию они установлены на 20 секунд; то есть, если пройдет 20 секунд, а URL-адрес не будет загружен в отчет, это даст нам, что URL-адрес имеет код ответа 0 - «Время ожидания соединения».

Обычно портал не должен занимать столько места ... но если по причине X вам нужно подождать больше секунд для URL, эта цифра увеличивается. Конечно ... вам придется долго ждать, если у вас много URL.

Последние 2 поля очень просты: «5XX повторных попыток ответа» указывает, сколько раз Screaming будет пытаться получить доступ к URL с кодом ответа типа 5XX. В поле «Максимальное число перенаправлений для отслеживания» мы указываем максимальное количество перенаправлений, которые следует выполнять в цепочке.

ПРЕДПОЧТЕНИЯ

И мы подходим к последней вкладке настроек, где мы можем изменить по своему вкусу рекомендации, которые Screaming Frog по умолчанию указывает:

Как видите, для Screaming тег заголовка должен иметь от 30 до 65 символов. Все, что выходит из этих рекомендаций, помечает это как ошибку.

Если вы следуете другому типу правил и не хотите, чтобы отчет отображался как ошибка, измените эту информацию по своему вкусу. Вы можете изменить привязку в пикселях заголовка, описания, максимального количества символов, которое должен иметь URL-адрес, H1, H2, атрибут ALT или даже максимальный размер (в килобайтах) изображений.

1.2.Robots.txt

Как только Spider был настроен (он стоил ах ...), мы переходим в окно Robots.txt:

Тихо, потому что это намного проще, чем предыдущий. В настройках мы увидим следующее окно:

Где мы можем:

  • Полностью игнорируйте файл robots.txt нашего портала, поэтому заблокированные URL не будут отображаться как таковые.
  • Показать URL-адреса, заблокированные robots.txt в окончательном отчете. Я рекомендую всегда оставлять его отмеченным, чтобы убедиться, что вы блокируете нужные URL-адреса, вы всегда вовремя удаляете их из окончательного отчета после его проверки.
  • Показать внешние URL-адреса, заблокированные robots.txt

С другой стороны, если вы хотите смоделировать robots.txt для тестирования, выберите опцию «Custom» и добавьте нужные строки:

Конечно, имейте в виду, что внесенные вами изменения не будут внесены в ваш фактический файл robots.txt.

1.3.URL переписывание

Перезапись URL - это расширенная функция, которая позволяет нам изменять синтаксис URL и / или удалять параметры . Обратите внимание, что он не удаляет URL-адреса с параметрами из окончательного отчета, а переписывает эти URL-адреса.

И для чего эта функция может быть полезна?

Особенно для порталов, которые динамически генерируют параметры и которые мы полностью контролируем; В этих случаях мы можем игнорировать их. Я рекомендую, чтобы изначально вы никогда не использовали эту функцию, выполните полный обход, чтобы определить все типы URL.

Для работы с этой опцией нам нужно будет просто поместить в исходное окно параметр, который нужно удалить. Без символов "?" ni '='; то есть представьте, что мы хотим переписать страницы с типом URL luismvillanueva.com/blog?p=2. Мы поместили бы только «p» в начальное окно:

Кроме того, мы можем проверить, как это будет на вкладке «Тест»:

Хотя он выглядит очень светло-серым, мы можем убедиться, что URL-адрес будет выглядеть как https://luismvillanueva.com/blog.

На вкладке « Параметры » мы можем сделать так, чтобы все URL-адреса отчета были написаны строчными буквами.

А на вкладке «Regex Replace» мы можем использовать регулярные выражения, чтобы переписать адреса гораздо более сложным способом. Если вы заинтересованы, вы можете увидеть несколько примеров здесь: https://www.screamingfrog.co.uk/seo-spider/user-guide/configuration/#remove-parameters

1.4.Включить и исключить

Две функции, которые я использую чаще всего и которые я считаю наиболее полезными, это «Включить» и «Исключить». Благодаря им мы можем сделать сегментированное отслеживание ; когда мы сталкиваемся с чрезвычайно большим порталом (тысячи или миллионы URL-адресов), Screaming не может справиться с таким количеством адресов и будет заблокирован в определенный момент.

Поэтому эти варианты просто необходимы для крупных веб-сайтов, и настоятельно рекомендуется, чтобы вы знали, как их использовать и как они работают.

Оба имеют одинаковый внешний вид: окно, в которое мы будем добавлять параметры или папки (по одной на строку) для включения / исключения:

Мы будем использовать регулярное выражение «. *» (Без кавычек) перед или после параметра, чтобы указать, что любой элемент, который находится в этих позициях, должен быть исключен / включен.

С примером это понятнее: если при сканировании мы хотим исключить все фильтры, которые содержат «? Page =», в окне «Исключить» мы добавим. *? Page =. *. Таким образом, все эти URL не будут отслеживаться:

  • com /? page = 23
  • luismvillanueva.com/blog?page=22
  • com / блог? цвет = серый? страница = 23

Вы можете увидеть больше регулярных выражений здесь: https://www.screamingfrog.co.uk/seo-spider/user-guide/configuration/#exclude

СОВЕТ: Много раз, даже если мы отметили возможность не отслеживать изображения на вкладке «Паук», они будут отображаться в окончательном отчете, поскольку эти фотографии связаны между собой. Если вас не интересует фотографирование адресов в итоговом отчете, я рекомендую добавить в окно «Исключить» следующие строки:. * Jpg $. * Png $. * Gif $ TIP2: Еще один прием, который я часто использую, - исключить из окончательного отчета Внешние ссылки для обмена в социальных сетях. Эти гиперссылки обычно повторяются во всех URL-адресах веб-сайта и замедляют отслеживание крика. Сделайте начальное сканирование, чтобы идентифицировать их, а затем добавьте в окно Исключить строки типа:. * Facebook.com / share. *. * Pinterest.com. * И т.д ...

Наконец, очень важно, чтобы вы знали, что если вы исключите кричащий URL-адрес, он вообще не будет его отслеживать, он не будет учитываться или будет удален в окончательном отчете, поэтому, если этот URL-адрес содержит внутренние ссылки на другие URL-адреса, они не будут выполняться. Если URL доступен только через исключенный вами адрес, вы никогда его не достигнете.

1.5.Speed

Когда вы сканируете Screaming Frog, он будет постепенно анализировать все адреса портала со скоростью, пропорциональной загрузке в Интернете.

Иногда может случиться так, что медленная сеть, которая не поддерживает большой объем одновременных пользователей, становится еще медленнее или даже падает, когда мы передаем Screaming Frog. В этих случаях опция «Скорость» может быть очень полезна:

Через который мы вручную контролируем скорость, с которой Screaming отслеживает сайт:

В поле «Максимальное количество потоков» мы указываем максимальное количество одновременных задач (или пауков в данном случае), которые работают. С 5 обычно более чем достаточно, эти данные практически никогда не касаются его.

Если мы нажмем «Ограничить URI / s», это позволит нам изменить максимальное количество URL-адресов в секунду для отслеживания. Если у вас есть сайт, который загружается как черепахи или легко падает, я рекомендую оставлять его между 2 и 5 URL в секунду.

Заголовок 1.6.HTTP

На вкладке «Заголовок HTTP» мы можем изменить User-Agent так, чтобы сеть отвечала тем или иным образом.

Таким образом, мы можем смоделировать, что мы Googlebot, Googlebot Smartphone или Bingbot среди других. По умолчанию будет выбран пользовательский агент Screaming Frog; если анализ портала не продвигает прогрессию (он не отслеживает или URL-адрес), возможно, веб-сервер заблокировал Screaming или просто не отвечает должным образом этому User-Agent. Попробуйте изменить его на Googlebot:

1.7 Индивидуальный поиск и извлечение конкретных данных

Если вы проводите аудит сайта много раз, вам потребуется удалить определенный набор URL-адресов, содержащих элемент X: те, в которых размещен код Google Analytics, где упомянуто ключевое слово X и т. Д.

Благодаря функции «Пользовательский поиск» мы можем разделять URL-адреса, которые содержат (или не содержат) в своем исходном коде то, что нам нужно:

Как только вы закончите отслеживать все URL-адреса, вы сможете увидеть на вкладке «Пользовательские» страницы, где вы нашли указанные.

А если мы хотим извлечь данные? Вы также можете! С опцией «Custom - Extraction» мы можем напрямую получить контент, который находится внутри HTML-тега:

У нас есть разные способы сделать это, используя регулярные выражения, путь Xpath или путь CSSPath; В зависимости от элемента, который вы хотите извлечь, вам будет проще сделать это так или иначе.

Если вы не поняли цели этой функции, я приведу примеры: мы могли бы получить все названия продуктов из интернет-магазина или все условия, которые каждый URL имеет в сухарях.

Давайте теперь приведем реальный пример: в моем блоге у меня есть приблизительные данные минут, которые вы потратите на чтение поста.

В Google Chrome я проверяю элемент, чтобы увидеть исходный код, и копирую Xpath:

Если сейчас я вставлю его в функцию, которую мы только что прокомментировали, я очищаю свой сайт и перехожу на вкладку «Пользовательские» - «Извлечение». Рядом с URL-адресами отображается приблизительное количество минут чтения:

Предел в вашем воображении, вы можете извлечь необходимую информацию!

режим 2.Playback

В главном меню мы также можем изменить режим отслеживания:

- Spider : Screaming будет действовать как паук, переходя по внутренним ссылкам. Он начнет отслеживать по указанному нами адресу:

- Список : с этой опцией Screaming будет анализировать список URL-адресов, которые мы укажем вручную.

С помощью режима «Список» можно делать интересные вещи, такие как анализ всех адресов файла Sitemap и обнаружение тех, которые возвращают ошибки 404, 301 и т. Д.

3. Анализ отслеживаемой информации

Теперь да, когда у вас все настроено, вы можете нажать «Пуск» и начать анализировать ваш сайт. Чем больше страниц вашего сайта, тем больше времени потребуется для завершения всего процесса.

Когда вы достигнете 100%, у вас будут разные панели с огромным количеством информации. Для навигации по всем этим данным вы можете использовать вкладки вверху:

Или прокрутите поле справа, которое включает подразделы, чтобы вы могли перейти непосредственно к тому, что вас интересует:

В центральной панели вы найдете полученную информацию, и в зависимости от того, на какой вкладке вы находитесь, это будет одно или другое:

3.1- Внутренний: анализ URL проекта

По умолчанию мы будем находиться на вкладке «Внутренние», где будут показаны все URL-адреса, найденные Screaming, а также следующие данные:

  • Код состояния и статуса: они указывают код ответа, который может быть 200, 301, 404 и т. Д.
  • канонический
  • Мета-робот
  • название
  • описание
  • Заголовки H1 и H2
  • Размер страницы (в байтах)
  • Количество слов
  • Соотношение текста: соотношение между содержанием и кодом
  • Уровень: уровень глубины, дом будет на уровне 0, URL, который находится на расстоянии одного клика от дома, будет на уровне 1 и т. Д.
  • Inlinks: количество внутренних входящих ссылок, которые имеет URL
  • Outlinks: Количество исходящих внутренних ссылок на другие части сети.
  • Внешние исходящие ссылки: количество внешних внешних ссылок с этого URL.
  • Хеш: Это уникальный идентификационный код, сгенерированный из исходного кода, то есть, если две страницы имеют абсолютно одинаковый код, хеш будет идентичен. Это значение, которое необходимо учитывать, чтобы получить дублированный контент.
  • Время отклика: время в секундах, необходимое для загрузки страницы.

В дополнение ко всему этому мы можем быстро фильтровать по типу контента, поскольку на панели справа в категории «Внутренние» мы видим следующее:

При нажатии на любой из форматов центральная панель будет обновляться, показывая только те URL-адреса, которые соответствуют выбранному значению.

Как получить внутренние входящие ссылки и внутренние исходящие ссылки с определенного URL?

Если вы нажмете на одно направление (в центральной панели), вы увидите окно с различными вкладками внизу. Там вы можете найти как ссылки, так и ссылки на этой странице:

Если вы хотите напрямую экспортировать эту информацию в Excel, щелкните правой кнопкой мыши по нужному URL; Вы увидите раскрывающийся список, подобный следующему:

Где вы можете сохранить Inlinks и Outlinks (в частности, этот URL), а также проверить другие очень интересные элементы, такие как кеш, если он проиндексирован или нет, посмотрите его на archive.org и т. Д.

3.2- Внешний: Анализ исходящих внешних ссылок

Мы переходим на следующую вкладку «Внешние», где мы можем видеть все внешние ссылки, которые у нас есть на нашем сайте, то есть все ссылки, которые мы поместили на другие домены.

Эта панель точно такая же, как «Внутренняя», так как она имеет те же фильтры и те же столбцы информации.

Рекомендуемое использование : проверьте внешние URL-адреса с кодом ответа, отличным от 200, например неработающие страницы (404). Хотя, как мы увидим позже, существуют более простые способы получения всех адресов в соответствии с вашим кодом ответа.

3.3 Протокол: проверка, есть ли у нас URL с http и https

На вкладке протокола отображаются, с одной стороны, адреса, которые используют https, а с другой стороны, те, которые используют http.

Наблюдайте вне ! Если вы настроили, что внешние исходящие ссылки также отслеживаются, они будут смешаны с адресами вашего сайта. Если вам нужны только страницы вашего сайта, у вас не будет выбора, кроме как разместить по алфавиту или экспортировать данные в Excel и удалить внешние.

Особенно интересно проверить эту вкладку, когда мы осуществили переход с http на https.

3.4- Анализ кодов ответов

На четвертой вкладке «Коды ответов» появятся все адреса портала, и мы сможем отфильтровать их в соответствии с кодом ответа, который они дают:

Проанализируйте все, что не имеет кода ответа 200, и примите соответствующие решения в соответствии с необходимостью.

  • Убедитесь, что URL, заблокированные robots.txt, именно те, которые вы хотели
  • Убедитесь, что у вас нет страницы «Нет ответа»
  • Проверьте, все ли ваши перенаправления строго необходимы
  • Убедитесь, что у вас нет битых страниц, что они возвращают 404

3.5- URI: проанализируйте синтаксис ваших URL

Следующее окно отвечает за предоставление вам информации о ваших URL, в частности, как они написаны. Фильтры, которые вы найдете на правой панели, следующие:

  • Символы, не входящие в ASCII: адреса, содержащие странные символы, не относящиеся к кодировке ASCII.
  • Подчеркивает: обнаруживает URL, которые включают в себя низкий бар.
  • Прописные буквы: обнаруживает URL-адреса, содержащие заглавные буквы.
  • Дубликат: обнаруживает URL с одинаковым хешем (обсуждено выше). То есть он обнаруживает идентичные страницы.
  • Параметры: адреса, содержащие параметры. Чрезвычайно полезно сразу увидеть все, что у вас есть, и проверить, не заблокированы ли они роботами, не имеют ли они индекс и т. Д.
  • Более 115 символов: отображает слишком длинные URL-адреса, содержащие более 115 символов. Простые и короткие направления всегда рекомендуются.

3.6- Названия и описания

Обе панели имеют фильтры одного типа:

В один клик мы можем увидеть все страницы, на которых заголовок или описание:

  • Они пусты.
  • Они имеют двойственность с другими внутренними страницами.
  • Они слишком длинные и поэтому целые числа не отображаются в результатах поиска.
  • Они слишком короткие.
  • Они точно такие же, как заголовок H1.
  • Их несколько, то есть в одном адресе у нас есть несколько заголовков или несколько описаний, что было бы неправильно.

3.7- Заголовки и изображения

H1, H2 и изображения являются 3 из самых простых и простых вкладок. Они показывают нам следующую информацию:

Мы можем быстро удалить страницы, которые не имеют заголовков H1 или H2, которые повторяются на нескольких страницах, слишком длинные или повторяются в пределах одного и того же URL-адреса (необязательно с одним и тем же текстом).

В фильтрах изображений мы можем выбрать те, которые весят более 100 КБ, те, которые не имеют атрибута ALT, или те, которые имеют его, но он слишком длинный. Есть 3 элемента, которыми мы, как правило, пренебрегаем, когда речь заходит о SEO, но они могут помочь нам значительно улучшить сайт нашего портала.

3.8- Директивы

Одна из последних панелей, но не менее важная, - это директивы или «Директивы», в которых отображаются ценные данные, такие как:

  • Canonical : URL-адреса, содержащие каноническую метку, либо для себя, либо для другого URL
  • Канонизированный : URL-адреса, содержащие канонический тег, который указывает на другой URL-адрес.
  • Далее / Пред . : Содержать эти теги пагинации.
  • Индекс / Noindex : содержит указанную метку, которая указывает Google, хотим ли мы индексировать ее или нет.
  • Follow / Nofollow : если они содержат этот метатег, который указывает Google следовать или нет гиперссылок, содержащихся в URL.

Как видите, есть и другие фильтры, но менее важные, так как они анализируют довольно устаревшие цели.

3.9- Архитектура и уровни глубины

Хотя это несколько скрыто, если вы посмотрите внимательно в верхнем правом углу над фильтрами, которые мы только что прокомментировали, вы увидите вкладку с надписью «Структура сайта»:

При доступе к нему мы увидим очень иллюстративную графику с распределением уровней глубины, которые имеют наши URL:

В примере мы видим, что большинство страниц находятся на третьем уровне клика из дома. Важно не иметь слишком много URL-адресов на очень удаленных уровнях, так как бот Google будет стоить дороже, чтобы добраться до них.

4. Экспорт информации (отчеты)

Как вы можете видеть, Screaming Frog - чрезвычайно мощное программное обеспечение, с которым любой SEO должен справиться отлично.

Такого объема данных и информации, что бросает нам, что часто наиболее целесообразным является экспорт небольшого сегмента и продолжить работу в Excel.

Для этого в главном меню Screaming есть раздел «Массовый экспорт», который значительно облегчает эту задачу.

Среди всех опций, которые позволяют найти наиболее интересные и наиболее часто используемые мной:

  • Все входящие и все исходящие ссылки : экспортирует все URL-адреса сайта вместе со всеми вашими входящими и исходящими внутренними ссылками соответственно.
  • Коды ответов . Экспортирует наборы URL-адресов в соответствии с имеющимся у них кодом ответа. Хорошо, что он добавляет для каждого адреса страницы, на которых размещена ссылка. То есть, например, мы можем узнать, есть ли у нас редирект 301, где его найти на нашем портале (в какой статье или в каком тексте он находится).

Продвинутые методы с Кричащей Лягушкой - [Видео]

Если вы следовали всем пунктам этого руководства, вы готовы провести аудит любого портала с помощью этого замечательного инструмента. Теперь трудная вещь состоит в том, чтобы интерпретировать все эти данные, которые Screaming дает нам, и принимать правильные решения.

Что вы думаете об этом Кричащем гиде лягушки?

Оставьте мне комментарий с мнением этого урока и с вопросами, которые у вас есть. До скорой встречи!

Я беру эту статью, которая имеет тягу для проведения эксперимента:

  • КВт 1: fasklfhasdlkjfhsdlñfjkhaj (Это идет по ссылке, которая уже есть в меню, это будет вторая ссылка с придуманным якорем, потому что она находится в меню)
  • КВт 2: lñasijdfhvoemcjhaj (Это относится к URL, который связан только отсюда, это будет первая ссылка с придуманным якорем)

Популярное
Атомэнергопром - атомная отрасль России - главная
АО «Атомэнергопром» (полное название — акционерное общество «Атомный энергопромышленный комплекс») — интегрированная компания, консолидирующая гражданские активы российской атомной отрасли . Атомэнергопром

ЗАВОД №9, Екатеринбург
"ЗАВОД №9", ОТКРЫТОЕ АКЦИОНЕРНОЕ ОБЩЕСТВО Регион Свердловская область, Екатеринбург Адрес 620012, г. ЕКАТЕРИНБУРГ, пл. ПЕРВОЙ ПЯТИЛЕТКИ Телефон (343) 327-29-32 Факс (343)

Аграрное общество (признаки и разрушение)
В отличие от современных людей, человек древности и средневековья был значитель­но ближе к земле-кормилице, к традициям и обычаям своих предков. Поэтому и тот тип цивилизации, что существовал до Нового

Личный кабинет НПФ Доверие
НПФ «Доверие» — акционерное общество, предлагающее программы переноса в Фонд накопительной части пенсии по договору ОПС и программы формирования дополнительной негосударственной пенсии по договору НПО.

МУ СБР в ПФО (г. Нижний Новгород) - АООТ ТНК «Гермес-Союз» (ОАО «Промышленная компания «Гермес-Союз»)
  АООТ  ТНК «Гермес-Союз» (ОАО «Промышленная компания «Гермес-Союз») Акционерное общество открытого типа Транснациональная нефтяная компания «Гермес-Союз» (АООТ ТНК «Гермес-Союз») – наименование

ФЛ "БАРНАУЛЬСКИЙ" ЗАО "РАЙФФАЙЗЕНБАНК" - г. БАРНАУЛ, пр-т ЛЕНИНА, д. 163 - ФИЛИАЛ "БАРНАУЛЬСКИЙ" ЗАКРЫТОГО АКЦИОНЕРНОГО ОБЩЕСТВА "РАЙФФАЙЗЕНБАНК" В Г. БАРНАУЛЕ
ОКАЗАНИЕ УСЛУГ ПО ОТКРЫТИЮ И ВЕДЕНИЮ РАСЧЕТНЫХ СЧЕТОВ УПРАВЛЕНИЯ ФЕДЕРАЛЬНОГО КАЗНАЧЕЙСТВА ПО АЛТАЙСКОМУ КРАЮ ДЛЯ УЧЕТА ОПЕРАЦИЙ ПО ОБЕСПЕЧЕНИЮ ПОЛУЧАТЕЛЕЙ СРЕДСТВ БЮДЖЕТОВ БЮДЖЕТНОЙ СИСТЕМЫ РОССИЙСКОЙ

Традиционное (аграрное) общество
Традиционное (аграрное) общество представляло доиндустриальную стадию цивилизационного развития. Традиционными были все общества древности и средневековья. Их экономика характеризовалась господством

Новости компаний
Другие отчётные документы "Автоматика" в ИПС "ДатаКапитал" ОПУБЛИКОВАННЫЕ СООБЩЕНИЯ ЭМИТЕНТОВ АО "Концерн "Автоматика" - Проведение общего собрания акционеров акционерного

АО "НОВЫЙ РЕГИСТРАТОР"
Предлагаемая компанией продукция и услуги: Трансфер-агентское и регистраторское обслуживание Приобретаемая компанией продукция и услуги: - Дополнительная информация о компании: Член ПАРТАД

Банк "ГЛОБЭКС" - кредитование, вклады, банковские карты, денежные переводы, банковские услуги.
Примечание к курсам для безналичных операций по банковским картам При совершении безналичных конверсионных операций по банковским картам (покупки/продажи) Банком применяется механизм установления

Счетчики