Словарь по Screaming Frog SEO Spider: термины и обозначения 23.02.2016

В статье рассмотрены следующие сервисы: Screaming Frog SEO Spider

The Screaming Frog SEO Spider is an SEO auditing tool, built by real SEOs with thousands of users worldwide.

Программа Screaming Frog SEO Spider – программа «краулер» – инструмент для автоматизированного SEO-аудита сайта. Разработана и совершенствуется на основе опыта тысяч специалистов в области поискового продвижения.

Создатели: английские разработчики и специалисты в digital marketing во главе с основателями компании Graeme Radford (Director), Dan Sharp (Director) и Jason Lock (Director).

Команда разработчиков существует с 1998 года, программа с товарным знаком 'Screaming Frog' – с 2010 года.


Команда Screaming Frog 2015

Screaming frog  – десктопное приложение с установкой в операционную систему. Сущеcтвуют версии для операционных систем  Windows, Mac, Ubuntu.

Можно скачать бесплатную версию программы по ссылке http://www.screamingfrog.co.uk/seo-spider/ или http://www.screamingfrog.co.uk/seo-spider/#download

Интерфейс программы на английском языке, русификатора пока нет.

 

Преимущества подписки за £99 в год:

  • не ограничено количество страниц сайта, доступных программе для сканирования;
  • нет ограничений в пользовательских настройках программы;
  • доступно сохранение результатов парсинга сайта и сравнение результатов (отчётов) повторных сканирований ;
  • доступны пользовательские настройки программы-сканера и функционала поиска:
    • настройки при парсинге больших сайтов;
    • выборочный парсинг страниц заданного типа;
    • парсинг сайта на сервере разработчика до публикации в вебе;
    • определение и настройка оптимальной скорости парсинга сайта;
    • использование proxy против блокировки по IP;
    • настройка своих параметров поиска текста на страницах;
    • сохранение сделанных настроек;
  • поддержка со стороны разработчиков для решения технических проблем с программным обеспечением.

По умолчанию «паук» Screaming  Frog сканирует сайты, как Googlebot (он подчиняется разрешениям, запрещающим и перенаправляющим директивам, поддерживаемым Googlebot), но является собственным user-agent“Screaming Frog SEO Spider”, который может подчиняться и конкретным директивам в robots.txt.

 

Термины и определения, используемые Screaming Frog SEO Spider

URI – (англ. Uniform Resource Identifier) – Унифицированный (единообразный) идентификатор ресурса. На английский манер произносится как [ю-ар-а́й], по-русски чаще говорят [у́ри].

URL – (англ. Uniform Resource Locator,) – Единый указатель ресурса  – единообразный локатор (определитель местонахождения) ресурса. Ранее назывался Universal Resource Locator – универсальный указатель ресурса.

Errors – Client errors such as broken links & server errors (No responses, 4XX, 5XX)
Ошибки со стороны браузера пользователя и со стороны сервера (No responses, 4XX, 5XX).

Redirects – Permanent or temporary redirects (3XX responses)
Редиректы постоянные и временные (3XXresponses).

Blocked URLs – View & audit URL-s disallowed by the robots.txt protocol
Заблокированные URL-ы – поиск и просмотр URL запрещённых в robots.txt.

External Links – All external links and their status codes
Внешние ссылки - Все внешние ссылки и коды их статуса.

Protocol – Whether the URL-s are secure (HTTPS) or insecure (HTTP)
Протокол – доступны ли URL-адреса по защищённому (TTPS) или незащищенному (HTTP) протоколу.

URI Issues – Non ASCII characters, underscores, uppercase characters, parameters, or long URLs
Соответствие URL-ов стандартам: кодировка, подчёркивание, нижний регистр, длина.

Duplicate Pages – Hash value / MD5checksums algorithmic check for exact duplicate pages
Дубликаты страницы – вычисляет хэш-значения/MD5– проверка контрольных сумм для выявления точных дубликатов страниц.
Если хэш-значения/MD5 разных страниц равны, то и контент на этих двух страницах будет одинаковым.

Page Titles – Missing, duplicate, over 65 characters, short, pixel width truncation, same as h1, or multiple
Заголовки страниц title– отсутствие, дубли, превышающие 65 знаков, слишком короткое, пиксельная ширина усечения,title, повторяющие h1, или множественные.

Meta Description – Missing, duplicate, over 156 characters, short, pixel width truncation or multiple
Метаописание meta description – отсутствие, дубли, превышающие 156 знаков, слишком короткое, пиксельная ширина усечения, множественные meta description.

Meta Keywords – Mainly for reference, as they are not used by Google, Bing or Yahoo
Ключевые слова –присутствие в ссылках, не используемые Google, Bing или Yahoo.

File Size – Size of URLs & images
Размер файла, размер URL и изображений.

Response Time
Время отклика сайта.

Last-Modified Header
Последнее изменение заголовка.

Page Depth Level
Глубина уровней страниц в структуре сайта.
Уровень вложенности страницы или число кликов, которое надо сделать, начиная от главной страницы сайта, чтобы попасть на данную страницу.

Word Count
Количество слов.

h1 – Missing, duplicate, over 70 characters, multiple
Заголовок h1: отсутствие, превышение 70 знаков, множественные.

h2 – Missing, duplicate, over 70 characters, multiple
Заголовок h2: отсутствие, превышение 70 знаков, множественные.

Meta Robots – Index, noindex, follow, nofollow, noarchive, nosnippet, noodp, noydir etc
Определение мета-директив meta robots.

Meta Refresh – Including target page and time delay
Мета-директива обновления meta refresh - содержит ли целевую страницу и время отсрочки (задержки).

Canonical link – element & canonical HTTP headers
Наличие указаний канонической ссылки и канонического заголовка HTTP.

X-Robots-Tag
Наличие. Аналог мета-тега robots, действующий на уровне заголовков сервера и распространяющийся на любые типы содержимого (doc, pdf, txt, xml, аудио, видео и пр.), при этом директивы такие же, как у мета-тега robots.

rel=“next” and rel=“prev”
Наличие пагинатора.

AJAX – The SEO Spider obeys Google’s AJAX Crawling Scheme
Использование технологий AJAX .

Inlinks – All pages linking to a URI
Входящие ссылки.

Outlinks – All pages a URI links out to
Исходящие ссылки.

Anchor Text – All link text. Alt text from images with links
Анкор-тексты ссылок.

Follow & Nofollow – At page and link level (true/false)
Атрибут ссылки follow/nofollow.

Images – All URIs with the image link & all images from a given page. Images over 100kb, missing alt text, alt text over 100 characters
Проверка изображений. Все идентификаторы URI, связанные с изображениями, и все изображения с данной страницы. Выявляем ошибки: изображения более 100 Кб, отсутствие альтернативных текстов, альтернативный текст более 100 символов.

User-Agent Switcher – Crawl as Googlebot, Bingbot, Yahoo! Slurp, mobile user-agents or your own custom UA
Имитация проверки разными сканерами-роботами (пауками): Googlebot, Bingbot, Yahoo! Slurp, mobile user-agents or your own custom UA (и собственный паук программы).

Configurable Accept-Language Header – Supply an Accept-Language HTTP header to crawl locale-adaptive content
Конфигурация языка веб-документа.

Redirect Chains – Discover redirect chains and loops
Перенаправления и петли.

Custom Source Code Search – The SEO Spider allows you to find anything you want in the source code of a website! Whether that’s Google Analytics code, specific text, or code etc
Пользовательская настройка поиска в коде страниц сайта. SEO-паук позволяет найти всё, что вы хотите, в исходном коде веб-сайта: код Google Analytics, нужный текст, скрипт или код и т.п.

Custom Extraction – You can collect any data from the HTML of a URL using XPath, CSS Path selectors or regex
Пользовательская настройка извлечения нужных данных.

Google Analytics Integration – You can connect to the Google Analytics API and pull in user and conversion data directly during a crawl
Настройка интеграции с Google Analytics. Вы можете подключиться к API Google Analytics и получать пользовательские данные и статистику во время сканирования сайта пауком программы.

Google Search Console Integration – You can connect to the Google Search Analytics API and collect impression, click and average position data against URLs
Настройка интеграции с Google Search Console. Вы можете подключиться к API Google Search Console и собирать действия, клики и средние данные позиции по URL-ам.

XML Sitemap Generator – You can create an XML sitemap and an image sitemap using the SEO spider
Возможность генерации файла XML-sitemap. Вы можете создать файл XML-sitemap страниц сайта и файл XML-sitemap изображений, используя возможности SEO-паука программы.

Pixels, PixelsTitle – длину заголовка в тегах “title”измеряют в символах. К этому в Googleдобавили измерение в пикселях. К такому выводу пришли западные SEO-шники, которые протестировали тайтлы, состоящие из широких и узких букв ­– видимыми в сниппете были только 45 широких знаков,  узких символов попадает в сниппет 107.

 

Автор: Александр Абрамов