Screaming Frog SEO Spider
Screaming Frog SEO Spider (СЕО Паук) — инструмент для анализа и аудита сайта. Большинство специалистов используют данную программу при проведении технического аудита сайта. Благодаря удобному и простому интерфейсу, Screaming Frog позволяет быстро и легко решить поставленную задачу. Еще одним преимуществом является то, что программу можно запустить на PC, Mac или Linux.
При первом запуске программа может отпугнуть как профессионалов, так и новичков из-за различных способов настройки конфигурации и функциональности. Кроме того, новички могут не знать, где скачать программу (с торрента или прямой файл), есть ли бесплатная версия, какие у нее ограничения, как получить ключ (keygen) для полной версии, как пользоваться и т.д. — о чем подробно мы и поговорим.
Как скачать Screaming Frog SEO Spider tool?
Программа распространяется бесплатно и позволяет проанализировать 500 страниц вашего сайта.
Screaming frog SEO spider. Технический аудит сайта с помощью Скриминг фрог
Чтобы скачать программу, переходим на официальный сайт (www.screamingfrog.co.uk/seo-spider/) и скачиваем бесплатную версию (free downloads). После чего необходимо будет установить и запустить софт.
Для получения полной версии — кликаем в меню на Licence (Лицензия) -> Enter Licence Key (ввести лицензионный ключ). В новом окне вводим имя пользователя и ключ, после чего подтверждаем лицензию и перезагружаем программу.
Как пользоваться Screaming Frog SEO Spider?
В первое время мне и самому было сложно привыкнуть к данной программе, так как обходился другими аналогами, которых благо очень много, например: Netpeak Spider, Xenu, PageWeight и т.д. Но каждая программа уникальна по своему и лучше подходит для определенных задач, поэтому SEO-специалисту важно уметь работать с различными инструментами. Начнем мы изучение с базовых возможностей.
Как сканировать сайт?
Процесс сканирования необходимо начать с настройки программы. Screaming Frog сканирует только указанный домен, а все его поддомены будет рассматривать как внешние ссылки. Чаще всего необходимо, чтобы основной домен и поддомены воспринимались как единый ресурс, поэтому выбираем опцию «Crawl All Subdomains» в разделе Spider -> Configuration.
Если требуется экспресс-анализ сайта, вы можете убрать из обхода CSS, JavaScript, SWF файлы. Убрав чек-поинты с соответствующих пунктов в том же окне.
Для начала сканирования — вводим адрес сайта и кликаем на кнопку старт.
Как сканировать определенный раздел на сайте?
Для сканирования определенного раздела — просто указываем ссылку на данный раздел.
Screaming Frog SEO Spider — Делаем SEO анализ сайта ЛЕГКО через Скриминг Фрог!
Паук пробежится по всем ссылкам с данной страницы, таким образом вы просканируете один каталог. Такое необходимо, если у вас большой ресурс и вы поэтапно прорабатываете каждый раздел на нем.
Если вы выберете функцию «Crawl Outside Of Start Folder» — паук после анализа данной страницы, начнет анализировать все найденные урлы.
Исключаем определенный раздел
Вы также можете задать списком разделы, которые необходимо просканировать и задать определенный каталог как исключение. В разделе Configuration вы найдете два элемента:
- Include settings — правила включения определенных разделов;
- Exclude settings — правила исключения определенных разделов.
Таким образом, можно быстро исключить ненужное для больших проектов.
Получаем список всех страниц сайта
Для получения всех страниц html — необходимо запустить сканер для всего сайта. Затем выбрать только html страницы и выполнить выгрузку файлом excel.
Программа очень удобная благодаря гибкости. Можно настроить практически под любые нужды. Рассмотрим еще несколько возможностей.
Если вам необходимо определить страницы с протоколом http или https — достаточно перейти в окно «Protocol» и отсортировать страницы по нужному принципу. Функция удобная, если вы только что перешли на https и вам нужно исправить неправильные урлы на сайте.
Коды ответа сервера можно найти на вкладке Response Codes. Позволяет быстро найти битые ссылки (400-ый ответ), страницы с редиректами (300-ый ответ), кроме этого покажет и другие ответы (500-ый — падение сервера, 200-ый с документом все хорошо).
Для анализа мета-тега title отлично подойдет вкладка Page Titles с множественными вариантами сортировки
С остальными полями вы можете ознакомиться самостоятельно.
Создание карты сайта xml
О важности создания карты сайта xml я писал в отдельной статье. Данный софт позволяет создать ее быстро.
Результат будет следующий (файл обрезан):
Программа действительно имеет большие возможности + есть версия на макбук, что является огромным плюсом. При проведении технического аудита сайта я использую комплекс программ, одной из них является SEO FROG. Обойтись только данной программой возможно, но это занимает немного больше времени. Как и какие программы используете вы?
Автор статьи: Руслан Албаков
Руководитель SEO-отдела, преподаватель, автор проекта albakoff.ru.
Источник: albakoff.ru
Netpeak Spider или Screaming Frog: Что Выбрать для SEO-Аудита Сайта
С помощью SEO-краулера вы сможете легко проверить свой сайт на наличие проблем с поисковой оптимизацией. В этой статье мы сравнили Netpeak Spider и Screaming Frog и выделили их основные функции и возможности. Screaming Frog — это ведущий в отрасли SEO-краулер, который предназначен для поиска ошибок 404 на вашем сайте, и анализа общей архитектуры вашей платформы.
Однако у него крутая кривая обучения, что может сбить с толку новичков. Кроме того, Screaming Frog тормозит при обработке больших объемов данных, поэтому он не подходит для сканирования больших сайтов. Netpeak Spider — это программа для SEO-аудита, которая позволяет без каких-либо проблем проводить глубокий анализ страниц вашего веб-сайта. Это полезный инструмент для профессионалов SEO и отличная альтернатива Screaming Frog. Хотя Netpeak Spider — относительно новая программа, она отличается от аналогичных продуктов постоянными обновлениями и уникальными функциями.
Что Такое Netpeak Spider?
Netpeak Spider это десктопная программа для анализа технической составляющей веб-сайтов, которая сканирует ресурсы на предмет ошибок с точки зрения поискового продвижения (SEO).
Команды продаж могут использовать этот инструмент для импорта данных из Google Analytics, Search Console или Яндекс.Метрики и использовать встроенный парсер для извлечения с веб-сайтов пометок, тегов hreflang и другой нужной информации, такой как электронные письма или номера телефонов. С помощью административной панели управления менеджеры могут создавать отчеты аудита сайта в формате PDF и настраивать их, добавляя логотипы, и контактные данные. Данная программа позволяет предприятиям быстро определять источники страниц и создавать карты сайта с помощью валидатора HTML, TXT и XML.
Netpeak Spider: Сильные и Слабые Стороны
Удобная интеграция с Google Диском и Таблицами. Благодаря интеграции вы можете быстро экспортировать отчеты прямо в Google Таблицы и делиться ими с коллегами в несколько кликов. Точно так же и с отчетами в формате PDF: они сразу же экспортируются на Google Диск, а это означает, что единственное, что вам нужно сделать, это получить ссылку, которой можно поделиться, и отправить ее клиенту или менеджеру.
Возможность создавать White Label SEO отчеты. Эта функция предоставляет возможность удалить элементы бренда Netpeak Software из отчета в формате PDF с техническим SEO-аудитом, а также добавить свой логотип и другие необходимые данные всего за несколько кликов. Отчеты White Label сделает ваш бренд более узнаваемым среди клиентской базы.
Легкая кастомизация. Netpeak Spider разрешает настраивать правила сканирования. Таким образом, вы можете сфокусироваться на определенных разделах или категориях, а не выполнять поиск по всему сайту. Это экономит время и позволяет сосредоточиться на самых важных областях.
Мультидоменное сканирование. Эта функция позволяет вам установить список URL-адресов, после чего программа будет сканировать эти веб-сайты одновременно и отображать данные в одной таблице.
Эта функция позволяет вам сканировать разные сайты на разных доменах одновременно. Обнаруживайте неработающие ссылки во время сканирования списка URL-адресов и очищайте контактные данные сайта.
Полезный экспорт поисковых запросов из Google Search Console. Вы сможете увидеть данные о количестве кликов, показов и средней позиции для всех URL-адресов на вашем веб-сайте. Вы можете указать диапазон дат, страну, тип устройства и даже фильтровать страницы по поисковым запросам.
Интеграция с Яндекс.Метрикой. Яндекс.Метрика позволяет получать данные о посещаемости, конверсиях и параметрах электронной торговли для страниц своего сайта.
Инструмент позволяет выбрать диапазон дат, настроить сегмент, в том числе пользовательский, с учетом типа устройства. У вас есть возможность быстро работать с несколькими аккаунтами.
Нет версии для MacOS или Linux. Да, у большинства компаний есть и компьютеры iMac и Windows, но было бы неплохо, если бы Netpeak Spider работал на всех платформах, без необходимости переключаться между компьютерами.
Нет пожизненной лицензии. Существует только вариант оплаты на основе подписки и нет возможности купить пожизненную лицензию.
Что Такое Screaming Frog?
Screaming Frog SEO Spider — это программное обеспечение для сканирования веб-сайтов, разработанный, чтобы помочь компаниям извлекать локальные данные, проверять проблемы SEO и сразу же анализировать результаты. Возможности включают обнаружение повторяющихся страниц, визуализацию сайта, планирование сканирования, аутентификацию на основе форм, создание XML-карты сайта и создание отчетов.
Это программное обеспечение позволяет специалистам по SEO сканировать небольшие веб-сайты, отслеживать неработающие ссылки и ошибки сервера и экспортировать исходные URL-адреса разработчикам для исправления. Данная программа считается одной из самих популярных в этой сфере, но к сожалению, отсутствие понятного интерфейса и в ажных свойств, которые предоставляют конкуренты, отбрасывают эту программу на второй план.
Источник: fixthephoto.com
Screaming Frog SEO spider анализ интернет ресурсов
Screaming Frog SEO spider программа для анализа интернет ресурсов. Есть бесплатная версия и платная, расширенная. В бесплатной версии можно сделать проверку не такого уж маленького сайта – 500 адресов. От платной она отличается тем, что опции настроек в ней не активны, потому она менее гибкая. Например, в ней нельзя выбрать или исключить некоторые параметры.
Однако сайт проверить можно, по многим показателям.
Screaming Frog SEO spider — вкладки программы
Создали эту программу программисты Великобритании в 2010 году. Язык в ней английский, но блогерам понятно, что анализируется. Пользуются ею вебмастера успешно до настоящего времени, для аудита сайтов.
Скачать программу можно [link]здесь [/link] Авторы называют ее «кричащая или пищащая лягушка». Открывается большой, развернутый лист. С опциями на верхней панеле Полный адрес сайта впишем в верхней строке. Список ссылок на страницы, записи и медиафайлы появится очень быстро.
Настроек в бесплатной версии нет, но есть фильтры, которые увидим из выпадающего меню.
Например, анализ моего интернет ресурса. Вначале кликнула фильтр all – все. Адреса программа показывала вперемешку, но не только статьи с кодом ответа сервера 200, но и картинки, с ответом «0». Подписано, что это блок файла robots.txt. Потому что индексация изображений у меня запрещена плагином Clearfy pro .
Однако купила этот плагин значительно позже. К этому времени роботы Гугла проиндексировали все, что возможно и невозможно. Теперь все это держится в индексах ПС годами. Например, программа у меня проверила только 167 статей. Все остальное, из 500 возможных у меня занимали разнообразные файлы, которых в индексе быть не должно, по определению.
Мне нужно подумать о том, чтобы на сайте постепенно удалять ссылки на большие и заблокированные картинки внутри статей.
Другие фильтры
- Перейдем в фильтр html. В этом случае картинки будут скрыты и останутся только адреса статей. Это внутренние ссылки –internal. Просмотрим их, у меня проиндексированы все статьи, но есть кое-что для удаления – об этом ниже.
- Нажмем кнопку external – это внешние ссылки, которые попали в индекс с адресом нашего сайта.
- У меня их две. Их лучше удалить. Для этого открываю вебмастер Google и произвожу удаление не нужных ссылок. Без программы Screaming Frog SEO spider никогда бы не догадалась о существовании таких ссылок, в адресе блога.
- Однако интересно, что удаляла, удаляла, но зашла через год, а ссылки остаются на месте и никуда не исчезают.
Screaming frog seo spider — вкладки
На вкладке протокол нужно просмотреть, чтобы у всех адресов было https. Например, у меня так и есть, все 500 адресов в порядке. Response codes – просмотрим все адреса, применяя фильтр.
Вкладка Brocked by robots.txt – у меня заблокировано 330 картинок. Здесь нет прямого перехода из программы на сайт, но адрес можно выделить и скопировать. Success (2xx) код ответа у меня в ПС Google оказался 200 почти во всех статьях, лишь один адрес с редиректом 301. Но интересно, что в Яндексе у меня на этом сайте ответов 301 в 3 раза больше, чем всего написанных статей. Возможно в Яндексе больше ссылок на мои старые статьи, или другая причина.
Никаких других видов редиректов /java script,meta refresh /у меня не оказалось. Ошибок 404 и 500 тоже не выявлено. Но в Яндексе всех ошибок полно. Сохраняется это в статистике, не очень понимаю, для чего это хранить. Url – фильтры параметров , есть только all, других не оказалось, потому что свое время решала проблемы индексации параметров.
Page titles – все адреса в порядке. Дубликаты – вот здесь-то есть что удалить. Несмотря на то, что все удалялось множество раз, в индексе до настоящего времени находятся 8 страниц /page/. Копирую по одному адресу, перехожу в вебмастер Гугл и удаляю.Однако через год дублей еще добавилось и ничего не удалилось. Over 65 characters — таких адресов у меня оказалось 24.
Можно посмотреть количество знаков в заголовке и величину заголовка в пикселях. У меня не оказалось превышенных величин, слишком маленьких совсем нет.
Screaming Frog SEO spider мета теги
Meta Description- нажимая эту опцию, получаем список своих статей с описаниями. Совсем недавно заменила свой простой плагин SEO на Yoast WP SEO. Однако, плагин транспортер очень плохо перенес описания статей. Описаний почти нигде нет. Теперь мне предстоит большая работа, по восстановлению описаний. Что делать, не первый раз.
Но вот это все уже сделала к 2019 году.
Директивы и другие вкладки
Мета-тег robots — вначале записано noindex follow для категорий и страниц, а потом –noindex nofollow. Так и было,потому что мета -тег был установлен на сайте позже. Кроме ряда страниц в индексе Google, присутствуют и категории, которые часто удаляю, но они вновь появляются.
Hreflang – Это таблица для файлов Sitemap . Здесь файл можно проверить, закачав со своего компьютера — это не проверяю. Но зря не проверила. Потому что при установке плагина Wp Yoast SEO, файл sitemap.hml синтезируется на лету. Обновляется сразу, после обновления новых и старых статей.
При этом, старые стационарные файлы sitemap.hml нужно удалить из хостинга, потому что они мешают. Однако, прежде всего, нужно удалить плагин , который представлял собой стационарную карту для поисковых роботов.
Но после удаления стационарных файлов, которые скопились за 5 лет ведения сайтов. У меня образовалось масса ошибок 404, которые теперь усиленно удаляю. Однако другие показатели оказались пустыми. Например, параметры: Ajax, gustom, analitytics, search console, link metrics. Что-то из этого не использую, но часть ссылок закрыта.
В результате могу сказать, что программа полезна и сейчас. Несмотря на увеличение анализирующих сервисов .
Источник: moylubimiblog.ru
Screaming Frog
Screaming Frog SEO Spider — десктопная программа для сканирования сайта. Незаменимый инструмент при проведении технического аудита.
Описание
Одним из наиболее полезных сервисов является Screaming Frog (SF), который дает возможность с помощью парсинга (сбора информации) получить необходимые данные, например, массово выгрузить пустые страницы или найти все дубликаты по метатегу Title.
Особенности Screaming Frog SEO Spider
- Сканирование как всего сайта, так и вручную заданного списка страниц
- Поддержка API Google Analytics и Google Search Console (Google Webmaster)
- Возможность в любой момент приостановить сканирование, сохранить проект и закрыть программу, а при следующем запуске продолжить с того же места
- Генерация файла sitemap.xml с расширенными настройками
- Использование произвольного User-Agent
- Отображение кодов ответа сервера для всех найденных страниц
- Гибкие настройки сканирования и отображаемой информации
- Настройка перенаправления URL-адресов (работает как локальный htaccess)
- Поиск страниц, в коде которых имеется вручную заданный текст/фрагмент кода
- Расширенные возможности выгрузки данных в CSV
- Возможность отобразить древовидную структуру сайта
- Возможность просканировать определенные разделы/страницы на сайте, либо наоборот, исключить их при сканировании
- Огромное количество отображаемой информации по SEO о найденных страницах
- Сканирование сайтов, требующих авторизацию через базовую аутентификацию
- Поддержка Proxy
Возможности Screaming Frog SEO Spider
- Поиск битых страниц и страниц с редиректами. Отображение анкоров и самих документов, на которых находятся ссылки на данные страницы.
- Поиск страниц с короткими, длинными, дублирующимися тегами title, а также с тегами title, содержимое которых совпадает с тегом h1.
- Поиск страниц с короткими, длинными, дублирующимися и отсутствующими мета-тегами description.
- Поиск страниц, на которых тег h1 встречается более одного раза или не встречается вовсе.
- Поиск изображений с большим размером, а также с отсутствующими и длинными атрибутами alt и title тега img.
- Отображение информации по meta-тегам, управляющими поисковыми роботами (атрибуты rel=”canonical”, rel=”next”, rel=”prev” тега link).
- Поиск страниц по заданному фрагменту, выгрузка содержимого определенных тегов по регулярному выражению (например, можно спарсить все h5 заголовки или все тексты на сайте).
- Поиск дублей страниц по хэш-сумме исходного кода.
- Отображение структуры сайта и уровня вложенности страниц. Визуализация данных.
- Проверка времени загрузки страниц.
Основной функционал Screaming Frog SEO Spider
- Internal. Здесь можно получить ключевую информацию обо всех страницах сайта (их, при желании, можно отсортировать по алфавиту). Достаточно кликнуть по URL какой-либо страницы, чтобы увидеть достаточно подробные данные о ней. В разделах вкладки «in links» и «out links» можно просмотреть отдельные данные о входящих и исходящих ссылках соответственно, что поможет откорректировать внутриссылочный вес каждой страницы. Также можно получить информацию о расположенных на странице картинках, заголовках, мета-тегах, размере страницы в байтах, уровне ее вложенности по отношению к главной странице интернет-портала, и так далее.
- External. Вкладка включает в себя полный список сайтов, на которые со станиц вашего ресурса ведут открытые ссылки. Для каждой из них можно узнать тип, кодировку, уровень вложенности соответствующей страницы и другие данные.
Response Codes. Здесь содержится информация обо всех редиректах сайта: адреса страниц, исходящих ссылок и, что самое важное, коды и статусы ответа веб-сервера. В контексте оптимизации сайта пристального внимания заслуживают страницы с кодами 404 (Not Found), 302 (Found) и 301 (Moved Permanently). Особенно важно грамотно настроить 301 редирект. - URI. Это отдельная вкладка, целиком и полностью посвященная «проблемным» страницам сайта. Их адреса могут попасть сюда по разным причинам: например, если в их названии присутствуют символы, которых нет в ASCII; если длина адреса превышает 115 символов; если адрес является динамическим; если страницы дублируются; и по ряду других. То, что какая-то страница попала на эту вкладку, еще не значит, что с ней гарантированно что-то не так – однако это повод лишний раз проверить ее и, при необходимости, внести корректировки.
- Page Titles. Здесь собрана информация о тайтлах всех страниц сайта. Соответственно, тут можно узнать, на каких страницах не оказалось тайтлов (и добавить их, поскольку они крайне важны для продвижения); где тайтлы совпадают с H1 (что также лучше исправить); у каких страниц одинаковые тайтлы (и это, опять же, лучше откорректировать, сделав Title разных страниц уникальными); где размер тайтла выходит за пределы рекомендуемой длины в 60-70 символов.
- Meta Description. Суть вкладки примерно аналогична предыдущей, только здесь речь идет уже не о Title, а о Description всех страниц сайта. Тут так же можно узнать, на каких страницах нет мета-тега, на каких он чрезмерно длинный, на каких – дублируется с других страниц, и так далее, после чего принять необходимые меры.
- Meta Keywords. Это то же самое, но для прописанных Keywords. Поскольку в нынешних реалиях прописывать их практически бессмысленно, эта вкладка не несет в себе особой ценности.
- H По аналогии с несколькими предыдущими вкладками, здесь можно получить информацию об H1 всех страниц и откорректировать их, если где-то они слишком длинны, дублированы или вовсе отсутствуют.
- H В этой вкладке можно посмотреть полный перечень заголовков второго уровня для каждой страницы и, опять же, наметить планы по их корректировке в случае необходимости.
- Images. Здесь можно получить информацию обо всех изображениях, которые загружены на сайт, и их весе. Вкладка полезна в контексте ускорения загрузки интернет-портала, которой можно добиться благодаря оптимизации картинок.
- Metahttps://bizzapps.ru/p/screaming-frog/» target=»_blank»]bizzapps.ru[/mask_link]
Screaming Frog SEO Spider 16.7 / 16. 5 MacOS
Screaming Frog SEO Spider – это специальная программа для того, чтобы сканировать сайт. Просто отличный инструмент, чтобы проводить технический аудит. Если нужно утилиту скачать бесплатно, то можете это сделать непосредственно здесь.
Инструкция по активации
- Перед установкой рекомендуется отключить интернет и антивирус. Установить программу
- Зарегистрировать программу с помощью имени и ключа из keygen
Перед тем, как сделать выбор в пользу данной программы, давайте рассмотрим, что же такого особенного и полезного можно извлечь из работы:
- Можно искать битые страницы, также страницы с редиректами. Отображаются анкоры, сами документы, на которых можно увидеть ссылки на определенные страницы.
- Ищет страницы, где короткие, длинные теги, что дублируются.
- Проводит поиск страниц, где присутствуют длинные, продублированные, отсутствующие мега-теги, description.
- Проводится поиск страниц по заданному фрагменту, выгружается содержимое конкретных тегов, с помощью регулярного выражения.
- Программа ищет дубли страницы, с помощью хэш-суммы на исходный код.
- Отображается структура сайта, уровень вложенности страниц. Проходит визуализация данных.
Когда пожелает пользователь имеет возможность остановить процесс работы, если в этом возникла необходимость. Программа простая и доступная, способная решить возложенные на нее задачи.
Источник: pcprog.ru