Презентация с вебинара проведенного Алексеем Данилиным 26 мая в рамках проекта bewebby.ru.
Тезисы выступления:
-Обзор возможностей инструментов.
-Сравнение инструментов и их отличия.
-Кейсы.
-Анализ сайта с миллионами страниц.
-Анализ сайта, чувствительного к высоким нагрузкам.
-Анализ сайта с защитой от роботов.
8. XENU – Для URL
+открыть ссылку в браузере
+проверка Google Cache
+проверка в web.archive.org
+проверка в Alexa
9. XENU – Данные по URL
- Address
- Status
- Type
- Size
- Title
- Date
- Level
- Out Links
- In Links
- Server
- Error
- Duration
- Charset
- Description
17. Screaming Frog – Данные по URL
- Address
- Content
- Status Code
- Status
- Title N
- Title N Length
- Title N Pixel Width
- Meta Description N
- Meta Description Length N
- Meta Description Pixel Width N
- Meta Keyword N
- Meta Keyword Length N
- H1-N
- H1-len-N
- H2-N
- H2-len-N
- Meta Robots N
- Meta Refresh N
- Canonical Link Element N
- Size
- Word Count
- Level
- Inlinks
- Outlinks
- External Outlinks
- Hash
+ X-Robots-Tag N
+ HTTP Canonical
+ rel=“prev”/rel=“next”
+ Ajax
29. Кейс 1. Анализ сайта с миллионами страниц
Screaming Frog – уйдут годы на сканирование по 500 URL и
чистку пересечений
Netpeak Spider – нужен очень мощный компьютер
XENU – средний компьютер
~9 часов работы
~1200000 URL просканировано
~250МБ файл отчета.
Лучше разбить на части, ограничить документы по типу и
использовать мощный сервер. Для XENU отключить Site
Map в отчете.
30. Кейс 2. Анализ сайта, чувствительного к высоким
нагрузкам
Уменьшить количество потоков – XENU, Netpeak Spider
Сканировать только HTML документы – Netpeak Spider (из-
за структуры вложенности)
31. Кейс 3. Анализ сайта с защитой от роботов
Screaming Frog, Netpeak Spider
XENU – без проблем со стандартным User Agent
Если ничего не помогает – меняем User Agent в Netpeak
Spider