Команда розробників Screaming Frog SEO Spider повідомила про те, що інструмент оновлений до версії 7.0. У числі основних нововведень значаться такі:
1. Нова вкладка «Rendered Page». Тепер користувачі зможуть переглядати сторінки, які обробив SEO Spider. Вкладка динамічно з'являється в нижній частині інтерфейсу під час сканування в режимі JavaScript rendering . За замовчуванням ця функція включена. З її допомогою веб-майстра зможуть бачити, як кожна сторінка відображається на мобільних пристроях.
2. Заблоковані ресурси. Ці елементи будуть відображатися для кожної сторінки на вкладці «Rendered Page». Їх також можна переглянути на вкладці «Blocked Resource» в розділі «Response Codes». Крім того, інформацію про заблоковані ресурсах і сторінках, на яких вони знаходяться, можна експортувати. Для цього потрібно вибрати «Bulk Export»> «Response Codes»> звіт «Blocked Resource Inlinks».
3. Призначений для користувача файл robots.txt. Тепер вебмастера зможуть завантажувати, редагувати і тестувати файл robots.txt за допомогою нової функції «Custom» на вкладці «robots.txt» в розділі «Configuration». Функція дозволяє додати кілька файлів robots.txt на рівні поддомена, протестувати директиви в SEO Spider і подивитися, які URL заблоковані.
4. Атрибути hreflang. Оновлений SEO Spider витягує, сканує і надає звіти по атрибутам hreflang в посиланнях і заголовках HTTP. Ці атрибути також витягуються з файлів Sitemap під час сканування в режимі списку. Інструмент пропонує 4 нових звіту по розмітці hreflang:
- «Errors» показує атрибути, які не повертають код відповіді сервера 200 або не прив'язані до посилань на сайті;
- «Missing Confirmation Links» показує сторінку, на якій відсутнє посилання підтвердження і сторінку, яка її запитує.
- «Inconsistent Language Confirmation Links» відображає сторінки підтвердження, які використовують коди різних мов на одній і тій же сторінці;
- «Non Canonical Confirmation Links» показує посилання підтвердження, які вказують на неканонічні URL.
5. Помилки rel = "next" і rel = "prev". У цьому звіті містяться дані про помилки, пов'язаних з атрибутами rel = "next" and rel = "prev". Він покаже URL, які заблоковані в robots.txt або повертають код відповіді сервера, відмінний від 200.
6. Експорт URL в тому ж порядку, що і на сайті.
7. Нова конфігурація аутентифікації (вкладка «Configuration»> «Authentication»). Вона дозволяє користувачам авторизуватися в будь-який веб-формі в браузері SEO Spider Chromium і потім провести сканування.
Нагадаємо, що версія інструменту 6.0 вийшла У липні. Головним нововведенням в ній став запуск переробленого краулер, функціонал якого тепер багато в чому наблизився до можливостей GoogleBot. Зокрема, тепер краулер здатний обробляти елементи на JavaScript. За замовчуванням SEO Spider відображає контент також, як браузер, який використовується в процесі запуску сканування.