Проводим аудит внутренней структуры сайта программой Xenu Link Sleuth
Xenu Link Sleuth это один из наиболее полезных инструментов в поисковой оптимизации. Хотя эта программа изначально предназначалась для поиска битых ссылок на сайте, с помощью неё можно решать ряд других задач, проводя аудит внутренней структуры сайта и находя в нем слабые места:
– Искать битые (неработающие) ссылки на заданном ресурсе.
Вы написали сотню статей, во многих были ссылки на другие ресурсы или какие-нибудь документы, изображения, но уследить за работоспособностью всех этих ссылок вручную невозможно. В данном случае очень удобно использовать Xenu Link Sleuth, как свободный софт, простой в настройке и использовании.
– Составлять карту сайта.
Для динамических сайтов составить карту не составляет проблемы, однако, для статических HTML ресурсов создавать карту сайта вручную весьма долго и трудоемко. Xenu решает эту задачу за несколько минут в зависимости от размера сайта и скорости Интернет-соединения.
– Искать страницы с большим временем отдачи.
Зная, какие страницы на вашем сайте отдаются с большой задержкой, можно проанализировать причину подобного поведения и оптимизировать время отдачи, что положительно скажется как на посетителях, так и на поисковых системах.
– Найти неуникальные тайтлы.
Каждый тайтл на странице должен быть уникален, тогда ни одна из них не будет находиться в дополнительных результатах поиска и фильтроваться, как дублированный контент. Поэтому важно знать, на каких страницах сайта тайтлы повторяются.
– Найти страницы с большим уровнем вложенности.
Все страницы на сайте по возможности должны находиться не далее, чем в двух-трех кликах от главной. Чем дальше находится страница, тем сложнее до неё добраться как пользователям, так и поисковым системам. Если у вас нашлись подобные страницы, являющиеся важными, но находящиеся далее, чем в 3-х кликах от главной, стоить принять какие-либо меры для улучшения навигации. Возможно, некоторые из дальних страниц вам уже не нужны, xenu легко позволяет их найти.
– Искать страницы с максимальным количеством исходящих ссылок.
Как упоминалось раннее, все исходящие ссылки на сайте должны тщательно модерироваться, так как от них зависит заслуженное доверие от поисковых систем (по принципу: “Скажи мне кто твой друг и я скажу кто ты!”) а также присвоение сайту различного рода фильтров. Если вы заметили резкое падение позиций в поисковике, тогда первым делом необходимо проверить все исходящие ссылки, так как возможно, если виноваты не вы, то хакеры, разместившие на вашем ресурсе свои спам-ссылки.
– Посмотреть какие из страниц имеют наибольшее и наименьшее количество внутренних ссылок на себя.
Проверьте вашу внутреннюю перелинковку в численном виде. Какие из страниц заслужили больше внимания, а какие меньше (исходя из внутренних ссылок)?
– Найти картинки с отсутствующим атрибутом alt.
Атрибут alt является важным при оптимизации сайта или отдельных страниц под определенные запросы. Проверьте, возможно, вы упустили описание для важных на вашем сайте изображений, добавив которое, вы улучшите позиции в поиске, либо вас будут находить по поиску по изображениям.
Результаты решения этих задач, как видно, могут быть использованы для оптимизации, поэтому, сделаем небольшой обзор программы Xenu Link Sleuth, чтобы её пользователей не пугал английский интерфейс.
Ксену является свободным продуктом и эту программу можно скачать по этой ссылке. При запуске перед вами откроется очень простое окно, важная часть которого изображена на скриншоте.

Чтобы начать аудит какого-либо сайта, выберите пункт меню “File » Check URL”. В появившемся окне необходимо ввести адрес сайта и выделить чекбокс “Check external links” (проверять внешние ссылки).

В программе предусмотрено множество настроек, доступных в пункте меню “Options » Preferences”.

Parallel threads устанавливает количество синхронных (параллельных) запросов.
Apply to all jobs позволяет сохранять настройки для всех проектов.
Далее, отчет позволяет включать в себя:
Broken links, ordered by link — Битые ссылки, отсортированные по адресу;
Broken links, ordered by page — Список битых ссылок, отсортированных по страницам;
Broken local links — Битые внутренние ссылки;
Redirected URLs — Адреса с 301/302 редиректом;
Ftp and gopher URLs — ФТП и другие не HTTP адреса;
Valid text URLs — Список рабочих текстовых ссылок;
Site Map — Карта сайта;
Statistics — Статистика;
Файл отчета работы Xenu очень большой и содержит в себе всю необходимую информацию. К примеру, статистика мониторинга моего блога показала следующие результаты:

В результате аудита, на сайте найдены ряд моментов, на которые стоит обратить внимание для оптимизации. Единственный недостаток программы — отображение русских заголовков страниц в неправильной кодировке.
Сразу же после окончания проверки ссылок сайта, в главном окне появится детальная таблица, где данные можно отсортировать по каждому из столбцов: адрес ссылки, возвращаемый статус, mime-тип, размер, заголовок, уровень вложенности, кол-во внешних и внутренних ссылок, время отдачи страницы. Вот эту таблицу вам и надо использовать. Если что-то будет не понятно по работе или использованию программы, можете спрашивать в комментариях, постараюсь ответить.



186 ответа (оставить свой)
О! Юзал ее для поиска broken links, а про использование в качестве генератора карты сайта даже не думал. Спасибо.
Классная программа. Для меня важно, что бесплатная, буду на работе использовать.
Спасибо!
Вот Серега молодца!
А у меня нормальные тайтлы показывает, между прочим.
Давно хотел найти подобню прогу, руки не доходили спасибо
Качнул щас буду разбираться
Светоч, Diffio, rew, рено, пожалуйста!
PeterQ, а страница с какой кодировкой была? Я парсил с utf-8.
он что просит пароль от ftp ?
или можно без этого ?
wlad2, вводить данные FTP не обязательно. При этом отчет сохранится локально в темповой папке.
Спасибо за подробную статью! Надо обязательно воспользоваться этой программой. Хорошо, что она бесплатная 🙂
Хорошая программка. Благодаря ей пачку битых линков отыскал.
К Вам топает болшьшое спасибо. =)
Отличная прога, спасибо. И титлы нормально показывает.
Потоков лучше все-таки не десять как по-умолчанию, а 2-3 – Зина настолько быстрая, что забивает даже дедик. У Вас, например, в отчете 2 УРЛа были не отданы из-за перегрузки.
Галку с ФТП и файлов-“сирот” можно смело снимать – это для голого html
Спасибо за совет с потоками, сделал 2-3 все ок, было изначально 10 по-моему, так 30% показывало ошибку ответа сервера
спасиб за знакомство
Отличная статья, полезная программа. Подписалась на рассылку. Спасибо!
Сенкс, давно хотел поюзать Xenu.
Скачал,установил и сразу увидел пользу
Спасибо!
Интресеная софтинка. Надо поюзать 🙂 Спасибо
По вашей наводке скачал – теперь использую. Спасибо большое за подсказку! 🙂
А еще с вашего блога невозможно уйти – потому что куча интересного грамотного материала и не все еще прочитано.. Спасибо вам за работу! 🙂
Прога на 5+ спасибо вам огромное, подписался на рассылку, буду заходить к вам! Еще раз спасибо!
Попробывал программу в действии, иногда глючит и показыает неверные данные… я думаю она ещё сыроватая…, но спасибо – всё таки есть альтернатива!
А русскоязычной версии у программки нет, никто не знает?
Отличная прога + инструкция составлена на русском на блоге.
Севастопаль респект 🙂
Оказалось куча ссылок
no connectionподскажите дальнейшие действия…Если кодировка 1251 – распознаёт нормально (если она указана в коде)!
Отличный инструмент, сам пользовался не однократно этой прогой, особенно полезна для анализа новых сайтов перед оптимизацией.
>Найти неуникальные тайтлы
Вот этого пункта я в программе не нашел. И в отчетах нет. Поясните, может я что-то проглядел?
Прога полезна, но для старых сайтов хватает инструментов Гугла.
сразу не втыкнул, спустя месяц дошло :), был (web)
После как проверил и нашёл битые ссылки на сайте http://faty007.ucoz.ru/ как удалять в ручную.
Море слов и все нецензурные. В свой адрес. КАК я пропустил это раньше? Неоценимый, великолепный инструмент анализа сайта! Учитывая, что на одном из моих сайтов больше миллиона страниц – ручками там делать нечего. Первый же прогон дал результаты, от которых я схватился за волосы и даже список TODO составлять не пришлось – есть же логи, бери и правь!
Единственное, конечно – надо бы уменьшить программно число потоков обработки, потому как положить любой сервер даже на 30-40 потоках – как 2 пальца. Некоторые могут использовать в злонамеренных целях. У меня, например, на двухьядерном не особо загруженном сервере лоады поднялись до 3, что о многом говорит.
Но это – мелкие технические детали.
ПРЕВОСХОДНО!
большое человеческое спасибо 🙂
Спасибо нужная вещь
Как раз искал чем проверить новый движок на предмет битых линков и пр. ошибок. Спасибо большое за подробное описание 🙂
Спасибо:) Каждый раз нахожу в вашем блоге что-то очень полезное!
Да программа просто супер, очистил сайт от битых ссылок, создал sitemap, и Вообще считаю что ресурс очень полезен, часто захожу и каждый раз нахожу много интересного, спасибо )))
Сергей, спасибо за программу и огромное спасибо за статью на Серче по теме как продвигать сайты и как составлять семантическое ядро.
Программа на 5+, большой функционал. Спасибо Сергею. Но у меня почему-то она не докачивается до конца, возможно что-то с источником. Большая просьба, у кого есть архив, киньте мне на почту playarik@gmail.com
Заранее спасибо.
Скажите как часто надо проверять этой программой и что если она говорит ошибку 404 а в ручную там нормально
Здрасте
прогу потестил, понравилась
отыскала битые ссылки
но подскажите плз как из нее сайт мап изъять
пока не дотумкал сам
спасибо заранее
Скачал Xenu от 5-го декабря, все русские заголовки нормально отображаются, как в программе, так и в отчете. Наверно уже исправили проблему. 🙂
С Abilon и сюда за прогой, да подробнее почитать:)
Спасибо большое и за пост, и за прогу!
Присоединяюсь к № 38.
Спс полезная программа, давно искал что-то подобное.
Николай, Kirsanov, возможно проблема с вашим скриптом, проверьте заголовки вручную, вот здесь например: http://delphiblog.ru/scripts/get-headers/ и если ответ будет “HTTP/1.1 404 Not Found “, то ваш скрипт именно таким его и отдает. Может где-то то лишний “header(“HTTP/1.0 404 Not Found”)” указали в коде или проверка не правильная на отсутствующий материал.
Что-то не пойму как с её помощью карту сделать, при сохранении не вижу xml формата. Не моглибы немного подробнее рассказать про создание карты.
После проверки сайта нажимаете File – Create Google Sitemap File и вводите имя, после сохранения появится файл .xml
Aion-Top, вам респект наравне с автором!
за подсказку для детского сада! 🙂
благодарю, программу уже качаю 🙂
Отпишите меня от уведомлений о новых комментах. Надоело этот спам принимать
cоглашусь с MAzZY….
После проверки Xenu получил такой результат:
Broken links, ordered by link:
http://www.site.ru/about/news/106/
error code: 12002 (timeout), linked from page(s):
http://www.site.ru/about/news/page-2/
Т.е. со списка новостей идет ссылка на новость, broken link’ов не нашел. Что значит этот таймаут?
Спасибо, Сергей! Вы как всегда, меня выручаете полезным и фри софтом =)
Прога классная, давно искал.. Спасибо за информацию использования.
Сеачал прогу проверил сайт, нашёл очень много битых ссылок, считаю что очень нужная программа для оптимизации сайта.
Программа очень понравилась. Спасибо. Пригодилась. Интересно под какого робота больше подходит карта сайта.
Эта прога имеет экспорт в gv-файл. Не пробовали строить графу в GraphViz ?
Классная программа спасибо никогда не слышал раньше о такой. Очень полезная!
А как сделать так, чтоб отображались только вешние ссылки?
Эту прогу Гугль сам рекомендует!
В который раз убеждаюсь в полезности Вашего сайта. Спасибо.
спасибо дружище за море ценной инфы 😉
Подскажите, поможет ли эта программа, если нужно проверять сайт на котором нужна авторизация. и если да, то как ей пользоваться?
Спасибо.
aurara, нужно отключить авторизацию на время проверки.
Kiril, в итоговой таблице можно делать сортировку, например, по ссылке. Либо уже в итоговом отчете смотреть.
Егор даже не в курсе такого. Скорей всего такого функционала нет.
medv, это значит, что через длительное время (таймаут) скрипт так и не получил доступ к странице по ссылке.
Отличная программа!! Сразу пробелы вылезли по сайту у меня…..
Спасибо за программу. Ну для начинающего 89% нормальных URL наверное нормально
Спасибо, скачал сейчас проверю. Проверил: просто здорово, ошибок немного, но это говорит о том что я бы их обнаружил случайно и когда нибудь, большое спасибо за ресурс !!!!!
После проверки 104 штуки написала temporarily overloaded (временно перегружен) только картинки и mp3, что это и как это понимать? Error – пишет 0. Подскажите пожалуйста.
Поклон Вам за прогу, всё гениальное как всегда просто.
Спасибо за прогу и инструкцию, но она не доделана.
Выдала 50 не найденных страниц, проверил их вручную, работают.
Есть ли в настройках программы возможность исключения разделов, не подлежащих проверке?
Дело в том что при сканировании сайта Xenu “нажимает” на баннеры, значительно меняя их CTR.
Методы, применяемые для защиты баннеров от ботов на эту прогу не действуют.
Программа нашла кучу битых ссылок.
Мне выдало только список со страницами где указано, битые они или нет, соответственно подсвечены красным и зеленым.
Но я что-то не понял, а как смотреть на каких страницах расположены эти битые ссылки, чтобы исправить?
Разобрался, я рано закрывал окно с предложением сохранить на ftp
Когда подождал, то автоматом должен был запуститься отчет в Мозиле, но почему-то Мозила (стоит по умолчанию) не хочет открывать, пишет, что не найден документ.
По указанному пути открыл в Хроме, причем он мне сразу все и перевел. Работать стало веселее :))
Было б совсем супер если распил как делать карту на не более подробно для таких как я )
Очень долго проверяет сайт. Сервер канадский, но все равно нету терпения дождаться окончания
Спасибо за программу и инструкцию. Посмотрю что покажет после проверки.
Сергей, спасибо.
программу также можно использовать для проверки наличия на страницах мета-тега description и поиска страниц без кода счетчика (может быть актуальным для статических сайтов).
качаю, спс!
Скачал, посмотрел, понравилась программа. Спасибо!!!
плохие результаты на магазине с компонентом sh404SEF, преобразующим урлы в кириллические, с названий категорий и товаров – ещё один минус в использовании сторонних компонентов, ну по крайней мере этого
Хорошая программа. В свое время меня с ней познакомил журнал “Хакер”. Только там она использовалась немного для других целей 🙂
спасибо, полезная статья! наокнец-то разобрался как пользоваться xenu 😮 программка старая, но очень полезная – использую ее, в первую очередь, для проверки битых ссылок на странице.
Спасибо за программу! Очень полезная и наилучшая среди аналогов!
Симпатичная штука, проверил сайт, убедился что все норм, спасибо)))
Devaka, File—>Export to GraphViz file
не проверяет домены в зоне рф
Как бы не пытался понять что к чему, а не могу… Как-то слишком уж сложно что-ли, проще найти обходные пути)
Я вам скажу что много я не знал о своем сайте до того как начал пользоваться этой прогой, спасибо автору за пинок.
Прочитал статью : “План раскрутки” и увидел про программку которая делает внутренний аудит. Проверился и нашел несколько битых ссылок, устранил их, а вот ссылок такого типа не нашел : www_.ваш_сайт/категория/feed и статус такой ссылки not found. ( как я понимаю этот “feed” вшит в сам шаблон? как то можно от этого избавиться?)
Странно, пишет что изображений нет, но на самом деле они присутствуют. Непонятненько.
Отличная программа, быстро нашла несколько нерабочих ссылок со страниц. А главное поймала на горячем глючный плагин по добавлению в соц.закладки. Слышал за Xenu Link раньше, даже отложил в избранное, и чего я тогда её не установил…?
Сергей, огромная благодарность. С уважением, Олег.
Прога интересная, но на одном из моих сайтов (вложил урл в ячейку сайт) она постоянно выдает или тайм аут или конектинг абортед, почему не понятно, сервер не загружен, защиты от хотлинкинга нет, все сервисы показывают нормальную загрузку и отдачу сайта, не подскажете в чём может быть причина?
Толково как всегда и самое главное что актуально.
С ув. Артур.
Удобная программа. Использую для просмотра Title страниц и ошибок.
“но на одном из моих сайтов (вложил урл в ячейку сайт) она постоянно выдает или тайм аут или конектинг абортед, почему не понятно, сервер не загружен, защиты от хотлинкинга нет, все сервисы показывают нормальную загрузку и отдачу сайта”
У меня он открывается.
Здравствуйте! Спасибо за отличные рекомендации к открытию программы. Нам её на курсах по оптимизации сайтов рекомендовали. Вот только у меня либо что-то не получается, либо ошибок нет, что вряд ли. Мне вот такую табличку как у вас совсем не выдает. Сможете помочь – посмотреть мой сайт у себя? (www.sergey-grek.ru) И если после процедуры проверки появятся ошибки, то их не сложно будет мне, лузеру в этом деле, понять? Спасибо.
Как раз искал способ, чтобы автоматически найти страницы с уровнем вложенности более чем ув3. Это работает, а вот большая часть функций не хотят работать. Прошелся по оф. сайту – программка похоже умерла. За два года никаких обновлений.
Спасибо. узнал о своем сайте много нового 🙂
Особенно про подписи к картинкам и внешние ссылки. Если пользовать copy/past то внешние ссылки проявляются в тексте практически ниоткуда.
Полезная прожка!
А есть где-нибудь алгоритм проги?
Просто многие ссылки, на которые успешно набигаю браузером (без рефа, жабы или редиректа), отмечаются ксеном как битые, и хоть убей не пойму в чем дело.
Проверял в один поток, эдакое чудо для ддосеров)
А почему много выдало “timeout”? Перейди по ссылке, нормально всё.
“timeout” выдаёт если за отведённый диапазон времени ссылка не была открыта. Нужно уменьшить в настройках Xenu количество одновременных потоков или проверить скорость сайта.
Скажите пожалуйста – а русификатора для программы нет?
прога не сканирует весь сайт, только главную страницу и все, если используются относительные пути во внутренней перелинковке
использование тега <base href=“http://мойсайт.com/” id=“base_link” /> не помогает, кто нибудь сталкивался с подобным? как решить проблему? ковырялся в настройках не помогло
Прога показывает что, ссылки на эл. адреса воспринимаются ею как ошибка mailto: эл. адрес
Насколько такая ошибка критична и как от нее избавиться? Разработчики сайта отмахиваются, типа работает сайт, ну и не приставай с глупостями, но ведь прога то показывает ошибку! нужно ваше авторитетное мнение, поможете советом что делать?
Что-то я не увидел ссылки на саму программу? Где её скачать?
Отличнейшая програмулька, много времени экономит!
поподробнее бы о том что делать с отчётом и как исправлять ошибки.
день добрый, прежде всего спасибо за прогу, вернее напоминание о ней 🙂 знал, была, юзал, да забыл.
По сути – в разрезе тотального разгула зверинца гугля ищу возможные причины падения позиций для сайта (в подписи), посему не преминул проанализировать и xenu, нашел несколько ошибок, скорее даже недочетов, исправлю, еще раз сэнкс 😉
после проверки программой в отчете выдается status forbidden request на весь контент, 69.40% что это значит? подскажите пожалуйста
Лелик, домены в зоне .РФ программа очень даже хорошо проверяет, только URL нужно указывать в виде Punycode. Выглядеть он должен подобным образом: http://xn——8sbhbhtbru7add9a0euc.xn—p1ai чтобы перевести домен в пуникод, воспользуйтесь специальным конвертером, который несложно найти на многих сайтах, предлагающих зарегистрировать кириллические домены.
Ага, переделывать все ссылки на сайте ради этого. Все основые браузеры и поисковые системы понимают РФ-ссылки без Punycode.
Удобно при покупке Sape ссылок для проверки вложенности
Спасибо за статью, прога действительно на 5+. Есть вопрос по отчету xenu. При проверке выдает: “ empty URL
_____ error code: 404 (not found)”, но страница в точности по такому адресу существует и открывается, вроде бы как все нормально. Таких страниц много. Подскажите пожалуйста, как это исправить.
P.S. При проверке этих страниц через xenu выдает статус-код 200, а также при проверке этих страниц через seobuilding.ru тоже код 200 и все ок. Потому и не понятно в чем дело 🙁
Прохожу сео курсы, задали в домашке проверить учебный сайт на битые ссылки этой прогой и исправить)) круто помогло!!
Не плохая программа на то время. Но с 2010 года не обновляется и заметно устарела. Может стоило было делать платный аналог?
Я об этой программе узнал на MegaIndex-e. Ее рекомендовал Александр Люстик. Что ж, попробуем. Единственное, русского нету – беда. И почему ее никто не переведет… (
Как можно победить ошибку с помощью этой программы error code: 12002 (timeout)
Я бы конечно хотел посмотреть видеоролик, что и как дальше с этим делать, да и что все это красное обозначает.
Пользуюсь ПейджВейтом, мне кажется она удобнее Ксено.
Есть ли такая программа которая анализирует сайт и показывает сколько страниц на вашем сайте? чтобы потом можно было узнать количество страниц и сохранить их..
Есть онлайн сервис по сканированию сайта на битые ссылки – http://prospeller.ru
Может кто-то подскажет такой момент?
После сканирования сайта были обнаружены битые ссылки. В основном это ссылки на картинки в статьях, которые позже были заменены. И вот программа показывает что ссылки на эти старые картинки – not found. Можно ли как то убрать вообще эти ссылки? И насколько критично их существование?
Спасибо.
Вот что написано у гугла
“Также необходимо проверить внутренние ссылки на вашем старом сайте и обновить их так, чтобы они указывали на новый домен. Когда веб-ресурс будет перемещен на новый сервер, воспользуйтесь инструментом Xenu, чтобы найти и удалить все старые и неработающие ссылки.”
Тоесть можно удалить битые ссылки. Подскажите как это сделать. Хелп SEO ГУРУ.
Можно ли проверять и пропускать урлы в которых встречаются картинки… у меня на сайте таковых очень много… а я хочу без учета jpg, причем я обратил внимание что программа распознает картинки
Да программка классная. Заголовки кстати отображаются без искажений..все Ок. Спасибо автору!
Вопрос: у меня в таблице no found показывает по адресу- ……/wp-includes/jc/tinymce…..раз она no found можно удалять?
Спасибо за прогу еще раз.
Современным реалиям программка уже давно не отвечает. Почти три года проект заброшен. Часть битых ссылок вообще таковыми не являются.
А что по поводу Deep Trawl скажете, кто-нибудь пользовался?
Тоже столкнулась с тем, что программа показала море битых ссылок, а иду по ним – все работает и отображается. Или то, что для пользователя выглядит как небитое, для робота битое? 🙂
Еще неясно, почему он показывает как проблемные ссылки с комментарием anchor occurs multiple times. Это недопустимо, как и одинаковые TITLE?
Сергей, Deep Trawl раньше не использовал. Смотрю продукт является платным. Но нужно посмотреть, какой у него уникальный функционал.
Лена, этот пункт не заметил в отчетах. Наверное, для тех сайтов, где я использовал программу, он отсутствовал. По смыслу названия похоже, что ничего страшного (хотя все зависит от контекста использования программы, проведения анализа). Это, видимо, больше как дополнительный сигнал аудитору.
Запустил Xenu проверять сайт, он нашуршал уже 30тысяч ссылок и всего 13% выполнено. Xmap делал карту на 116 ссылок, в реале так и есть. Причем из Xenu выборочно копирую ссылки они действительно приводят на сайт, в основном на выглядят так: сайт.ru/?color= и т. д. пока писал стало уже 40тыс. и опять 13% вып поиск продолжается…
В дальнейшем сканировании смысла не вижу.
Что это зможет значить?
Мне ,бабушке-пенсионерке,сложно разбираться в этом.У меня произошла такая история.Установила я плагин по выявлению битых ссылок и в результате поудаляла часть статей,которых у меня и так не много.А с этой программкой как быть,если она найдет что.Удалять надо вручную?
А что программа не обновляется? Посмотрел, что версия от 2010 года, она хоть актуальная?
Не понимаю почему нет соединения. Хочу 2 сайта проанализировать и не могу. Сначала рисует статус BUSY, потом NO CONNECTION
Программа к сожалению уже изжила себя. Кто нибудь знает какие нибудь современные аналоги?
Скажите, можно ли с помощью этой программы выявить страницы на сайте с одинаковым URL?
Для Антона.
Мне кажется это будет сразу видно. Ведь в конце URL…. будет стоять цифра – 2. Это и значит что такая запись уже есть. Проверь сам. Так и с любым др. документом: ворд, фото и т.д.
Спасибо. Т.е. эта операция доступна только в режиме “ручного” просмотра или можно как-то автоматизировать этот процесс?
Блин! Перечитал сообщения и не пойму, чё у всех всё хАрашо, а у меня выдаёт “error code: 12029 (no connection)”?
Броузер Мозилла. Может в нём дело? Там где то читал, что какая то библиотека к ней нужна. Может из-за этого?
И ещё заметил, что тут мало кто отвечает на вопросы. Столько реплик, а ответ кот наплакал. Чё за фигня?
Для Лена (Март 12, 2013 at 22:21)
“море битых ссылок, а иду по ним – все работает и отображается. Или то, что для пользователя выглядит как небитое, для робота битое?”
Из-за разных там ошибок. Может время отклика долгое. Такие проги или Интернет сервисы в среднем настроены на отклик в 10 секунд, если больше, выдаёт как битую ссылку. Есть и другие причины. Например, прога не может проверить внешнюю ссылку, так как там на сайте robots.txt так настроен, что не пропускает никого для проверки. или ещё какие причины. Вот список ошибок (на англ.), там понятней их описывают.
http://valet.htmlhelp.com/link/http.txt
А тут собраны подобные онлайн сервисы
http://politicon1.at.ua/forum/41-451-49559-16-1374319155
Спасибо 🙂 очень полезно! Рада, что нашла Вас. Хотелось бы спросить, как понять, что страница на моем сайте загружается слишком медленно? Это по отчету Xenu видно? Что то я пока не разобралась.
Здравствуйте! У меня проблема все страницы моего сайта выдают ошибку HTTP/1.1 404 Not Found
Когда я захожу на свой сайт, я вижу все свои страницы, а другие не видят, выходит ошибка. В чем причина? Помогите разобратся, у меня стали выпадать страницы из индекса
Игорь, на ваш вопрос может ответить лишь технический специалист, имеющий доступ к хостингу и управлению сайта. Причин может быть много, обратитесь к своему администратору сайта.
А есть версия свежее чем с 2010 года?
Добрый день!
Проблема такая. Запускаю прогу, и после 50% обработки url начинает выдавать либо тайм аут, либо оверлоуд. И после этого не могу зайти на сайт, блокирует меня по айпи, видать считает меня после использования программы врагом. Как то можно устранить эту проблему? http://www.line-l.ru/
Сегодня установил программку, проверил сайт. Очень помогла найти картинки без alt
По умолчанию много оверлоудов выдало, уменьшил потоки и все ок, спасибо
Здравствуйте Сергей
Помогите пожалуйста поправить битую ссылку
https://www.dropbox.com/s/af8wejcvy12td5i/S.gif
Подскажите как ее найти
Спасибо
правой кнопкой на URL, => URL properties, Pages linking to this on – тут будут все странице где есть эта ссылка. Потом поиск в коде тех страниц
Нужно попробовать – интересная прога 🙂
Подскажите пожалуйста, мне нужно удалить эти ссылки ( http://prntscr.com/4y44gh ) с своего сайта? если да – то как это можно сделать?
И как правильно трактовать такой отчёт? http://prntscr.com/4y45p0
Битые ссылки убрать нужно. Посмотрите, на каких страницах они расположены (правой кнопкой на URL, => URL properties, Pages linking to this on). Потом поиск в коде.
Devaka, подскажите пожалуйста, актуальна ли сейчас данная программа (Xenu)?
Роман, всегда актуальна.
Подскажите пожалуйста как исключить из парсинга сбор определенных линков. А то лезут в отчет и кнопки шаринга с каждой страницы и счетчики
сколько стоит такая прога?
А теперь о плохом. А никто из вас не заметил, что Xenu не обрабатывает регулярные выражения!?!?
ТО есть если на вашем сайте есть урлы той же сортировки в категории выглядят, например, так:
сайт/тра-та-та/?sort=name&direction=DESC
сайт/тра-та-та/?sort=name&direction=ASC
сайт/тра-та-та/?sort=Price&direction=ASC
сайт/тра-та-та/?sort=Price&direction=DESC
то в нет возможности (я таковую не нашел и даже на официальном сайте программы). Короче, если с началом урл которые не нужно сканировать справится можно, то с с окончаниями урлов которые нужно отсечь беда. В итоге ксену начинает сканировать просто дикое количество мусора. Например на моем сайте при 17 тыс полезных страниц, программа пытается сканировать что-то около 80 или 100 тыс сортировок, Rss страниц, мобильной версии и прочего хлама. Поэтому для поиска битых ссылок мне представляется более полезным или же SiteMAp Generator (правда только до 5тыс страниц сканирует) или же использую Page Weight. И там и там можно управлять сканированием страниц
Здравствуйте, Сергей! Полезная программка, спасибо. Правда, сначала перепугался страшной физиономии слева вверху, вирус, думаю, что-ли. :
) Но, вспомнив про Ваш ТИЦ 160 и стоимость Вашего сайта на sbup 56 тысяч баксов, спокойно скачал и получил отчёт по своему свежему блогу. Пока никак не могу разобраться как бороться со всякими внешними и битыми ссылками, может подскажете верное направление для просвещения чайников. Вот скриншот на гугловском сайте оконцовки отчёта sites.google.com/site/leonidturcov1/fajly/Xenu_1.png?attredirects=0 , взгляните как будет время, пожалуйста. Кстати, подписаться по Email не получилось, RSS не работает = всплыло окно как будто я на себя должен подписаться. На все соц. кнопки нажал. В твитере понравилось, что Вы, оказывается Человек-волшебник! Я в google+ просто хороший человек :). До свидания!Добрый день!
Подскажите, пожалуйста, у меня почему-то не делает проверку сайта.
Сразу после нажатия кнопки ОК в Check URL проверка сразу заканчивается:
Link Sleuth finished. Do you want a report?
Статус сканирования только главной страницы:
File not found
Если нажать ОК просит все данные для доступа через FTP
Что я делаю не так, на старом компе все нормально было! Проверка проводилась нормально!
Может, кто знает в чем проблема?
Павел, наверное нет доступа у скрипта к вашему сайту. Попробуйте поменять User-Agent или проверьте на сервере, блокирует ли он запросы от левых юзер-агентов.
Добрый день, Сергей!
Будьте так добры, подскажите пожалуйста, а как это сделать? У меня прям проблема. Я даже не могу сделать карту сайта, так как онлайн сервисы не видят сайт. Мой хостинг установил ограничения на сканирующих ботов (это как раз я была сканировала сайт этой чудесной программой Xenu). Но они поставили ограничение. Я попросила их прогр-му добавить в исключение. Они попросили “Уточните, пожалуйста, какой User-Agent использует Ваше ПО при подключении?” А я не знаю где эти данные посмотреть и как? Будьте так добры, подскажите мне пожалуйста. А то мне же с этим сайтом работать и работать. Да и с другими сайтами я буду так же сканировать и удалять дубли. То есть мне очень нужны эти знания и на будущее.
С уважением, Ольга
Сергей, привет! Скачал программу Xenu, мне она понравилась. Прога быстро нашла битые ссылки. Скажи пожалуйста, как теперь найти и удалить битые ссылки в программе.
Подскажите, пожалуйста, если кто знает – где программе указать поддомены, которые нужно включить в sitemap? У меня 2 поддомена фактически являются частью сайта и хотелось бы их тоже в сайтмап запихать. а вот остальные поддомены – посторонние…
Спасибо нашёл свои битые ссылки. Классная программа, жаль только, что не на русском
Сергей Здравствуйте. А как узнать есть ли на картинках тег alt. В окне программы вкладка титл и descript…
Прикольная программа, только жаль, что не имеет русского интерфейса)
Что означает ошибка temporarily overloaded (временно перегружено)? У меня несколько страниц таких, как исправить?
Это означает, что хостинг не справляется с большим числом одновременных запросов. Нужно в настройках уменьшить число каналов сканирования.
Хорошая программа. Жаль, не развивается. Кодировку сайтов HTML5 не понимает.
На русском есть такая программа?
Руская есть у белорусов нашел https://programki.by/program-221.shtml
Ага, с вирусняком и с сайта, который под АГС…..
Так и не понял из статьи как же получить список дублей? Можно по подробнее, что делать после того как я получил результат сканирования?
Добрый день, Сергей!
Подскажите пожалуйста, можно ли с помощью этой программы искать текст на всем сайте? Или может какую другую посоветуете?
Вообщем функционал нужен такой:
1) Задаю url сайта.
2) Указываю что искать (слово или набор символов).
3) Нажимаю кнопку начать поиск и пошел процесс.
4) После сканирования сайта программа выдает ответ, что ваше искомое значение (слово или набор символов) найдено на такой-то странице.
Есть ли у вас такая программа?
С уважением, Игорь.
Здравствуйте, прога составит список всех битых, дублей и подобных ссылок? и после этого как их удалить?)) и есть ли подобная прога для таких моментов?
Только подскажите, как сделать выгрузку в Excel?
Сергей, здравствуйте, ну это же катастрофа какая то. все было хорошо, пока на чертов https не решили переехать. я не знаю что случилось с ксеной, сначала она материлась, что сертификат ей не нравится, неизвестен он и дурно пахнет (хотя мне хостинг провайдер делал и сказал, что все отлично) а теперь у меня просто столбиком NO CONNECTION причем, зависит не понятно от чего, точно такая же категория выше очень даже коннекшн, а ниже не коннекшн, судя по комментариям, не только у меня такая беда, пожалуйста, ответьте хоть на один, когда будет время.. с 2009 года люди спрашивают.. не верю. что вы не знаете что это) Благодарю.
з.ы. Спасибо за ваши потрясающе интересные и полезные материалы.
Нашел ответ, ребята, у кого No connection в настройках xenu more option в левом нижнем углу количество потоков уменьшите до 3 -5 , сканироваться будет дольше, но сервер зато не будет бастовать и тогда все просканируется. Не благодарите)
Скажите, я правильно понимаю, Xena не предоставляет возможности выгрузить таблицу в excel и при создании sitemap не учитывает robots?
Great insight, thank you for sharing this info. Insights to crawlers was really helpful
Сергей, добрый день!
А подскажите пожалуйста как с помощью этой программы найти картинки с отсутствующим атрибутом alt. Вы писали об этом в статье. Все облазил -- не смог найти нигде такого.
Спасибо.
p.s.: Очень классная программа и обзор. Нашел кучу ошибок у себя на сайте и исправил благодаря ей.
Обратите внимание на колонку title. Для изображений туда прописывается alt
Здравствуйте Сергей.
Может подскажете, почему после запуска программы она сразу выдает forbidden request?
Возможно, ваш сервер отдает страницы только по протоколу HTTP2.0, который не поддерживается в Xenu. Либо какие-то другие ограничения у вас на сервере.
Здравствуйте. Подскажите пожалуйста как проверить сайт, если htacess файле стоит редирект после недавнего переезда на протокол https. Заранее Благодарю
Could not open [temp] file ... - у кого была подобная ошибка? помогите исправить
Добрый день. Пробую проверить прогой, выдает ошибку http://prntscr.com/myzb2y . Подскажите как решить?
Devaka, подскажите пожалуйста, актуальна ли сейчас Xenu?
Xenu Link Sleuth - один из самых полезных инструментов в поисковой оптимизации