Причина № 1: Ваша Веб-страница не имеет уникального IP адреса.
Если ваш сайт имеет динамический IP адрес, это не есть хорошо, статический IP стоит немного дороже но он ваш и только ваш а это уже плюс.
Что плохого в динамическом IP?
Все просто, если в сети будет несколько сайтов с одним адресом и ваш сайт входит в их число, то:
1. Ваш сайт будет находится по неправильным (не вашим) ключевым словам
2. Если один из сайтов входящих в группу на одном адресе займется спамом или спандексом и он попадет в бан / блокировку а вместе с ним и ваш ни вчеи не повинный сайт.
3. Третья причина – это не совсем причина а больше слух, но раз говорят то вполне возможно, что это так. А говорят вот что – статический IP помогает ранжированию сайта в поисковых системах.
Проверить ваш IP можно здесь: http://www.eamnesia.com/hostinfo/i.jhtml.

(Если этот URL не работает попробуйте здесь http://www.name-space.com/search/ , просто введите адрес вашего сайта например yahoo.com и узнайте IP)

Затем введите IP в адресную строку браузера и посмотрите что получилось, если появился ваш сайт то все хорошо, если ошибка или чужая страница, приобретите себе статический IP. При ошибке свяжитесь с вашим хостером и спросите.

Причина № 2: Вы пользуетесь услугами бесплатного хостинга.
Это не совсем проблема, и если вы не новичок, то хостинг и домен у вас купленные, но для обшего кругозора обзовем это проблемой.
Дело вот в чем, все поисковики индексируют сайты, но у некоторых есть лимит на количество страниц сайта предоставляющих бесплатный хостинг, и если вы оказались за пределами лимита, то ваш сайт не будет проиндексирован никогда данными поисковыми системами. В группу поисковиков с лимитом, к примеру входит AltaVista и у нее проблема с Geocities.com и Tripod.com и еще несколько фрихостов. Но не поисковики выставляют такие жесткие правила, например всем известный Google относится к бесплатному хостингу снисходительно, и лимитов не выставляет, даже может поднять PageRank из-за того что сайт привязан к популярному сайту, но это на удачу.

Причина № 3:
Вы не позволяете роботам индексировать ваш сайт. Такой результат можно легко получить если внести корень файл robot.txt с неправильным синтаксисом (о robot.txt я расскажу чуть позже)
Чтобы проверять синтаксис вашего robots.txt файл, Вы можете использовать этот инструмент: http://www.sxw.org.uk/computing/robots/check.html

Если нехотите использовать robot.txt используйте на своих страницах meta:
META NAME="robots" CONTENT"="index,follow"

Причина № 4: Динамические страницы.
На данном этапе развития поисковых систем это уже не проблема, потому что они с этим борятся и такие гиганты как Google, Yahoo, Inktomi индексируют все страницы создаваемые динамически, если вам интересны другие системы то желательно на сайт добавлять статических страниц если сайт большой или строить сайт из статических – если сайт не большой по объему, или использовать скрипт который дописывает к вашим страницам shtml или html
С другой стороны, AltaVista пока не в состоянии индексировать динамически произведенные Веб-страницы в полном объеме :
Причина: http://help.altavista.com/adv_search/as … ellindexed

Причина № 5: Ваши Веб-страницы построены при использовании новых технологий.
Когда поисковые системы ползают по сети, они используют специальное программное обеспечение названное "spider", "bot" или "crawler".
Эти программы не имеют функциональных возможностей полноценных новых версий Web-браузеров.
Фактически, программа робота поисковой видит сайт в текстовом формате как текстовый браузер. Поэтому-то поисковики и любят текст, Они игнорируют информацию, содержавшуюся в графических изображениях, но могут Alt-тег – тег описания графики.
Если ваши страницы используют Flash, Java, DHTML они будут проиндексированы неправильно, не в полном объеме или просто коряво. Но ситуация исправится и в будущем мы будем наблюдать вполне красивые сайты с использованием последних технологий, ведь они только для этого и нужны : ) На данном этапе мало кто решится создать сайт на Flash.

Причина № 6: Ваш Вебсайт имеет маленький ИЦ (link popularity).
Так как индекс цитирования приобретает все большую популярность и значимость, как инструмент выдачи при поиске, значит этого показателя должно быть много, чтобы сайт не "выпадал" и именно с него и начинать “раскрутку” своего сайта.

К настоящему времени, все главные поисковые машины используют ИЦ в своих формулах ранжирования: AltaVista, Inktomi, MSN, HotBot. Для Google, это – вообще самый важный фактор для роста PageRank.
А началось все с того, что соучредитель Google Сергей Брин сказал в интервью: "... страница, на которую ссылается много других , важна. Другими словами, внешнее одобрение поднимает ранжирование страницы."
Мало того, что самые важные поисковые системы выделят вашему сайту достойное место, но и ссылки от других сайтов дадут вам качественный трафик и рейтинг страниц понижаться не будет.
О повышении ИЦ читайте мои предыдущие статьи, воспользуйтесь поиском.

Причина № 7: Ваш Вебсайт находится на медленном сервере.
Поисковые боты слишком торопятся и время нахождения их на сайте ограничено, бывает конечно что они “застревают на сайте”, но это редкость. Проблема не в том что паук не проиндексировал все страницы сайта, а в том что при медленном сервере паук отказался индексировать сайт вообще.

AltaVista и Google упоминали эту проблему.
AltaVista: "Если сайт находится на сервере с медленным соединением или сервер перегружен, или страницы осложнены (Flash, Java), может понадобится много времени чтобы сайт был внесен в индекс"
Оригинал: http://help.Altavista.com/adv_search/as … ellindexed
Google: "Ваш сайт, возможно, был недосягаем, когда crawler пробовал проиндексировать его, это могло произойти из-за проблем связи или допуска. Когда это происходит, паук повторяет свои действия многократно, но если сайт недосягаем, он не будет внесен в индекс Google"
Оригинал: http://www.Google.com/webmasters/2.html#A3
Путь выхода из этого положения предлагается уменьшить размер главной страницы, и сделать его меньше 60 КБ.
Проверить скорость сервера вы можете здесь:
http://web-hosting.candidinfo.com/site- … -speed.asp

Причина № 8: Поисковые машины не смогли обнаружить ваши DNS.
Эта ошибка распространена только среди слишком инициативных новичков, они “бегут” регистрировать свой сайт в поисковики как только получили домен и хостинг.
Перед тем как представлять свой сайт на рассмотрение поисковикам нужно немного выждать 48-72 часа, чтобы все провайдеры и поисковики обновили свои DNS.