Page Rank (PR) – довольно популярная тема для обсуждения в среде SEO-оптимизаторов, которые продвигают сайты в системе Google. Алгоритм Page Rank разработали основатели поисковой системы Гугл Сергей Брин и Лари Пэйдж с целью наиболее релевантного поиска документов. Точный механизм подсчета PageRank держат в строжайшем секрете, однако некоторые принципы все же известны. И каждому оптимизатору их необходимо знать, если он хочет иметь дело с могущественным Гуглом.
Разрабатывая систему ранжирования сайтов, компания Google взяла за основу одно правило: статья имеет больший вес, если на нее ссылается большое количество авторов в своих работах. Вес веб-страниц для Гугл определяется по такой же аналогии – чем больше на данную страницу ссылается других сайтов, тем выше ее Page Rank, тем сайт важнее и находится выше в списке выдачи. Причем, Google учитывает не только число ссылок, но также их качество, т.е. оценивает сам ресурс, на котором расположены эти ссылки. Если сайт имеет PR=0, ссылка с него почти не добавляет никакого веса вашему ресурсу.Если даже подобных ссылок будет много, толку от них практически не будет. Также если страница со ссылкой на ваш веб-ресурс имеет большое количество других внешних ссылок, то передаваемый вашей странице вес будет мал из-за распределения по всем внешним ссылкам общего веса страницы. Если же ссылаемый на вас ресурс имеет высокий PR и небольшое число исходящих ссылок, то Гугл посчитает это большим плюсом в вашу пользу. На PR большое влияние оказывает также обновляемость страницы информацией. Если ваш сайт будет регулярно пополняться новыми уникальными статьями, Гугл поднимет его в выдачи.
Значение Page Rank ресурса варьируется от 0 до 10. Большинство сайтов Google оценивает, образно говоря, «на троечку» — значение их PR меньше 4. Выше 5, как правило, имеют хорошо раскрученные сайты и крупные информационные порталы. А цифры выше 8 — удел только избранных, известных всему миру сайтов. Заметьте, Твиттер PR 10 (самый высокий) за счет частой обновляемости страниц и большого количества уникальной информации. Выводы делайте сами.
При поисковом продвижении следует также учитывать PR страниц, на которые ссылаетесь вы. Если ссылка с вашего ресурса ведет на забаненный ресурс, вас может постигнуть такая же участь, поскольку Гугл борется с «черной» оптимизацией.
Как видите, при продвижении сайта в Google нужно учитывать многие нюансы работы этой поисковой системы. По этой причине стоимость раскрутки сайтов в Гугл часто несколько выше, нежели в Яндекс. информация с моего блога http://www.yulainet.ru/
Добавлено спустя 08 минут 47 секунд
почти но не совсем так!
Ключевыми запросами принято называть слова или словосочетания, которые вводятся пользователями при поиске информации в интернете. При этом поисковые системы сравнивают содержимое различных ресурсов с такими запросами и выводят в качестве результата список наиболее релевантных страниц.
Поисковые роботы просчитывают релевантность текста страницы на основе частотного ряда слов. Чем выше частота употребления слова в тексте, тем выше релевантность всего текста по отношению к запросу пользователя. Количество ключевых запросов может колебаться в зависимости от конкурентности и поставленных задач. Однако чем меньше ключевых слов используется для оптимизации страницы, тем выше будет их релевантность. Как правило, при оптимизации текстов используется один — два ключа, причем плотность таких слов не должна превышать пять процентов. Если же частота употребления слова будет чересчур высокой, то существует вероятность попадания страницы под фильтры поисковых систем.
Для выбора ключевых слов необходимо пользоваться сервисами статистики. Обычно люди используют простые фразы при поиске информации, поэтому такие же фразы необходимо использовать и для оптимизации содержимого. Но для более высокого уровня релевантности желательно использовать не отдельные слова, а целые фразы. И подбирать необходимо такие слова, которыми пользуется ваша целевая аудитория. В этом случае пользы от посетителей будет больше. информация с моего блога.
Итак, вы слышали, что ключевые слова являются важной частью маркетинга статьи, но вы просто не знаете, как использовать ключевые слова для ваших статей.
Ниже приведены некоторые основные советы по ключевым словам для вас:
1. Исследования ключевых слов. Используйте инструмент исследования ключевого слова такой, как WordTracker для поиска наиболее подходящих ключевых слов для вашего сайта.
2. Ваш список должен состоять из 20-30 слов.
3. Некоторые из ваших ключевых слов будет короче (2 слова), в то время как другие будут длиннее (3-5 слов).
4. Эти более длинные ключевые слова, называются » ключевые слова с длинным хвостом «. Ключевые слова с длинным хвостом не пользуются таким спросом, как более короткие фразы ключевых слов, но в результате они дешевле (потому что меньше конкуренция). Это хорошая идея иметь некоторый длинный хвост, в ключевых словах в списке ключевых слов.
5. После разработки вашего списка, возьмите каждое ключевое слово, и сосредоточьте на нем статью. Уделяя внимание в статье ключевому слову, это не означает, напичкать статью этим термином. Это означает, что вы пишете статью по теме этого ключевого слова. Естественно — следует написать вашу статью так, чтобы не было похоже, что вы пытаетесь манипулировать этим термином в ней.
6. Если это, возможно, найдите способ вставить ключевое слово в название вашей статьи (конечно, если это имеет смысл).
7. Можно использовать ключевое слово в теле статьи, а также в подписи статьи. Опять же, старайтесь не перегрузить ваши статьи ключевыми словами, постарайтесь, чтобы все выглядело естественно.
8.Не перегружайте ваши статьи ключевыми словами. Некоторые издатели используют инструменты, которые показывают плотность ключевых слов, если используется слишком много ключевых слов. Плотность ключевых слов варьируются в зависимости от издателя, но хороший процент плотности ключевых слов для статьи составляет 2%.
9. Не пытайтесь поставить все ваши ключевые слова в одной статье. Помните, что маркетинговая статья это долгосрочный инструмент маркетинга, и у вас должно быть много статей для публикации на протяжении все жизни вашего веб-сайта. Пройдите через весь список, затем повторите, написание новых статей для каждого ключевого слова.
10.Список ключевых слов должен обновляться регулярно, так как этот тип информации изменяется.
Если вы научитесь писать статьи для ваших ключевых слов, вы будете работать над доминированием вашей ниши в Google и других поисковых системах. Кроме того, чем больше контента для ваших ключевых слов, тем больше вероятность, что ваши статьи будут отображаться в поиске.
[опрос] Раздел: SEO, продвижение, раскрутка, ответов: 6, проголосовало: 225, последний комментарий: 10.04.2013 21:22
Данная информация предоставлена с моего блога! Вы решили создать сайт. Вы решили его раскрутить, в том числе и продвинуть его в поисковых системах. Вы знаете, что для того, чтобы продвинуть сайт в поисковых системах, нужно снабдить сайт достаточно большим количеством уникальных статей, мало того – все эти статьи должны быть уникальными, и просто обязаны содержать в себе ключевые фразы, по которым вы собираетесь продвигать сайт в топы выдачи поисковых систем. Да и расположение этих фраз должно быть не случайным, а строго продуманным. Если вы хоть что-то знаете о СЕО-продвижении сайтов, то должны понимать, что задача эта очень сложная, трудоёмкая, требует большой сообразительности. Но вас не пугают трудности, и вы с азартом принимаетесь за работу.
Однако с самого начала возникают досадные препятствия. Самая главная проблема заключается в том, у вас не имеется средств на закупку статей. В принципе, эту проблему можно обойти, если вы умеете писать, однако в таком случае дело продвижения сайта грозит затянуться многократно. Ведь вы не можете писать быстро много статей, вы ведь не машина по производству текстов, а так как статьи должны быть не только уникальными, но и интересными, то максимум, что вы можете из себя выжать – 1-2-3 статьи в день, да и то, если будете работать в каторжном режиме. Нетрудно подсчитать, что за месяц вы сможете пополнить свой сайт всего лишь несколькими десятками статей, когда для нормальной раскрутки сайта требуется столько же, но в день.
А теперь давайте представим, что вы вообще не умеете писать. И тут трудности превращаются в проблему, причём в проблему неразрешимую. Никто для вас не будет писать уникальные статьи даром, и такие статьи в Интернете вы нигде не найдёте. Правда, можно отыскать некоторое количество статей, не попавших в Интернет – например в старых книгах, журналах, газетах, но и это не выход. Такого материала мало, и выискивать именно то, что подходит для вашего сайта, а потом проверять тексты на уникальность – это выйдет себе дороже. В общем, куда ни кинься – везде тупик. Что же делать?
Однако в таком тупике оказываются только те начинающие вебмастера, которые не имеют совершенно никакого опыта. Конечно, не имея опыта, трудно сделать работу по продвижению нового сайта в выдаче поисковых систем хорошо. Однако же у вас есть глаза и голова, которая может анализировать то, что видят глаза. Вам только стоит хорошенько присмотреться к выдаче поисковых систем, и выход из такого непреодолимого для вас тупика будет сразу же найден. Поисковые системы сами подскажут вам этот выход, надо только увидеть всё правильно.
Итак, что же мы увидим в поисковых системах из того, что поможет отыскать нам много контента для нового сайта? Давайте заглянем в Яндекс, например. Вводите в поисковую строку Яндекса любой интересующий вас запрос, желательно наиболее конкурентный. Из появившихся результатов выбираем первый сайт и раскрываем его. Что нам тут надо взять? Нам надо взять с него какую-либо фразу (но не ключевую фразу, а целую строку), содержащую ключевые слова по теме сайта. Фразу берём не с главной страницы сайта, а из какой-нибудь статьи, которая расположена внутри. Вводим эту фразу в строку поиска Яндекса, и смотрим что у нас получилось.
А получилось у нас весьма и весьма интересное открытие. Увидав выдачу по введённой нами строке из рассматриваемого сайта, мы обнаруживаем, что в выдаче Яндекса обнаруживается большое количество сайтов, содержащих эту же фразу. Конечно, так будет не поголовно с каждой фразой, но в 90 случаях из ста – в этом вы можете убедиться сами. А это совсем немало. Более того, мы тут же совершаем новое открытие, гораздо более сногсшибательное. Мы обнаруживаем, что на всех этих сайтах размещена одна и та же статья! Что из этого следует? Из этого следует то, что все эти сайты продвигаются одной и той же статьёй.
Однако для того, чтобы как можно лучше прояснить ситуацию, необходимо провести более углублённый анализ. Мы проверим каждый из этих сайтов, и обнаружим, что ни на одном из них нет уникальных статей. Все статьи, которые находятся на них, также находятся и на множестве других сайтов. И тем не менее все эти сайты находятся в выдаче Яндекса по самым разным поисковым запросам. Мало того, большое их количество расположено на первых позициях выдачи. На многих из них стоят счётчики трафика, и по ним мы можем видеть, что посещаемость всех этих сайтов крайне высока. Проверив количество страниц каждого сайта на предмет индексации, обнаруживаем, что проиндексированы практически все страницы этих сайтов. Получается, что Яндекс продвигает сайты с неуникальным контентом. И не только Яндекс. В Гугле, Майл Ру, Рамблере, Бинге и всех других поисковых системах мы обнаруживаем то же самое.
Теперь давайте попытаемся определить первоисточники некоторых из этих статей и выяснить кое-что гораздо более интересное. Работа эта кропотливая, но её надо сделать, чтобы открыть для себя вообще невероятные вещи. В результате проведённой работы мы выясняем, что далеко не все сайты, на которых та или иная статья появилась впервые, находятся выше остальных сайтов, то есть тех, которые эти статьи «позаимствовали». Очень часто сайты-воры стоят выше сайтов-доноров. На каких-то из них стоят ссылки на первоисточник, на каких-то – нет, но это в принципе и не важно. Главное, что поисковые системы не судят о сайтах по контенту. Для них существуют совсем другие критерии оценки качества сайта, и тексты в них не попадают никак. В этом мы только что убедились воочию.
Постойте! – скажете вы. – Погодите! А как же заявления Яндекса и Гугла о том, что уникальный контент является приоритетным фактором в продвижении любого веб-проекта? Ну что тут можно сказать? Можно поверить Гуглу и Яндексу, и вообще не смотреть в сторону не уникального контента и терпеть лишения и безуспешно бороться с проблемами наполнения нового сайта контентом. А можно просто признать, что Яндекс и Гугл просто нагло врут, и научиться раскручивать сайт копипастом, как это делает множество других вебмастеров и СЕО-оптимизаторов. Конечно, вопросы тут остаются. Почему поисковые системы говорят одно, а делают совершенно другое? Причин может быть множество, но основная из них такова:
Поисковые системы оценивают сайты вовсе не по качеству контента. Им на это качество по большому счёту наплевать, их волнуют другие параметры. Например, это пребывание посетителя на сайте, совокупность его действий, в общем – поведенческие факторы. Если посетителю на сайте интересно и он проводит на нём относительно много времени, то какая разница – копипастом наполнен сайт, или уникальным контентом? Ведь основная задача любой поисковой системы – предоставить посетителю интересный контент. Сайты с неинтересным контентом быстро фильтруются и уходят вглубь выдачи, а то и вовсе банятся. Таким образом топы поисковых систем набиты полезными и интересными сайтами. И они не продвигаются в эти топы только контентом. Например, для Гугла важна только ссылочная масса, ведущая на сайт, её мощность, то есть качество или количество, или качество и количество вместе взятые. Тот сайт, у которого будет большая ссылочная масса, и прорывается в топы по разным поисковым запросам увереннее всех своих конкурентов. В идеале можно набить страницы одними ключевыми фразами с нужной плотностью, другое дело что такие сайты не будут интересны посетителям, и они быстро попадут под фильтр или забанятся как неинтересные или бесполезные.
Критерии Яндекса несколько другие. Ссылочная масса для Яндекса не играет такой роли, как для Гугла, однако он учитывает скорость и бесперебойность развития сайта, то есть наполнение его контентом. Для того чтобы продвинуть свой сайт в топы Яндекса, необходимо добавлять к нему страницы каждый день, и неважно – будет на этих страницах уникальный контент, или обычный копипаст, взятый с других, проиндексированных Яндексом поисковых систем.
Таким образом мы видим, что для того, чтобы продвинуть свой сайт в выдаче поисковых систем, вовсе не обязательны финансовые возможности или какие-либо литературные таланты. Необходимо только свободное время и работоспособность. Кроме того, необходимо следовать нескольким простым, но важным правилам. Вот эти правила:
1. Берите с других сайтов только те статьи, содержимое которых максимально соответствует тематике вашего сайта.
2. Все статьи должны быть интересными посетителям, иначе они будут проводить на сайте очень мало времени, и из этого поисковые системы начнут подозревать, что ваш сайт неинтересный и бесполезный.
3. Обязательно ставьте ссылку на первоисточник, то есть на тот сайт, откуда взяли статью, неважно, является он владельцем статьи, или нет. Под каждой статьёй оставляйте ваш e-mail, чтобы если вдруг обнаружится реальный хозяин статьи, то чтобы он мог написать вам, и в таком случае вы замените неправильную ссылку.
4. Никогда не ленитесь. Обязательно каждый день наполняйте сайт новыми страницами с новыми статьями. Только в этом случае вы можете рассчитывать на то, что через месяц-другой-третий ваш сайт раскрутится так хорошо, что вы можете на нём зарабатывать весьма приличные деньги.
Раздел: Другое, ответов: 15, последний комментарий: 18.02.2013 21:36
P.S.информация взята с моего блога! В последние годы всё большее значение поисковые системы уделяют контенту, который вебмастера и СЕО-оптимизаторы размещают на своих сайтах. Главные требования поисковых систем к такому контенту – это уникальность текстов, отсутствие ошибок в них, ну и, самое, пожалуй, главное – это то, чтобы эти тексты были очень полезны посетителям. Этого добиться можно, только вложив в создание текстов массу времени и средств, и подавляющее большинство вебмастеров приняли эти правила за аксиому. Однако существует совсем другой путь, который состоит только из двух последних пунктов: грамотность текстов и востребованность информации. Что же касается уникальности, то тут можно поспорить.
Итак, вроде бы понятно: уникальный контент – это ключевой момент в продвижении любого сайта. Поэтому сегодня существует множество бирж контента, на которых каждый день продаются и покупаются тысячи и десятки тысяч уникальных статей на все темы, которые существуют в природе. Одно и понятно – с каждым днём все больше и больше людей приходят в интернет за заработками, подавляющее большинство из них начинает делать свои сайты. Сайты надо чем-то заполнять, кто-то умеет писать статьи, но для успешной раскрутки статей надо так много, что ни один плодовитый мастер пера с этим вряд ли справится. Однако в основном начинающие СЕО-оптимизаторы писать не умеют, зато они имеют деньги, на них они и закупают уникальный контент на биржах статей.
Но что делать тем, кто не умеет писать и не имеет средств на закупку контента? Казалось бы, положение совершенно безвыходное. Однако нет, лазейка, впрочем, имеется. И при ближайшем рассмотрении оказывается, что это не просто лазейка, а огромнейшая дыра, через которую проходит поистине гигантское количество неуникального контента. Практически 99% сайтов в Интернете используют для раскрутки контент, взятый с других сайтов, и что самое интересное – этот контент прекрасно «работает», причём работает не хуже, чем контент уникальный, купленный часто за большие деньги.
Недавно поисковая система Гугл опубликовала очередной мануал по работке с контентом. Из этого мануала следует, что копипаст также индексируется поисковыми системами, только на его использования наложены некоторые ограничения. Например, поисковая система не фильтрует страницу зам то, что на странице расположена какая-либо цитата (любого размера), однако при этом на странице должно быть расположено и некоторое количество уникального контента, например аннотация, пояснение к цитате, и эта аннотация должна содержать не менее 500-700 знаков. Вроде бы вполне логично, если бы в реальности дело не обстояло несколько (а то и совсем) по другому. Чтобы проверить это, можно зайти на какой-либо сайт в топе Гугла и скопировать первую фразу, а потом вставить эту фразу в строку поиска Google (или Яндекса, или вообще любой более-менее заметной поисковой системы). И мы сразу же увидим на первой странице выдачи целый ряд сайтов (то есть страниц), на которых размещена эта фраза. Мало того – на этих страницах расположена вся статья целиком. И в довесок – на большинстве страниц-клонов не видно никаких комментариев, о которых твердит Гугл. Но тем не менее все эти страницы находятся в топе и не фильтруются.
Ну да, скажете вы, топ по фразе – ещё не доказательство. Посетители ищут сайты не по большим фразам, а по ключевым словам (или коротким фразам)! И в этом вы будете, конечно же, правы. Но только отчасти. Найдите на всех этих сайтах какую-либо общую ключевую фразу и введите в строку поиска. В большинстве случаев картина будет та же – почти все эти сайты, или большинство из них, будут опять-таки находиться в топе по этой ключевой фразе! Почему так? Ведь в Гугле сказано – копипаст без уникальных комментариев не будет учитываться, мало того – такая страница будет выкинута из выдачи поисковой системы, ну, в крайнем случае, уйдёт в самый низ выдачи, то есть попадёт под жёсткий фильтр.
Конечно, новичкам это всё в новинку, именно поэтому они и принимают все официальные заявления руководства поисковых систем всерьёз. Однако опытные профессионалы прекрасно знают, что большинство всех этих официальных заявлений ничего не стоят, все они направлены только лишь на устрашение новичков, чтобы поголовно не принимались за использование копипаста. Ведь если все поголовно начнут воровать контент с более продвинутых сайтов, то кому в итоге нужен будет контент новый, уникальный? Интернет быстро наполнится старым, тысячу раз использованным контентом, все биржи уникальных статей обанкротятся, да и поисковая выдача станет бледной. А так как Интернет в основном и состоит из новичков, которые слепо выполняют все рекомендации поисковых систем, то таким образом через них большинство сайтов являются уникальными и часто даже очень интересными (в последнем пункте всё зависит от степени желания новичка улучшить свой сайт).
А почему же поисковые системы всё же не фильтруют сайты-нарушители? – спросите вы. Да всё очень просто. У поисковых систем просто-напросто не хватает на это технических возможностей. На первый взгляд это кажется неправдоподобным, но это именно так. Впрочем, эту уже совсем другая история, а сейчас мы рассмотрим несколько основных правил при использовании неуникального контента (копипаста) для раскрутки новых сайтов.
Во-первых, необходимо брать контент, который максимально соответствует направлению вашего сайта. При этом надо навскидку оценивать текст на наличие необходимых ключевых слов и фраз, по которым вы хотели бы продвинуть страницу с расположенной на неё статьёй. Лучше всего брать такие статьи из Википедии, так как там процент ключевых слов в текстах рассчитан, и в случае необходимости вы легко можете заменить их более подходящими по смыслу синонимами. Однако существует множество сайтов, на которых ключевые слова в тексте визуально выделены – они также хорошо подходят для сбора копипаста.
Во-вторых, никогда не забывайте ставить ссылку на источник. Это в первую очередь нужно для того, чтобы вас не обвинили в воровстве, а кроме того, поисковые системы учитывают эти обратные ссылки, оценивая страницу. То есть простыми словами – поисковая система прекрасно видит, своровал сайт эту статью, или же просто позаимствовал на взаимовыгодных условиях. А это две большие разницы, они учитываются при ранжировании сайта практически в первую очередь.
Ну и в-третьих – постоянно наполняйте сайт контентом (то бишь копипастом). Нельзя набить несколько десятков (или сотен) страниц и сидеть ждать результата. Сайт надо наполнять каждый день. Хотябы несколько страниц, но постоянно, чтобы поисковая система видела, что сайт не застыл, а развивается. В противном случае сайт точно может уйти под фильтр или в бан, и в таком случае вряд ли вы его оттуда вытащите даже с помощью уникального контента.
Раздел: Другое, ответов: 10, последний комментарий: 27.11.2012 08:57
Могу вам назвать возможные причины того,что сайт больше не индексируется. Первопричиной наложения фильтра является плохой контент: синонимайз, плохой рерайт, машинный перевод и так далее. Возможно, робот анализирует и другие факторы (отсутствие трафика на сайте, массированная продажа ссылок), но они вторичны. Если с контентом сайта все в порядке, робот пройдет мимо.
Также совершенно не помешает новый уникальный контент в большом количестве. Пишите (или заказывайте) столько, сколько сможете. И размещайте, размещайте. Купите пару десятков ссылок с других сайтов.
Помните – вывести сайт из-под фильтра сложно но можно,из бана – сложнее, особенно если он получен за дело. Учтите, что иногда проще бросить засранный ссылками сайт и запустить новый проект, чем пытаться реанимировать труп.