0fef093a

Фильтры Google

3 Декабрь 2010 | Автор: admin

Как у любой поисковой системы, у Google есть система фильтрации своей выдачи. Большой процент сайтов в интернете создано не для людей, а для перенаправления трафика на другие сайты, для влияния на поисковую выдачу и т. п., следовательно, чтобы выдача поисковика была чистой, этот мусор нужно тщательно отфильтровывать. Отфильтровывать таким образом, чтобы не пострадали нормальные сайты. А ведь нет четких критериев «нормальности», поэтому проблема фильтрации является сложной, и она до сих пор окончательно не решена. Под фильтры часто попадают «белые и пушистые» сайты, и причины этого попадания определить бывает очень сложно.

Анализируя информацию о фильтрах (а можно анализировать лишь мнения вебмастеров, так как сам Гугл не выкладывает практически никакой информации о своих поисковых технологиях), отчетливо видно, что названий фильтров множество, но все они сводятся практически к одному – раскручивай честно, и с сайтом будет все хорошо. Поэтому нет смысла определять с высокой точностью, как называется наложенный на сайт фильтр. Способы выхода из-под них примерно одинаковы, а знание названия ничего не изменит.

1. Sandbox, песочница. Фильтр, с которым сталкивается большинство молодых сайтов. Проявляется в том, что первые месяцы работы сайта он принципиально не может занять первые места в выдаче, как его ни раскручивай. Песочница – это не санкция, это определенный испытательный период для молодых сайтов. Причиной его введения, скорее всего, послужило желание отсеять короткоживущие дорвеи и не допустить их присутствия на лидирующих позициях в результатах поиска. До введения песочницы некоторым дорвеям достаточно было пробыть на первых местах в поиске буквально несколько суток или даже часов, чтобы принести существенную прибыль владельцу. А если таких сайтов много?

Пока сайт находится в песочнице, над ним нужно работать, чтобы после снятия фильтра он сразу занял хорошие позиции. Многие почему-то просто вешают на домен заглушку и ждут, но в этом нет смысла.

Есть мнение, что песочницы не существует, и ее эффект – это следствие действия комплекса других фильтров, например, прямого влияния возраста домена или траста. Так это или нет совершенно не важно, так как эффект вполне очевиден, и его можно назвать отдельным фильтром. Иногда отдельно выделяют фильтр для молодых доменов.

Песочница грозит лишь англоязычным сайтам. Избежать песочницы или сократить срок пребывания в ней можно несколькими способами. Впрочем, ни один из них не дает никакой гарантии:

- регулярно наращивать качественную (по возможности, естественную) ссылочную массу;

- изначально купить старый домен, на котором уже был возрастной трастовый сайт;

- регулярно обновлять сайт качественным уникальным контентом, отдавать его по rss. Заниматься копированием текстов в других сайтов не следует;

- закрыть от индексации все лишние служебные страницы сайта, оставив лишь то, что нужно и полезно посетителям;

- не использовать излишнюю текстовую оптимизацию.

2. Фильтр «минус 30″. Фильтр против тех, кто слишком активно и агрессивно продвигает свой сайт. Он не призван полностью выбросить сайт из поиска, а создан, скорее, для того, чтобы намекнуть хозяевам сайта на недопустимость спамерских методов продвижения. Причинами его наложения могут быть:

- стремительный рост ссылочной массы, особенно если эти ссылки стоят с «мусорных» ресурсов – немодерируемых каталогов, гостевых книг, комментариев в блогах, форумов и т. п. Поэтому не стоит активно пользоваться системами автоматической регистрации сайта в подобных сервисах.

- наличие на сайте «ссылочных помоек» — больших, плохо модерируемых каталогов ссылок, блоков рекламных ссылок на страницах, статей, опубликованных специально для размещения рекламы.

- использование в раскрутке клоакинга. Клоакинг – выдача разного содержимого пользователям и роботам поисковой системы. Посетителям показываются читаемые информативные материалы, роботам – оптимизированные страницы для повышения поисковых позиций.

- использование редиректа при помощи java script. Следует использовать только серверные редиректы (301, 302). Конечно же, не любой java script приводит к этому фильтру, как многие считают.

Избавиться от фильтра можно избавившись от вышеуказанных методов продвижения и не используя их в дальнейшем. Удалив ссылочные помойки и почистив ссылочную массу, вы снимете фильтр с сайта.

3. Google Bombing. Остановка роста позиций по конкретному ключевому слову. Причина – быстрый рост ссылок с одинаковым анкором. Целесообразность его достаточно сомнительная, особенно касаемо некоммерческих запросов. Устранить его можно, например, разбавив ссылочную массу анкорами с текстовым окружением, да и вообще усилить ее трастовыми ссылками.

Причиной введения данного фильтра был собственно «гуглбомбинг» — массовая закупка ссылок (зачастую многими людьми) с одним текстом на определенный сайт затем, чтобы продвинуть его по какому-то абсурдному запросу. Классический пример – первое место у сайта Макдональдса по запросу «ближайший общественный туалет» или у сайта Дмитрия Медведева по запросу «злобный карлик». Делалось это или просто ради шутки, или для того, чтобы навредить конкуренту или же просто в качестве вирусного маркетинга. Гуглбомбинг — следствие алгоритма ссылочного ранжирования, который, при наличии мощной ссылочной массы, практически не учитывает текстовое наполнение продвигаемой страницы. Впрочем, с введением этого фильтра избавиться от данного явления полностью не удалось.

4. Google Florida. Классический вариант пессимизации сайта – резкого падения позиций по всем продвигаемым запросам и, как следствие, падение трафика на несколько порядков. Накладывается за излишнюю оптимизацию страниц – перенасыщенность текста ключевыми словами, излишнее их наличие в тегах title, h1-h6, спамные мета-теги; по большому счету, за те действия владельца сайта, которые направлены на его продвижение, а не на улучшение с точки зрения пользовательского удобства. Фильтр работает не постоянно, а периодически; накладывается, в основном, на сайты, продвигаемые по коммерческим запросам. Это привело к тому, в частности, что на первых местах по многим поисковым запросам, даже по самым дорогим с точки зрения раскрутки, на первых местах находятся информационные или образовательные сайты, а не ресурсы, вкладывающие в продвижение большие деньги.

5. Supplemental Results. Дополнительные результаты поиска («сопли»), то, что показывается после клика по ссылке «повторить поиск, включив опущенные результаты». Главная причина этого – неуникальность во всех пониманиях этого слова, в том числе в рамках одного сайта, дублирование информации. Одинаковые по структуре и, тем более, по содержимому страницы попадают в дополнительные результаты. В зарубежном интернете многие оценивают сайты именно по проценту содержания страниц в основной выдаче Гугла. Если этот процент ниже 30-40, то сайт считается неуникальным и не очень качественным. К наложению этого фильтра могут привести плохо настроенные CMS, которые генерируют много дублирующих страниц, а также страниц, не несущих полезной информации пользователям. Такие страницы, естественно, либо вообще фильтруются, либо попадают в supplemental.

Для того чтобы избежать выпадения страниц в дополнительные результаты, следует, в первую очередь, использовать качественный уникальный контент. Во-вторых, нужно по максимуму исключить дублирование текстов в рамках своего сайта, закрыть от индексации все дубли. Этот фильтр зависит от запроса; по одному запросу страница может быть в основном поиске, по другому – в дополнительных результатах.

Вывести страницу из-под этого фильтра можно таким образом:

- покупка на нее трастовых ссылок;

- уникализация title и мета-тегов;

- увеличение количества на ней уникального контента;

- уменьшение «битых» ссылок на сайте и, как следствие, страниц, выдающих ошибку 404;

- правильная настройка движка сайта.

6. Фильтр на неуникальный контент. Быть может, не стоит выделять его как отдельное явление, но уж очень это массово. Страница, не содержащая уникального контента, попадет на первые позиции разве что заполучив огромную и трастовую ссылочную массу, да и то через долгое время. Из множества страниц, содержащих одинаковый текст, Гугл выбирает лишь несколько, которые и выдает в основной выдаче.

7. Фильтр на нерабочие ссылки. Позиции сайта могут понижаться, если на нем содержится много битых ссылок и 404-страниц. Избавиться от него можно, соответственно, избавившись от таких ошибок.

8. Фильтр на долго загружающиеся сайты. Если роботы Гугла не получают быстрый отклик от сервера, позиции сайта понижаются вплоть до полного исключения их из поискового индекса. Несколько лет назад от этого фильтра можно было эффективно избавиться, уменьшив размер страниц и изображений, находящихся на них. Сейчас же, когда интернет стал скоростным, и страница, даже занимающая несколько мегабайт, загружается очень быстро, причины подобных задержек могут заключаться в другом. Например, в неправильно настроенных скриптах или сервере. Поэтому копать надо глубже, в том числе выяснить у хостера, не ограничивается ли доступ к сайту для роботов поисковых систем.

9. Фильтр цитирования (Co-citation Linking Filter). Суть этого фильтра сводится к тому, что ссылаться надо только на качественные сайты, которые, в свою очередь ссылаются тоже на нормальные ресурсы. Естественно, проследить всю цепочку ссылок невозможно, соответственно, следует исходить из того, что, ставя на своем сайте ссылку на другой, вы рекомендуете его посещение своим посетителям. А если рекомендуются плохие сайты, Гугл делает вывод о том, что сам сайт тоже является некачественным и таким, который не заботится о своих пользователях.

Фильтр может накладываться на сайты, продающие ссылки или места под статьи в автоматическом режиме, и владельцы которых не особо тщательно фильтруют поступающие рекламные материалы.

10. Фильтр ссылочных помоек. К нему может привести активное участие в системах автоматического обмена ссылками и появление на сайте большого количества страниц, содержащих исключительно ссылки. Обмен ссылками должен быть ручным, меняться нужно только с ограниченным числом качественных сайтов. И первичным на самом сайте должен быть именно его информационное наполнение, а не каталоги ссылок, играющие вспомогательную роль.

11. Фильтр взаимных ссылок. Массовый взаимный обмен, с точки зрения Гугла, это плохо. Поэтому следует использовать более сложные схемы обмена ссылками, например, когда первый сайт ссылается на второй, второй на третий, а третий на первый. Есть и более запутанные схемы обхода фильтра.

12. Фильтр быстрого прироста контента. Если сайт обновляется слишком часто и активно, Гугл может заподозрить его в использовании генераторов или парсеров контента и, следовательно, понизить его позиции или исключить из выдачи. Поэтому при использовании подобных генераторов стоит поставить ограничение на количество добавляемого материала за определенный период времени.

13. Google Bowling. Фильтр, существование которого подвергается сомнению. Суть его заключается в том, что он отслеживает сайты, занимающиеся нечестной конкурентной борьбой с целью загнать своих конкурентов под фильтры Гугла, например, массово закупая некачественные ссылки или рассылая спам.

14. Trust Rank. Степень доверия Гугла к конкретному сайту. Собственно фильтром траст не является, но сайту с более высоким показателем проще будет достичь высоких позиций. На него влияет фактически все то, что делает сайт интересным пользователям, в том числе и возраст сайта, который может говорить о серьезности намерений вебмастера.

Надо помнить одно. Качественному сайту, который делается для людей, который регулярно обновляется качественной и интересной информацией, на которой появляются естественные ссылки, большинство фильтров не грозит.

Мы не будем останавливаться на частностях типа учета геозависимости запроса, но сосредоточимся на базовой (и достаточно условно описанной) архитектуре поиска. Яндекс использует пирамидальный поиск: сначала из всего гигантского множества документов выбирается ограниченное количество соответствующих базовым критериям – «кворум». На этом этапе применяется отсев по порогу содержания простейших ключевых слов (термов). Поскольку документов в индексе очень много, полученная выборка тоже может быть чрезмерно широкой для полной формулы Матрикснета – поэтому ее нужно сократить до размера, который эта формула может «переварить» в установленное для обработки одного запроса время. Для этого проводится анализ по статическим параметрам (так называемый «фаст ранк»): стандартный вес, траст и так далее. Лучшие результаты передаются на ранжирование полной формулой. Итак, сначала проводятся сравнительно простые вычисления с огромным количеством документов, а затем – сложные вычисления с небольшим количеством заведомо подходящих и уже неплохих. Конечно, выдача по наиболее распространенным запросам кэшируется серверами среднего уровня, поэтому каждый раз обсчет не производится (хотя постоянное пополнение индекса новыми документами вызывает необходимость периодического перезапуска всей последовательности итераций). Итак, ограниченное количество документов, которые нужно отранжировать, передается на вход Матрикснета. Алгоритм имеет структуру дерева решений, после прохождения которого получается матрица документов с присвоенными «числовыми значениями релевантности». Точнее, для каждого документа необходимо пройти по тысячам деревьев – и ноу-хау Яндекса заключается в балансировке (в математическом смысле), позволяющей очень заметно ускорить вычисления.

Ссылки, пожалуй, самое дорогая строчка в бюджете на продвижение сайта. В среднем на них тратится около половины всего бюджета. Это означает, что, несмотря на все разговоры «о смерти SEO-ссылок», поисковая оптимизация, говоря сухим языком экономической теории, остается материалоёмким производством. Поэтому основная «головная боль» оптимизатора — «снижение затрат на производство … поиск резервов по сокращению этих расходов».

Эксперты утверждают, что ежегодно SEO-рынок вырастает в 2-3 раза. «Количество заказчиков услуг продвижения сайтов в период кризиса продолжает увеличиваться», — констатировали Ведомости еще в прошлом году. Конкуренция усиливается – растут бюджеты на продвижение. А с ними расходы на ссылки. Поэтому клиенты хотят знать больше о качестве «топлива» для раскрутки сайта.

Действительность такова, что продвижение сайта — это сложная услуга. Ее нельзя, как гамбургер из MacDonald`s, проверить на количество и качество мяса в котлете.

Зато заинтересованным клиентам можно объяснить, что же такое «ссылочный бюджет» и от чего зависит его эффективное использование.

Будем двигаться от простого к более сложному.

Ссылки и Яндекс

На сегодняшний день оптимизаторы испытывают острую нехватку качественного ссылочного сырья, при обилии ссылок среднего и низкого качества. А поисковые системы, особенно Яндекс, все лучше распознают и перестают учитывать «низкопробные ссылки».

В 2008 году Яндекс стал распознавать ссылки с сайтов, созданных не для людей, и уменьшать или вовсе аннулировать их вес.

«В настоящий момент мы приняли меры для уменьшения влияния SEO-ссылок с наиболее популярных сайтов Рунета. Мы планируем и далее выявлять подобные ссылки, а также принимать все меры к тому, чтобы:

1) сайты, продающие ссылки, потеряли способность влиять таким способом на ранжирование;

2) покупка ссылок с сайтов не могла бы привести к повышению ранга сайта-покупателя», — пояснялось на блоге Команды поиска Яндекса.

Резюме этой цитаты – сами по себе покупные ссылки неплохи. Просто, если об этом факте узнает поисковый робот, ценность ссылки аннулируется, и деньги, оплачиваемые за нее, с этого момента можно считать неэффективными затратами.

«Без поисковых систем не было бы такого количества ссылок, так и без ссылок не могли бы действовать по своим алгоритмам современные поисковые системы… Поисковые машины должны узнавать о существовании того или иного ресурса – будь то добавление адреса сайта в базу системы для его индексации, заявка в любом другом виде или же вариант, когда сайт находится по ссылке», — справедливо подметил один американский SEO-специалист.

Эффективный ссылочный бюджет: как проконтролировать?

Тот факт, что часть ссылочного сырья идет в отходы, понимающих в бизнесе клиентов не смущает. Безотходное производство — большая редкость. Продвижение сайта пока невозможно без проб и ошибок практически с каждым проектом, т.е. покупки «пустышек», ссылок, которые ничего не дают продвигаемому проекту. Вопрос: каков их процент в ссылочном бюджете?

Проблемой рационального использования ссылочного бюджета обычно озабочены или клиенты из «продвинутых» бизнесов (telecom, it и проч.) или уже поевшие дегтя, т.е. имевшие негативный опыт в продвижении сайта.

Дальнейшие инструкции, как нам кажется, помогут клиенту с минимальными знаниями технологий продвижения сайтов в поисковых системах оценить насколько эффективно будет построена работа по использованию ссылочного бюджета.

Клиенту, озабоченному будущим или настоящим расходованием ссылочного бюджета, стоит задать следующие вопросы:

Какими способами будут приобретаться ссылки для его сайта?

В идеале, в ответ на этот вопрос оптимально услышать следующее:

· обмен с тематическими площадками,

· регистрация в качественных каталогах,

· постинг в социальных сетях и блогах,

· покупка ссылок на проверенных сайтах.

На практике, данный вопрос — больше психологический тест с весьма субъективной оценкой результатов. У «хорошего» SEO-специалиста вопрос вызовет оживление и блеск в глазах возможностью поговорить на любимую тему с понимающим собеседником. У оптимизатора продвигающего проекты с помощью только одной или нескольких бирж ссылок (типа Sape.ru) реакция будет обратная. Он убедительно докажет, что виртуозное владение проверенным способом дает результат и значительно экономит средства.

Факт владения всем арсеналом средств продвижения говорит о некотором профессионализме специалистов. Скорее всего, они в целях снижения рисков не «хранят все яйца в одной корзине». Однако приобретение ссылок различными способами увеличивает расходы.

Каким образом проверяется качество ссылок?

Качество и количество – самые скользкие вопросы. Объясним почему: у каждой компании и даже каждого оптимизатора есть своя особая технология продвижения с поправкой на особенности конкретного проекта. Универсального алгоритма определения «ленивых» (именно ленивые покупают наобум несколько ссылок и ждут чуда) оптимизаторов не существует. Обычно SEO-профессионалы, отвечая на выше поставленный вопрос, говорят о:
тематичности площадок, с которых вручную приобретаются ссылки;
уникальности контента донора;
частоте проверки индексации ссылок роботами поисковых систем;
вложенности («глубина залегания») приобретаемых ссылок;
принадлежность домена зоне .ru, .com;
количестве внешних ссылок;
правильности текстов ссылок;

и т.п.

Каким образом определяется необходимое для продвижение количество ссылок?

На этом этапе клиент может сильно помочь оптимизатору. Наиболее простой способ посчитать необходимое число ссылок для попадания в ТОП-10 выдачи поисковика: выбрать 3-5 сайтов-конкурентов по самым «лакомым «запросам» и озадачить SEO-специалистов подсчетом количества входящих ссылок, которым располагают конкуренты.

Кроме того добросовестный оптимизатор в своем ответе сошлется на анализ текущего ссылочного окружения продвигаемого сайта: сколько ссылок стоит на ваш ресурс, на какие страницы они ведут, соответствуют ли тексты ссылок семантическому ядру и прочее. Такие данные зарегистрированным пользователям представляет сервис Яндекс.Вебмастер.

В результате простого математического действия вычитания в идеале получаем:

Среднее количество ссылок на сайты ваших конкурентов

Число ссылок на ваш ресурс

=

Сколько ссылок необходимо.

Если на поставленные вопросы вы получили ответы близкие к идеальным, то 50% заплаченных вами средств будут израсходованы максимально эффективно. Это отразится на позициях вашего сайта и продажах с его помощью.

Целевая аудитория на вашем сайте

21 Ноябрь 2010 | Автор: admin

Сразу хочу сказать: может быть, эта статья покажется вам в чем-то банальной или неинтересной. Что ж, на огромную оригинальность я не претендую. Хочу лишь сказать, что написал я эту статью для помощи новичкам-сайтостроителям, которые в последнее время все чаще и чаще задают себе вопрос: «Как раскрутить свой сайт?»

Действительно, почему-то люди, которые сваяли свой первый «шедевр» и выставили его в Сеть, сидят возле монитора и ждут, когда к ним придет известность и люди повалят валом на их «супер-портал». Обычно не дожидаются, и супер портал в этом случае ожидают два пути развития: либо про него сразу забудут, либо, прежде чем забыть, еще несколько раз обновят.

Но что делать, если ваш сайт (не обязательно первый, он может быть и десятый, раскручивать надо любой ресурс) представляет собой нечто большее, чем «Все в одном и обо мне»? Что делать, если вы чувствуете, что создали действительно «полезняцкий» ресурс, но не можете донести его до широкой общественности? Если уже в течение месяца цифра на счетчике не меняется? Выход один! Забрасывайте все! Забрасывайте усовершенствования дизайна, технические изыски, бесполезные блуждания по гостевым книгам и форумам с бесполезными призывами «Зайди ко мне!» и вплотную беритесь за раскрутку ресурса. Вплотную…

Первое, что приходит на ум любому интернетчику, равно как и поисковику при упоминании слова «раскрутка» — многочисленные реферальные системы обмена посетителями типа знаменитого Neosap. О вкусах, конечно, не спорят, но я порекомендовал бы воздержаться от регистрации на таких «крутилках» по одной простой причине: мы ведь договорились, что вам нужна целевая аудитория? А то, что каждый пришедший к вам посетитель пробудет у вас не более 30 секунд, я думаю, вас не очень устраивает? Тогда даже не будем смотреть в сторону этих систем. А займемся настоящей рекламной кампанией: упорной, пошаговой, без капиталовложений (не считая счета за Интернет), но с максимальными затратами сил и энергии.

Итак, начали!..

В первую очередь, регистрация в поисковиках. Почему в первую? Потому что занятие это весьма трудоемкое, и результат дает не сразу, а примерно через месяц (только неделя-полторы уходит на то, чтобы поисковик ваш сайт проиндексировал и занес в свою базу данных). Не ограничивайтесь общеизвестными Яндексом и Рамблером! Ищите поисковики! От себя могу подсказать следующие: Punto.RU — сравнительно новый российский поисковик с пока еще небольшой базой известных ему сайтов, Google.RU — Рунетовский вариант американского Гугла и Акавита.BY — белорусский поисковик и одновременно каталог, работающий и с Рунетом, и с Байнетом. На любом из этих поисковиков ищите ссылку типа «Добавить ресурс» и дальше действуйте по инструкциям.

Далее будет регистрация в рейтингах. Конечно, во всех подряд регистрироваться не стоит, поэтому выберите для себя те 5-6 (а можно и 2-3), которые вам больше всего нравятся. По возможности рейтинг должен быть незагруженным, т.к. если в нем уже насчитывается более миллиона ресурсов, то регистрироваться и незачем — ваш сайт потеряется в этом море буквально за час и регистрация ничего не даст. Еще более разумно выбирать рейтинг, ваше место в котором зависит от количества кликов по кнопке самого рейтинга, т.е. от количества переходов. Лично мне нравятся рейтинги ProtoPlex TOP-100 и RAX. Поищите в Сети, вполне возможно, что вы найдете и другие интересные рейтинговые системы помимо общеизвестных. Только не надо жульничать. После регистрации в такой системе обязательно поставьте ее кнопку себе на сайт, иначе через некоторое время вас просто выкинут из списка, и все услия будут потрачены зря.

Конечно же, приличному сайту никуда не дется без баннерообменных сетей. Ваша реклама должна крутиться на других сайтах, это также гарантия того, что хотя бы на первых порах к вам зайдет пара-тройка человек, а чем дальше, тем больше. Для начала, еще перед выбором сети и регистрацией аккаунта, внимательно посмотрите на свой баннер или баннеры, если их несколько. Постарайтесь не делать таких крикливых аляповатых треугольников, которыми сейчас полон весь Рунет. Даже если вы и не художник, пусть ваш баннер выглядит просто, но стильно и аккуратно. Это резко повышает привлекательность сайта в глазах ваших потенциальных посетителей. К выбору баннерообменной сети лучше тоже подойти ответственно. Конечно, есть RLE.RU, но сами подумайте: а устроит ли вас такой вариант? Ведь RLE — сеть достаточно большая и обширная, и кроме баннеров сайтов новичков, там крутятся баннеры сайтов-гигантов, огромных порталов, новостных агенств и т.д. Так стоит ли все валить в одну кучу? Опять же, потратьте немного времени, и найдите баннерообменную сеть, соответствующую именно вашей тематике: компьютеры, работа, отдых, туризм — сейчас существуют баннерокрутилки самых различных направлений. Одну такую баннерную сеть, посвященную компьютерным играм, я могу назвать: GamesBanner Network. Если ваш сайт отвечает данной тематике — пожалуйста, регистрируйтесь!

Далее сделаем такой оригинальный ход, как реклама в газетах. Конечно же, не огромным блоком на главной странице (можно и так, но неизвестно в какую сумму вам это выльется), а обычной ссылкой с описанием в специально отведенной для этого рубрике. Обычно, в каждой газете компьютерной тематики такие есть и ведущие этих рубрик с радостью примут ваши ссылки на свои сайты. От себя могу дать два адреса белорусских газет: Компьютерные Вести и Компьютерная Газета. На сайтах этих газет можете найти необходимый адрес e-mail для отправки информации о вашем сайте.

И последний вариант, раздать ссылку всем своим знакомым. Вариант весьма эффективный, т.к. при условии, что ваш сайт им понравится, они передадут ссылку своим знакомым, те своим и т.д. и т.п.

Также, если вы зарегистрированы на каком-то форуме и являетесь его участником, укажите ссылку и там. Но не в коем случае не стоит ходить и мусорить во всех форумах, чатах и гостевых — ваш сайт (а заодно и его автора) просто возненавидят из-за вашей же назойливости. В общем, во всем нужно иметь чувство меры.

И, конечно же, где бы вам не пришлось регистрироваться, в графе «Web-страница» указывайте адрес своего ресурса.

Яндекс заботиться об авторах

6 Ноябрь 2010 | Автор: admin

Многие вебмастеры знают, как обидно обнаружить копию своего текста, размещенную на чужом сайте, которая в результатах поиска находится выше оригинала.Чтобы честные вебмастеры расстраивались как можно реже, Яндекс старается отдавать предпочтение оригиналам. Благодаря сегодняшнему обновлению страницы, содержащие авторский контент, стали ранжироваться лучше. В большинстве случаев наш поисковик правильно определяет автора документа, убирая копии из выдачи. Обычный пользователь ссылки на ресурсы с «копипастой» не увидит, но у вебмастера есть возможность посмотреть, где и кем используются его тексты. Чтобы увидеть результаты поиска без фильтрации, нужно пройти по ссылке «Показать все ответы без исключения» в конце выдачи. Мы хотим сделать определение авторства еще точнее, поэтому если ваш оригинальный текст ранжируется хуже копии, сообщите, пожалуйста, нашей службе поддержки. Разумеется, Яндекс не пытается оценить законность копирования текста. Мы отдаем предпочтение авторской публикации, даже если дальнейшее ее распространение происходит с полного согласия автора.

Меня эта новость вполне устраивает, но вот беспокоит одно, как яндекс будет определять первоисточника. Допустим, я слежу за обновлением какого-нибудь сайта или блога и тырю у него свежие новости, а для того, что бы у меня на блоге они быстрей проиндексировались, прогоню по соц. Закладкам. В итоге получается, что первоисточником являюсь я так как у меня она быстрей попадёт в индекс. Вот это я и хочу понять. Хотя в яндексе работают умные люди, и мы зря разводим эти сплетни. Но как говориться поживём увидим.

До недавнего времени было всего два вида подтверждения прав на сайт – это

• Создать текстовый файл с уникальным именем и разместить его в корневом каталоге вашего сайта.

• Добавить специальный мета-тег в HTML-код главной страницы вашего сайта.

Обе эти возможности доступны не всем. Поэтому теперь на сервисе заработал новый метод подтверждения прав на управление сайтом – через добавление текстовой записи в DNS. Он подходит в том случае, если у вас есть доступ к системе регистратора доменов или хостинг-провайдера. В Яндекс.Вебмастере будет сгенерирована текстовая строка, содержимое которой необходимо внести в конфигурацию доменной зоны вашего сайта. Далее последует стандартная процедура проверки, и после неё вы сможете просматривать подробные данные о сайте и управлять его индексированием в Яндекс.Вебмастере.

23 сентября в блоге webmaster.ya.ru «группа пролетарского гнева Яндекса» (команда разработки поиска) опубликовала запись под заголовком «Ограничение влияния искусственных ссылок на ранжирование». Основная мысль такова: в течение прошедшего месяца (то есть с конца августа и с внедрением «Обнинска») в формулу вносились изменения, уменьшающие влияние на ранжирование ссылок с некачественных площадок. Под некачественными Яндекс подразумевает, судя по приведенной тут же информации, страницы с плохим контентом и ссылочной массой, прирастающей неестественными темпами (то есть слишком быстро). Стоит отметить, что из записи не следует, что готовятся какие-то новые меры против ссылочного ранжирования как такового: напротив, подчеркивается, что это на сегодняшний день единственная адекватная методика определения релевантности документов запросов.

Видеочат рулетка