Черный список в поиске

16 Фев 2011, 18:00

Google представил новое расширение для своего браузера Chrome, которое позволяет исключить из поисковой выдачи сайты с низким качеством.

Расширение, получившее название Personal Blocklist, подразумевает, что именно пользователи будут исключать из выдачи мусорные сайты.

Как это будет выглядеть на практике?

После установки расширения возле каждой ссылки из выдачи появляется опция блокирования. Выглядит это так:

1 Google желает улучшить выдачу с помощью расширения для Chrome

При нажатии соответствующий ссылки, домен, который пользователь счел «плохим», исчезает из его персональной выдачи. В то же время, информация о блокировании домена направляется в Google, где ее примут к сведению при формировании дальнейшего ранжирования.

При желании пользователь можем просмотреть и выдачу без введенных им фильтров. Для этого достаточно нажать соответствующую ссылку в конце страницы.

2 Google желает улучшить выдачу с помощью расширения для Chrome

Кроме того, в расширение входит возможность редактировать сайты, добавленные в «черный список».

Уже некоторый строят планы, как можно это использовать против конкурентов, пока идеи не из лучших, мы же знаем как google любит отслеживать накрутку.
(далее…)

503 ошибка у вас

08 Фев 2011, 19:11

Начнем с приятного!
Практический семинар по SEO в Киеве 19 февраля. После прохождения семинара вы сможете продвигать сайты самостоятельно!
Подробная информация на сайте организатора. Количество мест ограничено.

Я уже писал про прошлогодний семинар тут. В этот раз я снова поеду, но еду. как и в прошлый раз, как друг, поговорить о делах и тд..

А вот о новеньком:

Google поделился с веб-мастерами информацией, как должным образом обозначать недоступность сайта, чтобы избежать падения его репутации в результатах поиска.

Очевидно, что сканирование Googlebot’ом может прийтись на период временного простоя веб-сайта. Чтобы избежать отрицательного воздействия таких ситуаций на видимость ресурса в результатах поиска, Google рекомендует прибегать к конкретным методам.

Чтобы сообщить поисковику, что простой сайта временный, необходимо вместо кода статуса HTTP 404 (Не найдено) или показа ошибки на странице с кодом 200 (OK) использовать код статуса 503 (Сервис недоступен).

Возврат этого кода также позволяет сообщить посетителям, когда сайт восстановит работу. В поле заголовка Retry-After можно указать продолжительность простоя или предполагаемое время его завершения. Googlebot может использовать эту информацию для определения подходящего момента переиндексации URL.

И все же Google не рекомендует воспринимать код статуса 503 как панацею при ошибках сервера, недоступности сайта, перерасходе трафика или на страницах-заглушках:

«Продолжительная выдача 503 может рассматриваться как знак, что сервер стал постоянно недоступен, в результате чего мы можем удалить URL из индекса».

Всю информацию о кодах состояния HTTP можно найти на странице RFC 2616.

(далее…)

Теперь в AdWords для России будет тергетинг на города.

05 Фев 2011, 10:35

Уже на подходе день Святого Валентина, выбери подарок любимому человеку!

Google AdWords расширяет возможности своих рекламодателей. Начиная с сегодняшнего дня список городов, на которые можно будет таргетировать рекламные кампании (city targeting), начнет планомерно увеличиваться. Как сообщается в блоге компании, в течение недели такая возможность появится еще в 17 странах. Таким образом, рекламодатели уже 34 стран смогут работать с локальными рынками.

В списке претендентов на «city targeting» присутствует и Россия. На данный момент российские рекламодатели AdWords пользуются таргетингом только по регионам.

Алексей Яковлев, руководить проекта Seo-Study, считает инициативу Google AdWords весьма полезной. Теперь можно будет более точно настраивать рекламные кампании на конкретные города, что, несомненно, должно привести к повышению эффективности рекламных кампаний.

«Однако, как известно, Google AdWords географическое положение посетителя определяет по его IP-адресу. К сожалению, часто встречаются ситуации когда в небольших городах России при подключении к Интернету выдают IP, относящиеся к совершенно к другому региону. Даже в Санкт-Петербурге при подключении через мобильных операторов связи мне иногда присваивают регион, то Москва, то Тула. Поэтому, погрешность все равно будет присутствовать», — отмечает Алексей.

По мнению Григория Селезнёва, SEO-аналитика Рунета, представляющего систему продвижения сайтов WebEffector, это вполне предсказуемый шаг со стороны Google, и при правильном использовании это нововведение может существенно увеличить эффективность рекламы.

«В Яндекс.Директе такая возможность существует давно и успешно используется рекламодателями. Ведь плюсы таргетинга по городам очевидны: более точное попадание в целевую аудиторию, отсутствие конкуренции с другими регионами, а значит, более качественное использование рекламных ресурсов», — отмечает Григорий.
?

Изменения в алгоритме Google

02 Фев 2011, 9:45

Спонсор — Прочтите полезный материал с примерами про заработок в инете, многих интересует, а многие уже зарабатывают.

На прошлой неделе Google внес изменения в свой поисковый алгоритм, сообщил на блоге Мэтт Каттс (Matt Cutts). Корректировки были призваны решить проблему с поисковым спамом, заявленную ранее на официальном блоге Google. Уже тогда технический инженер Google намекнул на некоторые изменения в работе поиска, которые повлияют на сайты, копирующие контент с других ресурсов, а также имеющие низкий уровень оригинального содержания.

В пятницу Мэтт Каттс сообщил своим читателям о том, что было запущено в начале прошлой недели:

Чуть более 2% запросов так или иначе изменятся, но действительно заметные перемены коснутся менее половины процента результатов. Общий эффект будет состоять в том, что пользователи с большей вероятностью увидят сайты, содержащие уникальный контент, чем сайты, собирающие или копирующие контент с оригиналов.

В пересчете на общее количество поисковых запросов, коих, по последним данным comScore, только у Google насчитывается 11,7 млрд., 2% — далеко не малое количество. Однако на ряд вопросов Мэтт Каттс пояснений так и не дал: как Google определяет уникальность контента, что происходит, если крупные трастовые ресурсы копируют содержимое с маленьких блогов, и как поисковик будет ранжировать легальные «зеркала» с сайтов с тем же контентом?