Алгоритм Гугл Панда. Сейчас изучаю алгоритмы работы поисковиков, и решил в этом небольшом посте поделиться кое какими соображениями.
Алгоритм Google Панда был введен в августе 2011 года, я имею ввиду наш сектор Интернета, буржуины под него попали раньше, и навел очередной шорох в рядах seo-шников.
Гугл стал еще больше щемить оптимизаторов и те в свою очередь искать новые фишки оптимизации своим детищам.
Но как ни крути Гугл не Яндекс и его не обманешь, все мы равно или поздно придем к тому что сайт должен быть сделан для людей.
В среде оптимизаторов обновление алгоритма, которое назвали Пандой также известно как “Гугл Фермер”.
Мало кто знает, что назван он был в честь одного из инженеров компании Google – Навнита Панды, который, собственно, его и разработал.
Обновленный Алгоритм Гугл, ранжирования, благодаря разработкам Панды, работает намного сложнее и качественнее, чем предыдущий.
Он основан на уникальности и релевантности предоставляемого контента.
Он анализирует взаимосвязь между контентом, заголовком и ссылками, которые были даны в контенте. Это обновление очень сильно повлияло на поисковую выдачу, поэтому некоторые опытные веб-мастера и оптимизаторы называют его больше фактором ранжирования, нежели обновлением алгоритма.
Важность обновления Алгоритма Гугл Панда
Большое количество трафика, который идет на сайты, направляется Гуглом. Малейшие изменение в алгоритмах ранжирования могут влиять на весь бизнес владельцев сайтов. Главная цель запуска этого обновления – удаление из верхних позиций поисковой выдачи некачественных сайтов.
Его суть заключалась в том, чтобы определить эти некачественные сайты и улучшить пользовательский опыт, предоставляя только наиболее релевантные запросу результаты.
Как при этом работать с Алгоритмом Гугл Панда
Одним из способов борьбы с обновленным алгоритмом является глубокое взаимодействие с пользователями и дальнейшее влияние на персонализированную выдачу этого пользователя.
Если ваш сайт нравится посетителям, то он будет заходить на него не один раз, а Google этому придает очень сильное значение, формируя персонализированную выдачу. Поэтому следует большое внимание уделять теперь пользовательскому опыту, который он испытывает, пользуясь вашим сайтом.
Основные факторы которые учитываются алгоритмом Google Панда
1. Уникальность контента.
Об этом и упоминать не стоит это аксиома. Контент-король!
2. Поведенческие факторы
Как говорится были есть и всегда будут. Люди должны проводить время на Вашем сайте.
3. Соответствие или релевантность рекламы
Чтоб не лить воду, скажу просто, реклама должна быть по теме ресурса. Если сайт о рыбалке, никакой рекламы противозачаточных там не должно быть.
Грамотно подходите к выбору рекламодателей.
4. Ну и ссылочная масса , куда уж без нее.
Что и в этом случае нужно действовать с умом, говорить наверное лишнее.
Если уж покупаете ссылки т берите их на тех биржах, где проверяются сайты на уникальность. не покупайте на говно-помойках.
Постараюсь в ближайшее время сделать более развернутый пост на эту тему.
5. Внутренняя оптимизация сайта.
Никаких черных приемов, только белое SEO и очень осторожно.
Оптимизация графики
внутренняя перелинковка (ручная)
грамотно составленный файл robots.txt
Заботьтесь о пользователе, и Гугл позаботится о вас!
Если тема зацепила, посмотрите в каталоге лучших статей блога , там еще много информации по оптимизации блога!
И под конец хочу представит вам обзор от профессионалов от мегаиндекса.
Главное не воруйте контент – Панду и других зверьков бояться перестанете, мы же не в лесу живем….
У Гугла сейчас сервис появился по проверке этого алгоритма – CheckTrust, который проверяет качество ссылок на Ваш сайт.
Я не думаю, что уже отслеживается возврат постоянных посетителей. Представляете, какие бы тогда надо было вести базы! Уники они изменяют – это легко.
“Если ваш сайт нравится посетителям, то он будет заходить на него не один раз” – это в корне неправильная предпосылка. Почему Гугл выбрал её – неясно. “Не один раз” – с каким интервалом? Лично я несколько раз в месяц захожу.
Уникальность + поведенческие, вещь весьма непростая, однако, довольно-таки интересная, особенно, если помогает жизнедеятельности сайта, так что дерзайте!
Особенно, если не знаешь четких критериев, как их оценивают поисковики 😛 Мне очень нравятся программисты. Считают, что все понимают и закладывают это в алгоритмы.
Конечно если размышлять логически можно к многому прейти) и найти какие нибудь ответы которые лежат на поверхности и их не кто не замечает…
Сам-то дерзаешь? Или даже не пытаешься?
Спасибо Фёдор за полезную статью! Как всегда грамотно и по делу. Особенно полезно новичку, как я. Что бы в будущем, было меньше ошибок по оптимизации сайта.
Пожалуйста, рад что понравилась статья.