SEO советы Мэтта Катса

В этой статья я расскажу вам о 10 последних советов от Мэтта Катса. Вы занимаетесь SEO и не знаете кто такой Мэтт Катс? Вам обязательно надо прочитать эту статью. Вы давно занимаетесь SEO и Мэтт Катс со своими советами вам уже еженощно снится? Порекомендуйте эту статью вашим читателям, она будет полезна многим новичкам в SEO.

Итак, Мэтт Каттс - ведущий специалист гугл интернет спаму и оптимизации. Он часто публикует свои рекомендации о правильной (с точки зрения Google) оптимизации сайтов для поисковых систем. Разеберем в статье 10 последних его (и не только его) советов. Поехали.

Специальные символы языка в адресах страниц и буквы в верхнем регистре

Мэтт не рекомендует использовать "специальные буквы" вашего родного языка в адресах страниц. Под "специальными буквами" он подразумевает буквы невходящие в латинский алфавит. Для испанского языка это, например, ç, á, è, ñ, для русского языка это все буквы нашего алфавита. Google, по словам Мэтта, безусловно может отслеживать и индексировать такие символы, но он рекомендует по возможности избегать их в адресах, т.к. это сильно облегчит роботам других поисковых систем распознование адреса, также это позволит избежать ошибок при копировании адреса куда-нибудь, когда такие символы могут обрезаться и удаляться.

Также Мэтт рекомендует использовать нижний регистр букв во всех адресах и доменных именах. Аргументацию его я не очень понял, т.к. по стандартам регистр букв в доменном имени и адресах страниц не имеет значения и это вряд ли может вызвать какую-то ошибку, а вот облегчить чтение для пользователя вполне может (Мэтт считает, что проще, когда всегда нижний регистр букв и здесь я с ним не соглашусь). Ну разве что к аргументации можно отнести то, что неокторые сервисы могут плохо воспринимать верхний регистр букв в адресах страниц. Вполне возможно, что поисковый робот Google воспринимают такие страницы, как разные адреса и получаются дубли страниц, но в видео от Мэтта этого напрямую не прозвучало.

Индексация javascript и css

Мэтт рекомендует разрешать Google боту индексировать файлы javasript и css, поскольку это позволит роботу лучше понимать, что происходит на странице и как она отображается (от себя добавлю, что их стоит открывать для индексации, если вы ничего не скрываете от робота Гугл:)). Многие люди блокируют эти файлы, т.к. думаю, что это уменьшает скорость индексации, увеличивает нагрузку на сервер (от себя: вряд ли они так думают:)), но поисковый робот достаточно быстр, чтобы не нагружать сильно сервер. Гугл с каждым разом все лучше и лучше понимает джаваскрипты и css файлы и благодаря этому лучше понимает, что более важно на странице, а что менее.

Скорость загрузки страниц и позиции в выдаче

Одним из важных факторов ранжирования является скорость загрузки сайта в целом и отдельных его страниц в частности. Бывают сайты, большинство страниц которых грузятся быстро, но некоторые единичные страницы имеют сложные запросы и достаточно долго отвечают на запрос пользователя. Надо ли закрывать от индексации такие отдельные страницы? Мэтт отвечает, что такие отдельные страницы от индексации закрывать не надо, если в целом сайт грузится быстро. Но стоит подумать над тем, чтобы увеличить скорость загрузки таких страниц в интересах пользователя. Не каждый посетитель дождется загрузки страницы если она грузится 7, 8, 9, 15, 20 секунд... Скорость же загрузки влиет лишь на один из тысячи сайтов, т.е. по этому фактору отсекаются только самые самые медленные.

Плотность ключевых слов в тексте

Отвечая на вопрос о том, о каких факторах по мнению Мэтта, seo специалисты беспокоятся слишком сильно, Мэтт упомянул плотность ключевых слов. Не стоит мерить их в каких-то процентах по отношению ко всему тексту, нет таких волшебных процентов, которые являются идеальными. Для каждого текста плотность должна быть своя и в первую очередь она должна быть человеческой (не должно быть переспама), текст должен быть написан для людей и он должен нести какую-то ценность для них. О каких же факторах ранжирования стоит беспокоиться? Нет никаких специальных факторов, которые Мэтт может выделить. Еще раз: впервую очередь текст должен быть ценен для посетителя. Конечно же надо упомянуть в нем ваше ключевое слово, написать хороший title, создать правильную структуру текста (H1, H2). Без этого робот просто не сможет понять как ранжировать ваш текст. Но здесь нет какого либо главенствующего фактора, на который стоит обращать особое внимание. Профит дадут именно совокупность внутренних факторов ранжирования.

О блокруемых сайтах и их ранжировании

В прошлом году у пользователей появилась возможность блокировать сайты в поисковой выдаче. Мэтту задали вопрос насколько это блокирование влияет на ранжирование сайта? Мэтт утверджает, что этот фактор учитывается алгоритмом ранжирования, но дабы избежать на накруток учитываются только сайты, у которых очень много блоков по отношению к среднему числу и у поисковой системы нет сомнений, что это не спам и блокировки сделаны живыми людьми. Т.е. в основном алгоритм обращает внимание именно на выбросы дабы избежать понижения в рейтинге сайтов, которые были заспамлены таким образом.

Принцип объединения нескольких сайтов в один

Как нам поступить, если мы имеем несколько сайтов и хотим информацию с них объединить на одном домене? Допустим мы имеем 4 домена: 1, 2, 3 и 4. Для объединения всей информации на домене под номером 4 Мэтт рекомендут такой алгоритм:

  1. переносим всю информацию с домена с наименьшим трафиком (пусть это будет 1) на домен 4 и ставим 301 редирект
  2. дожидаемся, когда робот правильно обработает редирект и отобразит всю информацию на домене 4
  3. переносим всю информацию с домена с наименьшим трафиком (пусть теперь будет 3) на домен 4 и ставим 301 редирект
  4. дожидаемся, когда робот правильно обработает редирект и отобразит всю информацию на домене 4
  5. переносим всю информацию с оставшегося домена 2 на домен 4 и ставим 301 редирект
  6. дожидаемся, когда робот правильно обработает редирект и отобразит всю информацию на домене 4

Почему не стоит сразу все домены перенести на 4 и сразу со всех поставить 301 редирект? В ходе такой сложной операции вполне вероятны какие-либо ошибки и неточности. Алгоритм приведенный выше позволяет нам четко определить на каком шаге были сделаны ошибки. Если же делать всё сразу, то в случае неудачи, ошибку можно искать очень очень долго.

PageRank и ссылки с картинок

Это видимо самое короткое вилео Мэтта - 12 секунд. Вопрос: перетикает ли PageRank с ссылок с картинок? Ответ: да, PageRank перетикает с вашей страницы, если вы ставите ссылку с картинки. Ну и соответсвтенно он перетекает на вашу страницу, если она получает ссылку с картинки.

Ручная модерация выдачи Google

Практикует ли Google ручную модерацию выдачи? Предпринимает ли Google какие-то ручные действия для удаления спама из выдачи? Да, гугл иногда модерирует выдачу вручную. Если ему приходит сообщение, что конкретно данный сайт совершенно не соответствует данному запросу, но находится в топе, то разработчики не могут просто ответить: "Вы знаете, через 9 месяцев мы родим апдейт алгоритма и там мы учтем, чтобы этот сайт в выдачу не попадал". Это совершенно не то, что ждут от поисковика пользователи. Убирает ли гугл такие сайты из выдачи вообще или просто понижает в выдаче? Возможен и тот и другой варианты, зависит от релевантности страницы поисковому запросу, от того дублированный это контент или нет. Если контен очень плохой и полностью нарушает правила Гугл для вебмастеров, то он полностью удаляется из выдачи. Если контент соответствует правилам, но в каких-то моментах отклоняется от них, то такие страницы просто понижаются в выдаче.

Есть ли другие причины, по которым контент может быть удален из выдачи? Да, контент может быть удален за спам, контент может быть удален по юридическим основаниям (нарушено авторское право, например, или нарушены законы конкретной страны, где контент отображается) и по причинам сетевой безопасности (вирусы и т.п.).

Страница содержит мало текста - это проблема?

И последним вопросом небольшой сюрприз. Совет не от Мэтта, а от девушки из Маунтин Вью, Калифорния. Сотрудница Гугла видимо, они видимо решили, что на упитанного Мэтта Катса сеошникам смотреть неинтересно, а вот на симпотичных девушек очень даже. Она сама себе задает вопрос вынесенный в заголовок этого раздела: бывают страницы и сайты, на которых очень мало контента (например, фотохостинги) - проблема ли это для гугла или нет? Как ранжируются такие страницы? Такие страницы не являются проблемой, но при их создании надо помнить о некоторых дополнительных шагах, которые надо сделать, чтобы робот Гугла понял, о чем она:

  • указывайте ключевые слова в именах файлов картинок (имя файла IMG_123.jpg не подойдет, надо что-то вроде krasivaya_devushka.jpg)
  • определяйте alt текст для картинки (этот текст также используется, если у пользователя не отображаются картинки в браузере)
  • указывайте заголовок фотографии в тексте страницы
  • желательно указать, какое-то небольшое описание фотографии

Что делать, если у вас есть флеш на сайте? Гугл может индексировать контент во флеше, но здесь надо быть острожным. Он понимает далеко не все флеш ролики. Рекомендуется использовать флеш больше для украшения сайта, но не для отображения основного контента или меню сайта. У некоторых пользователей флеш вообще отключен, телефоны также не поддерживают флеш.

Если вы новичок, то рекомендую выписать эти простые советы себе куда-нибудь и следовать им неукоснительно. Если ваш олыт показывает, что какие-то из них не верны, напишите, пожалуйста, в комментариях, нам было б интересно узнать его и обсудить с вами.