Оптимизация сайта

Поисковая оптимизация (на англ. search engine optimization) - работа проведенная SEO оптимизатором с целью поднятий позиций сайта в выдачи Поисковой системы по запросам. Чем выше позиции вашего сайта в разультате поиска, тем больше трафика (людей) перейдет с поисковой машины.

Исследование и консалтинг

Исследование и консалтинг - используются для оценки и анализа своего сайта и сайта конкурентов. В анализ входит:
  1. Анализ сайта.
  2. Исследование бюджета конкурентов.
  3. Исследование стратегии конкурентов.
  4. Составление бюджета на продвижение.


Копирайтинг

Копирайтинг - написание рекламных и информативных статей, текстов, презентаций. А так же копирайтинг разрабатывает имиджевые слоганы, девизы и.т

CMS системы


     Оптимизация CMS:       

     Joomla       

     WordPress

     DLE

женский сайт самая подробная информация у нас рецепты приготовления русская народная кухня турецкая кухня шаурма полезные продукты для похудения
 
robots.txt
Статьи SEO
robots

 

Все о robots.txt

 

Поисковая машина, перед тем, как индексировать ваш сайт ищет в корневом каталоге файл с именем robots.txt. Находится он www.домен/robots.txt

В этом файле оптимизаторы разрешают или запрещают индексировать определенные моменты вашего сайта.

  • Если вы оставите файл пустым, поисковая машина проиндексирует сайт полностью, независимо, хотите ли вы этого, или что-то скрываете в своем фтп, например цензурные картинки, или просто текст. У меня был случай, когда я залил файлы на фтп, чтобы их скачал мой друг, файлы были нежелательного содержания, ПС после обхода моего сайта - нашла файлы, и сделал пессимизацию сайта, поэтому) будьте внимательны, что вы заливаете на FTP.

 

  • Был так же случай, когда я сделал работу на половину, и после текстового апдейта ПС нашла html странички с "полу-работой' и внесла в индекс. Для ПС - это плюс, т.к. дополнительная информация, но для людей... - можете потерять трафик.




Если у вас нету файла robots.txt - просто создайте его в блокноте, и залейте в корень FTP.

А теперь изучим основные функции:

1. Строка user-agent - это строка говорит о названии робота.

К примеру: user-agent: googlebot

Но лучше написать такой код: символ * - обозначает что правила указываются для всех роботов.
user-agent: *


2. Далее вторая строка disallow: - указываем то, что не нужно сканировать поисковой машине. (Указываем папки в FTP которые мы не хотим индексировать, перед папкой ставится /)

К примеру если у вас сайт на Joomla - можно указать: disallow: /administrator

Далее закрываем папки на свой выбор.

Важно знать:

Если в robots.txt указан следующий код: то мы разрешает всем роботам индексировать все папки нашего сайта, а значит и все файлы, и все страницы. сайта.

user-agent: *
disallow:


Если я хочу занести данную страницу в роботс, тогда код будет таков:

disallow: /stat-seo/robots-txt.html

Если я хочу занести целую категорию со статьями в роботс, код будет таков:

disallow: /stat-seo

 

 



 

Добавить комментарий