http://wm-monitoring.ru/ ')) {alert('Спасибо за то что установили нашу кнопку! =)');} else {alert('Очень жаль! =(');}"> http://wm-monitoring.ru/

Главная Новости

Видеокурс по SEO-оптимизации WordPress.

Опубликовано: 01.11.2017

видео Видеокурс по SEO-оптимизации WordPress.

SEO-оптимизация сайта. Практический урок на примере живого сайта

Представляю вашему вниманию бесплатный Видеокурс по SEO-оптимизации WordPress. Курс охватывает все основные темы, изучив которые вы сможете провести полную внутреннюю оптимизацию вашего сайта и SEO-подготовку.



Подборка уроков по SEO-оптимизации сайта на системе WordPress. Вы узнаете о настройке ЧПУ-ссылок и редиректов для WordPress, оптимальном файле robots.txt, мета-тегах и канонических ссылках (настраиваются при помощи плагина All in one SEO pack), о создании карты сайта.

Также я расскажу о способах избавления от внешних ссылок (в том числе о noindex и nofollow), о составлении семантического ядра для сайта.


Видеокурс WordPress SEO

Отдельно поговорим о способах улучшения отображения сайта в поисковой выдаче: формирование сниппетов, быстрые ссылки, title, адреса организаций, карты и т.д.

Затронем вопрос об ускорении индексации сайта при помощи карты сайта, пинга url, инструментов для вебмастера от Google и Яндекс, о влиянии ссылок в социальных сетях на скорость индексации сайта.

Список уроков курса:

#1. Постоянные ссылки. Редиректы.

Правильная настройка постоянных ссылок сделает страницы вашего сайта более релевантными поисковым запросам (URL учитывается поисковиками при построении поисковой выдачи и ранжировании сайтов).

Редиректы или перенаправления служат для переадресации пользователя или поискового робота с одной страницы сайта на другую. Используются для перенаправления, к примеру, с http://www.maxtop.org на http://maxtop.org, а также для закрытия некоторых дублей страниц (к примеру, страниц с index.php на конце URL).

#2. Настройка robots.txt.

Файл robots.txt необходим для указания поисковым роботам, какие страницы сайта можно индексировать, а какие нельзя. С помощью robots.txt можно эффективно закрывать дубли страниц, указывать URL карты сайта, хост, а также правильно настроить конфиденциальность сайта, чтобы никакие личные данные не были проиндексированы поисковиками.

Карта
rss