Управление ИТ-сервисом и контентом 


Мы поможем в написании ваших работ!



ЗНАЕТЕ ЛИ ВЫ?

Управление ИТ-сервисом и контентом



Управление ИТ-сервисом и контентом

Практическая работа №3

Оптимизация контента сайта.

Работа с ссылками, тэгами и файлом robots.txt.

Цель работы: ознакомление с основными принципами работы по внутренней оптимизации сайта (с ссылками, тэгами и файлом robots.txt).

В работе используется сайт, созданный на практической работе №1 и ключевые слова, найденные на практической работе №2.

 

Порядок выполнения работы

1) Изучить основные принципы внутренней оптимизации сайта. Например, почитав эти ресурсы:

http://profitgid.ru/vnutrennyaya-optimizaciya-stranic-sajta-perelinkovka.html

http://www.kolobochek.ru/vnutrennyaya-optimizaciya-sajta-15-sovetov.html

http://webdela.ru/blog/seo/12-punktov-dlya-vnutrenney-optimizatsiya-sayta/

 

2) Ответить на следующие вопросы и поместить в отчет:

Каким должен быть правильный <title></title>?

Что должен содержать мета тэг description? Мета-тег keywords?

Что такое сниппет?

Как должны использоваться ключевые слова на страницах сайта, каким образом они должны выделяться?

Что такое перелинковка сайта (внутренняя и внешняя)?

Что такое ЧПУ? Что такое анкор? Что необходимо использовать в качестве анкора?

Что позволяет делать robots.txt? Основные и дополнительные директивы.

Почитать нижеприведенный материал (он войдет обязательно во 2 тест)

Внутренний фактор - работа с robots.txt

Ø Robots.txt — это текстовый файл, предназначенный для ограничения доступа роботов поисковых систем к разделам и страницам интернет-ресурса, которые нужно скрыть от индексации (от посторонних глаз).

Ø Располагаться он должен в корне сайта. Так, н-р, для www.site.ru файл robots.txt должен находится по адресу http://www.site.ru/robots.txt

Ø Наличие файла не обязательно, но очень желательно! Первое что делает поисковый робот, придя на сайт — это проверяет как раз этот файл, если он его не обнаружит, то может уйти ни с чем…

Ø Если файла robots.txt нет это означает, что сайт полностью открыт для индексирования.

Ø Поисковые системы по разному относятся к этому файлу. Н-р, Яндекс безоговорочно следует его правилам и исключает запрещенные страницы из индексирования, а Google воспринимает этот файл как рекомендацию и не более.

Структура файла robots.txt:

Правильное написание названия файла – robots.txt

Файл состоит из записей следующего вида:

<поле>:<необязательный пробел> <значение> <необязательный пробел>

Поле: User-agent содержит название поискового бота. При помощи нее можно настроить правила поведения для каждой конкретной ПС (н-р, создать запрет индексации отдельной папки только для Яндекса).

Запись:

User-agent:* - адресована всем роботам

User-agent: Yandex - адресована боту Яндекса

User-agent: Googlebot - адресована боту Google

Для справки (боты некоторых поисковых систем)

Yahoo! http://www.yahoo.com Slurp (или Yahoo! Slurp)

MSN http://www.msn.com MSNBot

AltaVista http://www.altavista.com Scooter

Рамблер http://www.rambler.ru StackRambler

Мэйл.ру http://mail.ru Mail.Ru

Aport http://www.aport.ru Aport

Поле: Disallow запрет на индексирование.

Примеры записей:

User-agent:* - адресована всем роботам и разрешает

Disallow: индексировать сайт без ограничения

User-agent: Yandex - адресована боту Яндекса и запрещает ему

Disallow: / индексировать все страницы сайта

User-agent: Googlebot - адресована боту Google и запрещает ему

Disallow: /image/ индексировать содержимое папки /image/ (Полный путь к данной папке http://site.ru/image/)

User-agent: StackRambler - адресована боту Rambler и запрещает

Disallow: /image ему индексировать содержимое папки /image/, а также все файлы начинающиеся

символов image (например: image1.htm,

Imagetr.htm и пр.)

User-agent:* - адресована всем роботам и запрещает

Disallow: *.pdf индексировать все файлы с расширением.pdf

Примеры записей:

User-agent: * - адресована всем роботам

Задание на практику: Для своего сайта

- С учетом ключевых слов (см. 2 ПР)

o Улучшите/введите тэги title и description

o Сделайте перелинковку сайта не менее 4 внутр. ссылок на каждой странице

o ЧПУ

o “поработать” с ключевиками на страницах (заголовки, подписи к рисункам, выделение и пр.)

- создайте СВОЙ файл robots.txt c использованием всех вышеприведенных директив – объясните значение всех записей c помощью соответствующих комментариев на русском языке.

5) Показать преподавателю на защиту – отчет, в котором есть ответы на вопросы + измененный сайт. На защите практической работы необходимо будет прокомментировать внесенные изменения.

Управление ИТ-сервисом и контентом

Практическая работа №3

Оптимизация контента сайта.



Поделиться:


Последнее изменение этой страницы: 2017-02-10; просмотров: 168; Нарушение авторского права страницы; Мы поможем в написании вашей работы!

infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 3.146.35.203 (0.01 с.)