Разделы сайта
Разделы сайта
Статистика

Онлайн всего: 1
Гостей: 1
Пользователей: 0
МИНИ ПРОФИЛЬ
ТЕМА
ФОРУМ
ПОЛЬЗОВАТЕЛЬ


Логин:
Пароль:

Советы с соц.сетью ВКонтакте

Как решить свою проблему в контакте?


Главная » Файлы » SEO and SMO , Заработок в сети » Поисковые системы

В категории материалов: 16
Показано материалов: 11-15
Страницы: « 1 2 3 4 »

Сортировать по: Комментариям
Автор: The_n1ce | Комментариев: 0 | Просмотров: 451
07.12.2011 в 23:53 

Тренды в результатах поиска google+


Американская социальная сеть Google+ запустила новую функцию «Тренды». Тренды – наиболее обсуждаемые темы на сайте соцсети. Они выводятся в отдельном блоке на странице с результатами поиска по сайту. Компания официально не анонсировала данную функцию, однако большая часть пользователей уже может видеть блок трендов в результатах поиска. Представители Google сообщили, что функция «Тренды» появилась на сайте в ночь с четверга на пятницу по американскому времени.

Подобная функция существует и у сервиса микроблогов Twitter – в тренды сайта попадают активно обсуждаемые пользователями соцсети темы и наиболее часто используемые хэштеги в определенный промежуток времени. Как и в случае с Twitter, в тренды социальной сети Google+ попадают десять популярных тем. При нажатии на любую из них пользователь перейдёт на страницу с результатами поиска по данному запросу.



Обычные результаты поиска по соцсети теперь по умолчанию сортируются в хронологическом порядке (Most recent), однако пользователь может выбрать и наиболее популярные результаты (Best of). Еще одним нововведением Google+ стали фильтры в поиске по сайту. Пользователи Google+ теперь могут искать только по своим записям, по публикациям людей из своих кругов, либо не ограничивать поиск. Поиск внутри своей социальной сети Google запустила в сентябре текущего года.

Социальная сеть Google+, в которой зарегистрированы более сорока миллионов пользователей, была запущена в конце июня текущего года в качестве конкурентной альтернативы Facebook, число пользователей которой превышает 800 миллионов.

Автор: The_n1ce | Комментариев: 0 | Просмотров: 438
07.12.2011 в 13:33 

Как делать оптимизацию сайтов самому


В этой статье я расскажу вам как правильно, без ошибок, делать внутреннюю оптимизацию сайтов самому, без чьей-либо помощи.
Итак, приступим.

Хорошая оптимизация состоит и четырех довольно несложных пунктов:

1. Составление правильных тайтла сайта и мета-тегов
2. Написание правильного robots.txt
3. Составление карты сайта и вынос ее на главную страницу
4. Закрытие внешних ссылок

1 пункт - составление мета-тегов. Что это значит? Для чего это? А это нужно для того, что бы поисковые роботы правильно и быстро сканировали ваш сайт.
Какие мета-теги нужно писать и куда?
Мета-теги нужно писать в каждый активный модуль вашего сайта.
Чаще всего используются следующие мета-теги:

Здесь пишите так: Сылка на ваш сайт - $MODULE_NAME$ ВАЖНО: последнее слова тоже будет зависеть от модуля)



2 пункт - написание верного файла robots.txt
Пишем этот файл в блокноте вот по этому шаблону:

User-agent: *
Disallow: /a/
Disallow: /stat/
Disallow: /index/1
Disallow: /index/2
Disallow: /index/3
Disallow: /index/5
Disallow: /index/7
Disallow: /index/9
Disallow: /panel/
Disallow: /admin/
Disallow: /secure/
Disallow: /mchat
Host: ссылка на ваш сайт без http:// и www

Sitemap: Ссылка на карту вашего сайта

3 пункт - составление карты сайта. Пользуемся вот этим сервисом: http://www.cy-pr.com/tools/sitemap/
И далее полученный файл загружаем в корень сайта и выносим кликабельную ссылку на карту сайта на главную страницу вашего сайта.

4 пункт - закрытие внешних ссылок от ненужной индексации.
Чтобы найти эти внешние ссылки, пользуемся этим сервисом: http://www.cy-pr.com/tools/analyzer/
Далее ищем в коде вашего сайта теги с этими ссылками и помещаем их в следующий код: тут тег с сылкой

Ну вот и все, на этом внутренняя оптимизация вашего интернет-ресурса завершена.
Но надо помнить, что чем корячиться, лучше заказать оптимизацию от проверенных людей, знающих свое дело.

Автор: The_n1ce | Комментариев: 0 | Просмотров: 393
07.12.2011 в 13:07 

SEO-hypertext


SEO-тексты в подавляющем большинстве будут гипертекстами. Впервые такой вид текста появился в сороковых годах прошлого века, а в 1965-м году Тэд Нельсон придумал сам термин. Однако сверхвзрывную фазу распространения гипертекст получил в конце восьмидесятых годов — в эпоху становления Интернета. Гипертекст — это нелинейный, насыщенный ссылками, ветвящийся текст. Если обычные тексты пользователи просто прочитывают до конца или бросают чтение, то гипертекст дает третий вариант — “идти по ссылкам”. Именно здесь таятся неочевидные моменты составления гипертекстов, смысл которых заключается в том, чтобы дать пользователю больше возможностей, больше удобства, больше комфорта в путешествии по создаваемой на сайте информационной сфере. Но при этом необходимо помнить о том, что система должна быть замкнутой (пользователь не должен уйти с вашего сайта на другой Web-ресурс по размещенной вами же ссылке), а вся информация, с которой пользователь столкнется во время цикла переходов по гиперссылкам, обязана быть уникальной. Ни в коем случае нельзя посылать человека с главной страницы, повествующей о ваших, например, замечательных пластиковых окнах, на прайс-лист, где вместо интересной информации о скидках и распродажах его встретит все та же рекламная текстовая “шапочка”. Сайты, которые экономят на текстовом наполнении, выглядят бедно, неприглядно и несолидно.

Еще одно важное требование для гипертекстов — их необходимо составлять таким образом, чтобы удаление ссылки не приводило к потере смысловой нагрузки. Ссылки вида “о насосах читайте здесь” неприемлемы, гораздо лучше использовать просто гиперссылку на слово “насосы”. Такой способ написания гипертекста не только соответствует правилам русского языка, но и позволяет избавиться от ошибок при реструктуризации информации на сайте.

Автор: The_n1ce | Комментариев: 0 | Просмотров: 1955
07.12.2011 в 13:06 

Система поиска Яндекс


Популярной поисковой системой российского интернета. К нему обращаются ежедневно около 5 млн. пользователей из России и стран СНГ. Яндексом проиндексировано более 62 Тб различной информации на 5,4 млн. ресурсах при общем количестве доступных для поиска страниц в 2,5 млрд.

До сих пор Yandex остается популярным среди российских пользователей и не сдает свои позиции другому поисковику Google. Это связанно с тем, что поисковая система Yandex сегодня соответствует наиболее прогрессивным критериям поиска информации. Достичь такого результата позволяет постоянная кропотливая работа команды Yandex над усовершенствованием алгоритмов поиска.

Основой работы поисковых систем как Google, так и Yandex является система кластеров. Вся информация делится на определенные области, которые относятся к тому или иному кластеру. Индексация сайтов с целью получения данных о размещенной на них информации выполняется роботами-сканерами. Существуют следующие виды сканирующих роботов: основной робот-сканер и робот-сканер, отвечающий за сбор информации на ресурсах с частым обновлением содержания. Второй тип сканирующего робота предназначен для быстрого обновления списка проиндексированных ресурсов и значения их индексов в поисковой системе. Для наиболее полного обеспечения сбора информации в системе Yandex применяются обновления базы поиска и обновления программного кода:

База поисковой информации обновляется несколько раз в течение месяца, при этом на поисковые запросы выдается обновленная информация с сайтов. Такая информация добавляется с помощью основного робота-сканера.
При обновлении программного кода или «движка» выявляются недостатки и изменяются алгоритмы, отвечающие за ранжирование ресурсов в поисковике. Как правило, перед выходом таких обновлений Yandex публикует соответствующие анонсы.

Основные принципы работы поисковой системы Yandex

Особенности системы
Основная особенность системы, делающая популярной ее среди русскоязычных пользователей, – это способность определять различные словоформы с учетом морфологических особенностей русского языка. При этом значения запроса с помощью геотаргетинга и формул поиска преобразуется в максимально точную формулировку. Кроме того, Yandex отличается алгоритмом по определению релевантности индексируемых страниц (релевантностью называют соотношение содержания веб-страницы к содержанию поискового запроса). Также к положительным сторонам можно отнести высокую скорость ответной реакции на запросы и устойчивую, без перегрузок, работу серверов.

Для повышения удобства использования («юзабилити») поисковика, кроме собственно раздела, где подаются заявки на проведение индексации ресурсов, созданы разделы, посвященные индексации сайтов: форум http://forum.yandex.ru, блог для вебмастеров http://webmaster.ya.ru. А в случае возникновения проблем при индексации можно отправить сообщение разработчикам системы. При индексации сайтов следует учитывать, что процедура может продлиться примерно на целый месяц. Ускорить этот процесс может наличие внешних ресурсов, ссылающихся на индексируемый сайт. Исходя из существующего опыта, можно сказать, что быстрее всего регистрация проходит в доменной зоне «.ru», в сравнении с другими, в том числе и бесплатными доменами «pp.ru», «net.ru» и др.

Большое значение для поисковой системы имеют динамические ссылки, наличие которых может привести к отказу от индексации ресурса поисковым роботом.

В процессе индексации Yandex распознает текстовую информацию в документах с расширениями: .pdf, .rtf, .doc, .xls, .ppt. Последние два относятся к программам входящими в комплект Microsoft Office: Excel и PowerPoint.

При индексировании сайта поисковик считывает данные из файла robots.txt, при этом поддерживается атрибут Allow и часть метатегов, а метатеги Revisit-After и Keywords игнорируются.

Так как сниппеты – краткое описание найденной информации - составляются из фраз на искомой странице, то использование описания в теге не является обязательным, но может использоваться в отдельных случаях.

По заявлениям разработчиков кодировка индексируемых документов определяется автоматически, а значит, и метатег кодировки не имеет большого значения.

Поисковая система большое значение придает показателю последнего изменения информации (Last-Modified). Если сервер не будет передавать эту информацию, то процесс индексации данного ресурса будет происходить намного реже.

Пока что остается нерешенной проблема страниц, использующих фреймовые структуры, но она может быть обойдена с помощью скриптов, отправляющих пользователей поисковика в нужное место сайта.

Если у сайта существуют «зеркала», необходимо принять соответствующие действия для исключения их из процесса индексации. Если индексацию «зеркал» избежать не удалось, можно «склеить» их путем внесения необходимой информации в robots.txt.

В случае попадания сайтов в Яндекс.Каталог система будет идентифицировать их как заслуживающих отдельного внимания, что может повлиять на продвижение сайтов. Также это способствует упрощению процедуры определения тематики сайта, что в свою очередь означает получение сайтом значимой внешней ссылки.

Поисковые роботы-сканеры системы Yandex
Команда поисковой системы Yandex держит в секрете IP-адреса своих роботов. Но в лог-файлах отдельных сайтов можно встретить текстовые пометки, оставленные поисковыми роботами Yandex.
Одними из самых интересных роботов-сканеров поисковой системы Yandex можно назвать:

Yandex/1.01.001 (compatible; Win16; I) - основной робот, занимающийся непосредственно индексацией сайтов;
Yandex/1.01.001 (compatible; Win16; P) – робот-индексатор изображений;
Yandex/1.01.001 (compatible; Win16; H) - робот, который выявляет «зеркала» индексируемых сайтов;
Yandex/1.02.000 (compatible; Win16; F) - робот-индексатор пиктограмм ресурсов (favicons);
Yandex/1.03.003 (compatible; Win16; D) - робот, который обращается к страницам, добавленным с помощью формы «Добавить URL»;
Yandex/1.03.000 (compatible; Win16; M) – задействуется при переходе на страницу посредством ссылки «Найденные слова»;
YaDirectBot/1.0 (compatible; Win16; I) – этот робот отвечает за индексацию страниц ресурсов, принимающих участие в рекламной сети Yandex.

Из всех поисковых роботов самый важный так и называется – основной поисковый робот. От того, как он проиндексирует страницы сайта, будет зависеть значимость ресурса для поисковой системы.

Работа всех роботов происходит по индивидуальному расписанию, и если сайт проиндексирован одним из них, то это не значит, что скоро будет произведена индексация и другим.

В помощь основным созданы и роботы, которые периодически посещают сайты и устанавливают, насколько те доступны. К таким можно отнести роботов «Яндекс.Каталога» и рекламной сети Yandex.

Для поисковика Yandex характерны следующие основные показатели внешней оптимизации:

тИЦ – это общедоступный тематический индекс цитирования, он не оказывает прямого влияния на ранжирование и используется для определения позиций в тематической категории Яндекс.Каталога; применяется, когда необходима расктутка сайта, тИЦ показывает, какое количество ссылок, в среднем, обращается к сайту.
вИЦ, или взвешенный Индекс Цитирования, представляет собой алгоритм для подсчета количества внешних ссылок; значение его не разглашается и используется поисковой системой как определяющее при ранжировании сайтов в поисковой системе.
Присутствие сайта в «Яндекс.Каталоге».
Общее число страниц сайта, принявших участие в индексации.
Частота, с которой индексируется содержимое сайта.
Наличие и отсутствие ссылок с сайта, присутствие сайта в поисковых фильтрах.

Влияние на индексацию:

Использование в корневой директории сайта файла robots.txt: Текстовый файл robots.txt содержит инструкции, которые запрещают индексировать определенные страницы или разделы сайта.
Использование метатегов: В коде странице указывается метатег Robots, с помощью которого можно задать возможность индексации и перехода по ссылкам.
Тег : Содержимое тега не будет индексироваться поисковыми роботами Yandex. Следует учесть, что данный тег не прошел сертификацию W3C. Его использование может повлечь за собой некорректное отображение данных.

Эти методы позволяют поисковику определить, что будет предпочтительней для данного ресурса.
Это, конечно, не полная информация о системе поиска Yandex. Кроме собственно системы поиска, Yandex ведет разработку широкого круга приложений и сервисов. Но для большинства пользователей основными являются поисковые функции Yandex.

Автор: The_n1ce | Комментариев: 0 | Просмотров: 2675
04.12.2011 в 11:04 

Всех ботов можно разделить на два типа – «невежливые» и «вежливые». К первому типу относятся все роботы, которые ведут себя на сайте так, как им заблагорассудится. Это, в первую очередь, различные парсеры контента, спамеры и прочая нечисть. «Вежливыми» роботами условно называют тех, которые свое посещение сайта начинают с файла robots.txt. Это, как правило, роботы поисковых систем.


Итак, файл robots.txt – это небольшая памятка для поисковиков, которая объясняет, что можно им делать на сайте, а что нельзя. Файл robots.txt должен находиться в корне каждого сайта. С его помощью можно закрыть от индексации отдельные файлы или целые директории на ресурсе, указать роботу на правильное «зеркалирование» домена, установить интервал между скачиваниями файлов.

Сам Яндекс в своей документации рекомендует всем веб-мастерам создавать robots.txt для качественного сайта и указывать в нем инструкции для ботов.

Как создать robots.txt

Создать robots.txt не сложно. Для этого потребуется любой текстовый редактор (например, стандартный блокнот или более «продвинутый» Notepad++). В первой строке нужно указать, для какого робота предназначены указания.



1-5 6-10 11-15 16-16

RSS |