пятница, 16 января 2009 г.
Реклама в блоге
Существует большое колличество способов заработать на блоге например продажа ссылок, но это не совсем хорошо по скольку денежки зачисляются только за клик, а процент людей которые кликают на рекламные ссылки очень мал, хотя если посещаемость позволяет, то вполне реально заработать таким образом очень не плохие деньги. Так же существует такой способ как рекламные посты, этот способ лучше в том плане что Вам за него платят сразу, но единоразово, так что постоянного притока капила ждатьне приходится, хотя если делать это с умом то получаются очень даже приличные денежки.
Подробнее тут
Подробнее тут
среда, 14 января 2009 г.
Спам
Что есть СПАМ я думаю объяснять современному пользователю не стоит, все с ним сталкиваются, когда в очередной раз матеря удаляют не нужную почту и сидять в ICQ. Вообще если заниматься спамом вида "Зайди на мою страничку и посмтри мои фотки" или "Катю изнасиловали семь человек видео тут" и т.д. доход будет очень маленький вернее его вообще не будет, тем более что в оснавном используются автоматически зареганные аккаунты на почтовиках типа tyghfrrrff@какая-то.ру, когда видишь такой адрес понятно становится сразу это спам. Таким спамом занимаются начинающие спамеры или просто дети решили срубить по легкому бабла. Совсем другое дело это ботнеты, это уже куда более проффесианальный инструмент, или например взломанные акки от почты, такие можно купить на хакерскихфорумах или у знакомого хакера. Ведь когда видишь письмо от знакомого тебе адреса, то тут уже стоит подумать стоит ли нажимать на ссылку или нет, и я думаю большинство все таки пройдет по ссылке, а это уже траффик. Плюс ко всему требуется достаточно обширная база адресов, при чем рабочих. Но впринципе советую не заниматься почтовым спамом, если нет подходящих инструментов.
Следующий вид спама это рассылка сообщений по аське. Тут конечно больший процент желающих пройти по ссылке, но и опять же стандартные сообщения мало кто открывает плюс система Анти-спама все обламывает. И снова надо исспользовать либо взломанные аськи и рассылать по контакт листу взломаного аккаунта, либо писать более интересные сообщения, например я один раз повелся на спам уж больно умный попался, а было следующее сообщение "Добрый день, я с фриланса нам требуется перевести сайт такой-то.ру на систему Битрикс, сколько будет стоить и каковы сроки", естественно я посмотрел на сайт и написал отправителю сообщение о более подробном ТЗ, в ответ пришло тоже самое сообщение, значит был спамбот. Ночью мной был проведен эксперимент был скачан спамер по аське, рабочие прокси и реггер для акков, за ночь было проспамленно 33 тысячи человек из них на мой экспериментальный сайт зашло только 24 человека, это очень мало. Плюс данного метода спама это то что база номеров на которые будет идти спам не нужна многие программы берут из стандартоного асечного поиска. Но все таки лучше искать номера на специализированных сайтах где сидят люди определенных интересов и предлагать им сайты соответствующих их интересам.
Третий способ, это спам по форумам, доскам объявлений и в социальных сетях. Тут все зависит от используемого Вами ПО и грамотно составленное сообщение, потому что многие уважающие себя ресурсы обзавелись капчей и умными модераторами. Плюс рассылки по форумам это при правильно составленном сообщении ссылка на сайт провисит достаточно долго и будет давать траффик. Минус это то что при хорошей модерации она и дня не провисит, так хорошее ПО с рапознанием капчи стоит достаточно дорого. В социальных сетях таже ситуация, плюс ко всему нужно помнить что администратор ресурса может пожаловаться на Ваш сайт хостеру и его прикроют, что не очень хорошо.
Вообще для постоянства траффика все таки лучше исспользовать первые места в поисковиках, посмотрите статистику слов: например слово "порно" было показано 12369945 раз за месяц только на Яндексе, и это не считая таких запросов как "порно фото". Так что выбирайте сами
Следующий вид спама это рассылка сообщений по аське. Тут конечно больший процент желающих пройти по ссылке, но и опять же стандартные сообщения мало кто открывает плюс система Анти-спама все обламывает. И снова надо исспользовать либо взломанные аськи и рассылать по контакт листу взломаного аккаунта, либо писать более интересные сообщения, например я один раз повелся на спам уж больно умный попался, а было следующее сообщение "Добрый день, я с фриланса нам требуется перевести сайт такой-то.ру на систему Битрикс, сколько будет стоить и каковы сроки", естественно я посмотрел на сайт и написал отправителю сообщение о более подробном ТЗ, в ответ пришло тоже самое сообщение, значит был спамбот. Ночью мной был проведен эксперимент был скачан спамер по аське, рабочие прокси и реггер для акков, за ночь было проспамленно 33 тысячи человек из них на мой экспериментальный сайт зашло только 24 человека, это очень мало. Плюс данного метода спама это то что база номеров на которые будет идти спам не нужна многие программы берут из стандартоного асечного поиска. Но все таки лучше искать номера на специализированных сайтах где сидят люди определенных интересов и предлагать им сайты соответствующих их интересам.
Третий способ, это спам по форумам, доскам объявлений и в социальных сетях. Тут все зависит от используемого Вами ПО и грамотно составленное сообщение, потому что многие уважающие себя ресурсы обзавелись капчей и умными модераторами. Плюс рассылки по форумам это при правильно составленном сообщении ссылка на сайт провисит достаточно долго и будет давать траффик. Минус это то что при хорошей модерации она и дня не провисит, так хорошее ПО с рапознанием капчи стоит достаточно дорого. В социальных сетях таже ситуация, плюс ко всему нужно помнить что администратор ресурса может пожаловаться на Ваш сайт хостеру и его прикроют, что не очень хорошо.
Вообще для постоянства траффика все таки лучше исспользовать первые места в поисковиках, посмотрите статистику слов: например слово "порно" было показано 12369945 раз за месяц только на Яндексе, и это не считая таких запросов как "порно фото". Так что выбирайте сами
суббота, 10 января 2009 г.
ПРОДВИЖЕНИЕ И AJAX
Технология Ajax позволяет вместо перезагрузки всей страницы загружать только ту информацию, которая должна обновиться. Однако она создаёт проблемы при индексации сайта поисковыми системами, так как они не выполняют JavaScript. В связи с этим бытует мнение, что Ajax следует использовать только там, где индексация не требуется, например для динамической подкрузки списка вариантов слов при наборе начала слова в строке запроса поисковой системы. Однако существуют подходы, позволяющие производить нормальную индексацию Ajax-сайта поисковыми системами.
Сайт представляет из себя обычный набор страниц, однако на клиентской стороне с помощью JavaScript(в случае, если он включён) обычные ссылки преобразуются в Ajax-ссылки. Причём преобразование происходит только в том случае, если версия браузера совпадает с одной из требуемых версий (например только для браузеров IE5.5+,Opera 9.0+, Mozilla 1.5+). В остальных случаях страницы перезагружаются в обычном режиме. Это позволяет избежать сразу несколько проблем:
Сайт нормально индексируется поисковыми системами (не хуже обычного)
Сайт работает на всех версиях браузеров (в случае, если браузер не поддерживает ajax, то ссылки не заменяются и страницы перезагружаются полностью)
Сайт работает с отключённым JavaScript (в данном случае замена ссылок также не происходит).
Возможно использование разнообразных эффектов (например, при перезагрузке страниц предыдущая плавно пропадает, а новая-плавно появляется). Недостаток подхода заключается в том, что меняется серверная часть, то есть на стороне сервера нужен или скрипт, который будет выдавать только ту часть страницы, которая поменялась, или наоборот собирать страницу из нескольких частей (статичной и динамической).
Все Ajax-ссылки дублируются обычными HTML-ссылками, которые указывают на обычные web-страницы для индексации поисковой системой. Однако указывают они не напрямую, а через скрипт, который распознаёт, пользователь пришёл или поисковая система. В случае, если пришла поисковая система, он выдаёт ей страницу для поисковых систем, иначе он загружает сам ajax-интерфейс, а затем грузит в него требуемую информацию.
Преимущества подхода: возможно реализовать любые мыслимые интерфейсы, например, windows-подобный интерфейс. То есть можно подходить к сайту не как к набору страниц, а как к полноценному приложению. При этом сайт нормально индексируется поисковыми системами (Опробовано на практике).
Недостатки:
Данный подход могут воспринять как попытку обмана поисковой системы (клоакинг). Поэтому применять его надо с осторожностью.
Возможны проблемы с безопасностью.
1-й способ стоит применять для сайтов со стандартной архитектурой, в которых надо реализовать преимущества технологии Ajax. 2-й способ стоит использовать только тогда, когда необходимо создать не обычный сайт, а веб-приложение, которому свойственна нестандартная для Web архитектура. При этом стоит подумать, а действительно ли это нужно и не дешевле ли реализовать тот же проект в виде стандартного сайта.
Сайт представляет из себя обычный набор страниц, однако на клиентской стороне с помощью JavaScript(в случае, если он включён) обычные ссылки преобразуются в Ajax-ссылки. Причём преобразование происходит только в том случае, если версия браузера совпадает с одной из требуемых версий (например только для браузеров IE5.5+,Opera 9.0+, Mozilla 1.5+). В остальных случаях страницы перезагружаются в обычном режиме. Это позволяет избежать сразу несколько проблем:
Сайт нормально индексируется поисковыми системами (не хуже обычного)
Сайт работает на всех версиях браузеров (в случае, если браузер не поддерживает ajax, то ссылки не заменяются и страницы перезагружаются полностью)
Сайт работает с отключённым JavaScript (в данном случае замена ссылок также не происходит).
Возможно использование разнообразных эффектов (например, при перезагрузке страниц предыдущая плавно пропадает, а новая-плавно появляется). Недостаток подхода заключается в том, что меняется серверная часть, то есть на стороне сервера нужен или скрипт, который будет выдавать только ту часть страницы, которая поменялась, или наоборот собирать страницу из нескольких частей (статичной и динамической).
Все Ajax-ссылки дублируются обычными HTML-ссылками, которые указывают на обычные web-страницы для индексации поисковой системой. Однако указывают они не напрямую, а через скрипт, который распознаёт, пользователь пришёл или поисковая система. В случае, если пришла поисковая система, он выдаёт ей страницу для поисковых систем, иначе он загружает сам ajax-интерфейс, а затем грузит в него требуемую информацию.
Преимущества подхода: возможно реализовать любые мыслимые интерфейсы, например, windows-подобный интерфейс. То есть можно подходить к сайту не как к набору страниц, а как к полноценному приложению. При этом сайт нормально индексируется поисковыми системами (Опробовано на практике).
Недостатки:
Данный подход могут воспринять как попытку обмана поисковой системы (клоакинг). Поэтому применять его надо с осторожностью.
Возможны проблемы с безопасностью.
1-й способ стоит применять для сайтов со стандартной архитектурой, в которых надо реализовать преимущества технологии Ajax. 2-й способ стоит использовать только тогда, когда необходимо создать не обычный сайт, а веб-приложение, которому свойственна нестандартная для Web архитектура. При этом стоит подумать, а действительно ли это нужно и не дешевле ли реализовать тот же проект в виде стандартного сайта.
среда, 7 января 2009 г.
вторник, 6 января 2009 г.
Дорвей
Дорвей (англ. doorway) — в SEO, сайт или веб-страница, ориентированные на конкретный поисковый запрос (либо группу запросов) и созданные с целью занять высокое место среди результатов выдачи (SERP), генерируемых поисковыми системами по данным запросам, за счет повышенной плотности содержания ключевых слов и правильного использования важных для ранжирования факторов. Частным примером дорвея является Гугл-бомба.
Посетители, попавшие на дорвей, обычно быстро перенаправляются (redirect) без их ведома на другой сайт (Сайт-реципиент), в соответствии с поисковым запросом. Чаще всего редирект реализуется с помощью JavaScript, реже — с помощью html-тега Meta refresh, SSI, Macromedia Flash и других технологий. В последнее время многие поисковые боты научились отслеживать быстрый редирект, поэтому для дорвеев приходится использовать более изощренные методы показа нужного контента посетителю.
Дорвеи относятся к так называемому Black SEO («черной оптимизации»).
Дорвеи как автоматически, так и вручную, исключаются из индексов поисковых систем, так как они не несут никакой смысловой нагрузки для «живых» пользователей, а используются исключительно для обмана поисковых ботов и, в некоторых случаях, для извлечения крупной прибыли.
Для создания дорвеев автоматически используются различные доргены, с помощью которых могут генерироваться дорвеи в виде форумов и блогов, а также в виде простых сайтов.
Одним из ключевых вопросов для дорвеестроителя был и остается вопрос уникальности используемых им доменных имен. Чем больше используется доменных имен второго уровня, тем дольше жизнь создаваемых дорвеев. Но домены второго уровня стоят недешево, поэтому наиболее продвинутые дорвейщики покупают доменные имена по ценам, которые гораздо ниже тех, по которым покупает конечный пользователь. Существует ряд сервисов, которые предоставляют подобные услуги по низким ценам. Немаловажна также услуга регистратора Private Whois, которая позволяет скрыть данные о владельце доменного имени и тем самым исключить одну из возможностей определения поисковым ботом принадлежности доменного имени к дорвеестроительству.
Посетители, попавшие на дорвей, обычно быстро перенаправляются (redirect) без их ведома на другой сайт (Сайт-реципиент), в соответствии с поисковым запросом. Чаще всего редирект реализуется с помощью JavaScript, реже — с помощью html-тега Meta refresh, SSI, Macromedia Flash и других технологий. В последнее время многие поисковые боты научились отслеживать быстрый редирект, поэтому для дорвеев приходится использовать более изощренные методы показа нужного контента посетителю.
Дорвеи относятся к так называемому Black SEO («черной оптимизации»).
Дорвеи как автоматически, так и вручную, исключаются из индексов поисковых систем, так как они не несут никакой смысловой нагрузки для «живых» пользователей, а используются исключительно для обмана поисковых ботов и, в некоторых случаях, для извлечения крупной прибыли.
Для создания дорвеев автоматически используются различные доргены, с помощью которых могут генерироваться дорвеи в виде форумов и блогов, а также в виде простых сайтов.
Одним из ключевых вопросов для дорвеестроителя был и остается вопрос уникальности используемых им доменных имен. Чем больше используется доменных имен второго уровня, тем дольше жизнь создаваемых дорвеев. Но домены второго уровня стоят недешево, поэтому наиболее продвинутые дорвейщики покупают доменные имена по ценам, которые гораздо ниже тех, по которым покупает конечный пользователь. Существует ряд сервисов, которые предоставляют подобные услуги по низким ценам. Немаловажна также услуга регистратора Private Whois, которая позволяет скрыть данные о владельце доменного имени и тем самым исключить одну из возможностей определения поисковым ботом принадлежности доменного имени к дорвеестроительству.
Клоакинг
Клоакинг — прием «чёрной» поисковой оптимизации, заключающийся в том, что информация, выдаваемая пользователю и поисковым роботам на одной и той же странице, различается.
Хорошо оформленные, легко читаемые, удобные для посетителей сайта страницы могут проигрывать в выдаче по поисковым запросам (хотя бывают исключения), а оптимизированные страницы, специально насыщенные ключевыми словами, могут быть неудобны для пользователей. Создание страницы, которую и посетители, и роботы оценивают как информативную, достаточно сложно, в том числе и потому, что владелец сайта, выбирающий материалы для наполнения страницы и её оформление, может не иметь достаточных знаний о поисковой оптимизации.
По этим причинам был создан метод клоакинга, для реализации которого создаются два варианта страницы: один для поисковых роботов, другой — для посетителей. Пользовательская страница оформляется произвольным образом, без каких-либо ограничений, связанных с поисковой оптимизацией. Страница, предназначенная для пауков, наполняется и оформляется в соответствии с требованиями оптимизации, для чего нужно иметь знания о поисковых системах. Для различения роботов и посетителей могут проверяться их IP-адреса или User Agent.
Клоакинг напоминает использование дорвеев, но имеет перед ним некоторые преимущества. Во-первых, не нужно организовывать автоматическое перенаправление или заставлять пользователя вручную переходить к нужной странице (этот приём неудобен для пользователей и слишком легко вычисляется поисковыми системами). Во-вторых, конкуренты не смогут увидеть оптимизированную страницу и использовать применённый на ней код в своих разработках, потому что для этого им понадобился бы IP-адрес, совпадающий с адресом какого-либо паука, что невозможно. С другой стороны, клоакинг — более трудоёмкий приём, чем создание дорвеев, поскольку для его применения требуются не только навыки программирования и знание методов оптимизации, но и базы данных с IP-адресами и именами поисковых роботов.
Большинство поисковых систем (например, Яндекс [1]) борются с клоакингом как с нечестным приемом «раскрутки» сайтов и применяют к сайтам-нарушителям штрафные санкции (см. пессимизация).
Приемлемые области применения клоакинга (маскирования).
Немногие области поисковой оптимизации вызывают столько споров, как клоакинг. Известный специалист по СЕО Дэн Тайес считает, что "клоакинг — очень опасная техника". Кроме того, он утверждает, что единственная "цель маскирования - обман поисковых механизмов".
С последним заявлением трудно согласиться. Многие считают, что имеются и приемлемые области применения маскирования. В частности, Yahoo! и MSN довольно терпимо относятся к маскированию, если оно не предназначено для обмана.Но Google (Яндекс), на момент написания этих строк, недвусмысленно заявляет в своих условиях обслуживания, что клоакинг не рассматривается им как положительное явление независимо от его целей. В руководстве Web-мастера (http://www.google.com/support/webmasters/bin/answer.py?answer=40052) сказано: "... клоакинг ... может привести к исключению из нашего индекса".
Дэн Тайес утверждает: "Мы не считаем IP-клоакинг техникой, с которой стоит связываться профессионалам". Вряд ли стоит придерживаться такой радикальной точки зрения, особенно с учетом последних разработок. В последнее время тот же Google стал проявлять некоторую терпимость при проведении этого принципа. В частности, по отношению к маскированию контента New York Times. На этом сайте поисковым агентам видно все содержимое новостных статей, а обычным пользователям — только аннотации. Пользователи должны заплатить, чтобы увидеть контент, доступный поисковым механизмам. Для этого на сайте New York Times применяется клоакинг с помощью подмены по IP.
Дэнни Салливан, редактор SearchEngineWatch, заявляет относительно New York Times:"Считаю ли я, что NYT обманывает Google"? Нет. Считаю ли я, что они применяют клоакинг? Да. Считаю ли я, что их следует наказать, т.к. Google не поощряет клоакинг? Нет. Я уже давно писал, что политика Google no этому поводу устарела. Честно говоря, этот вопрос уже давно следовало бы пересмотреть, еще в 2004 г. NYT — лишь последнее звено в цепи больших компаний, которые демонстрируют, что сам по себе клоакинг - не обязательно плохо."
Опять же трудно полностью согласиться с этим заявлением. Если щелчок на результате поиска приводит на страницу оформления подписки, то это обман пользователей. Результаты поискового запроса должны содержать данные, релевантные тому, что ищет пользователь.
Клоакинг может вскоре стать более приемлемым методом, но все-таки его не стоит применять сразу и для решения всех задач. Клоакинг часто рекомендуется в качестве решения для уже существующих сайтов, в которых применяется Flash или AJAX; кроме того, это единственный способ реализации индексированного контента, выдаваемого по подписке (как это сделано в New York Times).
Вот несколько типичных ситуаций, где допустимо использовать маскирование [1]:
-- вывод текстовых изображений в виде текста;
-- перенаправление исключенного контента на эталонный эквивалент;
-- предоставление контента, распространяемого по подписке, только поисковому агенту (пример с New York Times);
-- использование маскирования для обработки сеансов на основе URL (trans_sid) для поисковых агентов.
Вывод изображений в виде текста.
К сожалению, использование графики, содержащей текст, негативно влияет на поисковую оптимизацию. Причина проста: поисковые механизмы не могут читать текст, включенный в графические изображения. Поэтому одной из очевидных и этичных причин применения маскирования может быть распознавание, является ли пользовательский агент поисковым агентом,и замена изображений на текст, включенный в эти изображения.
Перенаправление исключенного контента.
Допустим ваше предприятие выпускает, несколько категорий одного продукта. Это может привести к появлению почти идентичных страниц с различными URL-адресами. Это фундаментальная проблема дублирования контента. В данном случае вариант с маскированием сводится просто к перенаправлению 301 всех не первичных страниц на первичную страницу в том случае, если пользовательский агент является поисковым агентом.
Предоставление контента, распространяемого по подписке, только поисковому агенту.
Это пример с New York Times. В данном случае код определяет, является ли пользовательский агент поисковым агентом, и выдает либо часть контента, если посетитель является человеком, либо весь контент, если это поисковый агент.
Отключение обработки сеансов на основе URL для поисковых агентов.
Существует средство trans_sid в PHP, которое выполняет автоматическую модификацию URL-адресов и форм, чтобы включать переменные сеанса, и применяется для сохранения состояния сеанса у тех пользователей,которые запретили сохранение cookie-наборов. Однако у этого приема есть побочный эффект: выдача поисковым агентам потенциально бесконечного количества дублированного контента. Поэтому на многих современных Web-сайтах данная возможность просто отключена.Но эта возможность может включаться и отключаться динамически в PHP-коде, и поэтому можно применить маскирование для ее динамического включения и выключения, в зависимости от того, является ли посетитель человеком или поисковым агентом. Это позволяет сайту удовлетворять требованиям пользователей и в то же время не запутывать поисковый агент, чтобы он не пробирался через огромное количество семантически бессмысленных вариантов URL, содержащих различные идентификаторы сеанса. Конечно, ваш сайт также не должен строить свою работу на сеансах — поскольку поисковые механизмы в любом случае не принимают cookie-данные.
Хорошо оформленные, легко читаемые, удобные для посетителей сайта страницы могут проигрывать в выдаче по поисковым запросам (хотя бывают исключения), а оптимизированные страницы, специально насыщенные ключевыми словами, могут быть неудобны для пользователей. Создание страницы, которую и посетители, и роботы оценивают как информативную, достаточно сложно, в том числе и потому, что владелец сайта, выбирающий материалы для наполнения страницы и её оформление, может не иметь достаточных знаний о поисковой оптимизации.
По этим причинам был создан метод клоакинга, для реализации которого создаются два варианта страницы: один для поисковых роботов, другой — для посетителей. Пользовательская страница оформляется произвольным образом, без каких-либо ограничений, связанных с поисковой оптимизацией. Страница, предназначенная для пауков, наполняется и оформляется в соответствии с требованиями оптимизации, для чего нужно иметь знания о поисковых системах. Для различения роботов и посетителей могут проверяться их IP-адреса или User Agent.
Клоакинг напоминает использование дорвеев, но имеет перед ним некоторые преимущества. Во-первых, не нужно организовывать автоматическое перенаправление или заставлять пользователя вручную переходить к нужной странице (этот приём неудобен для пользователей и слишком легко вычисляется поисковыми системами). Во-вторых, конкуренты не смогут увидеть оптимизированную страницу и использовать применённый на ней код в своих разработках, потому что для этого им понадобился бы IP-адрес, совпадающий с адресом какого-либо паука, что невозможно. С другой стороны, клоакинг — более трудоёмкий приём, чем создание дорвеев, поскольку для его применения требуются не только навыки программирования и знание методов оптимизации, но и базы данных с IP-адресами и именами поисковых роботов.
Большинство поисковых систем (например, Яндекс [1]) борются с клоакингом как с нечестным приемом «раскрутки» сайтов и применяют к сайтам-нарушителям штрафные санкции (см. пессимизация).
Приемлемые области применения клоакинга (маскирования).
Немногие области поисковой оптимизации вызывают столько споров, как клоакинг. Известный специалист по СЕО Дэн Тайес считает, что "клоакинг — очень опасная техника". Кроме того, он утверждает, что единственная "цель маскирования - обман поисковых механизмов".
С последним заявлением трудно согласиться. Многие считают, что имеются и приемлемые области применения маскирования. В частности, Yahoo! и MSN довольно терпимо относятся к маскированию, если оно не предназначено для обмана.Но Google (Яндекс), на момент написания этих строк, недвусмысленно заявляет в своих условиях обслуживания, что клоакинг не рассматривается им как положительное явление независимо от его целей. В руководстве Web-мастера (http://www.google.com/support/webmasters/bin/answer.py?answer=40052) сказано: "... клоакинг ... может привести к исключению из нашего индекса".
Дэн Тайес утверждает: "Мы не считаем IP-клоакинг техникой, с которой стоит связываться профессионалам". Вряд ли стоит придерживаться такой радикальной точки зрения, особенно с учетом последних разработок. В последнее время тот же Google стал проявлять некоторую терпимость при проведении этого принципа. В частности, по отношению к маскированию контента New York Times. На этом сайте поисковым агентам видно все содержимое новостных статей, а обычным пользователям — только аннотации. Пользователи должны заплатить, чтобы увидеть контент, доступный поисковым механизмам. Для этого на сайте New York Times применяется клоакинг с помощью подмены по IP.
Дэнни Салливан, редактор SearchEngineWatch, заявляет относительно New York Times:"Считаю ли я, что NYT обманывает Google"? Нет. Считаю ли я, что они применяют клоакинг? Да. Считаю ли я, что их следует наказать, т.к. Google не поощряет клоакинг? Нет. Я уже давно писал, что политика Google no этому поводу устарела. Честно говоря, этот вопрос уже давно следовало бы пересмотреть, еще в 2004 г. NYT — лишь последнее звено в цепи больших компаний, которые демонстрируют, что сам по себе клоакинг - не обязательно плохо."
Опять же трудно полностью согласиться с этим заявлением. Если щелчок на результате поиска приводит на страницу оформления подписки, то это обман пользователей. Результаты поискового запроса должны содержать данные, релевантные тому, что ищет пользователь.
Клоакинг может вскоре стать более приемлемым методом, но все-таки его не стоит применять сразу и для решения всех задач. Клоакинг часто рекомендуется в качестве решения для уже существующих сайтов, в которых применяется Flash или AJAX; кроме того, это единственный способ реализации индексированного контента, выдаваемого по подписке (как это сделано в New York Times).
Вот несколько типичных ситуаций, где допустимо использовать маскирование [1]:
-- вывод текстовых изображений в виде текста;
-- перенаправление исключенного контента на эталонный эквивалент;
-- предоставление контента, распространяемого по подписке, только поисковому агенту (пример с New York Times);
-- использование маскирования для обработки сеансов на основе URL (trans_sid) для поисковых агентов.
Вывод изображений в виде текста.
К сожалению, использование графики, содержащей текст, негативно влияет на поисковую оптимизацию. Причина проста: поисковые механизмы не могут читать текст, включенный в графические изображения. Поэтому одной из очевидных и этичных причин применения маскирования может быть распознавание, является ли пользовательский агент поисковым агентом,и замена изображений на текст, включенный в эти изображения.
Перенаправление исключенного контента.
Допустим ваше предприятие выпускает, несколько категорий одного продукта. Это может привести к появлению почти идентичных страниц с различными URL-адресами. Это фундаментальная проблема дублирования контента. В данном случае вариант с маскированием сводится просто к перенаправлению 301 всех не первичных страниц на первичную страницу в том случае, если пользовательский агент является поисковым агентом.
Предоставление контента, распространяемого по подписке, только поисковому агенту.
Это пример с New York Times. В данном случае код определяет, является ли пользовательский агент поисковым агентом, и выдает либо часть контента, если посетитель является человеком, либо весь контент, если это поисковый агент.
Отключение обработки сеансов на основе URL для поисковых агентов.
Существует средство trans_sid в PHP, которое выполняет автоматическую модификацию URL-адресов и форм, чтобы включать переменные сеанса, и применяется для сохранения состояния сеанса у тех пользователей,которые запретили сохранение cookie-наборов. Однако у этого приема есть побочный эффект: выдача поисковым агентам потенциально бесконечного количества дублированного контента. Поэтому на многих современных Web-сайтах данная возможность просто отключена.Но эта возможность может включаться и отключаться динамически в PHP-коде, и поэтому можно применить маскирование для ее динамического включения и выключения, в зависимости от того, является ли посетитель человеком или поисковым агентом. Это позволяет сайту удовлетворять требованиям пользователей и в то же время не запутывать поисковый агент, чтобы он не пробирался через огромное количество семантически бессмысленных вариантов URL, содержащих различные идентификаторы сеанса. Конечно, ваш сайт также не должен строить свою работу на сеансах — поскольку поисковые механизмы в любом случае не принимают cookie-данные.
Теория продвижения
Поисковая оптимизация (англ. search engine optimization, SEO) — процесс корректировки HTML-кода, текстового наполнения (контента), структуры сайта, контроль внешних факторов для соответствия требованиям алгоритма поисковых систем, с целью поднятия позиции сайта в результатах поиска в поисковых системах по определенным запросам пользователей. Чем выше позиция сайта в результатах поиска, тем больше заинтересованных посетителей перейдет на него с поисковых систем.
Основные направления работы
Поисковая система учитывает следующие параметры сайта при вычислении его релевантности (степени соответствия введённому запросу):
частота ключевых слов; сложные современных поисковиков позволяют производить семантический анализ текста, чтобы отсеять спам, когда ключевое слово встречается слишком часто (более 7-8 процентов от всего содержимого) или слишком редко (1-3 %) на странице. Оптимальная плотность ключевых слов: 5-7 % от текстового содержимого веб-страницы, при этом ключевые слова (фразы) должны встречаться в тексте как минимум 3-4 раза.
индекс цитирования сайта, или количество веб-ресурсов, ссылающихся на данный сайт; многими поисковиками не учитываются взаимные ссылки (друг на друга), также важно, чтобы ссылки были с сайтов схожей тематики, что и раскручиваемый (оптимизируемый) сайт.
Соответственно, все факторы, влияющие на положение сайта в выдаче поисковой системы, можно разбить на внешние и внутренние. Работа по оптимизации включает в себя работу с внутренними факторами (находятся под контролем владельца веб-сайта) — приведение текста и разметки страниц в соответствие с выбранными запросами, улучшение качества и количества текста на сайте, стилистическое оформление текста (заголовки, жирный шрифт), улучшение структуры и навигации, использование внутренних ссылок, а также внешними факторами — обмен ссылками, регистрация в каталогах и прочие мероприятия для повышения и стимулирования ссылаемости на ресурс. Лицо, проводящее работу по оптимизации веб-сайтов, называется оптимизатор.
История
Вместе с появлением и развитием поисковиков в середине 1990-х появилась и оптимизация. В то время поисковики придавали большое значение тексту на странице и прочим внутренним факторам, которыми владельцы сайтов могли легко манипулировать. Это привело к тому, что в выдаче многих поисковиков первые несколько страниц заняли мусорные сайты, что резко снизило качество работы поисковиков и привело многие из них к упадку. С появлением технологии PageRank больше веса стало придаваться внешним факторам, что помогло Google выйти в лидеры поиска в мировом масштабе, затруднив оптимизацию при помощи одного лишь текста на сайте.
Однако оптимизация развивается вместе с поисковиками, и в современных результатах поиска можно видеть всё больше и больше коммерческих сайтов с искусственно раздутой популярностью, особенно по коммерчески привлекательным запросам. Одиозными примерами таких запросов, по которым даже иногда проводятся соревнования оптимизаторов, являются «italian charms», «пластиковые окна» в Рунете и т. п. Сейчас стало актуально проводить конкурсы по выводу в топ запросов, которых не существует как таковых, тем самым давая всем равные условия.
Подходы к оптимизации
Методы оптимизации можно разделить на три класса, однако последние события в мире поисковых систем дают понять, что это разделение весьма условно — любая манипуляция определёнными параметрами сайта может быть расценена поисковиком как крайне нежелательное влияние на его результаты.
Белая оптимизация
Белым называется оптимизаторская работа над ресурсом без применения официально запрещённых поисковиками методов раскрутки ресурса.
«Серая» оптимизация
Под серой оптимизацией (SEO) понимается, что вебмастер, который занимается продвижением ресурса так или иначе затрагивает методы, запрещённые поисковыми системами — например, использует линкаторы, взаимный обмен ссылками, покупает ссылки с других ресурсов, участвует в автоматической накрутке счетчиков и т. п. Также к серым методам относится перенасыщение текста ключевыми словами в ущерб его читабельности, агрегация стороннего контента (то есть в данном случае воровство).
«Чёрная» оптимизация
Чёрная оптимизация обычно представляется как использование дорвеев — страниц и ресурсов, созданных (зачастую автоматически) специально для роботов поисковых систем. В теории человек не должен читать текст, который размещен на дорвее, так как он представляет собой бессмысленный набор ключевых слов, используемых в возможных поисковых запросах. Как правило, дорвеи расчитаны на привлечение с поисковых систем посетителей, использующих в поиске достаточно редкие поисковые запросы. Такой подход, с одной стороны, исключает возможность попадания дорвея в результаты поиска по конкурентым запросам, но с другой стороны позволяет дорвею существовать какое-то время без санкций со стороны поисковой системы. Методы раскрутки дорвеев — это нарушения всех правил поисковых систем, это беспорядочный спам по любым чужим ресурсам гостевым книгам, форумам, каталогам, блогам, вики-сайтам, и т. п., где может остаться ссылка на дорвей.
Также к чёрным методам SEO можно отнести использование так называемого скрытого текста на страницах сайта. Для пользователей данный текст не виден, однако поисковые роботы легко его индексируют. Обычно в скрытом тексте содержатся ключевые слова для придания «веса» оптимизируемой странице.
Основные направления работы
Поисковая система учитывает следующие параметры сайта при вычислении его релевантности (степени соответствия введённому запросу):
частота ключевых слов; сложные современных поисковиков позволяют производить семантический анализ текста, чтобы отсеять спам, когда ключевое слово встречается слишком часто (более 7-8 процентов от всего содержимого) или слишком редко (1-3 %) на странице. Оптимальная плотность ключевых слов: 5-7 % от текстового содержимого веб-страницы, при этом ключевые слова (фразы) должны встречаться в тексте как минимум 3-4 раза.
индекс цитирования сайта, или количество веб-ресурсов, ссылающихся на данный сайт; многими поисковиками не учитываются взаимные ссылки (друг на друга), также важно, чтобы ссылки были с сайтов схожей тематики, что и раскручиваемый (оптимизируемый) сайт.
Соответственно, все факторы, влияющие на положение сайта в выдаче поисковой системы, можно разбить на внешние и внутренние. Работа по оптимизации включает в себя работу с внутренними факторами (находятся под контролем владельца веб-сайта) — приведение текста и разметки страниц в соответствие с выбранными запросами, улучшение качества и количества текста на сайте, стилистическое оформление текста (заголовки, жирный шрифт), улучшение структуры и навигации, использование внутренних ссылок, а также внешними факторами — обмен ссылками, регистрация в каталогах и прочие мероприятия для повышения и стимулирования ссылаемости на ресурс. Лицо, проводящее работу по оптимизации веб-сайтов, называется оптимизатор.
История
Вместе с появлением и развитием поисковиков в середине 1990-х появилась и оптимизация. В то время поисковики придавали большое значение тексту на странице и прочим внутренним факторам, которыми владельцы сайтов могли легко манипулировать. Это привело к тому, что в выдаче многих поисковиков первые несколько страниц заняли мусорные сайты, что резко снизило качество работы поисковиков и привело многие из них к упадку. С появлением технологии PageRank больше веса стало придаваться внешним факторам, что помогло Google выйти в лидеры поиска в мировом масштабе, затруднив оптимизацию при помощи одного лишь текста на сайте.
Однако оптимизация развивается вместе с поисковиками, и в современных результатах поиска можно видеть всё больше и больше коммерческих сайтов с искусственно раздутой популярностью, особенно по коммерчески привлекательным запросам. Одиозными примерами таких запросов, по которым даже иногда проводятся соревнования оптимизаторов, являются «italian charms», «пластиковые окна» в Рунете и т. п. Сейчас стало актуально проводить конкурсы по выводу в топ запросов, которых не существует как таковых, тем самым давая всем равные условия.
Подходы к оптимизации
Методы оптимизации можно разделить на три класса, однако последние события в мире поисковых систем дают понять, что это разделение весьма условно — любая манипуляция определёнными параметрами сайта может быть расценена поисковиком как крайне нежелательное влияние на его результаты.
Белая оптимизация
Белым называется оптимизаторская работа над ресурсом без применения официально запрещённых поисковиками методов раскрутки ресурса.
«Серая» оптимизация
Под серой оптимизацией (SEO) понимается, что вебмастер, который занимается продвижением ресурса так или иначе затрагивает методы, запрещённые поисковыми системами — например, использует линкаторы, взаимный обмен ссылками, покупает ссылки с других ресурсов, участвует в автоматической накрутке счетчиков и т. п. Также к серым методам относится перенасыщение текста ключевыми словами в ущерб его читабельности, агрегация стороннего контента (то есть в данном случае воровство).
«Чёрная» оптимизация
Чёрная оптимизация обычно представляется как использование дорвеев — страниц и ресурсов, созданных (зачастую автоматически) специально для роботов поисковых систем. В теории человек не должен читать текст, который размещен на дорвее, так как он представляет собой бессмысленный набор ключевых слов, используемых в возможных поисковых запросах. Как правило, дорвеи расчитаны на привлечение с поисковых систем посетителей, использующих в поиске достаточно редкие поисковые запросы. Такой подход, с одной стороны, исключает возможность попадания дорвея в результаты поиска по конкурентым запросам, но с другой стороны позволяет дорвею существовать какое-то время без санкций со стороны поисковой системы. Методы раскрутки дорвеев — это нарушения всех правил поисковых систем, это беспорядочный спам по любым чужим ресурсам гостевым книгам, форумам, каталогам, блогам, вики-сайтам, и т. п., где может остаться ссылка на дорвей.
Также к чёрным методам SEO можно отнести использование так называемого скрытого текста на страницах сайта. Для пользователей данный текст не виден, однако поисковые роботы легко его индексируют. Обычно в скрытом тексте содержатся ключевые слова для придания «веса» оптимизируемой странице.
Подписаться на:
Сообщения (Atom)