Совет вебмастерам в сапе. По поводу проиндексированности страницы

Многие знают, но все же.

Есть такой плагин для мозилы,  которым пользуются оптимизаторы, и который показывает непроиндексированные страницы чтобы с них не покупать ссылки.

addons.mozilla.org/ru/firefox/addon/8680

Я тоже им пользуюсь.

Но не только как оптимизатор, но и как вебмастер, чтобы самому заранее убрать непроиндексированные страницы.

Для того чтобы вы оценили влияние проиндексированности страницы вот вам информация для размышления.

У сайта в сапе было 3000 страниц.  На этих страницах было 1150 ссылок. После удаления непроиндексированных, осталось 2000 страниц и 1100 ссылок.

То есть с непроиндексированных страниц ссылки берутся в десять раз реже чем с проиндексированных. Но так как сапа не знает какая страница проиндексированна а какая нет и подсовывает их в равной степени, то получается что при большом количестве непроиндексированных страниц много оптимизаторов пройдут мимо сайта, и даже скорее всего занесет в ГБЛ.

UPD:

Проверил сейчас еще один свой сайт.

Потерял 2% ссылок удалив 21% страниц. Это еще раз подтверждает, что подавляющее большинство оптимизаторов не покупают ссылки с страниц не в индексе.


Автор: Elsper.ru


VN:F [1.9.14_1148]
Rating: 0.0/10 (0 votes cast)

Как правильно доить mainlink.ru

Вообще-то можно сказать «палю тему». 🙂 Хотя это будет интересно только клепателям ГС.

Два исходных пункта:

1) Майнлинк не модерирует сайты

2) Майнлинк принимает поддомены.

На основании этого покупаем домен. Вешаем на него пачку поддоменов. Загоняем их все в индекс хотя бы на один ап. Добавляем все поддомены в майнлинк, пока яндекс не забанил. (если забанил, ждем индекс гугла и все равно добавляем)

……

Гребем бабло на сколько повезет. Может не повезти и вся эта кутерьма будет только окупаться (лично у меня окупаются все, просто некоторые не так круто как хотелось бы), а может повезти и такая конструкция будет давать 10р в день. (есть и такие результаты)

Я делаю 10-20 поддоменов.

Внимание! Похоже, иногда модер все же смотрит на сайты, так что если их удалят я не виноват, я предупредил. У меня у самого удалили 20% поддоменов.

В принципе все честно получается. Оптимизатор получает очень дешевую ссылку, которая хоть и не очень эффективно, но работает. (во первых гугл, во вторых сайты под агс все же передают чуток веса, подтверждено экспериментально)

Напоследок скриншот:

sites


Автор: Elsper.ru


VN:F [1.9.14_1148]
Rating: 0.0/10 (0 votes cast)

Сравнение прибыльности трафика с яндекса и гугла. Тизеры. Адалт

Последние дни у меня произошло заметное увеличение дохода с тизеров. (не очень большое, но заметное)

Стал анализировать и заметил что основной прирост показала одна площадка. На ней подрос траф с яндекса (а в основном у меня гугло траф)

Решил подсчитать некоторые вещи и вот вывод:

Сравнение проводил по сайтам с одинаковым расположением блоков, с одинаковой структурой (дизайн различается только в цветовой гаме) и самое главное с одинаковыми ключами.

Вчерашние данные

Сайт с яндекс-трафиком получил 1200 посетителей. Принес 280р

Аналогичные сайты с гугло трафом 500 — 50 и 1100 — 100

Позовчера

Яндекс: 1200 — 300

Гугл: 900 — 80 и 1200 — 120

Во первых видно что стабильность конвертирования на отдельных сайтах на протяжении двух дней сохраняется (оно и в остальных днях с такими же соотношениями, просто думаю достаточно два дня)

Во вторых конверт с одной поисковой системы не меняется от сайта к сайту (на примере гугла) Это итак логично, но этот факт позволяет прикинуть доход с аналогичных яндекс сайтов на примере одного.

В третьих и самых главных, народ на яндексе не пуганный, наивный. Конвертируется почти в три раза лучше, (и его там больше кстати)

Поэтому лично я решил попробовать такую штуку: сделать приличный аккуратный сайт эротики (чтобы минимизировать риск бана) но при этом прокачать его в сапе ссылками с эффективными ключами.

О том насколько эффективной оказалась такая схема расскажу позже, думаю через пару тройку апов.

___

Восьмого числа тизеры принесли мне 840р. (рекорд в этом году) Из них 460 тизернет, за счет этого в топе я был на 60 месте. мельчает топ, сильно мельчает.


Автор: Elsper.ru


VN:F [1.9.14_1148]
Rating: 0.0/10 (0 votes cast)

Как ставить код линкобирж при масовом клепании ГС.

Эта запись продолжает раскрывать тему записи По копеечке, да по рублику

Сейчас речь пойдет о упрощении установки кода линкобирж.

Суть в том чтобы установить код один раз в отдельную папку на серваке, а на сайтах использовать стандартизированный шаблон. Так же подразумевается удобство установки 777 прав

1) setlinks.ru

Самый простой код у сетлинка:

Можно использовать одну папку для всех сайтов.

Создаем папку на серваке, заливаем туда код сетлинка. Ставим права 777 на папку кеша, а в шаблоне сайтов вместо строки
$_SERVER[‘DOCUMENT_ROOT’]
пишем адрес нашей папки

например для вывода всех ссылок одним блоком достаточно одной строки:

<?php require_once(‘адрес папки/slsimple.php’);  ?>

Всё. Код установлен. Можно добавляться.

2) sape.ru и linkfeed.ru

Все кто помнят рождение линкфида знают, что код у них очень похож.

Этим системам я создаю отдельные папки под каждый сайт. (хотя может они тоже поддерживают возможность работы в одной папке, не знаю)

Создаю папку, в ней создаю подпапки-имена доменов, в них содержится файл-код биржи. Потом всем подпапкам одним движением ставлю права 777. А на сайте использую такую конструкцию:

(может кто посоветует более лучшую. я с .htaccess-ом повозился но так и не сделал ничего)

Папки с кодом мы называли именами доменов, чтобы можно было обратиться к ним по такой строке:
Путь_к_папке.$_SERVER[‘SERVER_NAME’].’/sape.php’

Или же

Путь_к_папке.$_SERVER[‘SERVER_NAME’].’/linkfeed.php’

Но есть один нюанс, если зашли на сайт по www.site.ru, то $_SERVER[‘SERVER_NAME’]
будет содержать имя домена вместе с www, и значит укажет ни на ту папку. Как автоматически через .htaccess перенаправлять всех с www на урл без www я не разобрался.

Поэтому склепал такой код на php, который ставлю в начало сайта.

$stru = strtolower($_SERVER[‘SERVER_NAME’]);
$stru = ‘http://’.$stru;
$stru = str_replace(‘http://www.’,»,$stru);
$stru = str_replace(‘http://’,»,$stru);

Переменная $stru сначала получает урл. Далее приделывает к нему фрагмент «http://» потом вырезает из урла текст «http://www.»

(http:// приделываю для того чтобы нечаянно не вырезать «www.» из самого имени. Вдруг у сайта урл 1234www.ru, тогда получилось бы 1234ru. Ни в какие ворота не лезет.)

Далее в случае если урл изначально чист убираем ранее добавленный фрагмент «http://»

И в дальнейшем для обращения к папкам с кодом используем получившуюся переменную $stru

Путь_к_папке.$stru.’/sape.php’

Или же

Путь_к_папке.$stru.’/linkfeed.php’

Дальше уже часть вывода как обычно делайте, я рассмотрел только ту строку где происходит подключение кода

( у сапы, например это require_once($_SERVER[‘DOCUMENT_ROOT’].’/’._SAPE_USER.’/sape.php’); )

3) mainlink.ru

Майнлинк тоже можно пихать в одну папку 🙂

По аналогии с сетлинком будет:

<?php

require_once(‘адрес папки/ml.php’);

echo $ml->Get_Links();

?>

Останется только права 777 указать на нужную папку ( у меня это папка data ) и можно добавляться не напрягаясь.

__

Если вы не знаете полный путь к папке, то эта функция может прояснить ситуацию

echo ($_SERVER[‘DOCUMENT_ROOT’]);

(Укажет путь к папке сайта с которого запущена)

__

Эта запись в первую очередь несет идею.
Для тех кто быть может до этого еще не догадался.

Если вы полный ноль в программировании, то лучше ничего не меняйте 🙂

__
Высказывайте идеи, предложения, пожелания.

Ставьте ссылки 🙂


Автор: Elsper.ru


VN:F [1.9.14_1148]
Rating: 0.0/10 (0 votes cast)

Потеря дохода от агс. Пара идей как защититься.

Пост вдогонку к идеям прошлой записи

Во первых, очевидная защита от потери дохода, это использование других бирж, а не только сапы. Там ссылки держаться и после АГС. Добавлять правда лучше заранее, в сетлинке например тоже модерация есть.

Во вторых и главных:

В правилах сапы написано (help.sape.ru/sape/faq/1027), что:

Если сайт отсутствовал в индексе Яндекса более 14 дней, он отмечается в системе как «отсутствующий в ПС Яндекс» или «непроиндексированный сайт».

Бывает, что Яндекс полностью не исключает сайт из индекса, а оставляет несколько страниц, в частности, главную страницу. Поэтому сайт помечается как «отсутствующий в ПС Яндекс», если в индексе Яндекса осталось менее 20 страниц, при этом отношение страниц в индексе Яндекса, к страницам, добавленным в SAPE, меньше 0.3.

Из этого делаем один очень важный вывод. Если сайт попал под АГС, то через две недели почти все ссылки с него слетят. А значит вебмастеру надо заранее удалить из сапы «лишние» страницы оставив только самые ценные, чтобы сапа не пометила сайт как отсутствующий в индексе и не сняла все ссылки.

Например если АГС выкосил сайт до десяти страниц, стоит выбрать 30 самых ценных страниц и удалить все кроме них, чтобы спасти хотя бы часть дохода.

Только удаляйте не на всегда, а до переиндексации, вдруг сможете вывести из под агс. 🙂

__
Сам я это не делал, просто акцентирую ваше внимание на этом пункте правил, и на то какой из него можно сделать вывод.

__
Проведу эксперимент, удалю всё кроме двух страниц с одного сайта, которому яндекс только морду оставил, и который конечно сапой помечен как отсутствующий в яндексе. Интересно вернется сам или нет.

Так же попробую спасти один из сайтов который под агс, но сапа это еще не прочухала. Тоже отпишусь по результатам.

__

Полезная информация? Поставь ссылку в благодарность! 🙂

если сайт отсутствовал в индексе Яндекса более 14 дней, он отмечается в системе как «отсутствующий в ПС Яндекс» или «непроиндексированный сайт».Бывает, что Яндекс полностью не исключает сайт из индекса, а оставляет несколько страниц, в частности, главную страницу. Поэтому сайт помечается как «отсутствующий в ПС Яндекс», если в индексе Яндекса осталось менее 20 страниц, при этом отношение страниц в индексе Яндекса, к страницам, добавленным в SAPE, меньше 0.3.

Автор: Elsper.ru


VN:F [1.9.14_1148]
Rating: 0.0/10 (0 votes cast)

Спoнcopcкиe ссылки