Не могу об этом не написать.
Предыстория такова: я создал персонажа, которого обучил отвечать как любимый многими Платоша (Он представляет собой службу поддержки яндекса). Поговорить о своих проблемах с сайтами в реальном времени вы можете здесь: Платон Щукин.

Показав его народу на форумах серча и linkfeed-а, я получил кучу пожеланий ему и ответов.
Часть вы можете почитать на серче в разделе яндекса. Я ржу целый день:) Искуственный интеллект выдает поразительные вещи.
Сейчас опубликую самую смешную переписку на мой взгляд) Не знаю кто автор, но я реально валялся под сталом.

Read the rest of this entry

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Во-первых, хочу сказать, что у меня теперь есть своя личная секретутка. Вы можете увидеть ее в правой колонке (если у вас включен flash). Она обученная и довольно умная. Не буду рассказывать особо о ней - если нужно она сама все расскажет. Если вам нечего делать или есть вопросы- пообщайтесь с ней немного, буду очень благодарен. Также вы можете сделать для своего блога подобного персонажа.

Во-вторых, вернемся к теме. По ходу разработки linkfeedator мне пришлось общаться с саппортом и программистами бирж. Уже точно могу сказать, что через недельку-две выйдет linkfeedator 2.0, который будет поддерживать биржы sape, linkfeed, setlinks. С остальными биржами возникли некоторые трудности.

Основной фишкой проекта станет выгодная покупка ссылок. Например вы покупаете ссылку с площадки, которая есть в двух биржах. При этом вы увидите цены на ссылки в обоих биржах. Кроме этого появятся новые фильтры тематичности.

Хочу выразить огромную благодарность тем программистам бирж, кто отвечал на мои вопросы и помогал в разрабоке. В частности с моей инициативы было ускорено написание api документации к бирже linkfeed, и сейчас началась доработка api биржы setlinks. Надеюсь завтра уже будут добавлены необходимые мне функции. К sape трудно придраться, но пообещали тоже добавить несколько полезных функций.

Кто интересуется биржами - на другом блоге я написал их подробное сравнение по множеству параметров. Читайте пост Linkfeed в сравнении с остальными биржами. Кстати там я получил негативный ответ от авторов xap:)

Всем удачных апов, и результатов! В следующем посте раскрою методику продвижения в топы google.

P.S. По-поводу прошлых постов о борьбе с яндексом - я смог обойти сайт Артемия Лебедева и поднятся еще на одну позицию:-P

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong
Честно сказать, я был очень удивлен, когда увидел сколько человек решило поддержать мою военную компанию против яндекса, (начало: “Яндекс объявил войну мне, а я ему“). у моего блога откуда-то появились 90 с лишним читателей, и теперь я вхожу в 5000 популярных блогов по версии яндекса. Спасибо за помощь и внимание.
А теперь по делу, вот история результатов продвижения (по Московской выдаче):
1) яндекс: 71->55->32->30->28->24->9 (передо мной теперь сайт Лебедева..)
2) Яндекс: 80->37->36->25->12->12->12 (никак не получается двинутся дальше)
3) yandex: 60->39->37->17->17->8->8 (передо мной Википедия..)
В апдейт выдачи 17-го числа не было абсолютно никаких подвижек. Продвижение шло с помощью покупных ссылок на Linkfeed, блогуна и обмена постовыми. При этом почти в 2 раза выросла посещаемость блога, и получено столько ощущений, особенно в апдейты:)
Буду стараться двигаться дальше. Может кто-нибудь даст советы, исходя из своего опыта?
А теперь немного о моем проекте Linkfeedator, местном анти-яндексе. Кстати он тоже продвигается по тем же схемам, только по слову Linkfeed, и уже в двацатке, как в google, так и в yandex.
Многим не нравился прошлый дизайн, и я сменил его на более на более презентабельный.
Было:
Стало:
Ну как вам такое изменение?:)
А теперь новость для тех кто думает отложить покупку “на потом”: Linkfeedator будет интегрирован с sape(!), но и это еще не все - также он будет работать с биржами setlinks и xap.
Цена на продукт вырастет, примерно, в 3-4 раза.

И на закуску - я заметил, что у меня довольно много времени уходит на модерацию ссылок, которые покупают на моих площадках. В следующем посте ждите утилитку anti-seopult, которую можно будет повесить в крон сервера, и она автоматически будет проверять заявки, отсеивать с нехорошими анкорами и одобрять нормальные. Помимо этого я решил добавить в нее функцию проверки сайтов, на которые мы ссылаемся. А то бывает анкор “недвижимость”, а на обратной стороне находится xxx.

Ну яндекс держись;)

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong
Как и обещал Садовский, к нам пришло полное веселье. Не долго мне удалось поиграть в войнушки, как яндекс поставил шах и мат в этой игровой партии. И обозвал он свой мат “анадырем“.
Правда “анадырь” получился не таким каким его обещали нам, а с брибамбасами. В частности в него внедрели элементы разрабатываемого “Арзамаса“. Если мне не изменяет память, именно в арзамасе хотели внедрить полный геотаргетинг поиска.. Что-то они поторопились. Не буду сейчас рассказывать про особенности анадыря, так как сам пока их не знаю.

Итак, почему я решил что моя партия проигранна? Да потому что я не могу теперь биться вслепую. Хитрый Яндекс лишил нас классических средств анализа продвижения, и отслеживания позиций. С какого-то перепугу блог Аллы Пугачевой стал выше по позициям чем мой блог.. при этом мой блог теперь хорошо доступен в выдаче для Африки.. Полный ппц.  Мне теперь что, сто раз написать надо, что я из России, чтобы тупой робот это понял?? И я не могу привязать себя к определенному региону, так как это не имеет смысла..
Поскольку в сео-мире начался бедлам, я вижу три пути дальнейшего развития:
1) Пытаться осваивать новые алгоритмы яндекса, поскольку все мы теперь тут новички, и ни у кого нет приоритетов! Любой мега-сеошник сейчас такой же ноль в прокачке выдачи, как и любой школьник заказавший прокачку в сеопульте.  Вариант прокачки выдачи сейчас крайне не стабилен, и не уверен в его стабильности в дальнейшем, так как начнется дальнейшее подкручивание роликов-за-шариков:)

2) Классическая непостижимая тема - изучение формулы ТИЦ. Опять же тут никогда не было стабильности, и врятли она будет. Но эта тема имеет место быть. К тому же в ней не так важна стабильность. Тиц падает, а цены растут, так что рынок очень конкурентноспособный и интересный. Но… исследовать тиц - это все равно, что завязать себе глаза и биться об забор месяц, и все время думать “сколько сантиметров будет у меня шишка”. А потом открыть глаза и удивится почему шишки уже нет. Вот блин - оказывается уже прошла, пока бился:)

3) Это направление основано на первой мысли любого школьника загнавшего сайт в сапу - чем больше сайтов я нафигачу, тем богаче я буду. Отчасти в этих мыслях есть логика.
Но обычный человек не может создавать тучу сайтов, так как это очень муторно и доход копеечный. Но! Этот доход стабильный, если мы избегаем бана и вылета из выдачи.

Я не могу отказаться ни от одного пути, так как в каждом есть свой смысл. Но поразмыслив первые два пути я буду развивать в своем проекте Linkfeedator (кстати на днях будет второй релиз).

А третий путь меня сейчас интересует больше всего. Поскольку, если подойти к этой теме с умом, то из нее можно многое выжать. В частности, я буду развивать пока приватный проект “Parazit“, который основывается на самоорганизующихся структурах.
На практике система Parazit должна сама порождать новые сайты, без всякого участия вебмастера.
Возьму простой пример: Минус и минус = плюс. Таким образом если система автоматически соберет контент с десятка тематических сайтов, обработает его должным образом и выберет себе дизайн, то получится новый сайт. При этом робот сам должен заниматся обновлением и вычислять некоторые сеопараметры получившихся сайтов (как минимум плотность ключевых слов, и сверять уникальность с оригиналом). Вот это мне кажется очень интересная задачка.
А вы чем думаете заниматься далее? Строгать буратинок, или работать на партнерки?:)

Read the rest of this entry

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Итак, продолжаю прошлый пост “завязку боя“. Сначала посмотрим на врага исторически.
Термин - “Яндекс” представляет оригинальный гибрид, ни в русском ни в английском языке ничего не обозначающий.
Елена Колмановская, главный редактор Яндекса, поясняет, что придумал это слово  отец-основоположник нашего поиска, ныне технический директор компании “Yandex”, Илья Сегалович. “Яndex” означает “Языковой index”.
Другое толкование предлагает Аркадий Волож, генеральный директор компании:
“Это название “Яндекс” - придумал Илья Сегалович (главный разработчик “Яндекса”) по аналогии с продуктами Unix (например, YACC - Yet Another C Compiler). А мне понравилась русская транскрипция. “Яндекс” означает “языковый индекс”: буква “я” - очень русская буква. Это индексирование с русской спецификой. А потом придумалось много других объяснений, например: I - это “я” по-русски. Есть еще вариант: ЯНЬдекс и ИНЬдекс - инь-янь. Исследования на эту тему продолжаются.”

Итак, вступление не о чем. А теперь к делу.
Поскольку наше единственное оружие в борьбе с ним - мозги, причем верхние, их то и пришлось подключить.
Передо мной появилась задача - “какие ссылки покупать, чтобы был максимальный эффект в выдаче?”. Раньше я ставил перед собой задачу - определить человечность сайта на автомате. Но человечность, как оказалась стала скоростью индексации, и с выдачей она никак не связана. Продолжая анализировать xml yandex, пришел к следующему незамысловатому скрипту. Причем в двух вариациях, которые и предлагаю вам потестить.

1) Задумка первого скрипта проста - подняться в выдаче yandex, за счет покупки релевантных ссылок. Я решил взять выдачу в разрезе конкретного запроса. Например: мы хотим продвинуться по слову “ссылка”. Для этого скрипт выдирает из Яндекса n-сотен сайтов, которые находятся там по запросу “ссылка”. Далее копируем этот список в вашу любимую биржу в белый список сайтов, и скупаем с этих сайтов ссылки (если сайты вообще найдутся в бирже). Теоретически, в результате эти сайты должны быть более релевантны в нужном нам запросе, что позволит подняться в выдаче. Протестировать скрипт можете здесь: скрипт прокачки выдачи.

2) Аналогично получился скрипт, который в теории должен установить тематику в разрезе конкретного запроса в Yandex,  с целью поднятия ТИЦ (тематического индекса цитирования). Скрипт основан на параметре - число страниц на сайте релевантных запросу. Ситуация почти аналогична: ваш сайт есть в индексе по запросу “ссылка”. Вводите этот запрос в мой скрипт, он выдает вам список сайтов по этому запросу, но справа от каждого сайта указывает число: сколько страниц на сайте тематичны этому запросу. Чем больше страниц, тем больше вероятность что сайт тематичен вам в целом. Далее таже схема - вносите сайты в white list на бирже и скупаете по ним все что есть. Протестировать скрипт можете здесь: скрипт прокачки ТИЦ

Буду рад услышать ваши теоретические предположения по эффективности обоих скриптов. Мне же не охото покупать ссылки по стандартным схемам - “много дешево и сердито” или “мало дорого и наугад”. Охото иметь хоть какую-то связь покупки и оценку результативности.

Оба экспериментальных скрипта будут в дальнейшем внедрены в проект linkfeedator, и для тестов будут работать всего два-три дня. Они также имеют ограничения по 1000 запросов в сутки.

Read the rest of this entry

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

После событий бана в прошлом посте, решил в открытую повоевать с яндексом.
Где-то месяц назад я начал в шутку бомбить запрос “яндекс“. Вот результат на сегодняшний день:

Seokot vs Yandex
Как видите по рисунку это 24 место. А шел к нему я с двухсотой позиции и мониторил потихоньку. Если наш любимый поисковик не поставил никаких фильтров по этому высокочастотному запросу (судя по директу 1218998 показов в месяц), то думаю задача выйти в десятку вполне реальная.
Сейчас увеличу свой боевой арсенал, и разработаю план.
Последующий план бомбежки:
  • Сильнее увеличивать ссылочное путем закупки ссылок
  • Писать больше постов на данную тематику
  • Вообще начать писать посты почаще
  • Бомбить ссылочным не только главную, но и тематические внутряки
  • Подключить блогун с его г-повстовыми
Также просьба - всем кому не лень, напишите постовой на меня с анкором “Яндекс” и любым текстом. Конечно не за просто так, и я в ответ поставлю ссылку на вас;)
Хоть это и звучит все очень смешно, но не только же яшке над нами угарать со своими шарико-заролико работающими алгоримами.
Посмотрим что получится из этого бреда.

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Эх, жил себе не тужил. Рубил капусту на сапе, но пришел злой яндекс и разнес мои сайты вдребезги.
Вот сволочь думаю=)
Поскольку это мой первый бан сайтов, то я был в шоке.
А теперь предыстория:
4 mfs сайта были сделаны на одном ip (на нем больше не было других сайтов). Все сайты имели один шаблон, только менял картинку в шапке и цветовую гамму в стилях, чтобы на человеческий взгляд они все-таки были разными. Каждый сайт имел по сто уникальных статей, но контент уже не обновлялся месяца 4. Пузомерки сайтов прокачивались покупными ссылками. Внутренней перелинковки не было.
Что наделал яндекс:
Вчера заметил, что на одном из сайтов осталось 0 страниц в индексе. Ну думаю пофиг - не так уж и нужен мне был этот сайт.  А сегодня похоже яндекс решил забанить весь ip. Причины бана мне пока непонятны. Ссылок не особо много было продано. Одно радует - все сайты успели себя окупить в раз 5.
Вот щас думаю стоит ли пытатся вывести их из бана или оставить как есть?
Read the rest of this entry

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Запуск Linkfeedator

Итак, наконец-то вчера дописал код сайта http://linkfeedator.ru,  и сделал нормальную инсталляцию к моему биржевому клиенту. Короче, начал продажы:)

Для тех, кто еще в танке - linkfeedator - это клиент к бирже linkfeed, написанный на php, который частично позволяет автоматизировать работу оптимизатора методом автоматического анализа купленных ссылок. (В отличии от сеопульта я считаю, что работу нельзя оптимизировать полностью.)
Основные фишки клиента:
- проверка yap, yal, и построение графиков на их основе. На основе yal определяется среднее время индексации ссылки. (эти данные нужны, потому что я слабо доверяю скрипту проверки через firefox. Он очень часто ошибается. Linkfeedator делает прямые запросы на yandex, не пользуясь сторонними поисковиками.)
- проверка на СДЛность, немного мифический параметр, в большинстве случаев влияет на скорость индексации ссылок. Также позволяет обнаружить абсолютные ГС.
- Оценка контента - выводит в % колличество контента. Позволяет на автомате обнаружить страницы регистрации, страницы с фотографиями и вообще страницы с малым колличеством контента.
- Накопительная база данных о сайтах. (Для новокупленных ссылок вы будете знать что они из себя представляют из прошлого опыта.)
- Возможность делать метки для сайтов. Бывает очень нужно пометить, что это хороший сайт, а этот никакой, и в чем его прелести. Вообщем у всех своя специфика работы. Также возможность пользоваться моими метками.
- Расширенная работа с черными списками. Введен параметр Light Black List.
- Построение различных графиков. В том числе график позволяющий оценить суммарное падение тиц для купленных ссылок. Очень полезно бывает узнать почему у вас вычли тиц. Как раз тут частичный ответ.

Также люди с серча посоветовали добавить обнаружение различных фильтров яндекса, и сказали как это сделать. В скором времени реализую.

Также на сайте прикрутил партнерскую программу - получаете 30% от стоимости продажы+клиент получает автоматом скидку 5% при переходе по вашей ссылке.:) Если у вас тематический блог, про продвижение сайтов, и соответствующая аудитория, то вполне вероятны клиенты. Продукт еще не рекламировался, так что для всех он будет в новинку.
Пока я доволен - за первый день,  у меня два клиента:)
Буду продолжать развитие.
Welcome.

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

В теме указан вопрос, который волнует множество сеошников, пытающихся среди тысячи купленных или полученных ссылок, найти нормальные. В основном тематика нужна для прокачки Тиц, но мало кто понимает что же такое тематичность ресурса для Яндекса.
Стандартное мышление начинающего сеошника - “если сайт о недвижимости ссылается на сайте о недвижимости, то это тематика”. Это мышление очень глупо. А еще есть такой стандарт - купить тысячу гамноссылок и получить тиц 10-20. Это же бред полный… Хоть кто-нибудь осознает, что больше чем 90% из купленных тысячи ссылок передадут вес равный примерно 0.001 тиц, если не меньше. А есть такие ссылки, которые передадут коронную еденицу (Я до сих пор верю, что максимальная передача веса - это еденица). Так как же их найти?
Вспомним откуда появилась тематика. Изначально она создавалась для яндекс-каталога (да и тиц тоже). Но поскольку она работает и для обычных сайтов, то нужно использовать теже алгоритмы, которые используются в Яке.
Итак, привожу простой пример неосознанной тематичности - сайт “зоопарк из москвы” ссылается на сайт “недвижимости в москве”. Это ведь тоже тематика! Только региональная. А для получения региональной тематики достаточно создать у себя страницу контактов, прописать свой телефон с кодом города, и еще желательно поставить яндекс карту.  Потом просто производите региональный поиск ссылок и ищите аналогичные вам. Эти ссылки будут передавать больший вес, чем другие.
Вообщем тематичность довольно обширный параметр для яндекса. Он делится на 6 фасетов - Тема, Регион, Жанр, Источник информации, Адресат информации, Сектор экономики. Read the rest of this entry

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Исследуя выдачу яндекса (yandex xml), я нашел одну очень значимую деталь - яндекс знает о всех СДЛ сайтах!
На основе этих знаний я написал скрипт, который говорит к какой категории относится тот или иной сайт, и какая к нему трастовость. С очень высокой точностью этот скрипт определил все мои СДЛ сайты, и гавносайты! Я просто в шоке от таких результатов. Если есть время, перейдите по ссылке ниже и потестите мой скрипт. Возможно он ошибется:) Но если так решил яндекс, то врятли это простая ошибка.

Проверить сайт на СДЛность

В любом случае буду рад почитать ваши комментарии о его точности.
В целом я пошел дальше и приделал этот скрипт к моему linkfeed-клиенту, и на основе него купил кучку ссылок с СДЛ сайтов с запредельной трастовостью. Не знаю есть ли разница в передачи тиц от них, по сравнению с ГС, но попробовать стоит. Так что это мой новый эксперимент.

P.S. Скрипт за сутки может проанализировать до 1000 сайтов. Если он начал глючить, значит колличество запросов к яндексу в этот день у меня закончилось.

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong