Архив рубрики ‘ yandex ’

Хороший доапчик. Один мой сайт получил +40 и стал ТИЦ 60 (странно, ожидал что такой тиц будет в основном апе, а не в дополнительном), и три сайта получили +10. Теперь у меня есть рекордный сайт с ТИЦ 200. Сапа приносит на нем довольно мало - 150р в сутки. Кто работает с GGL, может подскажите - стоит его удалять из сапы и перекидывать в GGL?
P.S. Кстати немного начал вкачивать этот блог - и в этот доап он стал ТИЦ 20:) Мелочь, а приятно.

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Башню у меня реально щас сносит. Охото прыгать до потолка. Таких результатов я еще не получал за всю историю.
Мои основные сайты:
1-ый сайт ТИЦ 60 (+50) - прокачка покупкой тематических ссылок (гуглите extheme). Общая стоимость ссылок в сапе примерно 160р.
2-ой сайт ТИЦ 60 (-10) - ничего не делал. Продавал ссылки. Продано >1000, доход 450р в сутки с бирж.
3-ий сайт ТИЦ 20 (+20) - естественные ссылки. Ничего не делал. Сайту два месяца.
4-ый сайт ТИЦ 20 (+10) - прокачивал саттелитами. Сайт в яке. Прокачивал не тематикой.
5-ый сайт ТИЦ 20 (+20) - тоже естественные ссылки. Ничего не делал. Чистый СДЛ.
6-ой сайт ТИЦ 190 (+60) - лидер программы. Прокачивал тематикой (extheme), естественными ссылками и саттелитами.
7-ой сайт ТИЦ 50 (+50) - прокака саттелитами. Новостной портал, не имел тематики - хорошо вобрал в вес любые ссылки.

Результаты супер. Посмотрю как отразится на моих доходах. На данный момент с сапы мне капает 570р в сутки. Всем удачного тица!

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Продолжим. Вчера немного не успел дописать статью.

Итак, предположим что вы дообучили робота сервиса тематики и модератор одобрил ваши слова (вам придёт письмо с уведомлением). Теперь ваша тематика должна определяться лучше.

Далее установим несколько правил по которым мы будем покупать ссылки:

1) Самое главное правило. При проверке используем плагин винка для поиска страниц в индексе яндекса и гугла, и плагин extheme для поиска страниц тематичных вам. При этом тематика страниц донора должна совпадать с тематикой самого сайта донора. Не нужно покупать ссылки про недвижимость, с сайта у которого основная тематика - автомобили.

2) Берём ссылки с ценой*2 (как минимум) от средних. Для начала подойдут тиц 10 за 2р как минимум. Далее будем наращивать по несложному алгоритму. Read the rest of this entry

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Итак, решил немного поучить пользователей как своими силами без нытья о нереальности поднимать ТИЦ и позиции в выдаче для любого сайта с помощью биржи sape.
Свои уроки и отчеты буду писать в течении ровно 3-ех апдейтов ТИЦ яндекса, чтобы вы смогли увидеть результат. Записи буду делать каждый апдейт выдачи.

Подопытный кролик

Подопытным будет мой псевдо-сайт Конспектомания
На данный момент его посещаемость выглядит так (учтите, что на графике число - посетителей в неделю! т.е. в сутки в среднем 300 человек)

Покажу что это число можно спокойно поднимать далее.
ТИЦ у сайта 0, по данным яндекс-вебмастера на сайт ссылаются 17 площадок в виде 31 ссылки (заодно вопрос к тебе читатель, ты думаешь что 31 ссылка за 300 пользователей в сутки - это много?).  Заодно прокачаем и тиц (ранее не было цели его прокачивать, так как сайт делал made for adsense). Read the rest of this entry

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Предлагаем вашему вниманию новый сервис по определению тематики сайтов, страниц и текстов.

Описание:
Сервис ExTheme нужен для автоматического определения тематики любых сайтов и текстов. В качестве каталогизации сайтов принят яндекс-каталог, так как он наиболее полно соответствует требованиям seo-специалистов. То есть сервис может ответить на вопрос - в каком разделе яндекс-каталога находился бы ваш сайт (текст), если бы его приняли в него. В качестве алгоритма определения используется технология нейронных сетей.

Возможности:

  • Определение тематики главных страниц сайтов
  • Определение тематики вложенных страниц сайтов
  • Определение тематики произвольного текста
  • Вы можете сами обучать сервис на своих сайтах
  • Работа в пакетном режиме через api-интерфейс (soap, xml-rpc) (в закрытом тестировании)
  • Имеется плагин под firefox для работы с биржами sape, setlinks, mainlink, gogetlinks, liex, xap. (в разработке)

Сайт определителя тематики http://exTheme.ru

Если сервис будет интересен пользователям, и если wink согласиться, то он будет внедрён в плагин Wink-а.

p.s. По сравнению с моими прошлыми разработками - применён алгоритм двойной персептрона, для улучшенной обучаемости, а также создан алгоритм автоматического приближения для улучшенного рассмотрения текста. Определение сейчас может быть не точным лишь из-за нехватки словарного запаса, но вы сами можете дообучать алгоритм на основе своих сайтов.
На сайте, на данный момент, возможно имеется много ошибок, не забывайте, что это лишь тестирование. Функционал и интерфейс еще обязательно изменится.

И самое главное - сервис абсолютно бесплатный.
http://exTheme.ru

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Решился взяться за более серьезные запросы, чем описанные в прошлом посте.
На этот раз решил продвинуться по СЧ запросу хостинг для joomla. Довольно сложный запрос - учитывая конкуренцию среди хостинг компаний, для которых это очень лакомый кусочек:) А для меня - это дополнительный заработок на партнерках. Судя по вордстату - в месяц даёт 4413 посетителей.
За две недели из top 50 удалось попасть по яндексу на 7-ую позицию и в гугле на 9-ую.
На данный момент доход по партнерке с этого запроса 1200р, 3евро и 6$ в месяц. Мелочь, а приятно:)

Позавчера сидел ночью, тупил и не знал чем заняться. В итоге в голову пришла гениальная идея - как получить ссылки с биржы ссылок, без денежных затрат. Не буду называть биржу (думаю сами о догадаетесь), но идея очень проста: в ней можно покупать ссылки и платить только за нахождение в индексе яндекса или гугла данной ссылке. Таким образом - покупаем, например, ссылку с сайта, который находится под агс, и ставим условие - что платим только за нахождение в индексе яндекса. А так как в индекс яндекса она никогда не попадет, то мы получили бесплтную ссылку на продвижение в гугле. Аналогично можно искать сайты под фильтром гугла и получить бесплатные ссылки по яшке.
Единственный минус данного метода - покупая ссылку, у вас блокируются средства на месяц, после чего они вам возвращаются. То бишь деньги вводить всё равно придется.

Read the rest of this entry

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Проект ExTheme

Наконец дела пошли в гору. Точнее сдвинулись с мертвой точки.
Начну с мелочи - я наконец получил персональный аттестат webmoney. Значит скоро сделаю себе аттестат продавца. Но наша почта меня шокировала - это просто ппц. Отправил письмо со сканом паспорта и заявлением соискателя, так оно дошло через 3 недели!!! Жесть. Особенно если учесть что я отправил 1-ым классом. Замучил бедных аттестаторов за эти три недели) Впечатление, как будто я не с урала отправил письмо, а с какого-нибудь Магадана.

Во-вторых, я организовал небольшую фирму. Чтобы поднять знания молодых веб-программистов до нужного уровня решили сделать небольшой стартап ExTheme. На нём прекрасно можно будет научить программистов всяким полезные штучки типа работу с паттернами, фреймворками, как пользоваться ajax и т.д.

А теперь о том что же такое ExTheme и с чем его едят.

Меня давно интересовала задача определения тематики сайтов. Изучив еще много интересных материалов и докладов в основном сотрудников яндекса на эту тему - решили сделать небольшой веб-сервис.
Принцип работы сервиса следующий - пользователь загружает список сайтов которые хочет проверить на тематику (например 10000 штук) в удобном ему формате (txt, csv) на сайт, после чего задача автоматически добавляется в очередь и обрабатывается. Через некоторое время ему возвращается результат с возможностью различных сортировок и построений графиков.

Особенности ExTheme
За основу каталогизации взят Яндекс Каталог. При этом он подробно изучен.
Задача поставлена таким образом - что робот должен с высокой точностью распознавать имеющиеся сайты в ЯКе. То есть все тесты и первоначальное обучение проходит с помощью ЯКа. На основе этого обучения exTheme сможет распознать тематику абсолютно любого сайта.
Оказалось очень удобно ставить тесты качества.
Например: тематика “развлечения->игры” содержит 1600 сайтов. Мы прогоняем их через робота и видим что робот смог верно распознать 70%. Значит асессорам надо еще поработать над этой тематикой.
Из плюсов (для нас) - проект не будет нуждаться в службе поддержке. Алгоритм распознавания универсален, и не нуждается в доработке. За проектом будут следить лишь два асессора.

Зачем это нужно?
Приведу несколько примеров:
1) Бывает так, что вы купили ссылку на сайте с тематикой “авто”, но со страницы с тематикой “недвижимость”. Возможно даже с какой-нить рекламной страницы. Сервис поможет определить такие нестыковки.
2) Просто хотите посмотреть круговой график кто же ссылается на ваш сайт:)
3) Основной аудиторией думаю будут seo-фирмы и разработчики разного ПО. Для них будет api-интерфейс (xmlrpc, soap).
В общем применение думаю можно найти.

Чё почём?
О монетизации пока речи нет. Проект будет бесплатным.

p.s. Если у кого-то есть мысли по применению и функционалу, высказывайте. Возможно сделаем.

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Яндекс Снежинск (часть 1.)

Ну что же. Приступим к изучению Снежинска. Сначала я рассмотрю некоторые цитаты популярных ресурсов о данном алгоритме ранжирования Яндекса, далее постараюсь перейти к практической части и описать “по-русски” те формулы, который яндекс использовал в своих докладах за рубежом (для привлечения инверсторов). То есть я попробую высказать словесно на примерах - что высказывали на научных конференциях сотрудники яндекса в виде формул.
Сейчас процитирую мысли “опытных сеошников”. С большинством я не согласен, на основе своих выводов. Ну да ладно. Читаем:
Read the rest of this entry

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Товарищи оптимизаторы. Если вы до сих пор думаете над тем как узнать трастовость к сайту, или выбрать сайт, где разместить ссылки - то хватит думать. Все биржы предоставляют вам такие сведения.

Например - вы пытаетесь наиболее трастовые страницы на сайте, и используете сложные алгоритмы чтобы их вычислить.. К чему это? Есть известный ВСЕМ параметр pr - который как раз его показывает. Если у сайта есть возраст и есть pr, то эта страница уже лучше других. Значит она либо отлично перелинкована, либо имеет внешняки, либо малый процент отказов от поисковика (в данном случае google). К чему изобретать сложные формулы, когда у вас есть цифры?
Думаете яндекс не полюбит подобную страницу?
Обратим взор на другую часть оптимизаторов - они используют странные характеристики типа колличество входящих ссылок от yahoo, чтобы оценить сайт. Итого яндекс например показал тиц 80, а колличество входящих по yahoo 10 - то кому вы больше верите?:) Вы под кого раскручиваете сайт?

Просто наплыли такие мысли. Но алгоритма вычисления траста не существует.

P.S. Пост в первую очередь относится к trust xt. Неведомой величине, которой якобы стоит верить.

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong

Наконец сегодня додумал до логического конца алгоритм определения тематики и начал реализацию.  Сюда запишу его, чтобы не забыть детали. Алгоритм построен на теории нейронных сетей, и нужен мне в корыстных целях направленных на яндекс. Ценность алгоритма в том - что это будет первый алгоритм определения тематики сайта, который сможет реализовать почти любой программист. Надеюсь кому-нибудь пригодится.

Этап 1: Определение ключевых слов сайта

1) Получаем страницу
2) Убираем теги, и все кроме букв и пробелов. Знаки препинания заменяем на пробелы. (Цифры удалить!!!)
3) Разбиваем весь текст на слова, то есть делаем одномерный массив слов.
4) удаляем слова меньшие 2 букв
4) Каждое слово прогоняем через стеммер.  Я использую алгоритм Портера. Для тех кто не в курсе стеммер - это программа которая отбразывает от слова суффиксы и приставки, оставляя корень. Алгоритм Портера слаб, но пока сойдет. Как найду морфологический словарь - сменю на него.
5) При прогоне через стеммер создаем новый ассоциативный массив, где ключом будет само слово, а значением колличество повторений слова. Например (”Yandex” =>3, “Тиц” =>5) и т.д.
6) Упорядочиваем ассоциативный массив по убыванию колличества повторений.
7) Удаляем все слова повторяющиеся менее трех раз (колличество под вопросом).
8) В итоге мы получили ключевики сайта с их “тошнотой”. Обычно их на этом этапе 50-100 штук.
9) Проверяем каждый ключевик по базе общих слов не несущих тематику. Например слова: “меня”, “когда”, “сколько” и т.д. Я храню эти слова в отдельной таблице бд и написал отдельный скрипт, который позволяет их сформировать. Обойдя сотню сайтов мы набираем базу самых популярных не имеющих тематику слов.
Этап 2: Создаем тематическую базу

1) Для начала в бд нужно создать три таблицы: “слова”, “тематики” и “веса”.
Поля таблиц:
“Слова”: word_id, word
“Тематики”: theme_id, parent_id, theme
“Веса”: word_id, theme_id, ves
2) Заполняем таблицу тематик. Я для этих целей пользуюсь базой Ашманова (где-то 5000 тематик). Не использую ЯК, потому что сайты в него заносятся вручную, то бишь робот тут не причем. В нашем случае необходимо знать тематику, которую видит робот на обычных сайтов. Я не говорю что тематика по Ашманову совпадет с тем что определил робот яндекса, но нам это и не нужно. Представьте что по Ашманову у нас вышло “кпк” для донора и акцептора, а по яндексу “сотовые телефоны”.Не все ли равно?
3) Самый трудный момент. Выбираем нужную тему, например “интернет-ресуры”. Из найденных в первом этапе ключевиков страницы выбираем относящиеся к этой теме, и проставляем им коэффициенты, насколько сильно они относятся к данной теме (балл от 0 до 1). Позже будем корректировать это значение, сейчас это не суть важно. Это значение и будет синаптической силой. В сумме они дадут активацию нейрона к данной тематике.  В реальности это дает потрясающие возможности даже для многозначных слов. Например слово “лук” можно отнести и к кухне и к “охоте”. Это не повлияет на верность определения.
Этот момент трудный, потому что придется обойти множество сайтов, чтобы собрать хотя бы по 10 слов для каждой тематики. На деле десяти слов вполне достаточно. Итого необходимо 50000 слов, чтобы определить тему сайта по Ашманову. Кто-то скажет это много, но в день при нормальной оболочке можно легко собрать тысячу слов. Итого 50 дней пассивного труда.
4) Мы создали семантическое ядро для каждой тематики, и указали с каким весом относится к каждой теме определенное слово.

Этап 3: Узнаем тему неизвестных сайтов и корректируем результаты

1) Поскольку мы первоначально как-то обучили программу. Теперь покажу как ей пользоваться.
Для неизвестного сайта выполняем этап 1 и узнаем ключевые слова с “тошнотой”.  В результате полученные примерно 30 ключевиков проверяем по базе к каким темам они относятся и какие коэффициенты имеют.

Примитивный пример:
Текст “Лук и стрелы это лук”.
Лук тошнота 2. Тема “охота” вес 0.7.  Тема “кухня” вес 0.6.
Стрелы тошнота 1.  Тема “охота” вес 0.8.
Находим активацию нейрона:
К теме охота: 0.7*2+1*0.8=2.2
К теме кухня: 0.6*1=0.6

Поздравляю - тема текста определена.  Здесь также можно определить в % насколько текст относится к другим темам.
2) Возможно в прошлом этапе неверно проставлены коэффициенты и их нужно корректировать. Для этого необходим отдельный интерфейс, где выбрав тематику видишь все ключевые слова по ней с их коэффициентами. Изменяя коэффициенты мы усиливаем значение того или иного слова в определенной теме. При анализе множества сайтов мы приходим к стабильному результату.

Результат.

Данный алгоритм не нуждается в обсуждении его необходимости. Это каждый решает сам для себя. Мне плевать с колокольни если он вам не нужен:)

Для тех кто хоть что-то понял о том что я сказал - интересно услышать ваши мысли о его эффективности. У меня он уже почти реализован технически, и скоро начну пробовать. Если будет интерес к нему- прикручу как дополнительную услугу к линкфидатору или сделаю веб-сервис для проверки списка ссылок.

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong