Очень много думаю в последнее время, как поднять огромные сети сайтов, без особых усилий. И по большей части все сложности упираются в наполнении сайтов. Как вариант конечно же существуют сплоги, но я их отбрасываю, так как это тяжеловатьо для сервера держать сотни и тысячи сплогов и запускать наполнение в кроне.
Сегодня пришла интересная мысль.

Мысль состоит в следующем:

Необходимо создать программу-паука, который можно запустить в локале, и который сможет бегать по сайтам, собирать урлы и искать rss ленты, которые можно грабить. Грабленные тексты обработать легким синомайзером на слов 200-300, чтобы чуть-чуть уникализировать тексты. Яндекс-лох и  замена пары слов для него будет считаться уникальным текстом. В итоге колличество контента будет зависеть только от интернет-соединения. При моем соединении за сутки можно собрать где-то гиг текстов. А это порядка сотни сайтов, обеспеченных текстами на пару лет вперед.
После этого вполне могу использовать эту базу контента в интеграции с parazit cms, которой нужна лишь одна база. Все статьи легко раскидать по датам на год назад и на пару лет вперед, чтобы создать кучу страниц и не париться с заполнением в будущем. Предстоит немного доработать паразитку, чтобы она могла брать тексты из базы по нужным словам и фразам, но это уже пустяки.  В дальнейшем буду продумывать систему полуавтоматизиции создания дизайна сайта.
В итоге получилась элементарная задача для php-программиста, выполнимая за сутки.
Вообщем ушел работать над пауком:)

P.S. Как же все оказалось элементарно.

Усиленно читают у меня в блоге:

Google Bookmarks Digg del.icio.us Technorati Yahoo My Web News2.ru БобрДобр.ru Memori.ru МоёМесто.ru Mister Wong