Как бы создать такую струкутуру сайта чтобы поисковые пауки застревали бы в ней? Это привело бы к падению Гугля-яндекса_рамблера-яхи… Какие предложения?
Как бы создать такую струкутуру сайта чтобы поисковые пауки застревали бы в ней? Это привело бы к падению Гугля-яндекса_рамблера-яхи… Какие предложения?
А зачем оно вам? =)
Динамически генерировать страницы вида gde-to-tam.php?sessionId=nnn на которых размещать по мильену ссылок вида gde-to-tam.php?sessionId=nnn1, gde-to-tam.php?sessionId=nnn2, [..]gde-to-tam.php?sessionId=nnnnnnnnn9
Далее, все это можно завести не через страницу, а через каталоги. Указать, например, апачу обрабатывать все адреса вида /suxx/все_что_угодно/ как обращение к скриту gde-to-tam.php?sessionId=все_что_угодно
Я так когда-то спамеров кормил. Про спамеров не знаю, а в поиске потом еще долго встречал ссылки на эти страницы. И правильно, контент-то уникальный… 🙂
А к падению это не приведет, ибо не должно: просто обязана быть защита от переполнения. Скажем, ограничение, на сканирование в xxx страниц сайта.