Даров ещё раз.
Нет запреты не помогут. Только от прямых ссылок можно защититься, по-моему, но это снизит ваш индекс цитирования.
Контент крадут по другому.
Понимаете, если забирать ваш контент через скрипт, то можно забрать всё, что можно увидеть через браузер.
Скрипты ворующие контент называют часто "пауками" (crawler) они отличаются от роботов яндекса, рамблера, гугла только профессионализмом создания, направленностью и тем что не обращают внимание на файл robots.txt
Можно попробовать: поставить простое кеширование на переменные окружения. В них отображается кто к вам заходил.
Соответственно лог настроить так, чтобы если было просмотрено более N страниц за 1-2 секунды, то записывать. Потом блокировать этот ip адрес. Роботов не поисковых систем, рубить сразу. Это конечно можно всё обойти... но от малоопытных ламеров спасёт.
Можно поставить js скрипт по аналогии с liveinternet счётчиком, и если возвращается размер экрана и т.п. через ajax отдавать страницу. Это ещё усложнит задачу роботам. Но может возникнуть проблема с индексированием.
Я вот не помню - есть ещё какя-то переменная окружения, которая грит из крона запущен скрипт или вручную. я с этим не работал, но можно попробовать ещё усложнить.
Ну и с кодировкой поиграть на разных страницах. Людям всё одно (настроить просто правильно отдачу страниц), а не грамотный распарсер может создать проблему для программиста.
НО, грамотный спец всё равно заберёт.