Sidebar |
ウェブ魚拓を禁止する方法 拒否
そして
User-agent: Megalodon
を追加します。Disallow: / 簡単ですね。 文章だけでなく画像も複製して泥棒されていますよ。 勝手に人のコンテンツ持って行って、勝手にばらまいて、お金 もうけしていますからね。 拒否しましょう。 知らないところであなたの削除したwebコンテンツが勝手にばらまかれています。 robots.txtに登録しましょう。 また、robots.txt は #で コメント行とすることができます。 増えると何のルールなのかわからなくなるので、 User-agent: Megalodon
Disallow: / # ウェブ魚拓 Megalodon の自動収集を拒否します # /robots.txt に上記を宣言します と書いておけば、 何年かたって忘れても、 あっ これ消しちゃだめって直観でわかるでしょう。 知り合いのサイトに拒否ルールが載っていなかったら教えてあげましょうね 追記 行儀がよろしくないようです. このサイトは、robots.txtにアクセスしないで取得してくるようです。 2016/06のログを調べたところ .sakura.ne.jp .home.ne.jp 経由でアクセスしているようです .htaccess が記述できるようであれば、 RewriteEngine On
RewriteBase / SetEnvIf REQUEST_URI "robots.txt$" robots_txt # reject megalodon SetEnvIf User-Agent "megalodon" deny_ok_robots SetEnvIf Remote_Host "(\.sakura\.ne\.jp)$" deny_ok_robots # [end] reject megalodon SetEnvIf deny_ok_robots "1" deny_flag SetEnvIf robots_txt "1" !deny_flag RewriteCond "%{ENV:deny_ok_robots}" "1" RewriteRule "robots.txt$" robots_deny_all.txt [L] Deny from env=deny_flag #Allow from "あたなの借りているサーバー名.sakura.ne.jp" もし、さくらを借りているようであれば、サーバー名をいれて最後の#コメント外すと自サーバー拒否は解除されます 下記のファイルもわずれずに保存してください robots_deny_all.txtの内容 User-agent: *
Disallow: / カテゴリー: General
2016.01.29
|
Sidebar |