ウェブ魚拓を禁止する方法 拒否


http://megalodon.jp/pc/page/qa#prohibitcache
には、恣意的に拒否する詳細を書いていません。

拒否する方法は2行書くだけで、小学1年生でも書けます。

サイトのルートURI( /robots.txt )になるところに
robots.txt
を配置します(あれば、そのまま追記します)

ほかのロボットのルールと1行以上を空行(くうぎょう)で隙間(すきま)をあけます。

そして
User-agent: Megalodon
Disallow: /
を追加します。

簡単ですね。

文章だけでなく画像も複製して泥棒されていますよ。

勝手に人のコンテンツ持って行って、勝手にばらまいて、お金 もうけしていますからね。
拒否しましょう。

知らないところであなたの削除したwebコンテンツが勝手にばらまかれています。
robots.txtに登録しましょう。

また、robots.txt
#で コメント行とすることができます。 増えると何のルールなのかわからなくなるので、

User-agent: Megalodon
Disallow: /
# ウェブ魚拓 Megalodon の自動収集を拒否します
# /robots.txt に上記を宣言します

と書いておけば、 何年かたって忘れても、
あっ これ消しちゃだめって直観でわかるでしょう。

知り合いのサイトに拒否ルールが載っていなかったら教えてあげましょうね

追記
行儀がよろしくないようです.
このサイトは、robots.txtにアクセスしないで取得してくるようです。
2016/06のログを調べたところ
.sakura.ne.jp
.home.ne.jp
経由でアクセスしているようです

.htaccess
が記述できるようであれば、

RewriteEngine On
RewriteBase /

SetEnvIf REQUEST_URI "robots.txt$" robots_txt

# reject megalodon
SetEnvIf User-Agent "megalodon"                deny_ok_robots
SetEnvIf Remote_Host "(\.sakura\.ne\.jp)$"  deny_ok_robots
# [end] reject megalodon

SetEnvIf deny_ok_robots "1"   deny_flag
SetEnvIf robots_txt         "1"  !deny_flag

RewriteCond "%{ENV:deny_ok_robots}" "1"
RewriteRule "robots.txt$"  robots_deny_all.txt [L]

Deny from env=deny_flag

#Allow from "あたなの借りているサーバー名.sakura.ne.jp"

もし、さくらを借りているようであれば、サーバー名をいれて最後の#コメント外すと自サーバー拒否は解除されます
下記のファイルもわずれずに保存してください

robots_deny_all.txtの内容
User-agent: *
Disallow: /

» ウェブ魚拓を禁止する方法 超簡単 拒否'">続きを読む