ブログをマスター?♪
  
カテゴリー
Links
blog(ブログ)マスター
アンドロイドの巣
ゼロから始めるベランダ菜園
タイトル
ラジコン
2022年1月
1 2
3 4 5 6 7 8 9
10 11 12 13 14 15 16
17 18 19 20 21 22 23
24 25 26 27 28 29 30
31

ウェブ魚拓を禁止する方法 超簡単 拒否

カテゴリー: General
2016-01-29 06:00

ウェブ魚拓を禁止する方法 拒否


http://megalodon.jp/pc/page/qa#prohibitcache
には、恣意的に拒否する詳細を書いていません。

拒否する方法は2行書くだけで、小学1年生でも書けます。

サイトのルートURI( /robots.txt )になるところに
robots.txt
を配置します(あれば、そのまま追記します)

ほかのロボットのルールと1行以上を空行(くうぎょう)で隙間(すきま)をあけます。

そして
User-agent: Megalodon
Disallow: /
を追加します。

簡単ですね。

文章だけでなく画像も複製して泥棒されていますよ。

勝手に人のコンテンツ持って行って、勝手にばらまいて、お金 もうけしていますからね。
拒否しましょう。

知らないところであなたの削除したwebコンテンツが勝手にばらまかれています。
robots.txtに登録しましょう。

また、robots.txt
#で コメント行とすることができます。 増えると何のルールなのかわからなくなるので、

User-agent: Megalodon
Disallow: /
# ウェブ魚拓 Megalodon の自動収集を拒否します
# /robots.txt に上記を宣言します

と書いておけば、 何年かたって忘れても、
あっ これ消しちゃだめって直観でわかるでしょう。

知り合いのサイトに拒否ルールが載っていなかったら教えてあげましょうね

追記
行儀がよろしくないようです.
このサイトは、robots.txtにアクセスしないで取得してくるようです。
2016/06のログを調べたところ
.sakura.ne.jp
.home.ne.jp
経由でアクセスしているようです

.htaccess
が記述できるようであれば、

RewriteEngine On
RewriteBase /

SetEnvIf REQUEST_URI "robots.txt$" robots_txt

# reject megalodon
SetEnvIf User-Agent "megalodon"                deny_ok_robots
SetEnvIf Remote_Host "(\.sakura\.ne\.jp)$"  deny_ok_robots
# [end] reject megalodon

SetEnvIf deny_ok_robots "1"   deny_flag
SetEnvIf robots_txt         "1"  !deny_flag

RewriteCond "%{ENV:deny_ok_robots}" "1"
RewriteRule "robots.txt$"  robots_deny_all.txt [L]

Deny from env=deny_flag

#Allow from "あたなの借りているサーバー名.sakura.ne.jp"

もし、さくらを借りているようであれば、サーバー名をいれて最後の#コメント外すと自サーバー拒否は解除されます
下記のファイルもわずれずに保存してください

robots_deny_all.txtの内容
User-agent: *
Disallow: /


こやつが使ってきたサーバー。

REMOTE IP : 219.94.255.189
REMOTE HOST : www3415uf.sakura.ne.jp
USERAGENT : Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/42.0.2311.135 Safari/537.36 Edge/12.10240


キーワード:
ウェブ魚拓 拒否 方法

ブログ内 関連記事: ウェブ魚拓を禁止する方法 超簡単 拒否



 無料など オンラインゲーム一覧表 

よくわかるサーバー探し・ 初心者〜いろいろ

ブログ内 関連記事: ウェブ魚拓を禁止する方法 超簡単 拒否

トラックバック
トラックバックはありません。
PR