ブログをマスター?♪
カテゴリー
Links
blog(ブログ)マスター
アンドロイドの巣
ゼロから始めるベランダ菜園
タイトル
ラジコン
2022年12月
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31

weblogUpdates.ping

執筆:2018.08.28
編集:2018.08.28

weblogUpdates.ping

エラー 2018
  • http://blogsearch.google.com/ping/RPC2
    HTTP/1.0 405 Method Not Allowed
    Allow: GET, HEAD
    原因:サービス終了
  • http://blog.goo.ne.jp/XMLRPC
    HTTP/1.1 301 Moved Permanently
    原因:httpからhttpsへurlを変更した
  • http://blog.goo.ne.jp/XMLRPC
    https://blog.goo.ne.jp/XMLRPC
    -32700 : parse error. not well formed. error occurred at line 1, column 1, byte index 0
    原因:サービス終了(送信できるのはgooブログのみ)

現状

コストがかかって、web pingは、あまり意味を持たないので受付を終了していっているところが多い。

カテゴリー: General
2018.08.28

drupal

以前は、遅くて、セキュリティインジェクション関係の不具合が多すぎて使い物になりませんでした。

数年ぶりに version 8.02をインストールしてみました。

» 続きを読む

カテゴリー: General
2016.01.29

ウェブ魚拓を禁止する方法 拒否


http://megalodon.jp/pc/page/qa#prohibitcache
には、恣意的に拒否する詳細を書いていません。

拒否する方法は2行書くだけで、小学1年生でも書けます。

サイトのルートURI( /robots.txt )になるところに
robots.txt
を配置します(あれば、そのまま追記します)

ほかのロボットのルールと1行以上を空行(くうぎょう)で隙間(すきま)をあけます。

そして
User-agent: Megalodon
Disallow: /
を追加します。

簡単ですね。

文章だけでなく画像も複製して泥棒されていますよ。

勝手に人のコンテンツ持って行って、勝手にばらまいて、お金 もうけしていますからね。
拒否しましょう。

知らないところであなたの削除したwebコンテンツが勝手にばらまかれています。
robots.txtに登録しましょう。

また、robots.txt
#で コメント行とすることができます。 増えると何のルールなのかわからなくなるので、

User-agent: Megalodon
Disallow: /
# ウェブ魚拓 Megalodon の自動収集を拒否します
# /robots.txt に上記を宣言します

と書いておけば、 何年かたって忘れても、
あっ これ消しちゃだめって直観でわかるでしょう。

知り合いのサイトに拒否ルールが載っていなかったら教えてあげましょうね

追記
行儀がよろしくないようです.
このサイトは、robots.txtにアクセスしないで取得してくるようです。
2016/06のログを調べたところ
.sakura.ne.jp
.home.ne.jp
経由でアクセスしているようです

.htaccess
が記述できるようであれば、

RewriteEngine On
RewriteBase /

SetEnvIf REQUEST_URI "robots.txt$" robots_txt

# reject megalodon
SetEnvIf User-Agent "megalodon"                deny_ok_robots
SetEnvIf Remote_Host "(\.sakura\.ne\.jp)$"  deny_ok_robots
# [end] reject megalodon

SetEnvIf deny_ok_robots "1"   deny_flag
SetEnvIf robots_txt         "1"  !deny_flag

RewriteCond "%{ENV:deny_ok_robots}" "1"
RewriteRule "robots.txt$"  robots_deny_all.txt [L]

Deny from env=deny_flag

#Allow from "あたなの借りているサーバー名.sakura.ne.jp"

もし、さくらを借りているようであれば、サーバー名をいれて最後の#コメント外すと自サーバー拒否は解除されます
下記のファイルもわずれずに保存してください

robots_deny_all.txtの内容
User-agent: *
Disallow: /

» 続きを読む

カテゴリー: General
2016.01.29

ckeditor 画像のリンクが壊れる

へんちくりんな相対リンクに勝手に変換される

config.rewrite_urls = true;
config.rewrite_urls = false;

致命的なバグだ
直らないようだ
カテゴリー: General
2015.06.17

ブログの定期的なバックアップ

  • 突然ブログサービスが終了
  • 久々に接続するとブログサービスが終了していた
  • サーバがクラッシュしてデータがとんだ!!
などなど

 突然の不幸にあわないためにも

定期的なブログのバックアップが必要です

カテゴリー: General
2015.05.30



PR