weblogUpdates.ping
weblogUpdates.ping
エラー 2018
執筆:2018.08.28
編集:2018.08.28
編集:2018.08.28
weblogUpdates.ping
エラー 2018
- http://blogsearch.google.com/ping/RPC2
HTTP/1.0 405 Method Not Allowed原因:サービス終了
Allow: GET, HEAD - http://blog.goo.ne.jp/XMLRPC
HTTP/1.1 301 Moved Permanently原因:httpからhttpsへurlを変更した - http://blog.goo.ne.jp/XMLRPC
https://blog.goo.ne.jp/XMLRPC
-32700 : parse error. not well formed. error occurred at line 1, column 1, byte index 0原因:サービス終了(送信できるのはgooブログのみ)
現状
コストがかかって、web pingは、あまり意味を持たないので受付を終了していっているところが多い。
カテゴリー: General
2018.08.28
カテゴリー: General
2016.01.29
ウェブ魚拓を禁止する方法 拒否
http://megalodon.jp/pc/page/qa#prohibitcache
には、恣意的に拒否する詳細を書いていません。
拒否する方法は2行書くだけで、小学1年生でも書けます。
サイトのルートURI( /robots.txt )になるところに
robots.txt
を配置します(あれば、そのまま追記します)
ほかのロボットのルールと1行以上を空行(くうぎょう)で隙間(すきま)をあけます。
そして
User-agent: Megalodon
Disallow: /
を追加します。Disallow: /
簡単ですね。
文章だけでなく画像も複製して泥棒されていますよ。
勝手に人のコンテンツ持って行って、勝手にばらまいて、お金 もうけしていますからね。
拒否しましょう。
知らないところであなたの削除したwebコンテンツが勝手にばらまかれています。
robots.txtに登録しましょう。
また、robots.txt は
#で コメント行とすることができます。 増えると何のルールなのかわからなくなるので、
User-agent: Megalodon
Disallow: /
# ウェブ魚拓 Megalodon の自動収集を拒否します
# /robots.txt に上記を宣言します
Disallow: /
# ウェブ魚拓 Megalodon の自動収集を拒否します
# /robots.txt に上記を宣言します
と書いておけば、 何年かたって忘れても、
あっ これ消しちゃだめって直観でわかるでしょう。
知り合いのサイトに拒否ルールが載っていなかったら教えてあげましょうね
追記
行儀がよろしくないようです.
このサイトは、robots.txtにアクセスしないで取得してくるようです。
2016/06のログを調べたところ
.sakura.ne.jp
.home.ne.jp
経由でアクセスしているようです
.htaccess
が記述できるようであれば、
RewriteEngine On
RewriteBase /
SetEnvIf REQUEST_URI "robots.txt$" robots_txt
# reject megalodon
SetEnvIf User-Agent "megalodon" deny_ok_robots
SetEnvIf Remote_Host "(\.sakura\.ne\.jp)$" deny_ok_robots
# [end] reject megalodon
SetEnvIf deny_ok_robots "1" deny_flag
SetEnvIf robots_txt "1" !deny_flag
RewriteCond "%{ENV:deny_ok_robots}" "1"
RewriteRule "robots.txt$" robots_deny_all.txt [L]
Deny from env=deny_flag
#Allow from "あたなの借りているサーバー名.sakura.ne.jp"
RewriteBase /
SetEnvIf REQUEST_URI "robots.txt$" robots_txt
# reject megalodon
SetEnvIf User-Agent "megalodon" deny_ok_robots
SetEnvIf Remote_Host "(\.sakura\.ne\.jp)$" deny_ok_robots
# [end] reject megalodon
SetEnvIf deny_ok_robots "1" deny_flag
SetEnvIf robots_txt "1" !deny_flag
RewriteCond "%{ENV:deny_ok_robots}" "1"
RewriteRule "robots.txt$" robots_deny_all.txt [L]
Deny from env=deny_flag
#Allow from "あたなの借りているサーバー名.sakura.ne.jp"
もし、さくらを借りているようであれば、サーバー名をいれて最後の#コメント外すと自サーバー拒否は解除されます
下記のファイルもわずれずに保存してください
robots_deny_all.txtの内容
User-agent: *
Disallow: /
Disallow: /
» 続きを読む
カテゴリー: General
2016.01.29
ckeditor 画像のリンクが壊れる
へんちくりんな相対リンクに勝手に変換される
config.rewrite_urls = true;
config.rewrite_urls = false;
致命的なバグだ
直らないようだ
へんちくりんな相対リンクに勝手に変換される
config.rewrite_urls = true;
config.rewrite_urls = false;
致命的なバグだ
直らないようだ
カテゴリー: General
2015.06.17
ブログの定期的なバックアップ
突然の不幸にあわないためにも
定期的なブログのバックアップが必要です
- 突然ブログサービスが終了
- 久々に接続するとブログサービスが終了していた
- サーバがクラッシュしてデータがとんだ!!
突然の不幸にあわないためにも
定期的なブログのバックアップが必要です
カテゴリー: General
2015.05.30