robot や spam 避けの手段
Posted by yoosee on Web at 2004-04-09 23:42 JST1 初回アクセス時に「Cookie を設定しました。再読込みしてください」と出すサイト
最近数ヵ所で見掛けるんだけど、一瞬何かと思ってしまう。正直、よほど読みたいサイトでなければ再読込みせずに Cookie 削除して退散してしまうこともある。Cookie なんて別にこっそり使ってくれればいいし、Cookie が無いと読めないって言うのはちょっとどうかな。不作法な robot 対策だとか聞いたことがあるけど、もう少しスマートな手はないんだろうか。読み手側に負担をかけさせるのは個人的にはあまり好きじゃない。トップページは普通に表示しつつ Cookie を設定して、そこからのリンク先にだけ Cookie 制限をかけておくとか、recursive に持っていこうとする robot の挙動を検知して自動で絞るとか、やりようはあると思うんだけど。web crawler robot 用の RBL があると嬉しいのかしらん。2 中央集権的な証明認証
RBL のような仕組と多少発想を同じくしているのが、先日 SixApart が発表した TypeKey かもしれない。これは「人間の投稿であること」の証明を TypeKey (SixApart) 側で行い、Form 投稿時にその認証情報を blog 側で利用して投稿の可否を判断するものらしい。single sign-on して使うという事なので、中央集権的な MS .NET Passport のようなものか。MT3.0 ではこの仕組で、コメント投稿の spam 排除などを行えるようにするとのこと。bulknews の TypePad details が多少詳しい。そう言えばこの仕組、TrackBack にも適用可能なのかな? TrackBack 自体、面白いし便利なものではあるけど、現状素晴らしい仕様とは言いがたいものなので、早いうちに一度見直したほうがいいんじゃないかと思うけど、既に遅いだろうか。