Django-Robots

サイトマップを補完するDjangoのためのロボット除外アプリケーション。
今すぐダウンロード

Django-Robots ランキングとまとめ

広告

  • Rating:
  • ライセンス:
  • BSD License
  • 価格:
  • FREE
  • 出版社名:
  • Jannis Leidel
  • 出版社のWebサイト:
  • http://github.com/jezdez/

Django-Robots タグ


Django-Robots 説明

サイトマップを補完するDjangoのためのロボット除外アプリケーション。 Django-Robotsは、Django SiteMap Contribposeアプリを補完するロボット除外プロトコルに続くrobots.txtファイルを管理するための基本的なDjangoアプリケーションです。ロボット除外アプリケーションは、M2M関係と一緒に結合されている2つのデータベースモデルで構成されています。* Rules * URLSInstallationGetアプリケーションサイトからのソース:http://code.google.com/p/django-robots/Sitemapアプリをインストールするには、次の手順を実行します。 install.txtファイル2の指示に従ってください。 installation_apps設定に 'ロボット'を追加します。 「django.template.loaders.app_directories.load_template_source」が必ずTemplate_Sourceの設定をしてください。デフォルトでそこにあるので、その設定を変更した場合にのみこれを変更する必要があります。サイトFramework.Initializationをインストールしたことを確認してください。ロボットが/robots.txtにアクセスするときにrobots.txtを構築するためのDjango。次に、データベースを同期させて必要なテーブルを作成し、管理者インターフェイスまたはShell.RulesRuleを介してルールオブジェクトを作成します。 。これは、ユーザエージェントによって特定のURLにアクセスするために識別されるロボットを許可または許可するために複数のURLパターンをリンクすることができます.Crawl Delayフィールドはいくつかの検索エンジンによってサポートされており、秒単位で連続したクローラアクセス間の遅延を定義します。クローラレートがサーバーにとって問題である場合は、サーバーに最大5または10または10または10の快適な値を設定できますが、小さい値(0.5-1)から始めることが提案されており、必要に応じて許容できるものに増加することがわかります。サーバーの値。遅延値が大きいと、連続したクロールアクセス間の遅延を追加し、クローラリングの最大レートをWebサーバーに短縮します。サイトフレームワークは、Djangoインスタンスごとに複数のrobots.txtを有効にします。ルールが存在しない場合は、すべてのWebロボットがすべてのURLへのアクセスを許可します。 Webロボットへのアクセスを許可または許可するために使用されます。大文字と小文字が区別されない末尾のスラッシュは、指定されたパターンの名前で始まるファイルも一致します。 URLの末尾とドル記号($)のシーケンス、例えば '/*.jpg$'と一致させるために、すべてのJPEGファイルを一致させることができます.Cachingyouは、robots.txtの生成をキャッシュできます。 robots_cache_timeout設定をDjango設定ファイルに秒単位で追加または変更します.robots_cache_timeout = 60 * 60 * 24これはDjangoにrobots.txtを24時間キャッシュする(86400秒)。デフォルト値はNoneです(キャッシュなし)。要件: ・ジャンゴー ・Python


Django-Robots 関連ソフトウェア