django-robots

Demande d'exclusion des robots pour Django, complétant les sitemaps.
Télécharger maintenant

django-robots Classement & Résumé

Publicité

  • Rating:
  • Licence:
  • BSD License
  • Prix:
  • FREE
  • Nom de l'éditeur:
  • Jannis Leidel
  • Site Internet de l'éditeur:
  • http://github.com/jezdez/

django-robots Mots clés


django-robots La description

demande d'exclusion des robots pour Django, en complément Sitemaps. django-robots est une application de base Django pour gérer les fichiers robots.txt le protocole d'exclusion des robots, complétant l'application d'exclusion des robots contrib Django Plan du site app.The se compose de deux modèles de base de données qui sont liés avec une relation m2m: * Règles * URLsInstallationGet la source à partir du site d'application à l'adresse: http: //code.google.com/p/django-robots/To installer l'application de plan du site, procédez comme suit: 1. Suivez les instructions du fichier2 install.txt. Ajouter 'robots' à votre INSTALLED_APPS setting.3. Assurez-vous que « django.template.loaders.app_directories.load_template_source » est dans votre cadre TEMPLATE_LOADERS. Il est là par défaut, donc vous aurez seulement besoin de changer si vous avez changé que setting.4. Assurez-vous que vous avez installé des sites framework.InitializationTo activent la génération robots.txt sur votre site Django, ajoutez cette ligne à votre URLconf: (r ^ robots.txt $ ', include ( 'robots.urls')), Cela indique Django pour construire un robots.txt quand un robot accède /robots.txt. Ensuite, s'il vous plaît synchroniser votre base de données pour créer les tables nécessaires et créer des objets Règle dans l'interface d'administration ou via le shell.RulesRule - définit une règle abstraite qui est utilisée pour répondre à ramper robots web, en utilisant le protocole d'exclusion des robots, alias robots.txt .Vous pouvez relier plusieurs modèle d'URL à autorise ou non le robot identifié par son agent utilisateur pour accéder au champ de retard d'analyse URLs.The donné est pris en charge par certains moteurs de recherche et définit le délai entre les accès à chenilles successives en quelques secondes. Si le taux de chenille est un problème pour votre serveur, vous pouvez régler le délai jusqu'à 5 ou 10 ou une valeur confortable pour votre serveur, mais il est préférable de commencer par les petites valeurs (0,5-1), et augmenter au besoin à un niveau acceptable valeur pour votre serveur. Les valeurs de retard ajoutent plus grandes délai entre les accès d'exploration successifs et diminuent la vitesse d'exploration maximale à votre web framework de sites de serveur.Le est utilisé pour permettre à plusieurs robots.txt par exemple Django. Si aucune règle existe, elle permet automatiquement à chaque accès de robot Web pour tous les URL.Please jeter un oeil à la base de données des robots web pour une liste complète des robots web existants agent utilisateur de strings.URLsUrl - définit une URL sensible à la casse et exacte motif qui est utilisé pour autoriser ou interdire l'accès des robots web. Case-sensitive.A manquant slash ne correspond aussi les fichiers qui commencent par le nom du modèle donné, par exemple, « / admin » too.Some principaux moteurs de recherche de matchs permettent un astérisque (*) comme joker pour une séquence de caractères et un signe de dollar ($) pour correspondre à la fin de l'URL, par exemple, « /*.jpg$ » peut être utilisé pour correspondre à tous jpeg files.CachingYou peut éventuellement mettre en cache la génération du robots.txt. Ajouter ou modifier le réglage de ROBOTS_CACHE_TIMEOUT avec une valeur en secondes dans votre fichier de paramètres Django: ROBOTS_CACHE_TIMEOUT = 60 * 60 * 24Le dit Django pour mettre en cache le fichier robots.txt pendant 24 heures (86400 secondes). La valeur par défaut est Aucun (pas de mise en cache). Exigences: · Django · Python


django-robots Logiciels associés