الفرق بين المراجعتين لصفحة: «Python/urllib/robotparser»

من موسوعة حسوب
< Python‏ | urllib
أنشأ الصفحة ب'<noinclude>{{DISPLAYTITLE:الوحدة <code>urllib.robotparser‎‎</code> في بايثون}}</noinclude> تقدّم هذه الوحدة صنفًا مفردًا هو...'
 
لا ملخص تعديل
 
(2 مراجعات متوسطة بواسطة نفس المستخدم غير معروضة)
سطر 1: سطر 1:
<noinclude>{{DISPLAYTITLE:الوحدة <code>urllib.robotparser‎‎</code> في بايثون}}</noinclude>
<noinclude>{{DISPLAYTITLE:الوحدة <code>urllib.robotparser‎‎</code> في بايثون}}</noinclude>


تقدّم هذه الوحدة صنفًا مفردًا هو RobotFileParser والذي يحدّد ما إذا كان بإمكان وكيل المستخدم user agent جلب عنوان URL من الموقع الإلكتروني الذي نشر ملف robots.txt. للاطلاع على المزيد من التفاصيل حول بنية ملفات robots.txt يمكن الرجوع إلى http://www.robotstxt.org/orig.html.
تقدّم هذه الوحدة صنفًا مفردًا هو <code>RobotFileParser</code> والذي يحدّد ما إذا كان بإمكان وكيل المستخدم user agent جلب عنوان URL من الموقع الإلكتروني الذي نشر ملف <code>robots.txt</code>. للاطلاع على المزيد من التفاصيل حول بنية ملفات <code>robots.txt</code> يمكن الرجوع إلى http://www.robotstxt.org/orig.html.


== الصنف urllib.robotparser.RobotFileParser(url='')‎ ==
== الصنف <code>[[Python/urllib/robotparser/RobotFileParser|urllib.robotparser.RobotFileParser‎]]</code> ==


يقدّم هذا الصنف توابع لقراءة الأسئلة عن ملف robots.txt وتحليلها والإجابة عن الأسئلة المتعلّقة بها في عنوان URL المعطى.
يقدّم هذا الصنف توابع لقراءة الأسئلة عن ملف <code>robots.txt</code> وتحليلها والإجابة عن الأسئلة المتعلّقة بها في عنوان URL المعطى.


=== set_url(url)‎ ===
== مصادر ==
 
* [https://docs.python.org/3/library/urllib.robotparser.html صفحة Parser for robots.txt في توثيق بايثون الرسمي.]
يعين التابع عنوان URL الذي يشير إلى ملف robots.txt.
[[تصنيف:Python]]
 
[[تصنيف:Python Modules]]
=== read()‎ ===
 
يقرأ التابع عنوان URL الخاص بملف robots.txt ويرسله إلى المحلّ.
 
 
=== parse(lines)‎ ===
يحلّل التابع الأسطر المعطاة في الملف.
 
 
=== can_fetc(useragent, url)‎ ===
 
 
يعيد التابع القيمة True إن كان مسموحًا لوكيل المستخدم المعطى أن يجلب عنوان URL بالاعتماد على القواعد المضمّنة في ملف robots.txt لمحلّل.
 
=== mtime()‎ ===
 
يعيد التابع وقت آخر عملية جلب لملف robots.txt، وهو أمر مفيد بالنسبة إلى عناكب الويب طويلة المدى والتي تحتاج إلى التحقق من ملفات robots.txt الجديدة بصورة درية.
 
=== modified()‎ ===
 
يعين التابع الوقت الحالي كوقتٍ لآخر عملية جلب لملف robots.txt.
 
 
=== crawldelay(useragent)‎ ===
 
يعيد التابع قيمة المعامل Crawl-delay من ملف robots.txt لوكيل المستخدم المعطى. إن لم يكن هذا المعامل موجودًا أو لم يكن نطبق على وكيل المستخدم المعطى أو كانت المدخلات المرتبطة بهذا المعامل ذات صياغة غير صحيحة في ملف robots.txt فإنّ التابع سيعيد القيمة None.
 
هذا التابع جديد في الإصدار 3.6 من بايثون.
 
=== request_rate(useragent)‎ ===
 
يعيد التابع محتويات المعامل Request-rate من ملف robots.txt على هيئة صفّ مسمّى RequestRate(requests, seconds)‎. إن لم يكن هذا المعامل موجودًا أو لم يكن نطبق على وكيل المستخدم المعطى أو كانت المدخلات المرتبطة بهذا المعامل ذات صياغة غير صحيحة في ملف robots.txt فإنّ التابع سيعيد القيمة None.
 
ملاحظة: هذا التابع جديد في الإصدار 3.6 من بايثون.
 
يبين المثال التالي طريقة استخدام الصنف RobotFileParser:

المراجعة الحالية بتاريخ 19:43، 6 فبراير 2019


تقدّم هذه الوحدة صنفًا مفردًا هو RobotFileParser والذي يحدّد ما إذا كان بإمكان وكيل المستخدم user agent جلب عنوان URL من الموقع الإلكتروني الذي نشر ملف robots.txt. للاطلاع على المزيد من التفاصيل حول بنية ملفات robots.txt يمكن الرجوع إلى http://www.robotstxt.org/orig.html.

الصنف urllib.robotparser.RobotFileParser‎

يقدّم هذا الصنف توابع لقراءة الأسئلة عن ملف robots.txt وتحليلها والإجابة عن الأسئلة المتعلّقة بها في عنوان URL المعطى.

مصادر