الفرق بين المراجعتين لصفحة: «Python/urllib/robotparser»
أنشأ الصفحة ب'<noinclude>{{DISPLAYTITLE:الوحدة <code>urllib.robotparser</code> في بايثون}}</noinclude> تقدّم هذه الوحدة صنفًا مفردًا هو...' |
لا ملخص تعديل |
||
(2 مراجعات متوسطة بواسطة نفس المستخدم غير معروضة) | |||
سطر 1: | سطر 1: | ||
<noinclude>{{DISPLAYTITLE:الوحدة <code>urllib.robotparser</code> في بايثون}}</noinclude> | <noinclude>{{DISPLAYTITLE:الوحدة <code>urllib.robotparser</code> في بايثون}}</noinclude> | ||
تقدّم هذه الوحدة صنفًا مفردًا هو RobotFileParser والذي يحدّد ما إذا كان بإمكان وكيل المستخدم user agent جلب عنوان URL من الموقع الإلكتروني الذي نشر ملف robots.txt. للاطلاع على المزيد من التفاصيل حول بنية ملفات robots.txt يمكن الرجوع إلى http://www.robotstxt.org/orig.html. | تقدّم هذه الوحدة صنفًا مفردًا هو <code>RobotFileParser</code> والذي يحدّد ما إذا كان بإمكان وكيل المستخدم user agent جلب عنوان URL من الموقع الإلكتروني الذي نشر ملف <code>robots.txt</code>. للاطلاع على المزيد من التفاصيل حول بنية ملفات <code>robots.txt</code> يمكن الرجوع إلى http://www.robotstxt.org/orig.html. | ||
== الصنف urllib.robotparser. | == الصنف <code>[[Python/urllib/robotparser/RobotFileParser|urllib.robotparser.RobotFileParser]]</code> == | ||
يقدّم هذا الصنف توابع لقراءة الأسئلة عن ملف robots.txt وتحليلها والإجابة عن الأسئلة المتعلّقة بها في عنوان URL المعطى. | يقدّم هذا الصنف توابع لقراءة الأسئلة عن ملف <code>robots.txt</code> وتحليلها والإجابة عن الأسئلة المتعلّقة بها في عنوان URL المعطى. | ||
== | == مصادر == | ||
* [https://docs.python.org/3/library/urllib.robotparser.html صفحة Parser for robots.txt في توثيق بايثون الرسمي.] | |||
[[تصنيف:Python]] | |||
[[تصنيف:Python Modules]] | |||
المراجعة الحالية بتاريخ 19:43، 6 فبراير 2019
تقدّم هذه الوحدة صنفًا مفردًا هو RobotFileParser
والذي يحدّد ما إذا كان بإمكان وكيل المستخدم user agent جلب عنوان URL من الموقع الإلكتروني الذي نشر ملف robots.txt
. للاطلاع على المزيد من التفاصيل حول بنية ملفات robots.txt
يمكن الرجوع إلى http://www.robotstxt.org/orig.html.
الصنف urllib.robotparser.RobotFileParser
يقدّم هذا الصنف توابع لقراءة الأسئلة عن ملف robots.txt
وتحليلها والإجابة عن الأسئلة المتعلّقة بها في عنوان URL المعطى.