stats
  • 0

يک فن

دريافت يک وب‌سايت کامل‌ با کمک wget

یکشنبه 31 شهریور 1387 ساعت 17:17
همه ما در ویندوز با نرم‌افزارهای دریافت وب‌سایت کار کرده‌ایم، دست‌کم اسمWebZip یا WebsiteDownloader به‌گوشمان خورده است و کمابیش با کارشان آشنایی داریم. اما برای دریافت کامل یک وب‌سایت در لینوکس چطور می‌توان این کار را کرد؟ برای دریافت کامل یک وب‌سایت، به‌منظور مشاهده آفلاین یا هر چیز دیگری، با کمک wget می‌توان کار را پیش برد، این دستور را ببینید:

\‌wget $

\ُ-recursive-

\ --no-clobber 

\   --page-requisites 

\    --html-extension 

\  --convert-links  

 \   --restrict-file-names=windows 

 \    --domains website.org 

\   --no-parent 

       
www.website.org/tutorials/html/ 

این دستور وب‌سایت زیر را به طور کامل دانلود می‌کند.

www.website.org/tutorials/html/

انتخاب‌هایی (Option) که در این دستور استفاده کردیم، بدین شرح است:

recursive -- : تمام وب‌سایت را دانلود کن.

domains website.org-- : لینک‌های خارج از دومین website.org  را دنبال نکن.

 page-requisites --: تمام عناصر موجود در صفحه را دریافت کن (تصاویر، css و از این دست چیزها).

html-extension --: فایل را با پسوند .html ذخیره کن.

 convert-links--:لینک‌ها را طوری تبدیل کن که بشود به‌طور آفلاین ازشان استفاده کرد.

restrict-file-names=windows --: اسم فایل‌ها را طوری عوض کن که در ویندوز هم کار کنند.

 no-clobber--:هیچ فایلی را بازنویسی نکن (در مواردی به‌کار می‌رود که دانلود قطع شده باشد و بخواهد مجدداً از سر گرفته شود).

 no-parent --: یعنی مسیرهای بالاتر از/tutorials/html  را باز نکن.

به اشتراک گذاری
کد خبر : 670110857284955508
برچسب‌ها :
لینک کوتاه :

اخبار پیشنهادی از سراسر وب

    ارسال نظر

    • مخاطبان گرامی، برای انتشار نظرات لطفا نکات زیر را رعایت فرمایید:
    • 1- نظرات خود را با حروف فارسی تایپ کنید.
    • 2- نظرات حاوی مطالب کذب، توهین یا بی‌احترامی به اشخاص، قومیت‌ها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزه‌های اسلامی منتشر نمی‌شود.
    • 3- نظرات پس از ویرایش ارسال می‌شود.
    تصویر امنیتی :