ดาวน์โหลดบทความ ดาวน์โหลดบทความ

การฝึกเขียนเว็บไซต์ด้วยภาษา HTML และ CSS อาจจะเป็นเรื่องที่ยากลำบากพอสมควร โดยเฉพาะอย่างยิ่งหากคุณต้องเริ่มหัดตั้งแต่ขั้นตอนแรก ซึ่งถึงแม้ว่าจะมีหนังสือบางเล่มที่สอนการเขียนเว็บไซต์ด้วย HTML อย่างครบทุกรายละเอียด แต่ในบางขั้นตอนนั้น คุณจำเป็นต้องเห็นของจริง เพื่อที่จะเข้าใจมันได้อย่างถ่องแท้ ซึ่งความสามารถในการคัดลอกเว็บไซต์ จะเป็นเสมือนการผ่าเอาทุกรายละเอียดขั้นตอนออกมา ให้คุณได้เห็นภาพอย่างละเอียดยิบ เพื่อที่จะเข้าใจหลักการทำงานของ HTML ได้อย่างเหมาะเจาะ

วิธีการ 1
วิธีการ 1 ของ 2:

วินโดวส์

ดาวน์โหลดบทความ
  1. หากคุณต้องการคัดลอกทั้งเว็บไซต์ หรือหลายๆ เพจในคราวเดียว คุณควรจะใช้โปรแกรมดาวน์โหลดอัตโนมัติ เพราะถ้ามัวแต่เซฟทีละหน้าล่ะก็ คงเปลืองเวลาของคุณมากเกินไป ปล่อยให้เป็นหน้าที่ของตัวช่วยเหล่านี้ดีกว่า
    • โปรแกรมที่ทรงพลังและได้รับความนิยมมากที่สุดในการคัดลอกเว็บไซต์ คือ HTTrack ซึ่งเป็นโปรแกรมที่เปิดไว้ให้สำหรับผู้ใช้งานทั่วไป ในระบบปฏิบัติการวินโดวส์และลินุกซ์ โดยโปรแกรมดังกล่าวสามารถคัดลอกได้ทั้งเว็บไซต์ หรือแม้กระทั่งทั้งอินเตอร์เน็ตก็ยังได้ หากทำการตั้งค่าให้มันอย่าง(ไม่ค่อย)เหมาะสม ทั้งนี้ คุณสามารถดาวน์โหลด HTTrack ได้ฟรีตามลิงค์นี้เลย www.httrack.com .
  2. เมื่อเปิดโปรแกรม HTTrack ขึ้นมาแล้ว คุณต้องกำหนดโฟลเดอร์เป้าหมายสำหรับจัดเก็บไฟล์ของเว็บไซต์ ซึ่งควรสร้างจะเป็นโฟลเดอร์ใหม่หรือแยกต่างหากจากโฟลเดอร์อื่นๆ เผื่อต้องการเรียกใช้งาน จะได้ตามหาไม่ยากเท่าไหร่
    • ตั้งชื่องาน เพื่อให้ใช้คำสั่งค้นหาได้ โปรแกรม HTTrack จะสร้างโฟลเดอร์ที่มีชื่องานดังกล่าว ในรายนามเป้าหมายตามที่เรากำหนด
  3. คำสั่งนี้จะทำให้โปรแกรม HTTrack ดาวน์โหลดเนื้อหาทั้งหมดจากเว็บไซต์ รวมถึงรูปภาพและไฟล์ประเภทอื่นด้วย
  4. โดยคุณสามารถใส่ได้หลายๆ ชื่อ หากต้องการคัดลอกหลายเว็บไซต์มาเก็บไว้ในงานเดียวกันซึ่งโดยปกติแล้ว HTTrack จะรวบรวมเอาทุกลิงค์ในเว็บไซต์นั้นๆ ที่อยู่บนเซิฟเวอร์เดียวกันมาไว้ทั้งหมด
    • หากเว็บไซต์ที่จะคัดลอก ต้องมีการล็อกอินก่อน คุณก็สามารถใช้ปุ่ม “Add URL” ในการเข้าสู่เว็บไซต์ดังกล่าว เพื่อกรอกชื่อผู้ใช้และพาสเวิร์ด
  5. เมื่อคุณกรอก URL แล้ว ก็สามารถเริ่มกระบวนการคัดลอกได้เลย บางเว็บไซต์อาจจะกินเวลาและปริมาณรับส่งข้อมูล (Bandwidth) มากสักหน่อย ขึ้นอยู่กับขนาดของเว็บไซต์นั้นๆ โดย HTTrack จะแสดงความคืบหน้าของการดาวน์โหลดให้ดูด้วย [1]
  6. หลังจากดาวน์โหลดเสร็จแล้ว คุณสามารถเปิดและท่องเว็บไซต์ดังกล่าวจากคอมพิวเตอร์ของคุณได้โดยตรง ไม่ว่าจะเปิดหน้าที่เป็นไฟล์ HTM หรือ HTML ก็สามารถทำได้ดุจเดียวกับเวลาที่ออนไลน์ นอกจากนี้คุณยังสามารถเปิดไฟล์เหล่านี้ในโปรแกรมแก้ไขเว็บเพจ เพื่อดูรหัสทั้งหมดว่าเขียนไว้อย่างไร ไฟล์ที่ได้มาจะถูกเก็บไว้ในเครื่องโดยอัตโนมัติ ดังนั้นลิงค์ต่างๆ จะถูกเชื่อมโยงมายังไฟล์เหล่านี้ ไม่ได้ไปที่เว็บไซต์ ซึ่งทำให้คุณสามารถเปิดเว็บได้ แม้ในขณะที่ไม่ได้ต่อเน็ต
    โฆษณา
วิธีการ 2
วิธีการ 2 ของ 2:

Mac

ดาวน์โหลดบทความ
  1. แอพพลิเคชันนี้เปิดให้ใช้งานฟรี ซึ่งจะช่วยให้คุณดาวน์โหลดเว็บไซต์ที่ต้องการคัดลอกมาทั้งหมด โดยคุณยังสามารถไปดาวน์โหลดโปรแกรมดังกล่าวจากเว็บนี้ได้ด้วย ricks-apps.com/osx/sitesucker/index.html .
    • หากคุณดาวน์โหลดแอพดังกล่าวจากเว็บไซต์ ให้ดับเบิ้ลคลิกที่ไฟล์ DMG จากนั้นก็ลากไอคอน SiteSucker ไปไว้ในโฟลเดอร์แอพพลิเคชันเพื่อทำการติดตั้ง
  2. ปกติ SiteSucker จะถูกตั้งค่าไว้ให้คัดลอกและจัดเก็บทุกหน้าในเว็บไซต์นั้นๆ มาเก็บที่เครื่องของคุณอยู่แล้ว ซึ่งมันจะตามเข้าไปเก็บหน้าเพจในลิงค์ทั้งหมด แต่จะดาวน์โหลดมาเฉพาะไฟล์ที่อยู่บนเซิฟเวอร์เดียวกันเท่านั้น
    • ใครที่เชี่ยวชาญหน่อย ก็อาจจะลองตั้งค่า SiteSucker เป็นแบบอื่นๆ ดูได้ แต่หากคุณต้องการเพียงแค่คัดลอกเว็บไซต์ ก็ไม่จำเป็นต้องตั้งค่าอะไรเพิ่ม เพราะมันจะคัดลอกให้ทั้งเว็บไซต์โดยอัตโนมัติเอง
    • การตั้งค่าเดียวที่อาจจะจำเป็นก็คือ การเปลี่ยนโฟลเดอร์ที่คุณต้องการจัดเก็บเว็บไซต์ ซึ่งทำได้โดยคลิกปุ่มรูปเฟือง เพื่อเข้าเมนู Settings ซึ่งในหัวข้อ "General" ตรงเมนู "Destination" คุณสามารถเลือกได้ว่าจะให้ไฟล์ไปจัดเก็บไว้ที่ไหนในเครื่อง
  3. โดย SiteSucker จะเริ่มดาวน์โหลดเนื้อหาทั้งหมดจากเว็บไซต์ตามที่คุณกรอก URL เอาไว้ ซึ่งบางครั้งอาจจะกินเวลามากสักหน่อย แต่คุณสามารถดูความคืบหน้าได้จากด้านล่างของหน้าต่างโปรแกรม
  4. หากคุณกำลังจะดาวน์โหลดเนื้อหาในหน้าเพจที่ต้องใส่รหัส ก็จะมีช่องขึ้นมาให้กรอก แต่โดยทั่วไปแล้ว SiteSucker จะตรวจสอบจาก Keychain ก่อนว่า มีการเซฟรหัสเอาไว้แล้วหรือไม่ ถ้าไม่มี คุณก็แค่กรอกเองไปตามปกติ [2]
  5. เมื่อดาวน์โหลดเสร็จแล้ว คุณสามารถเปิดเว็บไซต์ที่คัดลอกมาดูได้เหมือนกันกับตอนที่ออนไลน์เลย เพราะ SiteSucker จะเชื่อมต่อกับไฟล์ที่ถูกจัดเก็บไว้ในเครื่อง แทนที่จะไปเชื่อมกับตัวเว็บไซต์นั้นๆ คุณจึงเปิดเว็บดังกล่าวดูได้ทั้งๆที่ไม่ได้ต่อเน็ต
    โฆษณา


คำเตือน

  • มีเว็บมาสเตอร์หลายคนที่ตั้งค่าเตือนเอาไว้ เวลาที่เว็บของพวกเขาถูกเปิดจากแหล่งอื่น ดังนั้น ไม่ควรเหมาเอาเองว่าเราจะเอาเว็บไซต์อะไรมาใช้งานก็ได้ ต่อให้สามารถคัดลอกมาได้ก็ตาม ทางที่ดีคุณควรจะติดต่อกับเว็บมาสเตอร์ของแต่ละเว็บดูก่อนที่จะทำการคัดลอกมา
  • การคัดลอกเว็บไซต์และนำมาใช้เหมือนเป็นของตนเอง ถือเป็นการคัดลอกงานของผู้อื่น (plagiarism) หรืออาจเข้าข่ายการขโมยทรัพย์สินทางปัญญา ดังนั้น การเอาเว็บไซต์มาใช้เป็นของตนเองนั้น จึงไม่ควรกระทำ แต่คุณอาจนำเนื้อหาเล็กๆ น้อยบางส่วนมาใช้ โดยให้เครดิตกับเจ้าของงานนั้นๆ ด้วย
โฆษณา

บทความวิกิฮาวอื่น ๆ ที่่เกี่ยวข้อง

ดาวน์โหลดวิดีโอจากทุกเว็บไซต์ได้แบบฟรีๆ
แก้ปัญหาเข้าบางเว็บไม่ได้
หาวันที่เผยแพร่ข้อมูลของเว็บไซต์
ดูว่าใครแชร์โพสต์ของคุณบนเฟซบุ๊ก
เช็คตำแหน่งปัจจุบันใน Google Maps
แก้ปัญหาเซิร์ฟเวอร์ DNS ไม่ตอบสนอง
รู้ความหมายของอีโมจิรูปหัวใจสีดำ
ตั้งชื่ออีเมลให้โดนใจ
เว้นวรรคห่างๆ ใน HTML
เชื่อมต่ออินเทอร์เน็ตในคอมพิวเตอร์ Windows
หาละติจูดกับลองจิจูดใน Google Maps
อิโมจิซ่อนความสยิวที่คนใช้แชตกันมากที่สุด
หา URL ของเว็บไซต์
เปิดใช้งานคุกกี้ในเว็บเบราว์เซอร์อินเตอร์เน็ตของคุณ
โฆษณา

เกี่ยวกับวิกิฮาวนี้

มีการเข้าถึงหน้านี้ 20,903 ครั้ง

บทความนี้เป็นประโยชน์กับคุณไหม

โฆษณา