เรื่อง logFile จริง ๆ Ubuntu ก็เก็บไว้ให้แล้วนะครับ เพียงแต่เราเอาออกมาดูไม่เป็นกันเท่านั้นเอง ซึ่ง 1 ในนั้นที่เรียกออกมาดูไม่เป็นก็มีผมรวมอยู่ด้วย 555+ รายละเอียดในการเก็บ logFile รู้สึกจะมี 2 กระทู้คือ
http://www.hadyaiinternet.com/index.php?topic=254.0 กระทู้นี้จะพูดถึง
1. Traffic Log เพื่อใช้สำหรับตรวจสอบการใช้งาน และการเชื่อมต่อไปยัง Internet ของเครื่องลูกข่าย
2. Squid Log เพื่อใช้สำหรับตรวจสอบการใช้งาน WebSite ของเครื่องลูกข่าย
-อีก 1 กระทู้รู้สึกจะเป็นเวอร์ชั่นของ WebInterface ซึ่งดูรายละเอียดได้ที่กระทู้นี้ครับ
http://www.hadyaiinternet.com/index.php?topic=250.msg1024#msg1024-ส่วนตัวผมเองเรื่อง logFile ภายในร้าน ผมใช้ sarg แต่ก็แค่พอทำเป็นติดตั้งผ่านเท่านั้นครับ กำหนดให้มันสร้าง Generate Report อัตโนมัติเองยังไม่ได้ ต้องมาคอยกด Generate Report เองตอนก่อนนอน ก็ถือว่า Ok แก้ปัญหาไปได้เปราะหนึ่งครับ
-เกี่ยวกับการ block web ผมว่าใครใช้ SquidGuard เป็นน่าจะ เวิร์คมาก ๆ เลยครับ แต่ผมใช้ไม่เป็นติดตั้งไม่ผ่าน เลยอาศัยตัว squid ที่มากับ Ubuntu เขียนคำสั่งเพิ่มนิดหน่อย ซึ่งก็ได้ความรู้มาจากพี่ใน บอร์ดนี้คนหนึ่ง คือพี่ tonrak เขาแนะนำมาแบบนี้ครับ
-1.สร้างบัญชีดำ รายชื่อเวบที่ไม่ต้องการให้เข้าไป (ในที่นี้สมมติ) xxx.txt ในไฟล์มีข้อความ
#<=================>
http://www.sexy.com/http://www.ddd.com/game/*
http://......................ฯลฯ
#<=================>
2.แก้ไขไฟล์ squid.conf ในหัวส่วนต่อไปนี้ acl และ http_access
#<==================>
acl lockschool url_regex '/etc/squid/xxx.txt' ( บรรทัดนี้ เอาไว้ต่อกับ acl Manager proto cache_object นะครับ )
http_access deny lockschool ( บรรทัดนี้เอาไว้ต่อกับ http_access allow Manager all )
#<====================>
3.copy ไฟล์ xxx.txt ไปไว้ที่ ไดเรคตอรี่ /etc/squid/ (ตามที่ระบุใน path อาจพิมพ์โดยตรงด้วย pico ใน path ดังกล่าวก็ได้ครับ)
4.เครื่องลูกทุกเครื่องให้ fix IP เพราะง่ายต่อการตรวจสอบภายหลัง
หมายเหตุ
1. 'lockschool' เป็นการตั้งชื่อ acl (ตั้งเป็นชื่ออะไรก็ได้ตามถนัด) แต่เวลาอ้างใน http_access deny ก็ต้องอ้างตามชื่อที่เราตั้งไว้
2. ทำ 4 ข้อที่กล่าวข้างต้นก็พอเพียงแล้วครับ โดยบัญชีรายชื่อเวบไม่พึงประสงค์สามารถเพิ่มลงในไฟล์ xxx.txt ได้ตลอดเวลา
ลองเอาไปทำกันดูนะครับ ^^