เวลาเราเข้าเว็บไซต์ต่างๆ ที่มีการโพสต์รูปหรือวิดีโอ เรามักจะเจอการขึ้นป้ายเตือน NSFW (Not Safe For Work – ไม่ควรเปิดในเวลาทำงาน) ซึ่งมักจะหมายถึงภาพหรือวิดีโอที่ออกจะติดเรตสักหน่อย
หลายเว็บไซต์จะให้ผู้ใช้ทำการแท็กเนื้อหาเองว่าเป็น NSFW หรือไม่ แต่บางเว็บไซต์ก็จะมีการแท็ก NSFW ให้เองโดยอัตโนมัติ ซึ่งระบบการแท็กอัตโนมัตินี่เอง ที่จะต้องมีอัลกอริธึมสำหรับตรวจสอบภาพเหล่านั้นว่าเข้าข่าย NSFW หรือไม่ ซึ่งหนึ่งในอัลกอริธึมตรวจสอบยอดนิยมนั้นถูกพัฒนาโดย Yahoo!
ล่าสุด Yahoo! ได้ทำการเปิดซอร์สโค๊ดระบบตรวจจับภาพโป๊ของตัวเอง โดยหลักการทำงานของโปรแกรมคือเราจำเป็นจะต้องสอนโปรแกรมก่อนว่าภาพโป๊นั้นมีลักษณะเป็นอย่างไร โดยการป้อนรูปโป๊จำนวนมากเข้าไปให้โปรแกรมทำการวิเคราะห์ จากนั้นเมื่อโปรแกรมทราบลักษณะของภาพโป๊แล้วเราก็จะสามารถป้อนภาพทั่วไปเข้าไปในระบบ เพื่อให้โปรแกรมทำการวิเคราะห์เปรียบเทียบว่าภาพเหล่านั้นเข้าข่ายภาพโป๊หรือไม่ และโปรแกรมจะสรุปออกมาให้เป็นคะแนนระหว่าง 0 ถึง 1 (คะแนนเป็นทศนิยม)
สำหรับผู้ที่สนใจจะนำระบบไปลองใช้งาน สามารถเข้าไปดาวน์โหลดได้จากบน GitHub โดยผู้ใช้จำเป็นจะต้องป้อนภาพโป๊จำนวนมากให้โปรแกรม (ซึ่งไม่น่าเป็นปัญหาเท่าไหร่นัก?) เพื่อที่โปรแกรมจะได้เรียนรู้ว่าภาพโป๊นั้นมีลักษณะอย่างไร
ที่มา – TechCrunch
ความเห็นของเรา
แม้ว่าในหลายประเทศจะยอมรับเรื่องสื่อลามกกันเป็นปกติ แต่ถึงอย่างนั้นการเปิดดูสื่อลามกเหล่านี้ในที่สาธารณะก็ยังคงสร้างความรู้สึกแปลกๆ ให้ผู้พบเห็นอยู่เช่นเดิม และในบางครั้งก็อาจจะทำให้ภาพลักษณ์ของคนเปิดดูไม่ดีด้วย ดังนั้นแล้วจึงมีการกำเนิดแท็ก NSFW ขึ้นมานั่นเองครับ
ส่วนในอีกหลายประเทศที่ยังไม่เปิดกว้างเท่าไหร่นักในเรื่องสื่อลามก ก็อาจจะนำเอาระบบนี้มาเพื่อใช้ประยุกต์ในการตรวจจับและเซ็นเซอร์สื่อลามกต่างๆ ได้ด้วยอีกเช่นกัน