Yahoo! เปิดซอร์สระบบตรวจจับภาพโป๊ของตัวเอง

เวลาเราเข้าเว็บไซต์ต่างๆ ที่มีการโพสต์รูปหรือวิดีโอ  เรามักจะเจอการขึ้นป้ายเตือน NSFW (Not Safe For Work – ไม่ควรเปิดในเวลาทำงาน) ซึ่งมักจะหมายถึงภาพหรือวิดีโอที่ออกจะติดเรตสักหน่อย

หลายเว็บไซต์จะให้ผู้ใช้ทำการแท็กเนื้อหาเองว่าเป็น NSFW หรือไม่  แต่บางเว็บไซต์ก็จะมีการแท็ก NSFW ให้เองโดยอัตโนมัติ  ซึ่งระบบการแท็กอัตโนมัตินี่เอง  ที่จะต้องมีอัลกอริธึมสำหรับตรวจสอบภาพเหล่านั้นว่าเข้าข่าย NSFW หรือไม่  ซึ่งหนึ่งในอัลกอริธึมตรวจสอบยอดนิยมนั้นถูกพัฒนาโดย Yahoo!

ล่าสุด Yahoo! ได้ทำการเปิดซอร์สโค๊ดระบบตรวจจับภาพโป๊ของตัวเอง  โดยหลักการทำงานของโปรแกรมคือเราจำเป็นจะต้องสอนโปรแกรมก่อนว่าภาพโป๊นั้นมีลักษณะเป็นอย่างไร  โดยการป้อนรูปโป๊จำนวนมากเข้าไปให้โปรแกรมทำการวิเคราะห์  จากนั้นเมื่อโปรแกรมทราบลักษณะของภาพโป๊แล้วเราก็จะสามารถป้อนภาพทั่วไปเข้าไปในระบบ  เพื่อให้โปรแกรมทำการวิเคราะห์เปรียบเทียบว่าภาพเหล่านั้นเข้าข่ายภาพโป๊หรือไม่  และโปรแกรมจะสรุปออกมาให้เป็นคะแนนระหว่าง 0 ถึง 1 (คะแนนเป็นทศนิยม)

สำหรับผู้ที่สนใจจะนำระบบไปลองใช้งาน  สามารถเข้าไปดาวน์โหลดได้จากบน GitHub  โดยผู้ใช้จำเป็นจะต้องป้อนภาพโป๊จำนวนมากให้โปรแกรม (ซึ่งไม่น่าเป็นปัญหาเท่าไหร่นัก?) เพื่อที่โปรแกรมจะได้เรียนรู้ว่าภาพโป๊นั้นมีลักษณะอย่างไร

ที่มา – TechCrunch

ความเห็นของเรา

แม้ว่าในหลายประเทศจะยอมรับเรื่องสื่อลามกกันเป็นปกติ  แต่ถึงอย่างนั้นการเปิดดูสื่อลามกเหล่านี้ในที่สาธารณะก็ยังคงสร้างความรู้สึกแปลกๆ ให้ผู้พบเห็นอยู่เช่นเดิม  และในบางครั้งก็อาจจะทำให้ภาพลักษณ์ของคนเปิดดูไม่ดีด้วย  ดังนั้นแล้วจึงมีการกำเนิดแท็ก NSFW ขึ้นมานั่นเองครับ

ส่วนในอีกหลายประเทศที่ยังไม่เปิดกว้างเท่าไหร่นักในเรื่องสื่อลามก  ก็อาจจะนำเอาระบบนี้มาเพื่อใช้ประยุกต์ในการตรวจจับและเซ็นเซอร์สื่อลามกต่างๆ ได้ด้วยอีกเช่นกัน

บล็อกเกอร์ไอที คนทำเว็บ ทาสแมว ถ่ายรูปได้ เสพติดหนังและซีรี่ส์เป็นชีวิตจิตใจ