ในการให้สัมภาษณ์กับทาง The Wall Street Journal ทาง Craig Federighi ผู้บริหารและรองประธานอาวุโสฝ่ายวิศวกรรมซอฟต์แวร์ของ Apple กล่าวว่า แผนการใช้ iCloud Photos ในการสแกนหาสื่อการล่วงละเมิดทางเพศเด็ก หรือว่า รูปโป๊เด็ก (child sexual abuse material หรือ CSAM) รวมถึงความสามารถในการตรวจสอบหลายระดับ
Federighi ได้นำเสนอรายละเอียดใหม่เกี่ยวกับมาตรการความปลอดภัยของเด็กที่เป็นประเด็นขัดแย้ง รวมถึงการอ้างว่าการสแกนระดับอุปกรณ์ของ iPad และ iPhone (device-level scanning) จะช่วยให้ผู้เชี่ยวชาญด้านความปลอดภัยสามารถตรวจสอบได้ว่า Apple กำลังใช้ระบบที่ถูกต้องตามหน้าที่และเชื่อถือได้
ในการสัมภาษณ์นั้น Federighi พยายามชี้แจงให้คนเข้าใจในสิ่งที่ Apple กำลังทำอยู่ อย่างแรกคือ Apple มีการเปิดตัวฟีเจอร์ใหม่ 2 ฟีเจอร์ ได้แก่ ระบบสแกนภาพอนาจารเด็ก/การถูกล่วงละเมิดทางเพศเด็ก ที่มีการอัปโหลดขึ้นบน iCloud และระบบวิเคราะห์รูปภาพใน Message เพื่อตรวจสอบหาภาพโป๊เปลือยสำหรับให้ผู้ปกครองใช้ตรวจสอบเด็กๆ
Apple จะทำการตรวจสอบรูปภาพใน iCloud Photos กับลิสท์รูปภาพจากศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติของสหรัฐอเมริกา (National Center for Missing and Exploited Children หรือ MCMEC) เพื่อค้นหาโดยการจับคู่รูปภาพที่ตรงกับ CSAM ที่คุ้นๆ ตา เช่นเดียวกับบริษัทอื่นๆ ที่ให้บริการพื้นที่เก็บข้อมูลบนคลาวด์ แต่จะมีความต่างจากผู้ให้บริการรายอื่นๆ ตรงที่ระบบของ Apple จะไม่ทำการค้นหาบนอุปกรณ์แต่จะสแกนและตรวจสอบที่เฉพาะรูปภาพที่ถูกอัปโหลดขึ้นบน iCloud เท่านั้น
ทั้งนี้ Federighi อธิบายอย่างละเอียดว่าสิ่งนี้อาจทำให้ผู้คนมั่นใจได้ว่า Apple จะไม่ขยายฐานข้อมูลเพื่อรวมเนื้อหาที่นอกเหนือไปจาก CSAM ที่ผิดกฎหมาย
ก่อนหน้านี้ Apple กล่าวว่าจะเปิดตัวระบบเฉพาะในสหรัฐอเมริการเท่านั้น และพิจารณาการเปิดตัวในประเทศอื่นๆ เป็นกรณีไป บริษัทยืนยันกับสื่อ The Verge ว่า Apple จะจัดส่งฐานข้อมูลแฮชของ CSAM บนระบบปฏิบัติการในทุกประเทศ แต่จะใช้สำหรับสแกนเฉพาะในสหรัฐอเมริกาเท่านั้น สื่อ The Wall Street Journal เพิ่มเติมว่าจะมีผู้ตรวจสอบอิสระที่สามารถเข้าไปตรวจสอบภาพที่เกี่ยวข้องได้
Federighi ยังให้รายละเอียดเพิ่มเติมว่า เมื่อใดที่ระบบสแกนจะแจ้งให้ผู้ดูแลของ Apple ทราบถึงเนื้อหาที่อาจผิดกฎหมาย โดย Apple เคยกล่าวเอาไว้ก่อนหน้านี้ว่า การจับคู่เพียงครั้งเดียวจะไม่ทำให้เกิด red flag และแจ้งเตือนไปยังเจ้าหน้าที่ เพื่อเป็นมาตรฐานป้องกันความผิดพลาด แต่ระบบจะสร้าง safety vouchers ขึ้นมาสำหรับการจับคู่รูปภาพแต่ละครั้ง และแจ้งเตือนไปยัง Apple หากตัวเลขการจับคู่นั้นมากจนถึงเกณฑ์ที่กำหนด ซึ่งทาง Apple ปฏิเสธที่จะเปิดเผยตัวเลขของ threshold หรือ เกณฑ์ที่กำหนดที่แน่นอน เพราะอาจทำให้ผู้กระทำผิดสามารถหลบเลี่ยงการตรวจจับได้
อย่างไรก็ตาม Federighi ยอมรับผ่านการสัมภาษณ์ว่ามีหลายฝ่ายวิพากษ์วิจารณ์การที่ Apple เปิดตัวระบบดังกล่าวอย่างกระทันหันและขาดความชัดเจนว่าระบบมีการทำงานอย่างไร ทำให้เกิดความกังวลและมีกระแสตีกลับขึ้น แม้แต่ในกลุ่มของพนักงาน Apple เอง
ที่มา : The Wall Street Journal | The Verge