สำนักข่าวนิวยอร์กไทมส์ รายงานว่า เมื่อช่วงต้นปี 2023 ที่ผ่าน มี แฮกเกอร์ สามารถเจาะเข้าสู่ระบบการส่งข้อความภายในของ OpenAI และ ขโมยข้อมูล เกี่ยวกับเทคโนโลยี AI ของบริษัทได้สำเร็จ แต่ทว่าทาง OpenAI เลือกที่จะปิดเรื่องนี้เอาไว้ โดยเปิดเผยเหตุการณ์นี้เฉพาะกับพนักงานภายในเท่านั้น และไม่ได้แจ้งให้สาธารณชนหรือหน่วยงานบังคับใช้กฎหมายทราบแต่อย่างใด
แหล่งข่าวระบุว่า แฮกเกอร์ สามารถ ขโมยข้อมูล จากการสนทนาในฟอรัมออนไลน์สำหรับพนักงาน OpenAI ซึ่งมีการพูดคุยเกี่ยวกับเทคโนโลยีล่าสุดของบริษัท แม้ว่าแฮกเกอร์จะไม่สามารถเจาะเข้าถึงระบบที่เก็บและฝึกฝนโมเดล GPT ได้ แต่เหตุการณ์นี้ก็สร้างความกังวลอย่างมากให้กับพนักงานบางส่วนของ OpenAI
ความกังวลด้านความปลอดภัย และผลกระทบต่อความมั่นคงของชาติ
พนักงานบางรายได้แสดงความกังวลว่า การโจมตีในลักษณะนี้อาจจะกระทำโดยต่างประเทศอย่างจีนเพื่อขโมยเทคโนโลยี AI ซึ่งอาจส่งผลกระทบต่อความมั่นคงของสหรัฐอเมริกาในอนาคต นอกจากนี้ ยังมีคำถามเกิดขึ้นในหมู่พนักงานเกี่ยวกับความจริงจังของบริษัทในการรักษาความปลอดภัย
อดีตผู้จัดการโครงการด้านเทคนิคของ OpenAI ชื่อ Leopold Aschenbrenner ได้เขียนบันทึกถึงคณะกรรมการบริษัท ระบุว่า OpenAI ไม่ได้มีมาตรการที่เพียงพอในการป้องกันการขโมยความลับโดยฝ่ายตรงข้ามหรือต่างชาติ อย่างไรก็ตาม Aschenbrenner ถูกไล่ออกจากบริษัทในภายหลังด้วยข้อหารั่วไหลข้อมูลออกนอกบริษัท
ผลกระทบต่อ OpenAI และอนาคตของ AI
เหตุการณ์นี้เป็นเพียงหนึ่งในปัญหามากมายที่ OpenAI กำลังเผชิญ ไม่ว่าจะเป็นกรณีความขัดแย้งระหว่าง ซีอีโอ Sam Altman กับคณะกรรมการบริษัทชุดก่อน หรือการลาออกของนักวิจัยด้านความปลอดภัย AI หลายคนเนื่องจากความเห็นที่ไม่ลงรอยกันเกี่ยวกับ “superalignment” หรือวิธีการควบคุม AI ที่มีความฉลาดเหนือมนุษย์
แม้ว่าผู้เชี่ยวชาญในวงการ AI อย่าง Daniela Amodei ผู้ร่วมก่อตั้ง Anthropic จะมองว่าการขโมยการออกแบบล่าสุดของ AI แบบ generative ยังไม่ถือเป็นภัยคุกคามต่อความมั่นคงของชาติที่ร้ายแรง แต่สถานการณ์อาจเปลี่ยนแปลงได้เมื่อเทคโนโลยีนี้มีความสามารถมากขึ้นในอนาคต
ข้อมูลจาก Neowin