Google ได้ขอให้ผู้ใช้ช่วยสอนวิธีการพูดแก่ AI ใน Experiments with Google ที่เรียกว่า LipSync โดยผู้ใช้จะต้องลิปซิงค์เนื้องเพลง “Dance Monkey”
LipSync สร้างโดย YouTube สำหรับ Chrome บนเดสก์ท็อปจะให้คะแนนประสิทธิภาพของคุณ จากนั้นจะส่งข้อมูลวิดีโอไปยัง AI ของ Google โดยไม่มีการบันทึกเสียงใด ๆ ของคุณไว้
Google วางแผนที่จะใช้คลิปวิดีโอ เหล่านี้เพื่อสอน AI ว่าใบหน้าของมนุษย์เคลื่อนไหวอย่างไรเมื่อเราพูด เพื่อใช้เป็นเครื่องมือในการศึกษาและรักษาผู้ที่มีอาการ ALS (โรคที่เกี่ยวข้องกับเซลล์ประสาทซึ่งอยู่ในสมองและไขสันหลัง) และความบกพร่องทางการพูด
โดย Google หวังว่าสักวันหนึ่ง AI อาจจะเดาได้ว่าพวกเขาเหล่านั้นกำลังพูดอะไร โดยสังเกตการเคลื่อนไหวบนใบหน้าของพวกเขา แล้ว AI ก็จะพูดออกมาแทนพวกเขาได้
Google มีคุณลักษณะแนวนี้หลายอย่าง ตั้งแต่แอป Android สำหรับผู้ที่มีปัญหาทางการได้ยินไปจนถึงตำแหน่งที่เข้าถึงได้ซึ่งไฮไลต์ในแผนที่ ความสามารถในการจำเสียง AI นี้อาจนำไปสู่การเพิ่มเติมที่เป็นประโยชน์ในอนาคตได้
สามารถเข้าไปร่วมลิปซิงค์กันได้ที่ https://lipsync.withyoutube.com/
ที่มา engadget