บางครั้งระบบการบันทึก Motion Capture เองก็มีข้อจำกัดในการเก็บข้อมูลการเคลื่อนไหว หรือการเก็บการเคลื่อนไหวได้ไม่ตรงตามการเคลื่อนไหวจริง ซึ่งอาจเกิดจากซึ่งสาเหตุที่เกิดขึ้น อาจมาได้จากหลายสาเหตุ ยกตัวอย่างเช่น ในการ Calibrate นักแสดงอาจยืนในท่า Pose ที่ไม่ถูกต้อง การเชื่อมต่อชุด Mocap ผ่านสัญญาณที่ไม่เสถียร การ Rig กระดูก Model ที่ไม่ได้ตำแหน่งที่ถูกต้อง สิ่งเหล่านี้สามารถเกิดขึ้นได้แม้แต่ใน Production ขนาดใหญ่เองก็พบเจอได้ในบางครั้งคราว ถือเป็นเหตุสุดวิสัยที่อาจเกิดขึ้นได้ในการทำงาน
Tag: [Rokoko Suite]
ชุดจับการเคลื่อนไหว MoCap จาก Rokoko ทำงานง่ายไม่ยุ่งยาก มีหลายขนาดตั้งแต่ S, M, L, XL
ด้วย Serson จับการเคลื่อนไหวกว่า 19จุด สามารถทำงานงานร่วมกับ SmartGlove นำไฟล์ Export ไปใช้ต่อได้จาก Software ทั่วไปเช่น Unity, Blender, Unreal Engine
เชื่อมต่อชุด Rokoko เพื่ออัด Mocap ผ่าน iClone 8
อย่างที่รู้กันว่าหนึ่งในฟังก์ชันที่เป็นจุดเด่นของ Rokoko นั่นก็คือการที่เราสามารถส่งข้อมูล Mocap จากชุด Rokoko Smart Suit Pro II ไปยังโปรแกรมสำหรับสร้างงานแอนิเมชั่นอื่นๆได้ หลายโปรแกรม ด้วยระบบ Live Steaming หรือการส่งข้อมูลแบบ Real-Time เพื่อให้ผู้ใช้งานสามารถเลือกทำงานบนโปรแกรมที่ตัวเองถนัด หรือใช้งานเป็นหลักได้ ที่ผ่านมาเราได้แชร์เทคนิค วิธีการทำงาน สำหรับการเชื่อมต่อไปยังโปรแกรมสำหรับการสร้างงานแอนิเมชั่นอื่นๆ ให้ดูกันก็หลายโปรแกรม อย่างเช่น Blender
สร้างท่าเดินสุดเก๋าให้ตัวละครในเกมด้วย Motion Capture
หลังจากที่คราวที่แล้วเราได้แชร์เทคนิคและไอเดียเกี่ยวกับการนำ Motion Capture มาใช้ในงานเกมให้เห็นกันไปแล้ว ว่าสามารถนำมาใช้ช่วยลดกระบวนการทำงานในส่วนของการ Animate ท่าทางของตัวละครได้ดีเลยทีเดียว ( อ่านบทความก่อนหน้านี้ได้ที่นี่ ) ซึ่งแน่นนอนว่า Animation ในเกมนั้นมีเยอะมาก เรียกได้ว่า แทบจะตลอดเวลาของการดำเนินเกมเลย ซึ่งจะแบ่งออกเป็น 2 ประเภทหลักๆ นั่นก็คือ แอนิเมชั่นที่เป็นท่าทางต่างๆ เช่น การเตะ การต่อย การฟัน การยิง
อัด Mocap เพื่อสร้าง Loop Animation สำหรับท่าทางการเคลื่อนที่ของตัวละครในเกม
ถ้าพูดถึงตัวละครในเกมที่ถือว่าเป็นที่ถือว่าเป็นจุดศูนย์กลางของเกมและเป็นส่วนสำคัญอันดับหนึ่ง แต่ส่วนที่สำคัญที่รองลงมาและจะขาดไปไม่ได้ เพราะเป็นส่วนสำคัญที่ทำให้ผู้เล่นได้รับรู้ และมีปฏิสัมพันธ์กับตัวเเกม นั่นก็คือท่าทางการเคลื่อนไหวของตัวละคร เช่น การเดิน การวิ่ง คลาน กระโดด หรือแม้กระทั่ง การที่ตัวละครไม่ได้ทำอะไรเลย ก็ยังมีท่าพักของตัวละคร จะเห็นได้ว่า ท่าทางการเคลื่อนไหวของตัวละคร มีเป็นส่วนประกอบอยู่ตลอดเวลาของการดำเนินเกม ซึ่งการ Animate หรือการทำให้ตัวละครเคลื่อนไหวนั้น ก็ไม่ใช่ว่าจะสร้างการเคลื่อนไหวยาวทั้งตัวเกม แต่จะสร้างการเคลื่อนไหวที่สามารถเล่นวนลูปได้ยาว ไปเรื่อยๆไม่รู้จบ หรือเรียกว่า ” Loop
อัด Mocap เพื่อสร้างท่าทางตัวละครใน Game
ใครว่าการบันทึก Motion Capture ใช้ได้กับงานภาพยนตร์หรือแอนิเมชั่นได้อย่างเดียว ? แต่ที่จริงแล้วยังมีอีกหนึ่งงานที่เราสามารถนำตัว Mocap นี้มาประยุกต์ใช้เพื่อย่นระยะเวลาการทำงาน ให้เร็วขึ้นได้ ซึ่งงานที่เรากำลังพูดถึงนั่นก็คืองาน “ Game ” ซึ่งหลายคนอาจสงสัยว่างาน Game เกี่ยวอะไรกับงานด้านการเคลื่อนไหวอย่าง Motion Capture ? โดยถึงแม้ว่าเกมจะประกอบไปด้วย โครงสร้างหลักๆที่เป็น Coding หรือชุดคำสั่งทางคอมพิวเตอร์ต่างๆมากมาย และ Model
Export Meta Human ไปยัง Blender สำหรับทำ Mocap Live Steaming
ในยุคที่สื่อออนไลน์กำลังเฟื่องฟูอย่างมากนี้ หนึ่งในงานที่ Mocap ถูกนำไปประยุกต์ใช้ได้อย่างดีและกำลังเติบโตและเป็นที่นิยมขึ้นเรื่อยๆ นั่นก็คือการทำ ” Vtuber “ หรือการแสดงท่าทาง ผ่านตัวละครอวตาร์ 3 มิติ โดยการถ่ายทอดสดหรือเรียกว่า Live Steaming ผ่านช่องทางออนไลน์ต่างๆ เช่น Youtube, Facebook, Twitch หรือ platform Live Steaming อื่นๆ
เปิดห้องเรียนนวัตกรรม Motion Capture มรภ.เทพสตรี จังหวัดลพบุรี
วันนี้ Dfine Digital Reality ได้มีโอกาสมาส่งมอบความรู้กันนอกสถานที่อีกครั้ง วันนี้เรามาที่จังหวัดที่อยู่ห่างจากกรุงเทพฯ ประมาณ 2 ชั่วโมงและเป็นจังหวัดที่มีเอกลักษณ์เฉพาะตัวที่ไม่เหมือนใครอีกด้วย ซึ่งนั้นก็คือจังหวัดลพบุรีนั่นเองครับ โดยวัตถุประสลค์ของการมาในครั้วนี้คือ มาสอนน้องๆ ของคณะเทคโนโลยีสาระสนเทศ มหาวิทยาลัยราชภัฎเทพสตรี ได้รู็จักกับอุปกรณ์ Motion Capture และทดลองใช้งานกันแบบจริงจัง ซึ่งบรรยากาสในการเรียนการสอนนั้น เต็มไปด้วยความสนุกสนามและ ได้รับความร่วมมือจาก คณาจารย์ และน้องๆ นักศึกษาของคณะที่ให้ความสนใจและกล้าถามในจุดที่สนใจต่างๆ โดยเราได้เริ่มสอนทั้งในส่วนของการสวมใส่
แสดง MOCAP แบบสดๆในโปรแกรม Blender ผ่านระบบ Live Streaming
อย่างที่หลายๆคนรู้กันว่าการบันทึก Motion Capture คือหนึ่งในอุปกรณ์ Input ที่ใช้เก็บข้อมูลการเคลื่อนไหวของนักแสดงในการสร้างงานภาพยนตร์หรือ Animation ซึ่งเมื่อเราได้ข้อมูลการเคลื่อนไหว หรือไฟล์ Mocap มาแล้ว จะต้องมีการส่งไฟล์นั้นๆ ไปใส่ในตัวละครที่เราเตรียมไว้แล้ว ( Re-Target Animation ) เราถึงจะเห็นว่าตัว Animation หรือการเคลื่อนไหว กับตัวละครที่เรามีความราบลื่นดีมั้ย รวมถึงจุดบกพร่องต่างๆที่อาจเกิดขึ้นของการเคลื่อนไหว แต่ที่จริงแล้วเราสามารถดูความเคลื่อนไหวของตัวละครของเราที่ได้รับข้อมูลมาจากชุด Mocap Suit
ถอดบทเรียนภาษามือด้วย Motion Capture เพื่อผู้พิการทางการได้ยิน
ถือว่าเป็นโอกาสพิเศษมากๆ ครับ สำหรับครั้งนี้ เพราะมีผู้ที่ให้ความสนใจในส่วนของอุปกรณ์ Motion Capture ที่จะนำไปเป็นสื่อกลางในการผลิตสื่อเพื่อผู้พิการทางการได้ยิน ที่ต้องการโอกาสทางสังคมที่เท่าเทียมกันกับคนทั่วไปในบ้านเมืองเรา เพราะทุกวันนี้การเปิดโอกาสทางสังคมกำลังเป็นที่ให้ความสนใจในปัจจุบัน ยกตัวอย่างเช่น การมีล่ามภาษามือในรายการข่าว หรือว่ามีแอพพลิเคชั่นภาษามือที่ทุกคนสามารถโหลดลงบนมือถือได้ แต่อย่างไรก็ดี ช่องทางการสื่อสารระหว่างผู้พิการ และคนทั่วไปก็ต้องมีการพัฒนากันอย่างไม่หยุดนิ่ง เพื่อที่จะให้ผู้พิการทุกท่านสามารถใช้ชีวิตได้อย่างปกติ วันนี้ทางบริษัท Vulcan Coalition ซึ่งเป็นบริษัทผู้ผลิตสื่อสำหรับผู้พิการในด้านต่างๆ ได้ขอเข้าเยี่ยมชมและทำการทดสอบอุปกรณ์ motion Capture เพื่อนำไปใช้ในการผลิตสื่อสำหรับผู้พิการทางการได้ยิน โดยจะทดสอบตั้งแต่การควบคุมชุดทางร้างการ
สร้างแอนิเมชั่นแบบไม่ใช้ Mocap Suit ด้วย Rokoko Vision
เมื่อพูดถึงงานบันทึกการเคลื่อนไหวหรือ Motion Capture หลายคนคงต้องนึกถึง Mocap Suit สีดำที่มีอุปกรณ์ราคาแพงติดตั้งตามตัว ซึ่งมักจะถูกใช้งานในระดับ Studio ขึ้นไป ทำให้คนทั่วไปที่สนใจอยากสร้างงานแอนิเมชั่นด้วย Mocap อาจคิดว่าเข้าถึงได้ยากสำหรับเทคโนโลยีเฉพาะทางแบบนี้ แต่ที่จริงแล้วยังมีอีกหนึ่งทางเลือกสำหรับผู้เริ่มต้น หรือแม้กระทั่งคนที่ทำงาน ในสายงานแอนิเมชั่นที่ต้องการใช้ Mocap มาช่วยในงานแอนิเมชั่น ซึ่งก็คือคือการใช้ระบบที่ทาง Rokoko ได้คิดค้นและพัฒนาขึ้นเรียกว่า ” RokokoVision “ หรือระบบตรวจจับ