Status Update März ’18

Hallo alle miteinander,

in diesem Blogpost wollen wir ein wenig erzählen, wie es mit Eternal Escape vorangeht, und woran wir in den letzten Monaten so gearbeitet haben.

Da das Gameplay und die Mechaniken von Eternal Escape nun grundlegend feststehen und funktionieren, arbeiten wir nun daran Eternal Escape optisch aufzuwerten. Unser erster Schritt hierbei ist es, die bis jetzt recht generischen Platzhalter-Animationen durch natürliche und realistische Animationen zu ersetzen. Hier kommt das große Thema dieses Blogposts ins Spiel: Motion Capturing.

Motion Capturing (oder auch Mocap) ist ein in der Spiele- und Filmindustrie verwendete Standardverfahren, um reale Bewegungen von Schauspielern und Objekten auf ein virtuelles Modell zu übertragen und diese dann in einem entsprechende Medium darzustellen. Eines der bekanntesten Beispiele für einen Charakter, der mithilfe von Mocap entstanden ist, ist “Gollum” aus den “Herr der Ringe” Saga.

 

Wir wollen Motion Capturing insbesondere für alle im Spiel vorkommende humanoide Charaktere einsetzen, um diesen mehr Leben und Persönlichkeit zu geben. Hierzu haben wir im November 2017 angefangen im Mocap-Studio der Hochschule Trier Animationen aufzunehmen. Bisher haben wir über 100 verschiedene Animationen erstellt.

 

An dieser Stelle sei einmal erwähnt, dass es nicht selbstverständlich ist, als Indie Entwickler Motion Capturing einsetzen zu können, da diese Technologie sehr kostspielig ist. Wir haben das große Glück, das Mocap-Studio der Hochschule Trier für unsere Arbeit an Eternal Escape nutzen zu können.

Die Aufnahmen sind immer noch im Gange und werden im Laufe des Jahres weiter fortgeführt. März 2018 haben wir angefangen die Animationen in die Unreal Engine 4 zu importieren, zu bearbeiten und systematisch, die bisher genutzten Platzhalter-Animationen zu ersetzen.

Noch ein paar Worte zur technischen Seite des Prozesses. Wir verwenden 16 Kameras (bald nutzen wir sogar 32), die rund um eine 25m² große Fläche platziert sind. Auf dieser Fläche bewegt sich unser Schauspieler, der einen Anzug trägt, auf dem 41 Tracker angebracht sind, die von den Kameras aus verschiedenen Winkeln erfasst werden. Aus diesen Trackern werden Positionsdaten für jeden Punkt berechnet und dann auf den 3D Charakter projiziert. Hierzu nutzen wir das Programm “Motive”. Die anschließende Nachbearbeitung mit in-game Charakteren geschieht mit “Autodesk Motionbuilder” und “Maya”.

 

 

Hoffentlich konnten wir euch mit diesem Update ein guten Einblick in unsere Arbeit der letzten Monate geben.

 

Leave a Reply

Your email address will not be published.

* Die Checkbox für die Zustimmung zur Speicherung ist nach DSGVO zwingend.

Ich akzeptiere