自分だけのバーチャルYouTuber!FaceRig(フェイスリグ)特化型Live2Dモデルの作り方
先日このブログで、バーチャルYouTuberを始める手段のひとつとして、FaceRig(フェイスリグ)にLive2Dモデルを組み込んで使う方法をご紹介しました。この方法を選ぶ人は「自分だけのオリジナルモデルを使いたい」という気持ちを持っているでしょうから、まずLive2Dモデルを作るところから始まると思います。
Live2D公式のチュートリアルはとても親切でわかりやすくできていますが、あくまで通常の使われ方をするLive2Dモデルの作り方としてのお話。
せっかくイチからオリジナルモデルを作るのなら、FaceRigに組み込んで使うことを前提とした特化モデルを目指しませんか?
※2018.4追記※
実際に作ってみました。
→【DLファイル付き】ド素人がキャラデザからLive2Dモデルを作ってみた【自作】
自力でキャラデザからFaceRig用Live2Dモデルを作ってみた記事です。キャラデザのファイルをLive2Dに落とし込みFaceRigで動かすまでに必要な作業を解説しています。作ったキャラデザ&モデルのファイルを参考としてDLできます。
実際に作ってみました。
→【DLファイル付き】ド素人がキャラデザからLive2Dモデルを作ってみた【自作】
自力でキャラデザからFaceRig用Live2Dモデルを作ってみた記事です。キャラデザのファイルをLive2Dに落とし込みFaceRigで動かすまでに必要な作業を解説しています。作ったキャラデザ&モデルのファイルを参考としてDLできます。
顔のモーションしか拾われないことを意識する
FaceRigは顔だけを認識してアバターに反映させているため、Live2D側で設定した体のXYZ軸回転には一切触れません。もちろん、ユーザー側が独自に作った設定項目も同じく触れられることはありません。体の回転や身ぶり手ぶりの動きを設定したLive2Dモデルを使っていても、動くのは首の上のみという結果になってしまいます。
では、体の動きを作るだけ無駄になってしまうのかといえば、そうではありません。首の上しか動かないという状況を回避するためにも、体の動きを作ることは重要です。
「でも、モーションが拾われない・動きを設定しても触れてくれない。じゃあどうすればいいの?」
体の動きに顔のモーションパラメーターを割り当てれば良いのです。
1.顔を右に向けるときに、体も軽く右に向ける
2.髪の毛の物理演算に腕も加えて、軽くブラブラさせる
3.呼吸モーションに体の動きを大きめに含めてみる
こんなちょっとした工夫をするだけで、通常のLive2Dモデルを使うよりもイキイキとしたFaceRig画面を演出することができるでしょう。
スマホアプリ版のファイル構成はややこしい
スマホアプリ版のFaceRigに独自Live2Dモデルを組み込むのは、少しややこしい手順が必要です。FaceRig向けとして配布されているLive2Dモデルでも、スマホアプリ版ではうまく動かないことがあるので、ご注意ください。1.
Live2Dモデル作成ソフト「Cubism」2018年1月現在の最新バージョン3.1では、デフォルトのパラメータIDが「ParamAngleX」といった大文字と小文字が混在する状態になっています。これをバージョン2.1以前のデフォルトID「PARAM_ANGLE_X」のようにすべて大文字でアンダーバー区切りの状態に書き換えなければいけません。
2.
必要なファイルのひとつに「.model」があります。mocファイル書き出しのときに「モデル設定ファイル(model.json)を書き出す」にチェックを入れておき、書き出されたファイルの「.model.json」を拡張子「.model」となるようにリネームしましょう。
3.
バージョン3.1の物理演算設定ファイルは「.physics3.json」となっていますが、FaceRigで参照されるのは「.physics.json」です。こちらはリネームしても読み込むことができないため、バージョン2.1以前のビューアで物理演算を設定してファイルを書き出したものを使ってください。