InterBEE 2016 (放送機材展)のVR寄りレポート


※ 川口の個人的なレポートです。CRIの意見というわけではないのでご注意ください。
気になった展示(セミナー)を幾つかご紹介

InterBEE(放送機材展)についてはこちら


NHK 8K試験放送

いきなりVRじゃない話題ですが、入り口にあってインパクトあった展示。
画面でかい! 綺麗!
当たり前なんだけど解像度の高さによる情報量の暴力がすごい。
衛星放送でこんなデータ量送れるんだね。
パンフレット
22.2chという音響の展示はなかったけれど体験してみたいところ。
家庭用には・・・端の方がぜんぜん眼に入らないし個人的には要らないかなぁ。
とか言いつつ、数年後には見慣れているのかもしれない。


CRI・ミドルウェア

弊社です。
mp4を最適化し画質を保持したままさらに圧縮する技術を展示してました。
interbee2016cri
詳細はこちら : DietCoder

弊社のミドルウェアがdTVアプリで採用されていたご縁で、オリジナルのハコスコっぽいのを配ってました。
dyv


インテル・Adobeブース

Adobe Premiereを使ってVR向け、360度全天球実写映像のワークフローについて
実写映像の立体視をどうやって実現するか。
セミナーの内容が割と興味深かったので以下に。
[su_accordion]
[su_spoiler title=’インテル・Adobe VRワークフローセミナー メモ’]

・16台のカメラで輪を作るように水平に並べたものを使う。
・そのカメラ(セット)が45000ドル(約500万円)する。高い気がするけど1台30万弱と思うと妥当なのかも?
・上下に傾けたカメラが無いのは、そもそも人の眼の左右視差はを利用した立体映像のため、頭を横に傾けた時点で立体視が破綻してしまうから。
・1つのカメラに仮想カメラが500台あるらしい。合計8000の仮想カメラ。
・撮影した動画をクラウドサーバーに上げて、右目用、左目用の全天球動画としてつなぎ合わせてもらう。
・30分の動画で丸一日くらいかかる。
・音も4ch置ける(らしい。説明画面省略)
・現状ではmp4にした後、別途ツールでspatial audioのメタタグを追加する必要あり。(これを埋め込まないとyoutubeに上げても音が回らない)
・あとは複数カメラで撮影した映像のつなぎ目のスティッチの話とか。
・VRの映像編集どうやるのか全くわからん、ってレベルの人にもそれなりにフローが伝わる良い内容だったと思う。
[/su_spoiler]
[/su_accordion]


intel_adobe
ここでもスマホ立体視用のカードボードを配ってました。

ゼンハイザー

立体音響向けのテトラマイクが出るよ!
マイク1本でVR用360度音声を収録。ゼンハイザー「AMBEO VR MIC」 / AV Watch
A formatで録音できてB formatに変換して動画に貼り付けてyoutubeとかに上げると動画の向きに合わせて音が変わるよ!

って内容ですが、まさに自分が社内で実験中の方式です。

まだ色々と表現力やら互換性に課題もあるけれど
youtubeでも採用しているので業界標準になりつつあるかと。
マイクの性能が気になります。指向性が高めだと良いなぁ。


まとめ

そんな感じで3時間くらいウロウロしたレポートでした。
自分の仕事に近いところだけ紹介しましたが、いろんな会社が出展しています。

やはり放送機材展ということで、カメラやスピーカーが目立つ展示会ですが、他にもケーブルメーカーさんや、機材を手で持ち運ぶためのトランク、いろんな種類のスイッチ、数メートルあるマイク用の長いポールを作っているメーカーなど。余裕があればじっくり見て回りたいところでした。


次回、2017年の開催について

次回は来年、11/15(水)〜11/17(金)です!
興味のある方は、事前登録が必要だけれど入場無料なので、ぜひ会場に足を運んでみると面白いですよ!


コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です