忍者ブログ
個人HP After Cider の管理人、 ほねっとのブログです。 なのはプロジェクトとか大好きです。 八神はやてが大好きな管理人です。 コメント歓迎です!
[1] [2] [3] [4] [5] [6] [7]
×

[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。

安藤広志先生
ATRメディア情報科学研究所 認知ダイナミクス研究所
NICT(情報通信研究機構)ユニバーサルメディア研究センター

ATR:Advanced Telecommunication Research Institute International

専門
 視覚の計算モデル
 心理物理実験
 脳科学イメージング

おすすめの本
 Vision, D. Marr著 乾・安藤訳

情報社会と人間
 情報技術に対する期待とリスク
 *期待・可能性
  [超]臨場感情報の伝達
  ・高精細・立体映像・音響伝達
  ・多感覚の伝達
   立体映像音響放送・通信
   多感覚訓練・教育システム
   高臨場感会議・懇親システム
   五感遠隔協調システム
   遠隔医療・診療システム
   五感ネットショッピング
 *リスク・危険性
  伝達される情報は安全か
   身体器官・脳に対する安全性
    AVATORをみて、3Dメガネがつらくてはずしてしまう人
    映像が手前に飛び出して来た時に、眼球の向き(輻輳)は寄り目方向(手前を見る方向)にうごくが、目のピントはスクリーン位置に固定されたままという矛盾が生じる。
   3Dをずっと研究している人は慣れているから平気で出来るが、そういうのに慣れていない人は疲れてしまうことがある。
  コンテンツの質の問題
   低質の情報に振り回されるリスク
    画面の枠で切れてしまう3Dとか、雑なポリゴンや3D表示技術
  情報セキュリティ

 安全性・危険性について、調査を行う必要がある
  ☆しかし、どうやって調査を行うか?
  直接聞いたところで信頼性のあるデータは取れない
  こういう部分を調査する研究を行っている。

超臨場感コミュニケーションの研究
 NICT
  ├超臨場感基盤グループ(小金井) 物理的に忠実な映像・音響を目指す
  └超臨場感システムグループ(けいはんな研究所) 人間にとって最適化された臨場感実現する

超臨場感システムのプロトタイプを作っていく

裸眼立体視のディスプレイの裏事情
 東芝とかが作った
 でも、多分ちょっと売れてすぐ収まるという予想
  ・見るための制約が多すぎる 視点数が少ない・横方向のみの視差など

大画面裸眼立体ディスプレイ
 プロジェクタアレイ(63台)を並べて特殊なスクリーンに投影

☆この大画面3Dディスプレイが自動車業界に求められている!なぜ?
 自動車デザインのモックアップを作るコスト・時間を省きたいため!(大画面だから等身大のものができる)

3D映像作るのも大変
 視点が63個あれば、63回レンダリングしなきゃいけない
 実写動画だと、63視点必要←NICTではカメラアレイ30台で、カメラの間の画像を作り出して63視点作る。
  ☆カメラの個体差の調整が非常に大変らしい。
  再生するのにもメモリが足りないことがあるらしいww

手持ち箱型裸眼立体ディスプレイ "gCubik"

インテグラル方式による光線制御

テーブル型裸眼立体ディスプレイ "fVisiOn"

テーブルの上に3Dオブジェクトが浮かび上がっているように見える!
360度はまだ達成できてなくて、現状は130度程度(原理的にはできる)
テーブルの下に小型プロジェクタを100台以上配置して、多数の光線を作り出す。
新しく開発した円錐状の光学素子を用いて現実に近い光線群を作りだす。
☆なんでいまは130度なんだろ?
 →プロジェクタの数が問題だから数あればできるはず。

多感覚interactionシステム
四感覚(視覚聴覚触覚嗅覚)の多感覚interaction技術開発



音を付けるところがちょっと他にはない
 物体に触れるとその材質特有の接触音がする&触り方に応じて音が変化&HRTF畳みこみによって立体音響提示
 ☆かつ、実時間!!←ここが大事
 ☆コツとしては、叩いているのか擦っているのかを判定してから音の生成をするのではなく、接触したら両方の音を生成し始め、生成が終わる前に叩いてるのか擦っているのかの判定が終わるのでどちらかを再生することで再生を速めている。

匂いを単に出しているだけだと部屋に充満してしまう&人が順応してしまう
 特許出願中の技術で鼻に向けてピンポイントに出したりとめたりして制御している

人の把持感覚特性に基づいた把持感覚提示デバイス
 把持感覚は加速度が大事
  ワイヤーで把持デバイスを引っ張るとワイヤの伸び縮みがあるので柔らかさを感じてしまうらしい
 触った時に音が出ると、音によって触った時の堅さの感じが違ってくる。


立体音響技術
 HRTFのはなし
  音が立体的に聞こえるのは音が頭や耳介で反射・回折するからで、この音の周波数特性をHRTFという
  HRTFは測定するのが大変
  HRTFを測定せずに、個人の耳介形状などから推定する技術の確立を目指す
 →高精度の音場シミュレータを開発した

 立体音場シミュレータを用いたところ、耳介形状モデル("耳"字モデル)に近似できることが分かった

広視野3D映像が脳に与える効果
 MRIで脳活動を撮りながらいろんな広さの視野の3D映像を見せる
 →視野が広がっていくほど活動している脳の範囲が広がる
PR

先端表現情報学特別講義Ⅴ

超臨場感システム NICT井ノ上先生
http://www2.nict.go.jp/x/x152/index.html
要素技術
 立体映像
 立体音響
 触覚
 心理評価などなど・・・

ユニバーサルコミュニケーションを実現する技術
 安全・信頼・共感・感動の想像
 自然な表現・伝達
 壁の超越
 ユニバーサルコミュニケーションに関する調査研究会(2005.12)
 http://www.soumu.go.jp/main_sosiki/joho_tsusin/policyreports/chousa/universal/index.html

ユニバーサルメディア研究センター
 http://www2.nict.go.jp/x/x152/index.html
 “見る、聞く、触れる、香る”あなたのそばに超臨場感環境を実現!
 立体映像・立体音響・多感覚インタフェース技術・知覚や認知メカニズムの解明

超臨場感とは
 五感情報をできるだけ物理的に忠実に取得・伝達・再生することで、あたかもその場にいるような高い臨場感の提示。
 超高臨場感の実現
 時空間を超えるコミュニケーション手段の追及
 感覚特性を考慮して、人間に適した臨場感の実現

社会的な貢献
 ☆物理的に忠実な再現
 異放射指向性スピーカ
 電子ホログラフィ
 ☆人間に最適化された臨場感の生成
 大画面裸眼立体ディスプレイ
 多感覚インタフェース
 臨場感の客観的評価技術

研究目標
 環境:場・雰囲気の生成→遠隔地のリアルな体験共有
 人:人の気配の生成→遠隔コミュニケーションの促進
 物:物の操作・感触→モノを介したインタラクション
 認知メカニズムの解明:臨場感評価指標の策定・多感覚統合のメカニズム・臨場感の測定解析技術

取り組んでいる立体ディスプレイ
 大画面
 テーブル
 手持ち箱型

立体映像技術を取り巻く環境
 3度目の正直(10年に一回ずつ、ブームはあった)
 今回はテレビ放送などもあり、かなり強いブーム
 ヨーロッパや韓国の国家プロジェクト
  EU FP6プロジェクト、FP7プロジェクト
 日本では各企業・研究機関で行われている
 ☆いまは大画面化・高解像度化・裸眼立体視の研究

現在の立体映像ディスプレイの課題
 視点位置ごとに違う映像を届ける必要
  →視点が9個(3x3)あれば、900万画素のディスプレイを使ってみた場合、100万画素のディスプレイに見えてしまう。

 解決するための方法はいろいろ提案
  大量のプロジェクタ→スクリーン→ユーザ:900万画素のプロジェクタを9台並べれば、2700万画素になる。
 

画像処理論 佐藤先生

モルフォロジーによる各種操作
 Dilationオペレータ
 Erosionオペレータ

→Morphological filter
 基本オペレータの組み合わせで細かなごみが除去できる!

モルフォロジー演算による各種処理
 template matching
 boundary extraction
 region filling
 extraction of connected components
 thinning
 thicking
 skeltonsなどなど

Hit-or-Miss Transform
 テンプレートマッチング
 入力画像Aの中で対象Xを検出
 BはXにもとづくテンプレート
 [goo Wikipedia] http://wpedia.goo.ne.jp/enwiki/Hit-or-miss_transform

Boundary extraction
 境界線検出
 正方形の構造要素でErodeしたものと、元の連結成分との差
 β(A)=A-(A erode by B) B:3x3の正方形構造要素
 ☆なるほどなー!

Region filling
 領域塗りつぶし
 Bは[0 1 0, 1 1 1, 0 1 0]の要素
 X_k = (X_k-1 dilate with B)∩complement of A (再帰的に行う)

 この例のように、範囲を限定しながら行うDilation処理はconditional dilationと呼ぶ

連結成分の抽出
 X_k=(X_k-1 dilate with B)∩A

Thinning(細線化処理)
Thicking(太線化処理)
Skeletons(骨格処理)
Pruning(端点からの縮小処理、線を短くする処理)

郵便番号の認識などの前処理として行うと、余計なひげやストロークの分断、複数文字の結合に対応できるようになる

☆プリント基板の回路の各要素の分類もできるようになる!


セグメンテーション
 画像を意味のある領域に分割する手法

クラスタリングによる画像分割
 クラスタリング:分布対象集合を部分集合に分割
 画像では全画素(分布対象の部分集合)を領域(部分集合)に分割

あとはクラスタリングの話でした!(図が多くてかけないや)

JST ERATO 五十嵐デザインインタフェースプロジェクト

坂本大介先生
http://mochiino.jp/

Robot influences human relation
 人A,Bとロボットがいて、ロボットがAに対して優先的に反応するようにすると、AとBとの関係が悪くなるという実験

Long-term HRI
 実社会でのロボットと人との対話
 保育園にちっちゃいロボットを持って行った時に、子供がどうやってロボットと触れ合うか、親しくなっていくかの長期的な研究
 老人ホームにペットロボットを置いて十何カ月置いておく。すると物に対して愛着や親しみを持っていく。

Geminoid: An Android Twin[sakamoto2007]
 遠隔操作型アンドロイドロボット
 非常に精巧なアンドロイド (ex.石黒先生)
 アンドロイドが初見の時に人かロボットかわからない。
 ※自分が操作しているアンドロイドに他の人が触ると自分のは嫌な気分になる(感情リンクが強いメディアかも?)

Telenoid R1
 「可愛いでしょう」
 →初見だと、非常に気持ち悪いけども、中に乗り移ってしゃべっている人(たとえば友人や子供、孫)が分かっていれば、愛着がなぜかわく(コンテクストによって愛着がかわる)

対話メディアとしてのロボット
 自然なコミュニケーション? 
 ロボットの外見はどの程度必要?
 このようなロボットは受け入れられるのか?

最近ホットな話題
Telepresence robots
 いまアメリカですごく流行っているロボット
 実用段階に入ってきている
 (見た目はポールにタイヤとディスプレイがが付いて、Skypeができるような感じに見える)
 似たようなものが、遠隔医療の分野で実用されている(自然に受け入れられている)

Social robotのためのインタフェース[Shiromi2008][Glass2009]
 公共空間で複数のロボットを柔軟に操作する手法の研究
  スーパーで1人のオペレータが複数台のロボットを使ってスーパーの案内をするインタフェース
 ☆顔が出るSkypeなどのインタフェースでは1対1しかできないが、定型のあるコミュニケーション(たとえば銀行やスーパーなど)であれば、身体のあるロボットを使うことで1対多が可能になる

まとめ
 ・人を理解すること
 ・社会的知能を持ったロボットを作ること
 ・ロボットの人間社会への影響を評価すること

HRI(Human Robot Interface)の参考資料
 国際会議
   ACM/IEEE HRI
   SIGCHI, Ro-Manなどなど


ロボットとは?
 メタ的にみると→「足があって、入力と出力ができる機械」
 二足歩行ロボットや賢さ・正確さを求めるロボットが日本では研究してる
 しかし、実用のためにはインタフェースなどがもっと必要

身体性とは
 自身、もしくは他者であると感じられる存在の境界線。
 行為者・観察者の主観的現象であり、人によって異なる。
 身体性がロボット観に強く影響する。

 ・リフティングしてる人を見るとボールまでもその人の一部だと感じられること
 ・ギタリストのギターもその人の一部みたいな

しんたいせいのぶんるい 
・第一者身体性 自分
・第二者身体性 あなた
・第三者身体性 第三者

ヒューマノイドロボットを見ると身体性が感じられる

また、Telepresence robotは自己の延長としてのロボットとして感じられる

この身体性の延長などを考えると新たな研究ができるのではないかと考えている。

第一者身体性=ガンダム的
第二者身体性=エヴァンゲリオン

アンドロイド=自分
 自己の感覚までも拡張できる
 ☆ロボットに自分が乗り移る(アンドロイド)、他者が乗り移る(Terenoid R1)

HCI(Human Computer Interaction)によるHRI(Human Robot Interaction)の拡張

 遠隔操作・もしくは柔軟な操作でロボットを自分自身にすること
  一人称視点のロボット感
 ネットワークに接続されたロボット群を柔軟に扱うこと
  自分の身体が拡張された感覚を実現する。
 ☆☆千手観音的:自分に手を増やすこと・足を増やすことを目的にしている

HRIによる人間拡張の試み
 ロボットの強み
  物理的な人の支援
  物理的な存在感

ERATOの試み
 ・テーブルトップインタフェースに天井カメラの映像を表示し、テーブルに映ったライトやCD・テレビなどにタッチ・ドラッグすることでそれらのデバイスやコンテンツの操作が可能になる
 ・天井カメラからの映像にペンで線を引くと、その線上をお掃除ロボットが掃除してくれる

 ・Germent folding interface with a small robot[w/ Yuta_Sugiura]
  服をたたむロボット
  ロボットをたたむことも大事だけど、畳むためのGUIを作ったことが重要(ロボットに可能なこと、不可能なことの提示と畳み方のシミュレーション)

 ・料理をするロボット[WISS 2009]
  材料を準備してマーかを貼る。PCのタイムライン上でその材料の投入時間や火加減を指定するとその時間通りに調理をしてくれる。
  →未来的には「あの店のあのシェフの味」みたいなのが可能になるかもしれない

 ☆服をたたむのと調理するのの共通点
  ユーザの指示とロボットの作業をインタフェースを海面として完全に分離している。
  ☆☆作業はだれが行っても良い

 ・Magic cards: A phisical tag-based household work instructions [Zhao 2009]
  片付けやごみ捨てなど、だれがやってもいい作業をカードにして、そのカードを置いておくと勝手に作業をロボットなどがやってくれるとすばらしい!というコンセプトビデオ
  ☆システムをカードを通して使える、透明なインタラクション

 ☆☆☆☆☆☆
 ☆オフレコ☆
 ☆☆☆☆☆☆

新しいロボット観
 ロボット=自己の延長、透明な存在
  手足のように自由に作業できる
  他者ではなく自分自身
 Ubicomp * Robotics
  未来生活のデザインと提案

ロボットアプリケーションを開発するために[加藤2010]
 HCI的なロボットアプリケーション開発のためのツールキット

身体性の拡張についてどのようなインタビューやアンケートを行うの?
 結構難しいが、タスクによって評価を行う
  タスクを自分の思い通りにできたか
  自分のやりたいことができたかなどを聞いていく
 内容も適宜変えていく。



忍者ブログ [PR]
カレンダー
07 2017/08 09
S M T W T F S
1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28 29 30 31
フリーエリア
最新CM
プロフィール
HN:
ほねっと
性別:
非公開
自己紹介:
ついったーはこちらです!
http://twitter.com/aftercider
バーコード
ブログ内検索
カウンター
アクセス解析