忍者ブログ
個人HP After Cider の管理人、 ほねっとのブログです。 なのはプロジェクトとか大好きです。 八神はやてが大好きな管理人です。 コメント歓迎です!
[1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11]
×

[PR]上記の広告は3ヶ月以上新規記事投稿のないブログに表示されています。新しい記事を書く事で広告が消えます。

【第2回】総合分析情報学特論XII(ヒューマンコンピュータインタフェース)

良いインタフェース、悪いインタフェース(学生発表)

スプレー
片方は調理用のスプレーで片方は家具磨き用のスプレー
会社が同じでほとんど同じデザイン
家具磨き用のスプレーにレモンの絵が書いてある
商品名も一緒
間違った時の損失が大きい

改善例
ブランド名を変える
ロック機能を付ける

カップめん
カップめんの容器に対して、具の袋の口が大きいor同じサイズ
→こぼしちゃう

改善例
細長くする
口を付ける
斜めに切る

カーナビのCDイジェクト昨日
ディスプレイが斜めに回転して出てくるときに、
ボタンがディスプレイについている時、画面にボタンがついていって
動いてしまう。

改善案
常にディスプレイが前面を向くかどう方式、
ユーザがシートに拘束されている点を活かす

松屋の「触れてください」ドア
インタラプトセンサがある
触らないでいい自動ドアなので衛生的
ただ、みんな触っちゃうから・・・

改善案
視線や顔の傾き検出カメラとかでやっちゃうといいかも

景観にマッチした、目立たない車止め
景観にマッチしすぎてぶつかってしまう
道路と同じ色

改善案
目立つ色(ただし景観を損なう)
道路の幅を自動車が侵入できない程度に狭める
街路樹を道の真ん中に植える


_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/_/
暦本純一先生のターン

ユーザインタフェース(キーボードとか)を設計する際に、ユーザテストをする前にある程度でいいから操作時間を見積もりたい。

HCIに関する古典的名著。

☆☆Cognitive Coprocessor model,Fitts Law

70年代以前 経験で設計していた

1985 Stuart K. Card, Thomaas P.Moran, Allen Newell,"The Psychology of Human-Computer Interaction"
 モデルヒューマンプロセッサモデル(Model Human Processor-memories and processors)
 [立命館大学の資料]http://www.ritsumei.ac.jp/ocw/se/2006-53924/lecture_doc/2006-53924-03.pdf
 [東京大学のJSKの資料]http://www.jsk.t.u-tokyo.ac.jp/~k-okada/lecture/index.php?plugin=attach&pcmd=open&file=20090706-soft2-handout.pdf&refer=%A5%BD%A5%D5%A5%C8%A5%A6%A5%A7%A5%A2%C2%E8%C6%F3

 ある一定の処理内で視覚情報が得られると、数十msのズレも補完して、動画として見える(シャッター式3Dディスプレイ)

 人間の反応時間を3つのプロセッサの連結としてモデル化
 知覚+認識+動作=反応時間
 (Perceptual Processor)+(Cognitive Processor)+(Motor Processor)

 フラッシュをパパパパっと連続的に光らせて、その数を認知する際の数の実験
 光らせる間隔が100ms(10times/sec)あたりは数えられる
 それを超えてくると少なく数えてしまう

 二つの平行線の間に往復するように線を引く実験
 Motor Processorの時間を測ることができる
 ☆(Perceptual Processor)+(Cognitive Processor)+(Motor Processor)の和も図ることができる

Fitts' Law 人間のポインティング性能に関するモデル
 [Wikipedia] http://ja.wikipedia.org/wiki/%E3%83%95%E3%82%A3%E3%83%83%E3%83%84%E3%81%AE%E6%B3%95%E5%89%87
 [Sociomedia フィッツの法則] https://www.sociomedia.co.jp/349

 D:ターゲットまでの距離
 S:ターゲットの大きさ(幅)
 Im:100[70~120]msec/bit
 Tpos = Im * log2 (D / S + 0.5)

 なぜ成立するのか
 ターゲットへの距離が一定比率に近づくごとにフィードバックがあると仮定
 近づくにつれカーソルがゆっくりに
 →ターゲットのサイズに距離が入れば終了
 →時間が定まる
 
 この計算からだとTpos = Im * log2(2D/S)

 だけど実際に実験すると1回や2回のループで終わる時はちょっとずれる
 →☆その辺を修正したエラー項の[ + 0.5 ]
   Tpos = Im * log2 (D / S + 0.5)

 電卓とかキー配列は遺伝的アルゴリズムなどで最適解を求められる!


Fitts' LawとGUI
 ☆デザイナーが勘でやるのではなく、科学的な設計指針が立てられる
 性能予測ができる

 Prince Cursor[Kabbash, Buxton, CHI '95]
 カーソルを点でとらえるのではなく、範囲で選択できるようにする
 [Prince Technique] http://www.billbuxton.com/prince.html
 [バブルカーソルのGUI環境への適用と拡張] http://www.interaction-ipsj.org/archives/paper2006/pdf2006/interactive/paper0135.pdf

 Pie Menu
 パネル選択の際に、縦にべローンと出すのではなく、円形に提示する
 数が増えるほど縦に出すのよりも速くなる実験結果
 [Wikipedia] http://en.wikipedia.org/wiki/Pie_menu

 Metropolis Keyboard
 [Metropolis Keyboard] http://www.almaden.ibm.com/u/zhai/papers/Softkeyboard/UISTCamera.pdf

不確定性原理(Hick's Law)
 複数の選択肢がある時の反応時間
 ボタンの項目の数とか押す頻度が反応時間に関係

 [Passion For The Future インタフェースの計量化、その3 Hickの法則]
  http://www.ringolab.com/note/daiya/archives/000681.html

 選択の判断に要する時間∝候補の情報エントロピー

学習のベキ法則(Power law of practice)
 100回目に折り鶴を折るのと10000回目に折り鶴を折るのにかかる時間は、もうなれちゃって一緒かな、と思うとそれは違っていて、実際は対数的にはやくなっていく
 ☆人間が物を学ぶ時、練習すればするほど本当にはやくなるし、スランプもある。

 あるタスクを繰り返し実行するとき、
 1000回目の実行時間は 1.48sec
 2000回目の実行時間は 1.15sec
 の時、5000回目はどれくらいかかるかというのは予測できる。

Keystroke Level Model
 コマンド操作などの操作時間を予測するモデル

 [Passion For The Future インタフェースの計量化、その1 KLM手法]
 http://www.ringolab.com/note/daiya/archives/000662.html

 コマンド指向のエディタ vs GUI指向のエディタ
 (コマンド指向のエディタ:viやemacsやed)
 [ed - Wikipedia] http://ja.wikipedia.org/wiki/Ed

 「GUIになったら遅くて使えないじゃないか!」という反論に対して、「GUIは使える」という実験


まとめ
 UIを設計するのは、デザイナー的に思いつきの設計ではなく、理論的な設計が可能である。

PR
第6回「コンピュータビジョン最先端ガイド」勉強会に参加してみました。

CVIMチュートリアル勉強会
http://groups.google.co.jp/group/cvim_tutorial/web/%E5%A4%96%E9%83%A8%E5%90%91%E3%81%91%E5%85%AC%E5%BC%8F%E3%83%9A%E3%83%BC%E3%82%B8

参加者のATND
http://atnd.org/events/7588

USTREAM(録画もあり?)
http://www.ustream.tv/channel/learncv



対応点探索による画像マッチング方式

対応点の探索では128次元の特徴量に対してユークリッド距離を尺度としてはかる

ソフト例

Autostitch 普通の画像を何枚かとると自動で特徴点でつないでパノラマ画像ができるアプリケーション。
http://cvlab.epfl.ch/~brown/autostitch/autostitch.html

対応点はSIFTで探している。
対応点を曲げる処理はどうしてる?(lensひずみや円筒画像の時)
>Homography / Homographiesとかで処理する。
Homography
http://en.wikipedia.org/wiki/Homography

>RANSACでの一致を探す

英語では「Image  stitching」、「Image mosaic」というキーワード

デジカメのスウィングパノラマとかもこの処理かもしれない

特定画像を用いた画像認識
 予め参照画像を用意して、入力画像の中から探す処理。
 ただし、入力画像内に参照画像が複数ある可能性あり。

 >一般化ハフ変換をおこなう
 >>スケールと回転が分かるのでこの方向にオブジェクトがあるだろうという投票を行い、そのピークをつかう

 >中心に投票する方法
 >>同じ画像があった場合でも、特徴点の方向、スケールなどを基に、参照画像での中心位置を参照・投票すれば自動的にクラスタリングできる

特徴点追跡
・KLT法
 特徴点で追跡しやすい点を見つけて使う。物体は剛体の平行移動に仮定
・Mean-Shift法
 非剛体において、KLTよりも追跡がりょうこうだった。
 特徴点の追跡
 >Δx、Δs(スケール)を測ることで、xyzの移動を追跡する

画像分類
・Bag-of-Keypoints
 学習データとして、SIFT特徴量のインデックスだけもつ
 >そのベクトルのヒストグラムで識別器を学習し、判別する
 ベクトル量子化した特徴量:visual word

 ☆文章検索の応用が利くようになる
 検索エンジンでの単語の出現率みたいなのをつかえる。

SIFTのライセンス・特許的な話

 Evolution RoboticsにはSIFTライセンスが付いてきたりするらしい
 http://www.evolution.com/

 デビッドロウ(David Lowe)
 http://www.cs.ubc.ca/~lowe/

 ライセンスに関して学術的な用途に関してはOK
 OpenCVを製品にそのまま突っ込むのはとっても危険


SIFTの拡張

 PCA-SIFT
  キーポイントの取り方はSIFTと一緒
  41x41の画像にりサンプリングして勾配をもとめ、39x39x2の3042次元を使う
  PCA(主成分分析)を行い、次元圧縮
  次元が小さいので高速化ができる

 >SURFもPCA-SIFTも論文では「ロバスト(キリッ」って書いてるけどたまたまなことも多いからあんまり信用しないで・・・

 GLOH
  キーポイントの取り方はSIFTと一緒
  特徴量の取り方がSIFTとちがって極座標的なとり方を行う。
  16方向×17=272次元の特徴量をつかう
  その後次元圧縮をおこない、128次元にする。

 SURF
  かなりの高速化ができる
  DoGの計算をHessian-Laplace検出器を近似したBoxフィルタを使って近似計算する

 U-SURF
  回転の計算は行わないSURFで高速化
  実験によると±15度のロバスト性がある

 OpenSURF
  解説論文。 http://www.cs.bris.ac.uk/Publications/Papers/2000970.pdf



カメラキャリブレーションの話
 この前の画像処理の授業で色々あったのでその話ですね!
 外部パラメータとか内部パラメータとかレンズひずみとか
 【第1回】視覚情報処理論・コンピュータビジョン
 http://javen.blog.shinobi.jp/Entry/229/

 キャリブレーションではチェッカーボードをよくつかう
 でもサッカーフィールドなどのでかい場所だと地獄のキャリブレーションになってしまう。
 >SIFTの登場

 Bundle Adjustmentなどでいけるはず!
 Bundle Adjustment
 http://www.eml.hiroshima-u.ac.jp/member/staff/tamaki/memo/index.php?bundle%20adjustment
 多数の画像からのシーン復元 (n-view geometry)
 http://nekojunky.blog96.fc2.com/blog-entry-74.html

 SIFTはパターン認識にも使える技術であるが、本来、「対応点を探す」という設定なのでGeometry関連でとても重要な地位にある技術!


Randomized Treesの話
 決定木+アンサンブル+ランダム学習
 類似手法 AdaBoost
 別名
  Random Forests
  Randomized Forests
  Ferns

 SIFTと違うところは射影変換が可能
 画像から領域をセグメンテーションして分類できる(※リアルタイムで!)

 文字認識、visual wordクラスタリング、行動認識や姿勢推定にも使われる。

メリット
 高速な学習
 教師信号のおノイズに強い
デメリット
 オーバーフィッティング

マルチクラス識別器
 SVM
 Boosting
 Randomized Treesとかあるよ

学習アルゴリズム
 決定木を作る
  学習サンプル(カテゴリとあたい)がある
  二分木で深さをある程度決めておく
  木をいくつか作っておく。
  木に突っ込んであげてどれにたどり着くか
 
 サンプル集合をT個のサブセットに分ける(完全にランダムで)
 学習に利用されないサンプルや、サブセット間でのサンプルの重複は許容
 (Randomized Treesはパラメータが多い)

 分木ノードの決定方法
 一般的には二つの方法がとられる
  ○情報量を基準として選択
  単純にランダムで選択

 基本的に設計は自由
  Semantic TextonForestsではしきい値を利用
  他には特徴量の大小関係
  
-ブログ途中で消えちゃった-

RandomizeTreeは40度傾けても行けるけどそれ以上はきつい
>その改良として、ViewPointの変化とKeyPointの変化の2段階の決定木を作った
予め視点でViewPointクラスタリングを行う

Fernsはメモリ容量を削減するために決定木を一本にする

識別器でおいて分岐させていくのではなく、判別を011010みたいなかんじで01判別してシリアライズする
で、そのシリアライズされたのを基に、参照データでのひかくをおこなってマッチング

先端表現情報学特別講義Ⅴ(実践情報社会論(放送・通信・コンテンツ技術論))
NHK放送技術研究所 野尻祐司先生

ハイビジョン=日本での呼称
HDTV=海外での呼称
→新しくスーパーハイビジョン(SHV)を開発

1953年 テレビ放送開始
1969年 技研公開でHDTVを初展示
1981年 HDTVを海外初公開
1991年 ハイビジョン試験放送開始

1990年代にSHV研究開始
2000年 BSデジタル開始(HDTV本放送)
2002年 4K超高精細映像システム一般公開
2006年 SHVを海外初公開

東京オリンピックで、映像の宇宙中継を行い、世界と肩を並べた。
1963年 初めてアメリカから日本に映像(ケネディ大統領が暗殺された映像)を送ることができた。

将来のテレビの研究としてHDTVの研究を行った。


SDTV(Standard Difinition TV)→HDTV(High Difinition TV)→SHV

SHVの概要
想定ディスプレイ 100~200インチ(あまり予想できていない)
目標 臨場感(SDTVは遠くの映像を映し出すことが目的だった。)
カメラ技術 真空管、CMOSから次のデバイス(有機撮像デバイスなど)への転換
記録 HDDよりも大容量
ディスプレイ ブラウン管、液晶、プラズマなどから、さらに新しいデバイスへ
プロジェクタも高性能化が必要
現状ではプラズマでのSHVしかできていない。液晶ではできていない。
しかし、100~200インチのテレビが家に入るのか?
という課題があるから新しいものが必要


スーパーハイビジョンなどの観視条件は、『視力1.0の人』を基準にしている
その場合、画角1度に対して60画素、1画素1分の画素が判別限界。

ハイビジョン(1920x1080px)のディスプレイの場合、
画面の高さから3倍離れた場所からの視聴が絶対視距離となる。

スーパーハイビジョン(7680x4320px)のディスプレイの場合、
画面の高さから0.75倍の距離が絶対視距離。

ということで水平画角は、
ハイビジョン:30°
スーパーハイビジョン:100°
になる!(人の視野は周辺視野を含めると100度程度だから視野をカバーできる)

ハイビジョンは207万画素で走査線が1000本がインタレースで、2Kシステムと呼ばれ、
スーパーハイビジョンは3300万画素で、走査線が4000本順次走査で、8Kシステムと呼ばれる。


HDTVの目標設定として
人間の視覚効果にマッチする
 画面から十分な臨場感→画角30°
将来目標と映像パラメータ
 視覚特性と心理特性のアプローチ
  視覚疲労=絶対視距離
  めまぐるしさ=相対視距離
  視覚特性=走査線数、フレーム周波数
  心理特性=アスペクト比、相対視距離
  以上のような対応関係がある。
 視聴環境からのアプローチ
  画面の絶対サイズ(部屋のサイズなどの条件)
  絶対視距離(部屋の広さ)
 技術的将来予測、実現性

☆3Dテレビは1990年ごろには「まだ20~30年では実現できないだろう」という見通しだった。

[Ref]畑田、他:"画面サイズによる方向感覚誘導効果" テレビ誌, vol.23, no.5 (1969)

視距離と画質の関係
 風景や人物をHDTVに表示した場合、画面に対して3倍くらいの距離だと綺麗に感じる。

縦横比
 画面サイズが大きくなればなるほど横長の画面が好まれる。
 3:5,3:6あたりの画面比が好まれることが分かっている。

画面サイズと臨場感
 自分から画面に対する相対画角が同じでも、実際の画面サイズが大きいほど臨場感が高まる。

CCF(Critical Flicker Frequency)
 画面のフレーム数が少ないと画面がフリッカー(ちかちかみたいな)する。そのフリッカーを感じなくなるフレーム周波数は60fps当たり。
 ただ、網膜上の中心でCCFが一番高いのではなく、中心から少し離れた(30°とか)の方がCCFが高い。
 日本は60fpsだが、ヨーロッパは50fpsの映像を送っている。
 (ヨーロッパでは日本よりも暗めの部屋でディスプレイの輝度を落として見ているのでは?という考察がある)

動きが滑らかに見えるfps
 左から右にオブジェクトが動くときはfps30で10度くらい。
 右から左にオブジェクトが動くときはfps30で30度くらい。

 左から右にオブジェクトが動くときはfps60で25度くらい。
 右から左にオブジェクトが動くときはfps60で33度くらい。

 なのでfps60でつくることにした。

☆左右でちがうんですね!!

受像機が設置されている部屋の広さ

昭和42年のデータ(かなり古いですね…)
 6畳が45%でほとんど

最近のテレビの視聴条件
[Ref] 成蹊大学 窪田ほか「過程におけるテレビの観視条件」情報メディア学会視,Vol40,No4 (2006)

☆画面の絶対サイズは画面の絶対視距離によって決められる

最小視距離:目の疲労
 ピント調節を行う筋肉が2m以内だと疲労してしまう。
 ピント情報を奥行き情報の手がかりとする機能の低下は2m以上。
 →ということは2m以上に離せば疲労しないし、奥行きを想像してくれる。

最大視距離:部屋の大きさ
 8~10畳の部屋だと3mくらいが限界

→絶対視距離として2.5mとして設定
 →水平画角30度、縦横比9:16
  →0.75m x 1.3m(60インチのハイビジョンテレビ) でかい!

昔は画面はなぜ9:16になった?
 最初は3:5にしていた。
 フィルムのサイズで一番近いのが9:16で、映画はHDTVにとって非常に重要なコンテンツだったため、そのサイズに合わせた。


こんな根拠を基にハイビジョンテレビは設計されてきた。

(根拠としてる実験の被験者数が4人とか3人とか、少ないのが気になる。)

2K(HDTV)を60インチ視聴距離2.5mとすると、視野角30度
4Kディスプレイは120インチで視野角60度
8Kは240インチで視野角100度。

4Kはデジタルシネマとかで使われる規格。

有効視野 眼球運動だけで中止し、瞬時に情報重要可能な範囲 横30°、縦20°
誘導視野 提示情報の存在が分かる程度 横100度縦85度


スーパーハイビジョンを使った実験紹介

観視画角の増加と臨場感の関係はどうなるのか?
 主観評価実験を行った
 ・被験者内計画
  被験者全員がすべての大きさのディスプレイを評価する
 ・被験者間計画
  被験者一人が一つの大きさのディスプレイを評価する
 被験者は非専門家200名で視力0.7以上
 評価軸は「臨場感がある」~「全くない」で10cm尺度

 結果
 (被験者内計画)40度から100度まで、画角の広がりと臨場感は直線的に変化した。
 (被験者間計画)80度のあたりで臨場感のピークがあり、それ以上は飽和しているか若干の低下がみられた。

 考察の一つとして
  平面の大スクリーンの場合、近づいてみるために、外側の視野の部分が歪んで見える。これが原因の一つだったのでは?
  →確認する実験は行っていない。

観視画角と重心動揺に関する実験(画像を動かした時に被験者の重心に変化がどう出るかの実験)
 画面を見ていた時の重心の変化の長さを評価した(身長で正規化)
 →画面が大きいほど重心が安定している。


解像度と実物感の関係(視力を超えた高解像度にして、意味があるのか、実物っぽく見えるのか)
 125x125px~1000x1000pxの250mmx250mmディスプレイ
 解像度19.5cpd~156cpd(視距離4.5m)
 実物とディスプレイとを被験者に分からないように交換して、本物かどうか回答してもらう。
 Synopterをつかい、両眼視差をなくした。
 被験者 視力1.0以上非専門家65名

 結果
 47cpdあたりで実物感が飽和してくる。 しかし、実物に至らない。(映像によっては実物に肉薄する場合もあり。)


結論
 水平画角80度、50cpd=水平やく8000画素当たりでいいのではないか。
 (SHVは100度、30cpdで6000画素)

水平画角80度を実現するテレビサイズとし距離の関係
 20inch:25cm
 30inch:38cm
 50inch:63cm
 100inch:1.25m
 200inch:2.5m

大画面になると等身大の映像が出せる
 実物感が出る

Computer Graphics
 Input:3D Image
 Output:2D image
Computer Vision
 Input:2D Image
 Output:3D Image
 = to understand 3D world by some 2Dimages
 (scene geometry, object color, illumination etc.)
Inverse Problem

 

Human can recognize image by
 example:disparity(視差)
 ->the apparent movin distance of a point between two images
 
 Such as stereo vision
 In stereo...
 generally, all camera parameters(intrinsic, position, pose) are known.

Camera Model (How an image is generated)
 perspective projection
 
 f:Focal length:distance between camera center and image plane
 z:distance between cameracener and optycal axis

Global to Local
 Global coordinate system(P_G)
 ↓(R,T)
 Camera coordinate system(P):Local

 P = R^t(P_G-T)
 =(R^t - R^tT)P_G'

 P_G'=(P 1)^t

Pinhole Camera
 P=(X, Y, Z) と Q=(sX, sY, sZ)は同じ点に投影される
 are projected the same point int he image plane.
 →(X/Z, Y/Z, 1)=(x, y, 1)
 
However CCD; an actual picture is not equal to an Image plane
 Image plane: an ideal image!!!
 
 CCD has u,v,u0,v0,θ parameters.
 early camera θnot= 90deg.

 u = k_u*x - k_u*cotθ*y + u0
 v = k_v*y/sinθ + v0

image1.jpg







 A:Intrinsic Parameter(3x3)
 (R^t-R^tT):Extrinsic parameter(3x4)

 k(u v 1)^t = A(R^t-R^tT)(X_G Y_G Z_G 1)^t

If the same point X_G is obsered from 2known cameras,
it is possible to calculate X_G!!

[Reason]
 k1u1 = P1X_G
 k2u2 = P2X_G

 Unknown variables:5
 Constant:6

Camera Ccalibration
= to estimate of the camera parameters(intrinsic and extrinsic)

3D use cube which has marker
2D Z.Zhang('00) PAMI uses a checker board
1D use a stick wich marker and tilt it


Lens Distortion
 Method:
 Parametric Method
  Assumption: a distortion obeys a formula
  Solution: estimate parameters in the formula
 Non-parametric Method
  Prepare: checker board
  Solution: maek a look-up table between
  the checker board and the distorted image.

Estimate 3D position
 In order to estimate the X_G point, it has to be observed from several known cameras.

 Can we identify the samepoint u1,u2,,,,uN?

 We need search....

How to Search
 With 2 2Dimage, we want to search teh corresponding point from the right image!
 However, 2D search is consuming and inefficient.

Finding Correspondence
 Use Epipoler Geometry
 Epipoler plane: a plane consisted of camera1, camera2 and 3D point.

 Camera2 can know epipoler line of camera 1
 vector p1: orientation from camera1 to object(calculated from u1,v1)
 vector t: from camera1 to camera2
 http://www.eb.waseda.ac.jp/murata/junichi.mimura/knowledgh.html
 http://tessy.org/wiki/index.php?%A5%A8%A5%D4%A5%DD%A1%BC%A5%E9%C0%FE%A4%CE%B7%D7%BB%BB

 Epipoler line : au2 + bv2 + c = 0
 camera2 image only has to search on the Epipoler line.
 ☆Efficient search!!!

 →E matrix and F matrix

 p1 E p2 = 0 
 E matrix DOF=5, Defined in 3D
 
 _u1^t F _u2^t = 0 
 F matrix DOF 8, Defined in 2D

 F = A1^t t x R A2^-1

Advantage of usin F matrix
 Easy to find correspondence(1D search)
 (Without F matrix, we have to search whole area:2D search)

Rectification(Search Technique)
 Generally, epipoler lines are laid obliquely

 If all correspoonding epipoler line are aligned.
 Very effective to calculate the correspondence.

 http://ci.nii.ac.jp/naid/110006164770/en

Disparity Map & Depth Estimation
 Window(or Block) Matching
  Only search in similar window or box.

 SAD(sam of absolute difference)
  Σ|I1(u,v)-I2(u+d),v)|
 SSD(sum o f squared difference)
  Σ|I1(u,v)0I2(u+d,v)^2|
 NCC(normalized cross correlation)
  Cov(I1(u,v),I2(u+d,v))/Sqrt(Var(I1(u,v))*Var(I2(u+d,v)))

Surface Approach
Multi-View Matching (Can get high accuracy)
Index of Similarity (use SSAD SSSD SNCC which has Z depth)
Multi-View Stereo


Next
 State-of-the-Art Algorhithm
 Visual Hull
 Real-time Stereo
 Active Stereo

出席あります



忍者ブログ [PR]
カレンダー
09 2017/10 11
S M T W T F S
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31
フリーエリア
最新CM
プロフィール
HN:
ほねっと
性別:
非公開
自己紹介:
ついったーはこちらです!
http://twitter.com/aftercider
バーコード
ブログ内検索
カウンター
アクセス解析