Wishlisted Wishlist

Please confirm that you want to add ベイズ推定とグラフィカルモデル:コンピュータビジョン基礎1 to your Wishlist.

Add to Wishlist

ベイズ推定とグラフィカルモデル:コンピュータビジョン基礎1

Learn essence of "Computer Vision: Models, Learning, and Inference"
4.5 (172 ratings)
Instead of using a simple lifetime average, Udemy calculates a course's star rating by considering a number of different factors such as the number of ratings, the age of ratings, and the likelihood of fraudulent ratings.
2,834 students enrolled
Created by Toru Tamaki
Last updated 3/2014
Japanese
Free
Includes:
  • 10.5 hours on-demand video
  • 3 Articles
  • 11 Supplemental Resources
  • Full lifetime access
  • Access on mobile and TV
  • Certificate of Completion
What Will I Learn?
確率変数,同時確率,条件付き確率,周辺化,ベイズの定理を説明できる
ベルヌーイ分布,ベータ分布,ディリクレ分布,正規分布,逆ガンマ分布,逆ウィシャート分布,それらの共役関係を説明できる
正規分布やカテゴリ型分布などのパラメータを,最尤推定,事後確率最大推定,ベイズ推定で求められる
正規分布の性質(共分散,共分散の分解,変数の線形変換,周辺分布,条件付き分布)を説明できる
識別モデルと生成モデルにおける回帰と識別(線形回帰・ロジスティック回帰)と,その応用例を理解できる
複雑な確率分布を,潜在変数を用いた混合分布で表現する方法(EMアルゴリズム,混合正規分布,robust t-distribution, factor analysis)を理解できる
回帰モデル(線形回帰,ベイズ線形回帰,非線形回帰,カーネル回帰,Gaussian process regression,Relevance vector regression)を理解できる
識別モデル(ロジスティック回帰,ベイズ・非線形・双対・カーネルロジスティック回帰,Relevance vector machine, ブースティング,Random trees/forests/ferns)を理解できる
グラフィカルモデルと,そこにおける変数の条件付き独立を説明できるようになる
chain型(HMM)とtree型のグラフィカルモデルにおけるMAP推定と周辺分布最大推定を理解できる
動的計画法(DP),forward-backwardアルゴリズム,確率伝播(belief propagation, BP)アルゴリズム,和積(sum-product)アルゴリズムを理解できる
grid型のグラフィカルモデル(MRF)におけるMAP推定をグラフカットを用いて解く方法を理解できる
max flow / min cutとMRFの関係を説明できる
2値・多値のMRFのための適切なグラフカットを説明できる
MRFにおける列モジュラ性の重要性を理解できる
コンピュータビジョンにおける統計的機械学習の応用を理解できる
View Curriculum
Requirements
  • 線形代数(スカラ,ベクトル,行列,転置,内積,逆行列,固有値,特異値分解)
  • 確率(平均,分散,共分散行列,多変数確率分布,期待値)
  • 微分(1変数関数の極値計算・多変数関数の微分)
  • 積分(多変数関数の積分,重積分)
Description

このオンラインレクチャーでは,確率的な手法を用いるパターン認識や機械学習の基礎を学ぶことができます.資料は,"Computer vision: models, learning and inference"の著者Simon Princeがwebで公開しているスライドを用いていますが,話題はコンピュータビジョンに限らず,確率モデルや最尤推定,ベイズ推定を扱っています.

スライドを動画で説明した後,復習クイズを出題しています.ぜひ挑戦してください(iPad/Androidアプリ版ではクイズが表示されないようですので,webで見てください).

このオンラインレクチャーでは,書籍のPartIII(Chapter 12)までの統計的機械学習の基礎を扱います.(Chapter 13以降の画像を扱う話題は別途作成予定)

Computer vision: models, learning and inference

The slide is copyrighted by Simon J. D. Prince, the author of the book "Computer vision: models, learning and inference", and is available at the book website.

The use of the slide for this online lecture is approved by Simon J. D. Prince and recognized by a contact person of the book publisher. The lecturer thanks them for their kind agreement.


Who is the target audience?
  • 確率モデルの基礎を学びたい人
  • 統計的機械学習の基礎を学びたい人
  • ベイズ推定を自分のものにしたい人
  • グラフィカルモデルを学びたい人
  • Bishop本の内容が難しいので,そのための確率の基礎の勉強をしたい人
  • グラフカットをマスターしたい人
  • コンピュータビジョンを勉強したい人
Students Who Viewed This Course Also Viewed
Curriculum For This Course
Expand All 146 Lectures Collapse All 146 Lectures 10:29:43
+
Introduction and course guide はじめに
3 Lectures 03:59
コース紹介
02:24

テキスト
00:03

This video is created with the YouTube Video Editor (http://www.youtube.com/editor) from Creative Common License videos on the YouTube.

コンピュータビジョンの応用例
01:32
+
Introduction to probability 確率の入門
9 Lectures 32:38
Random variables 確率変数
04:42

離散と連続の確率変数の問題です.

確率変数
4 questions

Joint probability 同時確率
03:15

同時確率に関する質問です.
同時確率
4 questions

Marginalization 周辺化
04:49

同時確率分布から変数を消去して周辺分布を得る操作が周辺化です.

周辺化
5 questions

Conditional probability 条件付き確率
06:59

条件付き分布
3 questions

Bayes' rule ベイズの定理
03:43

ベイズの定理
2 questions

Independence 独立
03:09

独立
2 questions

Expectation 期待値
05:06

期待値
2 questions

Chapter 2 Summary まとめ
00:55

このセクションの理解度をためす問題です.簡単な数値計算問題から,面倒な数式の導出なども登場します.自分でノートに向かって式計算をしてみてください.

なおこの問題は,大学院生向け(修士)の授業の演習問題として実際に使用したものです.全問正解できれば,最優秀賞!

模範解答・解答例は出しません.分からないことがあれば,ぜひディスカッションボードで議論してください.

section 2 worksheet
2 pages
+
Common probability distribution 一般的な確率分布
9 Lectures 32:48
Probability distributions 確率分布
02:28

Bernoulli and Beta distributions ベルヌーイ分布とベータ分布
06:42

ベルヌーイ分布とベータ分布
2 questions

Categorical and Dirichlet distributions カテゴリ型分布とディリクレ分布
05:50

カテゴリ分布とディリクレ分布
2 questions

映像中で「逆ガンマ分布」と言っているのは,「正規・逆ガンマ分布」のことです.

Normal and Normal inverse Gamma distributions 正規分布と正規逆ガンマ分布
03:21

正規分布と正規逆ガンマ分布
3 questions

Multivariate normal and normal inverse Wishart distributions 多変数正規分布と逆ウィシャート分布
06:34

多変数正規分布と正規逆ウィシャート分布
3 questions

Conjugate Distributions 分布の共役性
04:12

Conjugate and Bayes' rule 共役分布とベイズの定理
03:11

分布の共役性
3 questions

Chapter 3 summary まとめ
00:30

このセクションの理解度をためす問題です.簡単な数値計算問題から,面倒な数式の導出なども登場します.自分でノートに向かって式計算をしてみてください.

なおこの問題は,大学院生向け(修士)の授業の演習問題として実際に使用したものです.全問正解できれば,最優秀賞!

模範解答・解答例は出しません.分からないことがあれば,ぜひディスカッションボードで議論してください.

section 3 worksheet
1 page
+
Fitting probability models 確率分布のパラメータ推定
15 Lectures 51:31
Fitting probability models 確率分布のパラメータ推定
00:39

Maximum Likelihood 最尤推定
04:37

最尤推定
2 questions

Maximum a posteriori 事後確率最大推定
03:29

MAP推定
2 questions

Bayesian Approach ベイズ推定
03:40

ベイズ推定
2 questions

ML, MAP, Bayes
01:52

ML, MAP, Bayes
1 question

Worked example 1: 正規分布の推定
01:30

正規分布の推定
1 question

Worked example 1: ML
09:34

正規分布の推定:最尤推定
3 questions

Worked example 1: MAP
06:03

正規分布の推定:MAP推定
3 questions

追記:NormInvGamを単に「逆ガンマ分布」と言っていますが,正しくは「正規・逆ガンマ分布」です.

Worked example 1: Bayes
07:29

正規分布の推定:ベイズ推定
2 questions

Worked example 2: カテゴリ型分布の推定
00:52

Worked example 2: ML
03:24

カテゴリ型分布の推定:最尤推定
2 questions

Worked example 2: MAP
03:58

カテゴリ型分布の推定:MAP推定
2 questions

追記:最後のMAP/MLのグラフでは過学習している,と説明しましたが,これは\alpha=1なので,MAPの事前分布が一様になっています.もしMAPで\alphaを変更して事前分布を一様にしなければ,ここで示したグラフのような過学習を避ける事もできます.

Worked example 2: Bayes
03:42

カテゴリ型分布の推定:Bayes推定
1 question

Chapter 4 summary まとめ
00:42

このセクションの理解度をためす問題です.簡単な数値計算問題から,面倒な数式の導出なども登場します.自分でノートに向かって式計算をしてみてください.

なおこの問題は,大学院生向け(修士)の授業の演習問題として実際に使用したものです.全問正解できれば,最優秀賞!

模範解答・解答例は出しません.分からないことがあれば,ぜひディスカッションボードで議論してください.

section 4 worksheet
1 page
+
Normal distribution 正規分布
5 Lectures 17:03
Normal distribution 正規分布
02:32

Transformations of Normal 正規分布の変換
07:05

正規分布の変換
2 questions

Marginal and conditional of Normal 正規分布の周辺分布と条件付き分布
03:07

正規分布の周辺化・条件付き確率
2 questions

Self-conjugacy 自己共役性
03:34

自己共役
1 question

Chapter 5 summary まとめ
00:45
+
Learning and inference in computer vision 識別モデル・生成モデルによる学習と推論
9 Lectures 31:40
discriminative / generative models 識別モデルと生成モデル
08:14

識別モデルと生成モデル
3 questions

regression with discriminative model 識別モデルによる線形回帰
04:55

識別モデルによる回帰
2 questions

regressin with generative model 生成モデルによる線形回帰
03:13

生成モデルによる回帰
2 questions

classification with discriminative model 識別モデルによる識別:ロジスティック回帰
05:58

識別モデルによる分類
2 questions

classification with generative model 生成モデルによる識別
04:02

生成モデルによる分類
2 questions

which model? どちらがよい?
02:05

どちらがよい?
2 questions

applications 応用
02:33

chapter 6 summary まとめ
00:40

このセクションの理解度をためす問題です.簡単な数値計算問題から,面倒な数式の導出なども登場します.自分でノートに向かって式計算をしてみてください.

なおこの問題は,大学院生向け(修士)の授業の演習問題として実際に使用したものです.全問正解できれば,最優秀賞!

模範解答・解答例は出しません.分からないことがあれば,ぜひディスカッションボードで議論してください.

section 6 worksheet
1 page
+
Modeling complex densities
11 Lectures 01:22:06
Why not Gaussian? 正規分布は単純なモデル
06:47

Three extensions 正規分布の3つの拡張
02:23

Hidden variables and EM algorithm 潜在変数とEMアルゴリズム
07:27

潜在変数とEM
2 questions

Gaussian Mixture Model 混合正規分布
13:31

混合正規分布
2 questions

t-distribution t-分布
11:32

t-分布
2 questions

factor analysis 因子分析
17:28

因子分析
2 questions

combining models モデルの組み合わせ
01:11

EM algorithm EMアルゴリズム
15:57

EMアルゴリズム
2 questions

applications 応用
05:12

chapter 7 summary まとめ
00:38

このセクションの理解度をためす問題です.簡単な数値計算問題から,面倒な数式の導出なども登場します.自分でノートに向かって式計算をしてみてください.

なおこの問題は,大学院生向け(修士)の授業の演習問題として実際に使用したものです.全問正解できれば,最優秀賞!

模範解答・解答例は出しません.分からないことがあれば,ぜひディスカッションボードで議論してください.

section 7 worksheet
1 page
+
Regression models
11 Lectures 50:56
linear regression 線形回帰
06:48

three extentions 3つの拡張
01:49

Bayesian regression ベイズ回帰
08:30

ベイズ回帰
2 questions

Nonlinear regression 非線形回帰
03:32

Gaussian process regression ガウス過程回帰
05:50

ガウス過程回帰
1 question

Sparse regression スパース線形回帰
13:11

スパース線形回帰
1 question

Dual linear regression 双対線形回帰
05:35

双対線形回帰
1 question

Relevance vector regression 関連ベクトル回帰
03:06

関連ベクトル回帰
1 question

applications 応用
02:08

Chapter 8 summary まとめ
00:27

このセクションの理解度をためす問題です.簡単な数値計算問題から,面倒な数式の導出なども登場します.自分でノートに向かって式計算をしてみてください.

なおこの問題は,大学院生向け(修士)の授業の演習問題として実際に使用したものです.全問正解できれば,最優秀賞!

模範解答・解答例は出しません.分からないことがあれば,ぜひディスカッションボードで議論してください.

section 8 worksheet
1 page
+
Classification models
20 Lectures 01:27:30
Logistic regression ロジスティック回帰
06:11

ロジスティック回帰
1 question

ML for logistic regressoin ロジスティック回帰の最尤推定
06:07

ロジスティック回帰の最尤推定
2 questions

Nonlinear optimization 非線形最適化
07:48

非線形最適化
1 question

Gradient decent 最急降下法
06:00

最急降下法
1 question

Newton method ニュートン法
05:57

ニュートン法
1 question

ML solution for logistic regressoin ロジスティック回帰の最尤推定解
01:58

ロジスティック回帰の最尤推定解
1 question

From logistic regression ロジスティック回帰を拡張する
01:40

ロジスティック回帰の問題点
1 question

bayesian logistic regression ベイズロジスティック回帰
05:20

ベイズロジスティック回帰
1 question

inference of bayesian logistic regression ベイズロジスティック回帰の推論
06:08

ベイズロジスティック回帰の推論
1 question

Nonlinear logistic regression 非線形ロジスティック回帰
03:56

非線形ロジスティック回帰
1 question

dual logistic regression / Gaussian process classification 双対ロジスティック回帰とガウス過程識別器
03:44

双対ロジスティック回帰
1 question

Relevance vector classification 関連ベクトル識別器
05:09

関連ベクトルマシン
1 question

Incremental learning / Boosting 逐次学習・ブースティング
06:50

逐次学習・ブースティング
1 question

Branching logistic regression ロジスティック決定木
03:21

ロジスティック決定木
1 question

Multi-class logistic regression 多クラスロジスティック回帰
04:38

多クラスロジスティック回帰
1 question

Random tree, farn, forest ランダム木・ファーン・フォレスト
03:35

ランダム木
1 question

Non-probablistic classifiers 確率モデルを用いない識別器
03:47

非確率的識別器
1 question

Applications 応用
04:36

Chapter 9 summary まとめ
00:45

このセクションの理解度をためす問題です.簡単な数値計算問題から,面倒な数式の導出なども登場します.自分でノートに向かって式計算をしてみてください.

なおこの問題は,大学院生向け(修士)の授業の演習問題として実際に使用したものです.全問正解できれば,最優秀賞!

模範解答・解答例は出しません.分からないことがあれば,ぜひディスカッションボードで議論してください.

section 9 worksheet
1 page
+
Graphical models
19 Lectures 01:04:02
Graphical models グラフィカルモデル
01:17

condtional independence 条件付き独立
07:42

条件付き独立
3 questions

Directed model / Bayes net 有向グラフ/ベイズネット
06:17

有向グラフィカルモデル
2 questions

D-separation 有向分離
04:00

有向分離の説明
00:07

有向分離
2 questions

有向分離の問題
00:08

Markov blanket マルコフブランケット
01:59

マルコフブランケット
1 question

Plates プレート
04:37

プレート
1 question

Undirected model / Markov net 無向グラフ/マルコフネット
06:44

無向グラフィカルモデル
1 question

Cliques クリーク
03:33

クリーク
1 question

Comparing directed/undirected models 有向・無向グラフの比較
03:09

有向・無向グラフィカルモデル
1 question

Typical graphical models and inference 典型的なグラフィカルモデルと推論
04:07

典型的なグラフィカルモデル
1 question

MAP, marginal, max-marginal MAP推定,周辺分布推定,最大周辺推定
03:29

周辺分布推定
1 question

Ancestral sampling 伝承サンプリング
02:19

伝承サンプリング
1 question

Gibbs sampling ギブスサンプリング
05:19

ギブスサンプリング
1 question

Learning graphial models グラフィカルモデルの学習
03:07

グラフィカルモデルの学習
1 question

Contrastive divergence コントラスティブダイバージェンス
05:10

コントラスティブダイバージェンス
1 question

Chapter 10 summary まとめ
00:57

このセクションの理解度をためす問題です.簡単な数値計算問題から,面倒な数式の導出なども登場します.自分でノートに向かって式計算をしてみてください.

なおこの問題は,大学院生向け(修士)の授業の演習問題として実際に使用したものです.全問正解できれば,最優秀賞!

模範解答・解答例は出しません.分からないことがあれば,ぜひディスカッションボードで議論してください.

section 10 worksheet
1 page
4 More Sections
About the Instructor
4.3 Average rating
320 Reviews
3,979 Students
4 Courses
コンピュータビジョン,画像認識,機械学習などの研究者

広島大学准教授.専門:コンピュータビジョン,画像認識,パターン認識,動画像処理,医用画像処理.電子情報通信学会和文誌D編集委員,PRMU委員,MI委員.情報処理学会CVIM委員, GCAD委員など歴任.翻訳書に「コンピュータビジョン ―アルゴリズムと応用―」「統計的学習の基礎」「スパースモデリング」(共立出版).電子情報通信学会シニア会員.情報処理学会,IEEE,IEEE Computer Society等会員.

Report Abuse