ベイズ推定とグラフィカルモデル:コンピュータビジョン基礎1

Learn essence of "Computer Vision: Models, Learning, and Inference"
Rating: 4.6 out of 5 (1,254 ratings)
11,842 students
ベイズ推定とグラフィカルモデル:コンピュータビジョン基礎1
Rating: 4.6 out of 5 (1,254 ratings)
11,842 students
確率変数,同時確率,条件付き確率,周辺化,ベイズの定理を説明できる
ベルヌーイ分布,ベータ分布,ディリクレ分布,正規分布,逆ガンマ分布,逆ウィシャート分布,それらの共役関係を説明できる
正規分布やカテゴリ型分布などのパラメータを,最尤推定,事後確率最大推定,ベイズ推定で求められる
正規分布の性質(共分散,共分散の分解,変数の線形変換,周辺分布,条件付き分布)を説明できる
識別モデルと生成モデルにおける回帰と識別(線形回帰・ロジスティック回帰)と,その応用例を理解できる
複雑な確率分布を,潜在変数を用いた混合分布で表現する方法(EMアルゴリズム,混合正規分布,robust t-distribution, factor analysis)を理解できる
回帰モデル(線形回帰,ベイズ線形回帰,非線形回帰,カーネル回帰,Gaussian process regression,Relevance vector regression)を理解できる
識別モデル(ロジスティック回帰,ベイズ・非線形・双対・カーネルロジスティック回帰,Relevance vector machine, ブースティング,Random trees/forests/ferns)を理解できる
グラフィカルモデルと,そこにおける変数の条件付き独立を説明できるようになる
chain型(HMM)とtree型のグラフィカルモデルにおけるMAP推定と周辺分布最大推定を理解できる
動的計画法(DP),forward-backwardアルゴリズム,確率伝播(belief propagation, BP)アルゴリズム,和積(sum-product)アルゴリズムを理解できる
grid型のグラフィカルモデル(MRF)におけるMAP推定をグラフカットを用いて解く方法を理解できる
max flow / min cutとMRFの関係を説明できる
2値・多値のMRFのための適切なグラフカットを説明できる
MRFにおける列モジュラ性の重要性を理解できる
コンピュータビジョンにおける統計的機械学習の応用を理解できる

Requirements

  • 線形代数(スカラ,ベクトル,行列,転置,内積,逆行列,固有値,特異値分解)
  • 確率(平均,分散,共分散行列,多変数確率分布,期待値)
  • 微分(1変数関数の極値計算・多変数関数の微分)
  • 積分(多変数関数の積分,重積分)
Description

このオンラインレクチャーでは,確率的な手法を用いるパターン認識や機械学習の基礎を学ぶことができます.資料は,"Computer vision: models, learning and inference"の著者Simon Princeがwebで公開しているスライドを用いていますが,話題はコンピュータビジョンに限らず,確率モデルや最尤推定,ベイズ推定を扱っています. 

スライドを動画で説明した後,復習クイズを出題しています.ぜひ挑戦してください(iPad/Androidアプリ版ではクイズが表示されないようですので,webで見てください). 

このオンラインレクチャーでは,書籍のPartIII(Chapter 12)までの統計的機械学習の基礎を扱います.(Chapter 13以降の画像を扱う話題は別途作成予定) 

Computer vision: models, learning and inference 

The slide is copyrighted by Simon J. D. Prince, the author of the book "Computer vision: models, learning and inference", and is available at the book website.

The use of the slide for this online lecture is approved by Simon J. D. Prince and recognized by a contact person of the book publisher. The lecturer thanks them for their kind agreement. 


Who this course is for:
  • 確率モデルの基礎を学びたい人
  • 統計的機械学習の基礎を学びたい人
  • ベイズ推定を自分のものにしたい人
  • グラフィカルモデルを学びたい人
  • Bishop本の内容が難しいので,そのための確率の基礎の勉強をしたい人
  • グラフカットをマスターしたい人
  • コンピュータビジョンを勉強したい人
Course content
14 sections146 lectures10h 29m total length
  • コース紹介
    02:24
  • テキスト
    00:21
  • コンピュータビジョンの応用例
    01:32
  • Random variables 確率変数
    04:42
  • 確率変数
    4 questions
  • Joint probability 同時確率
    03:15
  • 同時確率
    4 questions
  • Marginalization 周辺化
    04:49
  • 周辺化
    5 questions
  • Conditional probability 条件付き確率
    06:59
  • 条件付き分布
    3 questions
  • Bayes' rule ベイズの定理
    03:43
  • ベイズの定理
    2 questions
  • Independence 独立
    03:09
  • 独立
    2 questions
  • Expectation 期待値
    05:06
  • 期待値
    2 questions
  • Chapter 2 Summary まとめ
    00:55
  • section 2 worksheet
    2 pages
  • Probability distributions 確率分布
    02:28
  • Bernoulli and Beta distributions ベルヌーイ分布とベータ分布
    06:42
  • ベルヌーイ分布とベータ分布
    2 questions
  • Categorical and Dirichlet distributions カテゴリ型分布とディリクレ分布
    05:50
  • カテゴリ分布とディリクレ分布
    2 questions
  • Normal and Normal inverse Gamma distributions 正規分布と正規逆ガンマ分布
    03:21
  • 正規分布と正規逆ガンマ分布
    3 questions
  • Multivariate normal and normal inverse Wishart distributions 多変数正規分布と逆ウィシャート分布
    06:34
  • 多変数正規分布と正規逆ウィシャート分布
    3 questions
  • Conjugate Distributions 分布の共役性
    04:12
  • Conjugate and Bayes' rule 共役分布とベイズの定理
    03:11
  • 分布の共役性
    3 questions
  • Chapter 3 summary まとめ
    00:30
  • section 3 worksheet
    1 page
  • Fitting probability models 確率分布のパラメータ推定
    00:39
  • Maximum Likelihood 最尤推定
    04:37
  • 最尤推定
    2 questions
  • Maximum a posteriori 事後確率最大推定
    03:29
  • MAP推定
    2 questions
  • Bayesian Approach ベイズ推定
    03:40
  • ベイズ推定
    2 questions
  • ML, MAP, Bayes
    01:52
  • ML, MAP, Bayes
    1 question
  • Worked example 1: 正規分布の推定
    01:30
  • 正規分布の推定
    1 question
  • Worked example 1: ML
    09:34
  • 正規分布の推定:最尤推定
    3 questions
  • Worked example 1: MAP
    06:03
  • 正規分布の推定:MAP推定
    3 questions
  • Worked example 1: Bayes
    07:29
  • 正規分布の推定:ベイズ推定
    2 questions
  • Worked example 2: カテゴリ型分布の推定
    00:52
  • Worked example 2: ML
    03:24
  • カテゴリ型分布の推定:最尤推定
    2 questions
  • Worked example 2: MAP
    03:58
  • カテゴリ型分布の推定:MAP推定
    2 questions
  • Worked example 2: Bayes
    03:42
  • カテゴリ型分布の推定:Bayes推定
    1 question
  • Chapter 4 summary まとめ
    00:42
  • section 4 worksheet
    1 page
  • Normal distribution 正規分布
    02:32
  • Transformations of Normal 正規分布の変換
    07:05
  • 正規分布の変換
    2 questions
  • Marginal and conditional of Normal 正規分布の周辺分布と条件付き分布
    03:07
  • 正規分布の周辺化・条件付き確率
    2 questions
  • Self-conjugacy 自己共役性
    03:34
  • 自己共役
    1 question
  • Chapter 5 summary まとめ
    00:45
  • discriminative / generative models 識別モデルと生成モデル
    08:14
  • 識別モデルと生成モデル
    3 questions
  • regression with discriminative model 識別モデルによる線形回帰
    04:55
  • 識別モデルによる回帰
    2 questions
  • regressin with generative model 生成モデルによる線形回帰
    03:13
  • 生成モデルによる回帰
    2 questions
  • classification with discriminative model 識別モデルによる識別:ロジスティック回帰
    05:58
  • 識別モデルによる分類
    2 questions
  • classification with generative model 生成モデルによる識別
    04:02
  • 生成モデルによる分類
    2 questions
  • which model? どちらがよい?
    02:05
  • どちらがよい?
    2 questions
  • applications 応用
    02:33
  • chapter 6 summary まとめ
    00:40
  • section 6 worksheet
    1 page
  • Why not Gaussian? 正規分布は単純なモデル
    06:47
  • Three extensions 正規分布の3つの拡張
    02:23
  • Hidden variables and EM algorithm 潜在変数とEMアルゴリズム
    07:27
  • 潜在変数とEM
    2 questions
  • Gaussian Mixture Model 混合正規分布
    13:31
  • 混合正規分布
    2 questions
  • t-distribution t-分布
    11:32
  • t-分布
    2 questions
  • factor analysis 因子分析
    17:28
  • 因子分析
    2 questions
  • combining models モデルの組み合わせ
    01:11
  • EM algorithm EMアルゴリズム
    15:57
  • EMアルゴリズム
    2 questions
  • applications 応用
    05:12
  • chapter 7 summary まとめ
    00:38
  • section 7 worksheet
    1 page
  • linear regression 線形回帰
    06:48
  • three extentions 3つの拡張
    01:49
  • Bayesian regression ベイズ回帰
    08:30
  • ベイズ回帰
    2 questions
  • Nonlinear regression 非線形回帰
    03:32
  • Gaussian process regression ガウス過程回帰
    05:50
  • ガウス過程回帰
    1 question
  • Sparse regression スパース線形回帰
    13:11
  • スパース線形回帰
    1 question
  • Dual linear regression 双対線形回帰
    05:35
  • 双対線形回帰
    1 question
  • Relevance vector regression 関連ベクトル回帰
    03:06
  • 関連ベクトル回帰
    1 question
  • applications 応用
    02:08
  • Chapter 8 summary まとめ
    00:27
  • section 8 worksheet
    1 page
  • Logistic regression ロジスティック回帰
    06:11
  • ロジスティック回帰
    1 question
  • ML for logistic regressoin ロジスティック回帰の最尤推定
    06:07
  • ロジスティック回帰の最尤推定
    2 questions
  • Nonlinear optimization 非線形最適化
    07:48
  • 非線形最適化
    1 question
  • Gradient decent 最急降下法
    06:00
  • 最急降下法
    1 question
  • Newton method ニュートン法
    05:57
  • ニュートン法
    1 question
  • ML solution for logistic regressoin ロジスティック回帰の最尤推定解
    01:58
  • ロジスティック回帰の最尤推定解
    1 question
  • From logistic regression ロジスティック回帰を拡張する
    01:40
  • ロジスティック回帰の問題点
    1 question
  • bayesian logistic regression ベイズロジスティック回帰
    05:20
  • ベイズロジスティック回帰
    1 question
  • inference of bayesian logistic regression ベイズロジスティック回帰の推論
    06:08
  • ベイズロジスティック回帰の推論
    1 question
  • Nonlinear logistic regression 非線形ロジスティック回帰
    03:56
  • 非線形ロジスティック回帰
    1 question
  • dual logistic regression / Gaussian process classification 双対ロジスティック回帰とガウス過程識別器
    03:44
  • 双対ロジスティック回帰
    1 question
  • Relevance vector classification 関連ベクトル識別器
    05:09
  • 関連ベクトルマシン
    1 question
  • Incremental learning / Boosting 逐次学習・ブースティング
    06:50
  • 逐次学習・ブースティング
    1 question
  • Branching logistic regression ロジスティック決定木
    03:21
  • ロジスティック決定木
    1 question
  • Multi-class logistic regression 多クラスロジスティック回帰
    04:38
  • 多クラスロジスティック回帰
    1 question
  • Random tree, farn, forest ランダム木・ファーン・フォレスト
    03:35
  • ランダム木
    1 question
  • Non-probablistic classifiers 確率モデルを用いない識別器
    03:47
  • 非確率的識別器
    1 question
  • Applications 応用
    04:36
  • Chapter 9 summary まとめ
    00:45
  • section 9 worksheet
    1 page
  • Graphical models グラフィカルモデル
    01:17
  • condtional independence 条件付き独立
    07:42
  • 条件付き独立
    3 questions
  • Directed model / Bayes net 有向グラフ/ベイズネット
    06:17
  • 有向グラフィカルモデル
    2 questions
  • D-separation 有向分離
    04:00
  • 有向分離の説明
    00:18
  • 有向分離
    2 questions
  • 有向分離の問題
    00:26
  • Markov blanket マルコフブランケット
    01:59
  • マルコフブランケット
    1 question
  • Plates プレート
    04:37
  • プレート
    1 question
  • Undirected model / Markov net 無向グラフ/マルコフネット
    06:44
  • 無向グラフィカルモデル
    1 question
  • Cliques クリーク
    03:33
  • クリーク
    1 question
  • Comparing directed/undirected models 有向・無向グラフの比較
    03:09
  • 有向・無向グラフィカルモデル
    1 question
  • Typical graphical models and inference 典型的なグラフィカルモデルと推論
    04:07
  • 典型的なグラフィカルモデル
    1 question
  • MAP, marginal, max-marginal MAP推定,周辺分布推定,最大周辺推定
    03:29
  • 周辺分布推定
    1 question
  • Ancestral sampling 伝承サンプリング
    02:19
  • 伝承サンプリング
    1 question
  • Gibbs sampling ギブスサンプリング
    05:19
  • ギブスサンプリング
    1 question
  • Learning graphial models グラフィカルモデルの学習
    03:07
  • グラフィカルモデルの学習
    1 question
  • Contrastive divergence コントラスティブダイバージェンス
    05:10
  • コントラスティブダイバージェンス
    1 question
  • Chapter 10 summary まとめ
    00:57
  • section 10 worksheet
    1 page

Instructor
コンピュータビジョン,画像認識,機械学習などを研究
Toru Tamaki
  • 4.4 Instructor Rating
  • 2,913 Reviews
  • 21,804 Students
  • 6 Courses

広島大学准教授.コンピュータビジョン,画像認識,パターン認識,動画像処理,医用画像処理などを専門とする.電子情報通信学会和文誌D編集委員,PRMU委員,MI委員.情報処理学会CVIM委員,GCAD委員など歴任.翻訳書に「コンピュータビジョン ―アルゴリズムと応用―」「統計的学習の基礎」「スパースモデリング」(共立出版)「Pythonで体験するベイズ推論」(森北出版).電子情報通信学会シニア会員.情報処理学会,IEEE,IEEE Computer Society等会員.