技術ブログ

Developers's blog

統計検定 数理 2019 問2 解答

2019.11.28 久保 大亮
統計学
統計検定 数理 2019 問2 解答

問1に続いて問2です。 同じくご指摘があればコメントをお願いします。


[1]\(U\)の期待値\(E[U]\)を求めよ。

\begin{equation} E[U] = E[X_1+X_2] = E[X_1]+E[X_2] \ (\because X_1, X_2は互いに独立) \end{equation} 今、\(X_i\)(\(i=1, 2\))について、
\begin{eqnarray*} E[X_i] &=& \int_0^\infty x_i f(x_i) dx_i \\ &=& \int_0^\infty x_i \lambda \mathrm{e}^{-\lambda x_i} dx_i \\ &=& \left[ x_i\mathrm{e}^{-\lambda x_i} \right]_0^\infty + \int_0^\infty \mathrm{e}^{-\lambda x_i} dx_i\\ &=& \left[-\frac{1}{\lambda}\mathrm{e}^{-\lambda x_i} \right]_0^\infty \\ &=& \frac{1}{\lambda} \end{eqnarray*} であるので、結局 \begin{equation} E[U] = \frac{1}{\lambda} + \frac{1}{\lambda} = \frac{2}{\lambda} \end{equation}
[2]\(U\)の確率密度関数\(g(u)\)を求めよ

まず\(U\)の積率母関数\(M_U(t)\)を求める。
\begin{equation} M_U(t) = M_{X_1+X_2}(t) = M_{X_1}(t)M_{X_2}(t) \ (\because X_1, X_2は互いに独立) \end{equation} であり、\(M_{X_i}(t)\)について、
\begin{eqnarray*} M_{X_i}(t) = E[\mathrm{e}^{t X_i}] &=& \int_0^\infty \mathrm{e}^{t x_i}\lambda \mathrm{e}^{-\lambda x_i} dx_i \\ &=& \lambda \int_0^\infty \mathrm{e}^{(t-\lambda)x_i}dx_i\\ &=& \lambda \left[ \frac{1}{t-\lambda} \mathrm{e}^{(t-\lambda)x_i} \right]_0^\infty\\ &=&\frac{\lambda}{\lambda - t}\ (\lambda > t) \end{eqnarray*} \begin{equation} \therefore M_U(t) = \left( \frac{\lambda}{\lambda - t}\right)^2 = \left( \frac{1}{1 - \frac{t}{\lambda}} \right)^2 \end{equation} これはパラメータ(2, \(\frac{1}{\lambda}\))のガンマ分布の積率母関数に一致する。積率母関数と確率密度関数の一対一対応性から、\(U\)の確率密度関数は、
\begin{equation} g(u) = \frac{{\lambda}^2}{\Gamma(2)}u^{2-1}\mathrm{e}^{-\lambda u} = {\lambda}^2 u\mathrm{e}^{-\lambda u}\ (\because \Gamma(2)=1! ) \end{equation} [3]期待値\(E[\frac{1}{U}]\)を求めよ。

\begin{eqnarray*} E\left[ \frac{1}{U} \right] &=& \int_0^\infty \frac{1}{u} g(u)du \\ &=& \int_0^\infty {\lambda}^2 \mathrm{e}^{-\lambda u}\\ &=& {\lambda}^2 \left[ -\frac{1}{\lambda} \mathrm{e}^{-\lambda u} \right]_0^\infty \\ &=& \lambda \end{eqnarray*}
[4]\(\alpha\)を正の定数とし、パラメータ\(\theta=\frac{1}{\lambda}\)を\(\alpha \bar{X}\)で推定する。その時の損失関数を
\begin{equation} L(\alpha\bar{X}, \theta) = \frac{\alpha\bar{X}}{\theta}+ \frac{\theta}{\alpha\bar{X}}-2 \end{equation} として期待値\(R(\alpha, \theta) = E[L(\alpha\bar{X}, \theta)]\)を導出し、\(R(\alpha, \theta)\)が最小となる\(\alpha\)の値を求めよ。

問題文の定義及び、[1][3]の結果から、 \begin{eqnarray*} E[L(\alpha\bar{X}, \theta)] &=& E \left[ \frac{\alpha\bar{X}}{\theta}+ \frac{\theta}{\alpha\bar{X}}-2 \right]\\ &=& \frac{\alpha}{\theta}E[\bar{X}] + \frac{\theta}{\alpha}E \left[\frac{1}{\bar{X}} \right] -2\\ &=& \lambda\alpha E \left[ \frac{U}{2} \right] + \frac{1}{\lambda\alpha}E \left[ \frac{2}{U} \right]-2\\ &=& \frac{\lambda\alpha}{2} E[U] + \frac{2}{\lambda\alpha}E \left[ \frac{1}{U} \right]-2\\ &=& \frac{\lambda\alpha}{2}\frac{2}{\lambda} + \frac{2}{\lambda\alpha}\lambda - 2\\ &=& \alpha + \frac{2}{\alpha} -2 \end{eqnarray*} となる。ここで\(R(\alpha, \theta)\)が最小となる\(\alpha\)の値を求めるために、上式を\(\alpha\)で微分したもの=0を解くと、 \begin{equation} 1-\frac{2}{{\alpha}^2} = 0\\ \therefore \alpha = \sqrt{2} \ (\because \alpha >0) \end{equation}


以上です。
普段は機械学習がメインなので機械学習でやってみたブログや理論、論文解説をおこなっています。
アクセルユニバース技術ブログ一覧


本記事や他の情報が役に立つことを祈って、問3の解説も作成していきます。

関連記事

ベイジアンネットワーク入門

最近扱われるデータ量は膨大です。それに伴いデータの見方を変え、かつては重要度が低かった点からも関係性を見出す必要があります。 そのために確率推論は多くの命題の生起する可能性を確率として記述することから始められ、条件付き確率と結合確率を1つずつ繋ぎ合わせ段階的に構成されています。 ベイジアンネットワーク(Bayesian network) 人工知能(AI)における確率推論の一つのモデルです。 イギリスの確率論研究家トーマス・ベイズが発案したベイズの定理に基づ

記事詳細
ベイジアンネットワーク入門
統計学
統計検定1級 合格記

2019年11月24日に行われた統計検定1級で、統計数理と統計応用(理工学)の両分野で合格をいただけました。このブログには僕がその合格までに行ったこととその振り返りを書き連ねておこうと思います。 もくじ 統計検定1級を受けようと思った理由 申し込む前の学習状況 申し込み 本番までに行った学習 試験本番 試験までを振り返って 統計検定1級を受けようと思った理由 僕がこの統計検定1級を受けようと思った理由は僕の興味対象となる研究分野が確

記事詳細
統計検定1級 合格記
統計学
文系のための統計学の勉強方法

今回は初めて統計学を勉強しよう、統計検定を受けようという 文系の大学生 文系出身のビジネスマン このような方に向けて、勉強方法やおすすめの本について紹介していきます。 今回紹介する本の内容をマスターすると、統計検定2級の合格や機械学習の本を理解できるようになります。 目次 自己紹介 なぜ統計学の勉強が大変なのか 本の紹介 自己紹介 僕は現在、大学3年生で文系の学部に所属しています。 統計学を勉強したきっかけは以下の2つです。 データを分析するのに必要なた

記事詳細
文系のための統計学の勉強方法
統計学
自然言語処理( NLP )とは  -統計的手法を用いて-

※本記事の対象:自然言語処理という言葉は聞いたことはあるが、どういうアプローチで処理がされているかイメージが湧かない方(大学レベルの数学の知識は必要) ※内容はオーム社『ゼロから学ぶDeep Learning2』を参考にしている 目次 1. はじめに:自然言語処理(NLP)とは 2. シソーラスによる手法 3. カウントベースの手法( 統計的手法 ) 4. カウントベースの手法の改善点 5. 【次回】word2vec( ←これがメイン ) 6. まとめ

記事詳細
自然言語処理( NLP )とは -統計的手法を用いて-
統計学 自然言語処理

お問い合わせはこちらから