Q学習(Qがくしゅう、英: Q-learning)は、機械学習分野における強化学習の一種である。
概要
Q学習は強化学習の方策オフ型時間差分法の一つである。概念自体は古くから存在するが、Q学習(Q-learning)という名前で今日の手法がまとめられたのは、1989年のクリストファー・ワトキンズ(Christopher J.C.H. Watkins)の博士論文に端を発する。[1]
TD学習は
になるように学習させるが、Q学習はこれを
に置き換えたものである。状態価値関数
の代わりに、行動価値関数
を使用する。
Q学習は有限マルコフ決定過程において全ての状態が十分にサンプリングできるようなエピソードを無限回試行した場合、最適な評価値に収束することが理論的に証明されている。実際の問題に対してこの条件を満たすことは困難ではあるが、この証明はQ学習の有効性を示す要素の一つとして挙げられる。
Q学習の内容
Q値
Q学習では実行するルールに対しそのルールの有効性を示す行動価値のQ値(Q-value)という値を持たせ、エージェントが行動するたびにその値を更新する。ここでいうルールとはある状態とその状態下においてエージェントが可能な行動を対にしたものである。例えばエージェントの現在の状態を
とし、この状態で可能な行動が
,
,
,
の4通りあるとする。このとき、エージェントは4つのQ値、
、
、
、
を元に行う行動を決定する。
行動価値関数Qは、ある状態である行動を行った際、現在および将来に得られる報酬になるように学習させる。ただし、将来分の報酬は、経済学でも使われる割引率をかけた物を使用する。経済学と同じく、割引率をかけることで将来分の報酬が発散することを防ぎ、直近に得られる報酬に重きを置いている。
行動選択
行動の決定方法は理論上では無限回数試行するならランダムでも行動価値関数Qの収束は証明されているが、現実には収束を早めるため、なるべくQ値の大きな行動が高確率で選ばれるように行う。選択方法としては、ある小さな確率
でランダムに選択し、それ以外ではQ値の最大の行動を選択する
-グリーディ手法や、遺伝的アルゴリズムで使用されているルーレット選択、以下のようなボルツマン分布を利用したソフトマックス手法などが使用されている。
![{\displaystyle \pi (S_{t},a)={\frac {\exp(Q(S_{t},a)/T)}{\sum _{a'\in {\mathcal {A}}}\exp(Q(S_{t},a')/T)}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cabb9a34219b1db3ddb9e4bf494866caa4d8953f)
ここで
は正の定数、
は状態
でエージェントが可能な行動の集合である。
行動価値関数の更新
行動を決定した場合、次にその状態と行動の行動価値関数Qを更新する。状態
のエージェントが行動
を選び、報酬
を得て、状態が
に遷移したとする。このとき行動価値関数
を次の式で更新する。[2]
![{\displaystyle Q(S_{t},A_{t})\leftarrow (1-\alpha )Q(S_{t},A_{t})+\alpha \left[R_{t+1}+\gamma \max _{a}Q(S_{t+1},a)\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b18016f44a9dd2cb2271157395633990754d3883)
ここで
は学習率といい、
とし、後述のように時間と共に減衰させても良い。
は割引率といい、
な定数である。上記の更新式は現在の状態から次の状態に移ったとき、そのQ値を(報酬+割引率×次の状態で最も高いQ値)に近づけることを意味している。このことにより、ある状態で高い報酬を得た場合はその状態に到達することが可能な状態にもその報酬が更新ごとに伝播することになる。これにより、最適な状態遷移の学習が行われる。
学習率
Q学習は報酬が有界で、学習率
が以下の条件を満たすとき(つまりこの条件で時間と共に減衰させたとき)、全てのQ値は確率1で最適な値に収束することを1992年にChristopher J. C. H. Watkins等が証明した。(この条件を満たさないと収束しないという意味では無く、定数でも収束するときは収束する)[3]
![{\displaystyle 0\leq \alpha _{t}<1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/51be1c8a2d535382fd983f14ee57c2193310bac3)
![{\displaystyle \sum _{t=0}^{\infty }\alpha _{t}\to \infty }](https://wikimedia.org/api/rest_v1/media/math/render/svg/7fd7bf4c5a5fecb8fd9bfed3ff856be49f972947)
![{\displaystyle \sum _{t=0}^{\infty }\alpha _{t}^{2}<\infty }](https://wikimedia.org/api/rest_v1/media/math/render/svg/0c496ac89c3c2a8f4826e1f8db5097128a6feec1)
この収束性の良さのためQ学習に関する多くの研究がなされているが、いくつかの問題点も指摘されている。例えばQ学習による理論的保証は値の収束性のみであり、収束途中の値には具体的な合理性が認められないため、(価値反復法の)Q学習は方策勾配法と比べると学習途中の結果を近似解として用いにくい。また、パラメータの変化に敏感でありその調整に多くの手間が必要である、などがある。
参考文献
- Watkins, Christopher J.C.H. (1989). Learning from Delayed Rewards. PhD thesis, Cambridge University, Cambridge, England. PDFダウンロード
- 松本啓之亮、黄瀬浩一、森 直樹、『知能システム工学入門』、コロナ社、2002年、ISBN 4-339-02392-2
- 大内 東、山本雅人、川村秀憲『マルチエージェントシステムの基礎と応用』、コロナ社、2002年、ISBN 4-339-02388-4
参照
関連項目