学習物理学入門

橋本 幸士(編)

橋本 幸士(編)

定価 2,200 円(本体 2,000 円+税)

A5判/200ページ
発売予定日:2024年11月01日
ISBN:978-4-254-13152-9 C3042

    近日発売予定です

ネット書店で購入する amazon e-hon 紀伊國屋書店 honto Honya Club Rakutenブックス くまざわ書店

書店の店頭在庫を確認する 紀伊國屋書店

内容紹介

物理学と人工知能・機械学習のコラボレーションを学ぶ入門テキスト。物理系学生がスムーズに機械学習に入門し、物理学と機械学習の関係・協働を知ることができる。〔内容〕イントロダクション/線形モデル/ニューラルネットワーク・対称性と機械学習/古典力学と機械学習/量子力学と機械学習/トランスフォーマー/他

編集部から

目次

0. イントロダクション (富谷昭夫)

A 機械学習と物理学

A1. 線形モデル (富谷昭夫)
 A1.1 最小2乗法と線形回帰
  A1.1.1 最小2乗法
  A1.1.2 凸関数
  A1.1.3 多変数関数が凸である条件
  A1.1.4 線形モデル
  A1.1.5 最小2乗法の続き
 A1.2 エントロピー
  A1.2.1 確率
  A1.2.2 シャノンエントロピー
  A1.2.3 相対エントロピー・KLダイバージェンス
  A1.2.4 イェンセンの不等式
  A1.2.5 ガウス分布
 A1.3 最尤推定
  A1.3.1 尤度関数
  A1.3.2 KLダイバージェンスからの最尤法
 A1.4 一般化線形モデル
  A1.4.1 2値分類とロジスティック回帰
  A1.4.2 交差エントロピーの起源
 A1.5 機械学習の分類
 A1.6 汎化・過学習と未学習
 A1.7 乱数
  A1.7.1 乱数とは
  A1.7.2 一様乱数
  A1.7.3 ガウス乱数

A2. ニューラルネットワーク(NN) (富谷昭夫)
 A2.1 ニューラルネット
 A2.2 データの表現
  A2.2.1 画像のベクトル化
  A2.2.2 one-hotの表現
 A2.3 一般層数の全結合ニューラルネット
 A2.4 勾配降下法
 A2.5 活性化関数とその微分
 A2.6 誤差逆伝播法
 A2.7 勾配消失問題

A3. 対称性と機械学習:畳み込み・同変NN (富谷昭夫)
 A3.1 同変性と畳み込みニューラルネット
 A3.2 画像のフィルター
 A3.3 畳み込み層
  A3.3.1 2次元データの畳み込み
  A3.3.2 プーリング
 A3.4 群論と対称性
 A3.5 対称性と同変性
  A3.5.1 対称性の組み込み方
  A3.5.2 群同変性ニューラルネット
  A3.5.3 帰納バイアス
  A3.5.4 ゲージ対称性とニューラルネット

A4. 古典力学と機械学習:NNと微分方程式 (橋本幸士)
 A4.1 物理の基礎方程式と機械学習
  A4.1.1 微分方程式の位置付け
  A4.1.2 物理学の問題の機械学習への埋め込み
 A4.2 物理知NN(PINN)
 A4.3 NNを微分方程式とみなす
  A4.3.1 機械学習における微分方程式の取り扱い方法
  A4.3.2 NNの局所性
  A4.3.3 ResNetと微分方程式
  A4.3.4 層内の局所性と畳み込みNN
 A4.4 NNによる具体的な運動方程式の表現
  A4.4.1 ポテンシャル内の粒子の例
  A4.4.2 ハミルトン力学系

A5. 量子力学と機械学習:NN波動関数 (金子隆威)
 A5.1 量子力学と固有値問題
 A5.2 格子上の量子多体問題
 A5.3 変分法と試行関数
 A5.4 小さな量子系におけるNN波動関数の適用例
  A5.4.1 2サイト横磁場イジング模型の解析解
  A5.4.2 NN波動関数による近似解
 A5.5 やや大きな量子系におけるNN波動関数の適用例
  A5.5.1 厳密対角化法による厳密な数値解
  A5.5.2 NN波動関数による近似的な数値解
 A5.6 より進んだ理解のために
  
  
B 機械学習模型と物理学

B1. トランスフォーマー (瀧 雅人)
 B1.1 単語と埋め込みベクトル
  B1.1.1 意味の使用説と埋め込み
  B1.1.2 キーバリューストアからの検索と注意機構
  B1.1.3 トランスフォーマー・アーキテクチャ
 B1.2 トランスフォーマーとNLP・コンピュータビジョン
  B1.2.1 GPT
  B1.2.2 ビジョン・トランスフォーマー

B2. 拡散モデルと経路積分 (広野雄士)
 B2.1 拡散モデルの原理
  B2.1.1 拡散モデルのアイデア
  B2.1.2 拡散モデルとランジュバン方程式
  B2.1.3 拡散モデルの生成過程
  B2.1.4 拡散モデルの訓練
  B2.1.5 確率フローODE
 B2.2 経路積分量子化
 B2.3 拡散モデルの経路積分による定式化
  B2.3.1 逆過程の導出
  B2.3.2 拡散モデル学習の損失関数の導出
  B2.3.3 確率フローと古典極限

B3. 機械学習の仕組み: 統計力学的アプローチ (唐木田亮)
 B3.1 DNN 模型: 信号伝播
  B3.1.1 スピン模型の考え方
  B3.1.2 信号伝播の巨視的法則
  B3.1.3 平均場と秩序-カオス相転移
  B3.1.4 逆伝播の巨視的法則
  B3.1.5 相転移としての勾配消失/発散問題
  B3.1.6 カーネル法とのつながり
 B3.2 DNN 模型: 学習レジーム
  B3.2.1 NTK レジーム
  B3.2.2 μP
 B3.3 線形回帰模型
  B3.3.1 過剰パラメータ系の汎化誤差
  B3.3.2 汎化誤差の典型評価

B4. 大規模言語モデルと科学 (三内顕義)
 B4.1 大規模言語モデル
  B4.1.1 次単語予測
  B4.1.2 大規模言語モデルの学習
 B4.2 大規模言語モデルの応用
  B4.2.1 大規模言語モデルの算術能力
  B4.2.2 大規模言語モデルの証明能力
  B4.2.3 数学におけるキュビズム

執筆者紹介

■編集者
 橋本幸士  京都大学大学院理学研究科

■執筆者(執筆順)
 富谷昭夫  東京女子大学現代教養学部 (イントロダクション,A1,A2,A3章)
 橋本幸士  京都大学大学院理学研究科 (A4章)
 金子隆威  上智大学理工学部 (A5章)
 瀧 雅人  立教大学人工知能科学研究科 (B1章)
 広野雄士  大阪大学大学院理学研究科 (B2章)
 唐木田亮  産業技術総合研究所人工知能研究センター (B3章)
 三内顕義  京都大学大学院理学研究科 (B4章)

関連情報

ジャンル一覧

ジャンル一覧

  • Facebook
  • Twitter
  • 「愛読者の声」 ご投稿はこちら 「愛読者の声」 ご投稿はこちら
  • EBSCO eBooks
  • eBook Library