Skip to content

Latest commit

 

History

History
 
 

materials

Folders and files

NameName
Last commit message
Last commit date

parent directory

..
 
 

Materials

機械学習を学ぶための教材

Machine Learning

Additional

  • Stanford Artificial Intelligence Laboratory
    • Stanfordの、AI関連講座のリンク集。基本はずさない。
  • NIPS HIGHLIGHTS, LEARN HOW TO CODE A PAPER WITH STATE OF THE ART FRAMEWORKS
    • NIPS2017で開催された、最新の研究をどうTensorFlowやPyTorchといった機械学習フレームワークのコードに落とし込んでいくのかというワークショップの資料
  • Seedbank
    • インタラクティブに動かせる機械学習のコードを集めたサイト。事前学習済みのGANモデルの使い方やPerformance RNNによる音楽生成といった応用例から、ニューラルネットワークの仕組みといった基礎的な内容まで幅広い。pandasの使い方などもある。
  • Resources for CS 229 - Machine Learning
    • 機械学習のポイントをまとめたチート集。あれなんだったかな、という時さっと見るのにとても良い。
  • Depth First Learning
    • ある一つの論文について、その論文中に登場する基本的な概念などを掘り下げて解説するというスタイルの記事。
    • 機械学習の論文を読みたい、でも論文で前提知識とされている概念がわからない、普通の教科書を買って勉強して出直すしかないのか・・・そう感じている方にとってはベストな記事。
  • Fairness-Aware Data Mining
    • 機械学習を扱うなら知っておきたい、モデルに内在するバイアス(性別や人種といった特徴量による判断の偏りなど)についての解説資料。
    • バイアスを生む要因、その避け方などがまとめられている。
  • Imperial College Mathematics department Deep Learning course
    • PyTorchで深層学習を学ぶコース(TensorFlowもあるよう)。CNN、RNN、強化学習と扱っている話題が広く、コードも比較的きれいに書かれている。短いため、PyTorchがどんな感じかさくっと学びたい場合にお勧め。
  • 第1回 ディープラーニング分散学習ハッカソン
    • 東京大学情報基盤センターが主催する、マルチGPUを使った学習のハンズオン。
    • 資料が公開されており、分散学習の仕組みと課題、そしてChainerMN/TensorFlowで実際に分散学習を行う方法までが解説されている。
  • AI-Sys Spring 2019
    • UC Berkeleyの、DNNを効率的に実行するための手法についての講義。実行の工夫として分散環境やネットワーク構造のコンパイル、モデル側の工夫として構造探索や蒸留(主に枝刈り)の話題が取り上げられている。

Not Recommend 💧

  • 深層学習
    • 原著として扱っている内容が若干古く、また冗長なので読みにくい部分がある。機械学習の入門書やオンラインコースは近年かなり洗練されているので、あえて本書を最初に読む必要はないと思う。

Mathematics

Vision

Additional

Not Recommend 💧

  • はじめてのパターン認識
    • 初心者にはあまり優しくない(輪講を途中でやめたことがある)。
  • パターン認識と機械学習
    • 同様に、初心者が最初のページから読んでいくには厳しい(分量の多さも挫折の要因となる)。
    • 読みたい方は、サポート資料として東大松尾研の方々がまとめた輪講用資料を参照するとよい: PRML輪読資料
    • Numpyで紹介されているアルゴリズムを実装したリポジトリがある: ctgk/PRML

なお、上記2つの書籍を機械学習「入門」図書として挙げている記事は基本的に参照する価値はないと断言できる。

NLP

  • CS224d: Deep Learning for Natural Language Processing
    • Stanfordの、自然言語処理におけるDNNの講座。これが鉄板。
  • Natural Language Processing
    • Stanfordの、DNNでない頃のNLPのコース資料。基本的なテキストの処理方法や言語モデルといったベーシックなところを扱ってくれている。
  • oxford-cs-deepnlp-2017/lectures
    • Oxford大学で行われた自然言語の講義資料。言語モデルや音声認識、QAタスクなど幅広く扱い、それらでDNNをどう利用するかも述べられている。
    • 講義動画もある。
    • 簡単な日本語解説記事
  • Natural Language Processing/Info 159/259. Fall 2018
    • UC Berkeleyで行われている自然言語処理のコース資料。自然言語処理の大分基本的なところから、ニューラル系の手法まで幅広く解説されている。
    • 資料内の事例も、テキスト分類ならTwitterやAmazonレビューなど興味を引くような題材で紹介されている。
  • [最新版] JSAI2018 チュートリアル「"深層学習時代の" ゼロから始める自然言語処理」
    • 人工知能学会2018でのチュートリアル資料。DNN以降の自然言語処理の基礎が入力データ(単語等)の「ベクトル化」であるとして、ではベクトル化の手法としてどんなものがあるのか、といった形で解説がされている。
    • 学習データが少ない時や前処理の必要性などにも触れられている。
  • Document Clustering with Python
    • 自然言語の基本的な特徴量の抽出方法から、各クラスタリングのアルゴリズムを実際試してみるところまでを紹介している。
  • SAILORS 2017 NLP project
    • Stanfordで行われている、女子高校生を対象として機械学習/自然言語処理を教えるプログラムSAILORで使用された教材。
    • 学習の手始めとしてもよいが、チュートリアル教材を作る際の参考にもなる。
  • CS 4650 and 7650
    • ジョージア工科大学の自然言語処理の授業で使われる教科書。扱っているテーマは、完全版と思えるほど幅広い。
    • 図は少なめだが、シンプルな疑似コード的な記述が随所にあり分かりやすく解説されている。
  • A Review of the Neural History of Natural Language Processing
    • ニューラルネットで自然言語処理を扱う手法が発展してきた歴史を解説した記事。
    • 時系列の流れと、マイルストンとなった論文がまとまっており発展の流れを概観するのにとても良い。
    • スライドの資料がこちから参照できる: Frontiers of Natural Language Processing

Information Retrieval

Dialog

Representation

  • Representations for Language: From Word Embeddings to Sentence Meanings
    • 自然言語の表現学習について、分散表現(word2vec/GloVe)を皮切りに現時点の鉄板であるBidirectional-LSTM + Attention、またCNNの適用などの手法について解説している。この資料だけで、現在の表現学習を概観できる。
    • Video
  • From Word to Sense Embeddings: A Survey on Vector Representations of Meaning
    • 単語分散表現の場合一つの単語は一つのベクトルで表現されるが、本来単語は多様な意味を持つ。そうした「意味」の表現の獲得を目指した研究のサーベイ。教師なし/知識ベースの大きく2つに分けて解説されており、その比較についても記載されている。
  • Deep Learning for Semantic Composition
    • 文の意味解釈を行うタスクにDNNを適用する際の手法について、体系的なまとめ。
  • Learning with Latent Linguistic Structure
    • 自然言語における構造を学ぶ手法についての解説資料。
    • 論理推論やプログラムなどの複雑な構造をもつドメインではアノテーションを行うのが難しいため、潜在構造を推定しつつ半教師ありの手法を適用するStructVAEについて解説されている。

Named Entity Recognition (NER)

  • A Survey on Recent Advances in Named Entity Recognition from Deep Learning models
    • 固有表現認識の手法に関するサーベイ。単に研究だけでなくデータセットや評価指標の解説もあり、Recentとついているが旧来の手法についても言及されていて既存のサーベイの紹介もしてくれているなど、短いながらよくまとめられた資料。

Others

  • Best Research articles on Deep Learning for Text classification (2015–2016)
    • テキスト分類におけるDNNの適用についてのサーベイ集。RNN/CNNを利用する際は目を通すとよい。
  • Survey of the State of the Art in Natural Language Generation: Core tasks, applications and evaluation
  • Deep Learning for Sentiment Analysis : A Survey
  • Machine Learning on Source Code
    • 機械学習をシステム開発に役立てる研究のサーベイ。List of Papersには2007年のからの研究がずらりと並ぶ。コードの補完や訂正に関するものが多いが、コミットメッセージやコメントの生成、画面からのコード生成といった珍しいものもある。
  • トピックモデル (機械学習プロフェッショナルシリーズ)
    • トピックモデルについてはこちらの書籍がとても分かりやすい。
  • All About NLP (AAN)
    • 自然言語処理に関連する論文やチュートリアルなどを集めたポータルサイト。Yale大学が運営しており、共同プロジェクトの実施やデータセットの公開なども行っている。
  • Algorithms - Lede 2018 @ Columbia Journalism School
    • コロンビア大学ジャーナリズム大学院における、ジャーナリズムで使用されるアルゴリズムについての講義資料。
    • 前半は一般的な自然言語処理・機械学習の解説だが、後半はそれによりもたらされうるメディアバイアスやその原因となるデータ品質/予測結果の解釈方法などが解説されている。
    • 「機械学習の基本的な内容とその利用に関する注意」を学ぶにはよい資料。
  • Neural Reading Comprehension and Beyond
    • 機械学習で文書読解をさせるMachine Comprehensionについての体系的なまとめ。
    • 紹介されている手法自体は多くないが、特徴ベースの手法からニューラルまで解説されており、また周辺の議論(QAとの違いや、評価方法など)についてもきちんとまとめられている。
  • MT-Reading-List
    • 機械翻訳について、まず読むべき論文とターニングポイントとなった手法の論文などをまとめたリポジトリ。よい研究のガイドとなっている。
  • Evaluating Text Output in NLP: BLEU at your own risk
    • 翻訳の評価指標であるBLEUの問題点について述べた記事。主要な論点がまとめられており、とても参考になる。また、派生メトリクスについてもかなりの量が網羅されている。
  • Neural Transfer Learning for Natural Language Processing
    • 自然言語処理における転移学習についての、体系的なまとめ。タスクが同じか/異なるかという観点から、同じ場合はDomain Adaptation(言語が異なる場合Cross-lingual)、異なる場合は異なるタスクを同時に学習するか(Multi-Task)・一つずつ学習するか(Sequential)といった形でわけ解説を行なっている。
  • Deep Adversarial Learning for NLP
    • 自然言語処理におけるAdversarial Trainingの解説+研究の紹介を行なっている資料。適用が成功しているのは今の所対話ぐらいだが、まだ可能性は広がっているという内容。
  • NLI with Deep Learning
    • 文関係推論(NLI)に関するデータセットと研究の紹介。SNLIなどで指摘されてるAnnotation Artifact(片方の文だけで推論できるなど)の問題も言及されている。

Not Recommend 💧

  • 深層学習による自然言語処理
    • 初心者がこれを読んで学ぶのは厳しい印象。既に理解している人が、定義を確認したり知らなかったモデルをかいつまんでみてみるのに向いている。
  • 入門 自然言語処理
    • 内容がちょっと冗長で、厚さのわりに得るものがあまりなく、わかりやすいとも言い難い内容。

Audio

  • Neural Nets for Generating Music
    • 音楽生成の歴史をまとめた大作ブログ。Markov ChainからRNN(LSTM)の利用、Magentaの紹介、CNNを利用したWaveNet、そこからさらにSampleRNNなど2017/8までの音楽生成の歴史と研究を概観できる。
  • Notes on Music Information Retrieval
    • 音楽の検索を行うためのワークショップの資料。音楽の表現や特徴抽出、またテンポの推定や機械学習による分類方法などがipynb形式で解説されている。

Additional

  • An Interactive Introduction to Fourier Transforms
    • フーリエ変換をアニメーションで理解する記事。基本的な内容から、3次元、画像への適用などの応用例も紹介されている。
  • Deep Learning for Audio Signal Processing
    • 音声に対するDNNの適用についてまとめられた資料。音声と画像の性質的な違い(時系列/周波数という相関のない2軸で表現される点、時系列のため順次処理が必要など)を示しその違いを各手法がどう扱っているのかという観点からまとめられている。概要的な資料だが問題設定と手法が上手くまとめられている

Reinforcement Learning

Additional

  • A (Long) Peek into Reinforcement Learning
    • 速習強化学習ともいうべき記事。これで学ぶというより、学んだあとにポイントを振り返るのに大変便利。
  • Evolutional Strategy
  • Deep Reinforcement Learning: An Overview
    • 2017時点での深層学習による強化学習のまとめ。自然言語処理や音楽生成などの今後の適用領域についての紹介もされており、また教材リストも付属というお得なサマリ
  • Deep Learning for Video Game Playing
    • 深層学習x強化学習でゲームを攻略する研究のまとめ。どんな手法がどんな種類のゲームに使われているかなどもまとめられている。
  • Model-Based Reinforcement Learning
    • モデルベースの強化学習の解説資料。基本的なところから近年の手法まで解説されている。モデルベースはモデルフリーに比べ資料が少ないため、貴重。
  • Meta-Learning in 50 Lines of JAX
    • メタラーニングのチュートリアルの記事。メタラーニングは色んな意味で使われているため、まず扱う対象の「メタラーニング」をきちんと定義してくれている。その後、Numpy+勾配計算といった趣のシンプルなライブラリJAXを使って実際に実装を行っている。

Not Recommend 💧

Optimization Method

Probabilistic Modeling

  • Seeing Theory
    • 確率/統計についてインタラクティブに学べるサイト。可視化の技法がとてもうまく使われており、抜群にわかりやすい。
  • Introduction to Gaussian Processes - Part I
    • ガウス過程の解説記事
  • A Visual Exploration of Gaussian Processes
    • ガウス過程についての解説記事。図、またパラメーターを操作してインタラクティブに試せるコンテンツを用いて解説されており分かりやすい。
  • CSC2541: Scalable and Flexible Models of Uncertainty
    • トロント大学の確率モデリングの授業。ガウス過程からニューラルネットを使ったベイジアンネットなどを扱い、しかもTensorFlowやStan、Edwardといったライブラリを使った実習もある。
  • Normalizing Flows Tutorial, Part 1: Distributions and Determinants
    • 正規分布のようななじみの分布は、簡単にサンプル生成が行えその確からしさも測りやすい。GANやVAEといった生成モデルはこうした解釈性が低いが生成性能はとても高い。シンプルさを保ちつつ生成精度を上げる両取りの方法であるNormalizing Flowについての解説記事。
  • Probabilistic-Programming-and-Bayesian-Methods-for-Hackers
    • プログラマーのための確率プログラミング、と題した本のコンテンツ。本文と実装が公開されており、Jupyterで動かしながらインタラクティブに学ぶことができる。
    • もとはPyMCだが、TensorFlow probability版も提供されている。

Causal Inference

Preprocessing/Feature Engineering

Engineering

機械学習モデルは作っておしまいではなく、実システムへの組み込みや組み込んだ後の運用も大きな課題となります。また、そもそもどう仕様を決めるのか、と言った点も大きな問題です。それについて学ぶための資料について記載します。

  • Rules of Machine Learning: Best Practices for ML Engineering
    • GoogleのMartinさんが書かれた、機械学習のベストプラクティスについて。単に手順だけでなく、学習が進まないときどうすればいいかなども書かれている。なお、ベストプラクティスその1は「機械学習を使わないことを恐れるな」
  • What’s your ML test score? A rubric for ML production systems
    • 機械学習モデルのテストに関するチェックリスト。特徴量/データセット、モデルの開発・評価プロセス、モデルの運用保守インフラ、パフォーマンス監視の4つの観点でまとめられており、実運用を行う際は3-4ポイントでギリ、5ポイント-の獲得が望ましいとのこと。
  • Machine Teaching: A New Paradigm for Building Machine Learning Systems
    • 機械学習を利用したいというニーズに応えていくには、機械学習モデルの構築作業を分業していく必要があるという提言。現在は一人の職人がデータ収集から前処理、モデルの構築まで全部を行い、そのプロセスが属人的になることが多い。なので、最低限アルゴリズム構築と学習は分けようという。
  • Best Practices for Applying Deep Learning to Novel Applications
    • 深層学習をアプリケーションで利用する際のすすめ方や注意点についての話。問題の定義(inとout)をしっかり行うこと、検証が済んでいるモデル(公開されているコードetc)からはじめること、結果の見える化をしとくこと、などが書かれている
    • 読みやすいWeb版が公開された
  • Machine Learning: The High Interest Credit Card of Technical Debt
    • 機械学習を使い始めた「後」に問題になる点がまとめられた資料。ハイパーパラメーターやデータへの依存、特徴量の劣化/散在に対応する必要性などが書かれている。
  • Applied machine learning at facebook a datacenter infrastructure perspective (HPCA18)
    • Facebookで ML as a Service(MLaaS)をどのように提供しており、FB内の機械学習のパイプラインのデザインについて解説している。
    • 解説スライド
  • 実用化のための 機械学習の評価尺度の色々
    • 機械学習活用プロジェクトでよくある「精度が高ければ使える」といった話について、適用業務に合わせた「精度」の測り方をしようという話。
    • 具体例を提示しながら解説されており、イメージがつきやすい。実際にモデルを作る前に目を通しておくと良い。
  • Applying Deep Learning To Airbnb Search
    • Airbnbにおける検索ランキングの改善に、ニューラルネットを適用したプロジェクトの記録資料。
    • どんなモデルから始めるべきか、モデルの性能/状況をどう測るか、特徴エンジニアリングとどう組み合わせるのか、といった機械学習のプロジェクトを進める上で重要な知見が丁寧に書かれている。失敗談についても記載されている。
  • Guidelines for Human-AI Interaction
    • マイクロソフトが発行した、人間とのインタラクションを行う機械学習システムについてのデザインガイドライン。
    • ECサイトや音声アシスタントなど様々なプロダクトから得られたフィードバックを参考に、インタラクションのフェーズごとにガイドラインを設定している。

Application Development

最近の機械学習界隈では、単純にモデルを作成するだけでなくそれをデモとして仕上げる力も求められている印象があります。
そのため、アプリケーション開発について学ぶために有用な資料についてもここにまとめておきます。

Git

アプリケーションの開発だけでなく、機械学習モデルのソースコードの管理にもバージョン管理ツールは欠かせません。
ここでは、数あるバージョン管理ツールのうちGitに絞り資料を紹介します。

  • 使い始める Git
    • 特定のファイルをバージョン管理対象外にする.gitignoreは必ず確認しましょう。よく、.pycファイルや.ipynb_checkpointsがリポジトリに入ってしまっている例を見ます。こちらで言語や開発環境に応じたファイルを確認できます。
  • Try Git
    • GitHubオフィシャルのGitチュートリアルです

Coding

  • python_exercises
    • Pythonのトレーニング用リポジトリです
  • 良いコードとは
    • 動けばいいというコードでは、自分の実験の生産性が落ちる可能性があるだけでなく、他の人が再現を行うのも難しくなります。良いコードを書くよう心がけましょう。
  • Writing Code for NLP Research
    • 研究のための開発についてのテクニックについての解説資料(EMNLP2018)
    • 実験(prototyping)か本格的なコンポーネント設計かきちんとわけ、前者ならスクラッチから始めず人のコードを借り修正するところから始めるべし、としている。テストや実験結果記録などにも触れておりかなり実践的。後者で行うべきCIなども解説している。
    • 実際に深層学習系のコードを書く前に、必ず目を通しておきたい。

Web

  • Web Application Tutorial
    • 基本的なMVCのアーキテクチャとそれを利用する際の注意点について解説しています。

Visualization

  • DataVisualization
    • 実際のデータを利用した、データ可視化チュートリアル。各種ライブラリ(Seaborn/Bokeh/Plotly/Igraph)ごとに用意されていて使い方を比較できる。
  • Visual Vocabulary
    • データの可視化を行う技法を、可視化したいメトリクス(差なのか共起なのかetc)に応じて分類、紹介してくれているサイト。
  • UW Interactive Data Lab
    • データの可視化による情報伝達について、実例などをまとめているサイト。

UI/UX

Docker

機械学習エンジニアにとってDockerはもはや欠かせないツールになっているので、理解しておくとよいです。

Scraping

機械学習エンジニアにとって、データを取得するためのスクレイピング技術は欠かせないものになっているため、身に着けておくとよいです。

Product Design

Others

  • AI開発を円滑に進めるための契約・法務・知財
    • AI開発にまつわる法律の解釈などをまとめた資料。法律の説明だけでなくケーススタディが掲載されているので(この場合はOKなど)とても参考になる。
  • ライフサイエンス・ヘルスケア業界 未来予想図
    • ライフサイエンス・ヘルスケア業界の未来像について、当時の数値などから予想を行なった資料。
    • 想像される世界像を提示し、そこで配信されているであろうニュース、具体的なシナリオ、標準化などの世界動向、という形でまとめていて調査資料としてとてもよくできている。

Others

  • LEARNING WITH LIMITED LABELED DATA: WEAK SUPERVISION AND BEYOND
    • NIPS2017で開催された、少数のデータから学習を行う手法のワークショップ
  • From zero to research — An introduction to Meta-learning
    • メタラーニングについて、初歩的なところから解説をしている記事。PyTorchでの実装例も付属している。アニメーションを使った図解が豊富でとても分かりやすい。
  • Hardware Accelerators for Machine Learning (CS 217)
    • 機械学習を効率的に行うためのハードウェア実装を学ぶコースが開講(内容的には演算処理方法に近い)。機械学習の基礎からDNNまでの解説がまずあり、その上で効率的な計算法を学ぶ。もちろんハードウェアとしてFPGAの講義もあり、かなりしっかりしたコースの印象。
  • Towards Open-domain Generation of Programs from Natural Language
    • プログラムコードの生成に自然言語処理を応用する研究のまとめ。構文の潜在構造をとる、また要約のように抽出と組み合わせる試みなどが取り上げられている。
  • Dealing with Imbalanced Classes in Machine Learning
    • 機械学習のデータにおいて、ラベル間のサンプル数が不均衡であるケースについての対処法。少数派を増大させるoversampling、多数派を減少させるundersampling、これらより良い少数派を「生成」するSMOTEという手法、また異常検知の問題としてみなしてしまうなど、様々な手法が紹介されている。
  • Troubleshooting Deep Neural Networks
    • DNNのモデルを構築する際に、上手くいかない場合の対応策をまとめた資料。実装の問題、ハイパーパラメーターの問題、学習の問題、データの問題という4つの観点から解説を行っている。
  • Deep Learning for Anomaly Detection: A Survey
    • 異常検知に深層学習を使用した研究のサーベイ。既存のサーベイは特定領域にフォーカスしたものが多かったが(動画や医療画像など)、本サーベイでは包括的なまとめを行い、また研究だけでなく産業などでの適用事例についてもまとめている。
  • ann-benchmarks
    • クラスタリングなどに用いられる、近似最近傍探索を行なってくれるライブラリをまとめたリポジトリ。理論はわかったので、実際導入したい、という場合にとても参考になる資料。
    • 日本語の解説記事はこちら
  • 効率的な教師データ作成(アノテーション)のための研究サーベイ
    • データセットを作成するアノテーションを効率化するための研究の紹介。画像を中心に既存研究がまとめられている。
  • Recent Advances on Transfer Learning and Related Topics
    • 転移学習の手法とその理論的な解説がなされている資料。
    • 混乱しがちなメタラーニングやFew-shotとの違いについても言及されており、この資料だけで転移学習周りの研究がかなりすっきりと整理できるようになっている。

XGBoost

Domain Specific

Understanding DNN

  • Methods for Interpreting and Understanding Deep Neural Networks
    • DNNの判断を理解するための研究のまとめ。ネットワークが反応する入力を見つける方法(Activation Maximizationなど)、判断根拠となった特徴を入力にマップする方法(Relevance Propagationなど)などを紹介、説明力の比較方法についても記載している
  • Tutorial on Methods for Interpreting and Understanding Deep Neural Networks
    • ICASSP 2017のチュートリアル資料。ネットワークを逆にたどる形で予測に寄与した点を算出するLayer-wise Relevance Propagationという手法について解説している。
  • Awesome Interpretable Machine Learning
    • DNNを解釈する方法についての論文まとめ。
  • Analysis Methods in Neural Language Processing: A Survey
    • DNN系の自然言語処理のモデルを評価する方法についての体系的なまとめ。モデルの解析による評価(Attentionなど)、モデルのパフォーマンスによる評価(評価セットに対するスコア)、敵対的サンプルによる評価といった3つの観点で研究が整理されている。
  • Interpretable Machine Learning
    • 機械学習において、説明力の高いモデルとモデルを外から解釈(診断)するための手法をまとめた書籍(ただ、ディープ系の話題はあまりカバーしていない)。
    • 販売も行われているが、全文をWebで読むことができる。

Adversarial Attack

  • ADVERSARIAL MACHINE LEARNING TUTORIAL
    • AAAI2018で開催された、機械学習モデルの識別を誤らせるAdversarialな手法について、攻撃、防衛、検知といったテーマに分けて行われたチュートリアル。

Graph Structure

  • Structured deep models: Deep learning on graphs and beyond
    • グラフを扱わせたら右に出るものはいないThomas Kipf先生の講義資料。DNNでグラフを扱う際の基本的な考え方からその歴史、最近の研究動向までが網羅されている。
    • グラフは質問回答における推論等に使われる一方、分子構造の推定などにも使われており、多様な分野で応用が広がる熱い分野
  • Deep Generative Models for Graphs: Methods & Applications
    • グラフ生成に関するチュートリアル資料(ICLR2019)。与えられたデータが持つグラフ構造に似たグラフを生成する方式と、特定性質を持つグラフを生成する方式(化学物質など)の2種類にわけ解説されている。
    • 前者は系列生成(RNN)ベース、後者はGraph Conv+強化学習ベース。

Network Optimization

How to Write