Tags

unsupervised parsing

Cooperative Learning of Disjoint Syntax and Semantics

Havrylov et al. (NAACL 2019) 별도의 파서 (syntax)와 합성 함수 (semantics) 모델을 동시에 훈련시킬 때 발생하는 coadaptation 문제를 해결하기 위해서, Gumbel Tree-LSTM에 SCT와 PPO를 더하고 downstream ta...

Unsupervised Recurrent Neural Network Grammars

Kim et al. (NAACL 2019) 이 논문은 amortized variational inference를 사용하여 latent tree space에 대해 marginalize하는 문제를 해소하고 RNNG를 비지도 학습한다. Generative 모델은 stackLSTM과 t...

Structured Alignment Networks for Matching Sentences

Liu et al. (EMNLP 2018) 의미의 합성성에 주목하여 latent subtree들의 비교를 통해 두 문장의 의미 관계를 파악하고자 한다. 각 문장의 트리를 구한 후 문장 단위에서 비교하는 것이 아니라, 두 문장을 span 단위에서 비교함으로써 트리를 만들어간다 (C...

Back to top ↑

constituency tree

Unsupervised Recurrent Neural Network Grammars

Kim et al. (NAACL 2019) 이 논문은 amortized variational inference를 사용하여 latent tree space에 대해 marginalize하는 문제를 해소하고 RNNG를 비지도 학습한다. Generative 모델은 stackLSTM과 t...

Structured Alignment Networks for Matching Sentences

Liu et al. (EMNLP 2018) 의미의 합성성에 주목하여 latent subtree들의 비교를 통해 두 문장의 의미 관계를 파악하고자 한다. 각 문장의 트리를 구한 후 문장 단위에서 비교하는 것이 아니라, 두 문장을 span 단위에서 비교함으로써 트리를 만들어간다 (C...

Back to top ↑

RL

Paraphrase Generation with Deep Reinforcement Learning

Li et al. (EMNLP 2018) Evaluator가 generator의 fine-tuning 단계에서 reward를 제공하도록 한다. Evaluator는 positive/negative sample에 대해 미리 binary classifier로서 훈련된 후 활용될 수도 ...

Rainbow: Combination of DQN Extensions (Part 1)

이 글은 DeepMind의 Rainbow: Combining Improvements in Deep Reinforcement Learning 에 사용된 6가지 DQN extension들을 다룹니다. 또한 각 extension을 구현한 코드 일부에 변형/주석을 달았습니다.

Back to top ↑

attention

Back to top ↑

LM

Back to top ↑

multitask

Back to top ↑

sentence embedding

Back to top ↑

paraphrase

Paraphrase Generation with Deep Reinforcement Learning

Li et al. (EMNLP 2018) Evaluator가 generator의 fine-tuning 단계에서 reward를 제공하도록 한다. Evaluator는 positive/negative sample에 대해 미리 binary classifier로서 훈련된 후 활용될 수도 ...

Back to top ↑

adversarial training

Back to top ↑