LLM(4)
-
Reasoning and Planning - Paper 발표(Let’s Verify Step by Step)
전체 슬라이드는 발표가 끝나고 올리는 걸로.이번 발표 주제는 Language model이 어떻게 reasoning과 planning을 하는 가에 대해서였다.지금까지는 Chain of Thought을 사용해 LM이 step by step으로 차근차근 inference를 진행하는 것으로 multi step reasoning이 필요한 고차원적 문제들에 대한 inference 성능을 높여왔다.나는 reasoning의 improvement 부분을 맡아 OpenAI에서 ICLR 2024에 발표한 Let’s Verify Step by Step이라는 논문을 리뷰했다. 본 논문이 최근 발표된 openAI의 최신 모델 openAI o1과 아주 밀접한 관계를 가지고 있어 흥미로웠다.openAI o1 모델 소개 - https..
2024.10.05 -
Instruction finetuning - RQ
전체 슬라이드 주소: https://docs.google.com/presentation/d/e/2PACX-1vR8vJ3j-TkJhFX9HFFNguz5IfB0HYtUJ5sAsxHD7Wn4N4fQhHU1ThG0rO36KZjcy-uKjvyI6pQZ57aN/pub?start=false&loop=false&delayms=3000Research Question: What are some ways of collecting instruction tuning training data and what are their advantages and their drawbacks?해당 주 paper 발표자가 나였어서, model generate instruction set에 대한 이후의 논문을 몇개 들고 와서 슬라이드를 만들었다..
2024.10.05 -
Instruction Finetuning(SELF-INSTRUCT)- paper 발표
전체 슬라이드 주소:https://docs.google.com/presentation/d/e/2PACX-1vQA853jwVctSpCitVFmA4c5pMwqWSQyFd0gWlvIhL_F3DK1p_xc5dPhFjA3donIVCirHD1vn865Mr9j/pub?start=false&loop=false&delayms=3000학기에 두 번 있는 paper 발표.나는 주제로는 Instruction finetuning, 논문은 SELF-INSTRUCT: Aligning Language Models with Self-Generated Instructions(ACL 2023)을 주제로 발표했다.Instruction finetuning은 기존의 random format의 natural language text datase..
2024.10.05 -
Decoder model vs Encoder-Decoder model RQ 발표
Research Question: Both Decoder and Encoder-Decoder models can be trained for generative LMs. Why did the latter lose popularity since T5?결론: NLP의 everyday usage에는 decoder가 가진 장점(less resource, faster)가 좋다. 하지만 요즘의 multimodality를 강조한 LMM들은 decoder의 기존 pretrained 된 모델로 해결이 불가능해서, 동영상/사진/지식그래프 들의 embedding을 뽑아내는 encoder가 별도로 필요. 최근 구글 Gemini가 encoder-decoder 모델이다. 전체 슬라이드 주소: https://docs.google.c..
2024.10.05