목록Paper Review (14)
:)
1. Introduction연구 배경"Disentangled Editing" (속성 분리 편집) 기술: 생성된 이미지에서 특정 속성만 선택적으로 편집할 수 있는 능력.기존 모델들의 편집 특성GANs고정 차원의 latent vector 사용.눈, 입, 머리색 등과 같은 각 벡터 차원이 의미 있는 개념을 선형적으로 표현.→ 편집이 직관적이고 분리되어 있음. (disentangled)Diffusion 모델다단계 방식으로 노이즈 → 이미지로 점진적으로 생성.고정 latent vector 없음. → 각 단계의 노이즈가 복잡하게 얽혀 있어서 속성 조절이 어려움.기존 시도들의 한계접근 방식 한계점UNet bottleneck의미 분리가 완전하지 않음Text embedding 조작시각 정보와 잘 정렬되지 않아 오류 가능..

Abstract배경기존의 RAG 방식은 특정 정보 검색에는 유용하지만 global 질문에는 취약함.이는 질의 중심 요약(Query-Focused Summarization, QFS)의 성격을 띠지만 기존 QFS 기법은 대규모 문서를 다루기엔 확장성의 한계가 있음.제안 방법: Graph RAGRAG의 검색력과 QFS의 요약력을 결합하여 확장 가능하면서도 의미 있는 응답을 생성하는 방법.2단계 그래프 기반 인덱싱을 사용:Entity Knowledge Graph 생성: LLM을 이용해 문서에서 엔티티 간의 관계를 추출해 지식 그래프 구축.Community Summary 생성: 연관된 엔티티들을 커뮤니티 단위로 묶고 각각에 대해 요약을 사전에 생성.사용자 질문 처리 방식: 각 커뮤니티 요약을 기반으로 부분 응답 ..

1. 개요DeepSeek MATH: 수학적 추론 능력을 극대화하기 위해 개발된 오픈소스 AI 모델DeepSeek-Coder-Base-v1.5 7B를 기반으로 학습자연어 데이터 뿐만 아니라 수학 관련 데이터와 코드 데이터를 추가 학습해 정확도 향상 2. ContributionMath Pre-Training at Scale 대규모 수학 사전 학습Common Crawl에서 120B 토큰 규모의 수학 데이터(DeepSeekMath Corpus) 생성 (Minerva의 7배)DeepSeekMath-Base 7B가 Minerva 540B와 유사한 성능 → 모델 크기보다 데이터 품질이 중요함을 증명.코드 학습의 효과 확인: 코드 학습 후 수학 학습을 진행하면 문제 해결 및 도구 활용 능력 향상arXiv 데이터 학습은..
Abstract문제점기존 unsupervised skill discovery 방법들: 정적인 환경에만 초점. 에피소드 내 고정된 스킬만 사용. → 변화하는 환경 속 공통 구조를 제대로 학습 X.제안 기법incremental skills: 이전에 학습한 스킬들의 조합으로 구성된 state coverage를 확장하도록 새로운 스킬 학습.스킬 평가 프로세스: 중복 스킬 방지를 위해 새 스킬이 기존 스킬과 얼마나 다른지 & state coverage 확장 기여도 평가.실험 결과Maze navigation과 locomotion 환경에서 제안 알고리즘이 공통 구조를 잘 표현하는 스킬을 학습함.Downstream task에서도 기존 방법들보다 더 유용함.1.Introduction문제의식기존의 강화학습 에이전트는 매번..

AbstractLoRA: Fine-tuning 비용 & 메모리 문제 해결 방법장점모델 저장 공간 절약 & Task 전환 용이 → 작은 LoRA 모듈만 저장하면 됨학습 효율 증가 → Gradient 저장 불필요, 하드웨어 요구량 3배 절감추론 속도 유지 → 기존 Fine-tuned 모델과 동일한 속도다른 방법과 병행 가능 → Prefix-tuning 등과 조합 가능Introduction연구 배경사전 학습된 LLM은 다양한 다운스트림 작업에 적응 필요.기존 Fine-tuning 방식은 모든 파라미터를 업데이트해야 하므로 비효율적모델 크기가 클수록 비용 증가추론 속도 저하 및 사용 가능한 시퀀스 길이 감소성능 저하와 효율성 사이의 트레이드오프 발생LoRA (Low-Rank Adaptation) 개념LLM의 가..