목록전체 글 (48)
:)
1. Introduction연구 배경"Disentangled Editing" (속성 분리 편집) 기술: 생성된 이미지에서 특정 속성만 선택적으로 편집할 수 있는 능력.기존 모델들의 편집 특성GANs고정 차원의 latent vector 사용.눈, 입, 머리색 등과 같은 각 벡터 차원이 의미 있는 개념을 선형적으로 표현.→ 편집이 직관적이고 분리되어 있음. (disentangled)Diffusion 모델다단계 방식으로 노이즈 → 이미지로 점진적으로 생성.고정 latent vector 없음. → 각 단계의 노이즈가 복잡하게 얽혀 있어서 속성 조절이 어려움.기존 시도들의 한계접근 방식 한계점UNet bottleneck의미 분리가 완전하지 않음Text embedding 조작시각 정보와 잘 정렬되지 않아 오류 가능..

1. 개요DeepSeek MATH: 수학적 추론 능력을 극대화하기 위해 개발된 오픈소스 AI 모델DeepSeek-Coder-Base-v1.5 7B를 기반으로 학습자연어 데이터 뿐만 아니라 수학 관련 데이터와 코드 데이터를 추가 학습해 정확도 향상 2. ContributionMath Pre-Training at Scale 대규모 수학 사전 학습Common Crawl에서 120B 토큰 규모의 수학 데이터(DeepSeekMath Corpus) 생성 (Minerva의 7배)DeepSeekMath-Base 7B가 Minerva 540B와 유사한 성능 → 모델 크기보다 데이터 품질이 중요함을 증명.코드 학습의 효과 확인: 코드 학습 후 수학 학습을 진행하면 문제 해결 및 도구 활용 능력 향상arXiv 데이터 학습은..
Abstract문제점기존 unsupervised skill discovery 방법들: 정적인 환경에만 초점. 에피소드 내 고정된 스킬만 사용. → 변화하는 환경 속 공통 구조를 제대로 학습 X.제안 기법incremental skills: 이전에 학습한 스킬들의 조합으로 구성된 state coverage를 확장하도록 새로운 스킬 학습.스킬 평가 프로세스: 중복 스킬 방지를 위해 새 스킬이 기존 스킬과 얼마나 다른지 & state coverage 확장 기여도 평가.실험 결과Maze navigation과 locomotion 환경에서 제안 알고리즘이 공통 구조를 잘 표현하는 스킬을 학습함.Downstream task에서도 기존 방법들보다 더 유용함.1.Introduction문제의식기존의 강화학습 에이전트는 매번..

AbstractLoRA: Fine-tuning 비용 & 메모리 문제 해결 방법장점모델 저장 공간 절약 & Task 전환 용이 → 작은 LoRA 모듈만 저장하면 됨학습 효율 증가 → Gradient 저장 불필요, 하드웨어 요구량 3배 절감추론 속도 유지 → 기존 Fine-tuned 모델과 동일한 속도다른 방법과 병행 가능 → Prefix-tuning 등과 조합 가능Introduction연구 배경사전 학습된 LLM은 다양한 다운스트림 작업에 적응 필요.기존 Fine-tuning 방식은 모든 파라미터를 업데이트해야 하므로 비효율적모델 크기가 클수록 비용 증가추론 속도 저하 및 사용 가능한 시퀀스 길이 감소성능 저하와 효율성 사이의 트레이드오프 발생LoRA (Low-Rank Adaptation) 개념LLM의 가..

1. VLOD (View Level of Detail)VLOD: 화면의 디테일한 정도."모든 측정값은 VLOD에서 집계되고 표현된다."태블로의 집계 방식은 '합계'가 디폴트값.기존의 카테고리 레벨에서 집계하는 대신에 서브 카테고리 레벨까지 내려가서 새롭게 집계 => 모든 측정값은 VLOD에서 집계된다는 의미.- VLOD를 결정하는 것은 오직 차원이다 : True / FalseVLOD를 변화시킬 수 있는 위치: 행, 열, 색상, 크기, 레이블, 세부정보필터와 도구설명은 화면의 LOD에 전혀 영향 X. 페이지는 약간 애매한 부분이 있음. - Syntax for LOD Expressions:ex){Include [차원1], [차원2] : SUM([측정값]) }- [차원1], [차원2] : 여러 개의 차원을 사..