AI & Statistics Lab

분류 전체보기 92

"Assembly of Experts: Linear-time construction of the Chimera LLM variants with emergent and adaptable behaviors" 리뷰

이 논문은 대규모 언어 모델(LLM)의 사전 훈련 과정에서 발생하는 천문학적인 계산 비용(8비트 가중치 하나당 10^13~10^15 FLOPs) 문제를 해결하고자 하는 강력한 동기에서 출발합니다. 기존에는 LLM의 기능을 확장하거나 특정 작업에 적응시키기 위해 경사 기반 미세 조정(gradient-based fine-tuning)이나 RLHF(Reinforcement Learning from Human Feedback)와 같은 방법들이 사용되었는데, 이들은 매우 효과적이지만 엄청난 계산 비용과 방대한 훈련 데이터를 요구합니다. 이 연구는 이러한 비용이 많이 드는 패러다임을 "Assembly-of-Experts" (AoE)라는 새로운 모델 구성 방법을 통해 혁신하고자 합니다. AoE는 부모 모델의 파라미터..

Paper Review 2025.07.06

"Wider or Deeper? Scaling LLM Inference-Time Compute with Adaptive Branching Tree Search" 논문 리뷰

이 논문 "Wider or Deeper? Scaling LLM Inference-Time Compute with Adaptive Branching Tree Search"는 대규모 언어 모델(LLM)의 추론 시간 계산(inference-time computation)을 확장하여 복잡한 작업에 대한 성능을 향상시키는 새로운 프레임워크인 Adaptive Branching Monte Carlo Tree Search (AB-MCTS)를 제안합니다.서론 및 배경최근 연구에 따르면 추론 시 계산량을 늘리는 것이 LLM의 복잡한 작업 성능을 크게 향상시킬 수 있음이 입증되었습니다. 이러한 추론 시간 스케일링 접근 방식은 크게 세 가지로 분류됩니다: (1) 후학습 미세 조정(post-training fine-tuning..

Paper Review 2025.07.06

SpeechSSM 논문 리뷰

1. 서론 및 연구의 목적이 논문 "Long-Form Speech Generation with Spoken Language Models" (Se Jin Park 외)는 수 분에 걸친 긴 길이의 음성 생성 모델링을 다룹니다. 이는 긴 형식의 멀티미디어 생성 및 오디오 기반 음성 비서와 같은 애플리케이션에 필수적인 요구사항입니다. 현재의 음성 언어 모델들은 수십 초 이상의 그럴듯한 음성을 생성하는 데 어려움을 겪고 있으며, 이는 음성 토큰의 높은 시간 해상도로 인한 일관성 손실, 긴 시퀀스 학습 또는 외삽(extrapolation)과 관련된 아키텍처 문제, 그리고 추론 시 메모리 비용 등 여러 가지 이유 때문입니다. 이러한 문제를 해결하기 위해 이 논문은 선형 시간 시퀀스 모델링의 최신 발전을 기반으로 한 ..

Paper Review 2025.07.06

LLM 생성 콘텐츠와 표절: 학술적 무결성의 새로운 도전

LLM 생성 콘텐츠와 표절: 학술적 무결성의 새로운 도전들어가며: 변화하는 글쓰기 패러다임인공지능이 일상으로 스며들면서 우리는 지적 창작의 본질에 대한 근본적인 질문에 직면하게 되었습니다. 특히 대화형 AI를 통해 생성된 텍스트가 표절에 해당하는지는 단순한 기술적 문제를 넘어 학술적 무결성과 창의성의 정의 자체를 재고하게 만드는 복잡한 이슈입니다.ChatGPT와 같은 대규모 언어 모델(LLM)의 등장으로 글쓰기 환경은 근본적으로 변화했습니다. 이제 누구나 몇 초 만에 논문 초안을 작성하고, 에세이를 완성하며, 연구 보고서를 생성할 수 있게 되었습니다. 하지만 이러한 기술적 혁신은 동시에 학술적 정직성에 대한 새로운 도전을 제기하고 있습니다.현재 상황: 통계로 보는 AI 글쓰기의 확산최근 연구 결과들은 A..

기타 2025.07.04

AI가 생성한 콘텐츠: 표절인가, 아닌가?

AI가 생성한 콘텐츠: 표절인가, 아닌가?서론인공지능(AI), 특히 대형 언어 모델(LLM)인 GPT-4와 같은 기술의 발전으로 인해 중요한 질문이 제기되었습니다: AI에게 지시하여 작성된 글은 표절로 간주되어야 할까요? 이 질문은 저작권, 독창성, 그리고 콘텐츠 생성의 윤리와 같은 근본적인 문제에 대한 논의를 촉발합니다. AI가 우리의 삶의 다양한 측면에 점점 더 통합됨에 따라, AI가 생성한 콘텐츠를 사용하는 것의 의미를 이해하는 것이 중요합니다. 이 글에서는 LLM의 작동 원리, 저작권과 독창성, 학술 및 전문적 관점, 법적 및 윤리적 고려사항을 심층적으로 탐구하여 이 복잡한 질문에 답하고자 합니다.표절의 정의표절은 다른 사람의 작업, 아이디어, 또는 표현을 적절한 출처 표기 없이 자신의 것으로 제..

기타 2025.07.04

"Self-Adapting Language Models (SEAL)" 논문 리뷰

Self-Adapting Language Models (SEAL) 논문 리뷰1. 연구의 필요성 및 배경: LLM의 한계와 자기 적응의 중요성대규모 언어 모델(LLMs)은 방대한 텍스트 코퍼스에서 사전 학습되어 언어 이해 및 생성 분야에서 놀라운 능력을 보여주지만, 본질적으로 정적(static)인 특성을 가집니다. 즉, 새로운 작업, 지식 또는 예시에 직면했을 때 자체 가중치를 적응시키는 메커니즘이 부족합니다. 특정 작업에 모델을 적응시키거나, 새로운 정보를 통합하거나, 새로운 추론 능력을 습득하는 것은 작업별 데이터의 가용성이 제한적이기 때문에 여전히 어렵습니다.SEAL 논문은 이러한 한계를 극복하기 위해 흥미로운 가설을 탐구합니다: LLM이 자체 훈련 데이터를 변형하거나 생성하고 학습 절차를 변환하거나..

Paper Review 2025.07.04

퀀텀 유럽 전략 요약

유럽연합(EU)은 양자 기술 분야에서 글로벌 경쟁 우위를 확보하기 위해 '퀀텀 유럽 전략(Quantum Europe Strategy: Quantum Europe in a Changing World)'을 통해 포괄적인 노력을 기울이고 있습니다. 유럽은 막스 플랑크, 알베르트 아인슈타인 같은 선구자들부터 현재의 노벨상 수상자들에 이르기까지 양자 과학의 발상지였습니다. 양자 과학의 발전은 기술 역사상 가장 혁신적인 발전 중 일부를 나타내며, 양자는 EU의 산업 경쟁력과 기술 주권을 위한 새로운 기회를 열 수 있는 다음 선구적인 혁신으로 언급됩니다.현재 양자 기술은 연구실을 넘어 실제 응용 분야로 확장되고 있으며, 의료 분야의 MRI 스캐너부터 에너지 분야의 재료 발전, 지구물리학 및 항법용 중력계 센서, 보안..

기타 2025.07.04

HyperCLOVA X THINK 리뷰

HyperCLOVA X THINK 개요 및 목표HyperCLOVA X THINK는 HyperCLOVA X 제품군의 첫 번째 추론 중심 대규모 언어 모델입니다. 이 모델은 두 가지 주요 목표를 가지고 개발되었습니다:고급 추론 능력: 사실적 지식 암기를 넘어 논리적 추론 및 다단계 문제 해결 능력을 제공합니다.주권 AI(Sovereign AI) 촉진: 한국어에 특화된 언어적 유창성과 문화적 민감도를 제공하며, 지역적 가치 및 규제에 부합하는 데이터 거버넌스를 목표로 합니다. 특히 한국을 중심 목표로 설정했습니다.이 모델은 약 6조 개의 고품질 한국어 및 영어 토큰으로 사전 학습되었으며, 표적 합성 한국어 데이터로 보강되었습니다. 또한 컴퓨팅-메모리 균형을 이루는 Peri-LN Transformer 아키텍처를..

Paper Review 2025.07.03

Hunyuan-A13B 리뷰

Hunyuan-A13B는 Tencent Hunyuan 팀이 개발한 오픈소스 대규모 언어 모델(LLM)로, Mixture-of-Experts (MoE) 아키텍처를 사용하여 계산 효율성과 모델 성능 간의 균형을 최적화한 것이 특징입니다. 이 모델은 복잡한 추론 능력과 효율적인 배포를 목표로 설계되었습니다.1. 주요 특징 및 아키텍처MoE 아키텍처: Hunyuan-A13B는 총 800억 개의 매개변수를 가지고 있지만, 추론 시에는 단 130억 개의 매개변수만 활성화됩니다. 이는 유사한 규모의 밀집 모델에 비해 추론 지연 시간과 계산 오버헤드를 상당히 줄이면서 최첨단 LLM에 필적하는 성능을 달성합니다.세부적으로는 1개의 공유 전문가(shared expert)와 64개의 세분화된 비공유 전문가(fine-grai..

Paper Review 2025.07.03

AGI 개발 전략의 현재와 미래: 2025년 전문가 분석

AGI 개발 전략의 현재와 미래: 2025년 전문가 분석서론: AGI를 향한 경쟁의 새로운 국면2025년은 인공일반지능(AGI) 개발 분야에서 역사적 전환점이 되고 있다. 주요 AI 기업들이 "몇 년 내" AGI 달성을 공언하고 있으며, 기술적 돌파구와 함께 새로운 도전과제들이 동시에 부상하고 있다. 이 글은 현재 AGI 개발의 전략적 지형을 심도 있게 분석하고, 주요 플레이어들의 접근 방식과 향후 전망을 종합적으로 검토한다.1. 현재 AGI 개발 지형 분석1.1 주요 플레이어들의 전략적 포지셔닝OpenAI의 선도적 전략OpenAI는 2025년 초 Sam Altman의 블로그 포스트를 통해 AGI와 초지능(superintelligence) 개발에 대한 야심찬 로드맵을 제시했다. 이들의 접근 방식은 tra..

기타 2025.07.01