News & Updates NLPAI 랩, NLPAI Lab
< ICLR 2025 > 본 연구실의 서재형 연구원의 “K-HALU: Multiple Answer Korean Hallucination Benchmark for Large Language Models” 논문이 ICLR 2025에 Accept 되었습니다.
< NAACL 2025 – Demo Track > 본 연구실의 박찬준 연구교수의 “Dataverse: Open-Source ETL (Extract, Transform, Load) Pipeline for Large Language Models” 논문이 NAACL 2025 Demo Track에 Accept 되었습니다.
< NAACL 2025 – Industry Track > 본 연구실의 박찬준 연구교수의 “Open Ko-LLM Leaderboard2: Bridging Foundational and Practical Evaluation for Korean LLMs” 논문이 NAACL 2025 Industry Track에 Accept 되었습니다.
< NAACL 2025 – Industry Track > 본 연구실의 박찬준 연구교수의 “Understanding LLM Development Through Longitudinal Study: Insights from the Open Ko-LLM Leaderboard” 논문이 NAACL 2025 Industry Track에 Accept 되었습니다.
< NAACL 2025 – Industry Track > 본 연구실의 박제윤 석사, 박찬준 연구교수의 “CharacterGPT: A Persona Reconstruction Framework for Role-Playing Agents” 논문이 NAACL 2025 Industry Track에 Accept 되었습니다.
< NAACL 2025 > 본 연구실의 박찬준 연구교수의 “LCIRC: A Recurrent Compression Approach for Efficient Long-form Context and Query Dependent Modeling in LLMs” 논문이 NAACL 2025 Main에 Accept 되었습니다.
< NAACL 2025 > 본 연구실의 문현석, 서재형, 이승윤 연구원, 박찬준 연구교수의 “Find the Intention of Instruction: Comprehensive Evaluation of Instruction Understanding for Large Language Models” 논문이 NAACL 2025 Findings에 Accept 되었습니다.
< NAACL 2025 > 본 연구실의 정다현, 서재형, 이재욱 연구원, 박찬준 연구교수의 “CoME: An Unlearning-based Approach to Conflict-free Model Editing” 논문이 NAACL 2025 Main에 Accept 되었습니다.
< NAACL 2025 > 본 연구실의 정다현, 이승윤, 문현석 연구원, 박찬준 연구교수의 “FLEX: A Benchmark for Evaluating Robustness of Fairness in Large Language Models” 논문이 NAACL 2025 Findings에 Accept 되었습니다.
< NAACL 2025 > 본 연구실의 박찬희, 문현석 연구원, 박찬준 연구교수의 “MIRAGE: A Metric-Intensive Benchmark for Retrieval-Augmented Generation Evaluation” 논문이 NAACL 2025 Findings에 Accept 되었습니다.
< COLING 2025 > 본 연구실의 홍성태, 이승윤, 문현석 연구원의 “MIGRATE: Cross-Lingual Adaptation of Domain-Specific LLMs through Code-Switching and Embedding Transfer” 논문이 COLING 2025에 Accept 되었습니다.
<COLING 2025> 박찬준 연구교수의 “Representing the Under-Represented: Cultural and Core Capability Benchmarks for Developing Thai Large Language Models” 논문이 COLING 2025에 Accept 되었습니다.
< Expert Systems With Applications > 본 연구실의 손수현 연구원, 박찬준 박사, 이정섭 연구원, 이찬희 박사, 장윤나, 서재형 연구원, 임정우 박사의 “An Analysis on Language Transfer of Pre-trained Language Model with Cross-lingual Post-training” 논문이 Top-tier 저널인 Expert Systems with Applications에 Accept 되었습니다.
< COLING 2025 – Industry Track > 본 연구실의 박찬준 박사의 “sDPO: Don’t Use Your Data All at Once” 논문이 COLING 2025 Industry Track에 Accept 되었습니다.
< EMNLP 2024 – Demo Track > 본 연구실의 박찬준 박사의 “Evalverse: Unified and Accessible Library for Large Language Model Evaluation” 논문이 EMNLP 2024 Demo Track에 Accept 되었습니다.
< EMNLP 2024 – Industry Track > 본 연구실의 박찬준 박사의 “SAAS: Solving Ability Amplification Strategy for Enhanced Mathematical Reasoning in Large Language Models” 논문이 EMNLP 2024 Industry Track에 Accept 되었습니다.
< EMNLP 2024 – Industry Track > 본 연구실의 홍성태, 신중민, 서재형, 이태민 연구원의 “Intelligent Predictive Maintenance RAG framework for Power Plants: Enhancing QA with StyleDFS and Domain Specific Instruction Tuning” 논문이 EMNLP 2024 Industry Track에 Accept 되었습니다.
< 한글 및 한국어 정보처리 학술대회(HCLT) 2024 > 본 연구실의 정다현 연구원, 박찬준 박사의 “대규모 언어 모델의 지식 편집을 위한 지식 삭제 기반 접근법 연구” 논문이 제36 회 한글 및 한국어 정보처리 학술대회 (HCLT 2024)의 우수논문상으로 선정되었습니다.
< 한글 및 한국어 정보처리 학술대회(HCLT) 2024 > 본 연구실의 서재형 연구원의 “부정형 텍스트와 거대언어모델의 새로운 환각 현상” 논문이 제36 회 한글 및 한국어 정보처리 학술대회 (HCLT 2024)의 우수논문상으로 선정되었습니다.
< 한글 및 한국어 정보처리 학술대회(HCLT) 2024 > 본 연구실의 김민혁 연구원의 “SelQ: 한국어 Instruction-tuned 모델의 선택적 양자화” 논문이 제36 회 한글 및 한국어 정보처리 학술대회 (HCLT 2024)의 우수논문상으로 선정되었습니다.
< 한글 및 한국어 정보처리 학술대회(HCLT) 2024 > 본 연구실의 문현석 연구원의 “초거대언어모델 토큰화 전략에 의한 한국어 불이익” 논문이 제36 회 한글 및 한국어 정보처리 학술대회 (HCLT 2024)의 우수논문상으로 선정되었습니다.
< 한글 및 한국어 정보처리 학술대회(HCLT) 2024 > 본 연구실의 연구원들이 제 36회 한글 및 한국어 정보처리 학술대회에 총 20편의 논문을 게재하였습니다.
< 한글 및 한국어 정보처리 학술대회(HCLT) 2024 > 본 연구실의 이정섭, 문현석 연구원의 “대규모언어모델의 언어전이를 위한 X-Optimization 제안” 논문이 제36 회 한글 및 한국어 정보처리 학술대회 (HCLT 2024)의 우수논문상으로 선정되었습니다.
< EMNLP 2024 > 본 연구실의 구선민, 김진성, 장영준 연구원, 박찬준 박사의 “Where am I? Large Language Models Wandering between Semantics and Structures in Long Contexts” 논문이 EMNLP 2024 Main에 Accept 되었습니다.
< EMNLP 2024 > 본 연구실의 구선민, 김진성 연구원, 박찬준 박사의 “Search if you don’t know! Knowledge-Augmented Korean Grammatical Error Correction with Large Language Models” 논문이 EMNLP 2024 Findings에 Accept 되었습니다.
< EMNLP 2024 > 본 연구실의 김진성, 구선민 연구원의 “PANDA: Persona Attributes Navigation for Detecting and Alleviating Overuse Problem in Large Language Models” 논문이 EMNLP 2024 Main에 Accept 되었습니다.
< EMNLP 2024 > 본 연구실의 문현석, 이승윤, 홍성태, 이승준 연구원, 박찬준 박사의 “Translation of Multifaceted Data without Re-Training of Machine Translation Systems” 논문이 EMNLP 2024 Findings에 Accept 되었습니다.
< Applied Intelligence > 본 연구실의 손수현, 임정우, 구선민, 김진성 연구원의 “A Large-Scale Dataset for Korean Document-level Relation Extraction from Encyclopedia Texts” 논문이 Applied Intelligence에 Accept 되었습니다.
< ECAI 2024 > 본 연구실의 김진성, 구선민 연구원의 “Revisiting Under-represented Knowledge of Latin American Literature in Large Language Models” 논문이 ECAI 2024에 Accept 되었습니다.
< 한글 및 한국어 정보처리 학술대회(HCLT) 2023 > 본 연구실의 이승윤, 박찬준, 김경민 연구원의 “한국의 사회적 맥락에서의 ChatGPT의 독성 및 편향성 분석“ 논문이 제35 회 한글 및 한국어 정보처리 학술대회 (HCLT 2023)의 우수논문상으로 선정되었습니다.
< 한글 및 한국어 정보처리 학술대회(HCLT) 2022 > 본 연구실의 어수경, 구선민, 정다현, 박찬준, 서재형, 문현석 연구원의 논문이 제34 회 한글 및 한국어 정보처리 학술대회 (HCLT 2022)의 우수논문상으로 선정되었습니다.
NLP&AI Lab
서울특별시 성북구 안암로 145 고려대학교 애기능생활관 311호
145, Anam-ro, Seongbuk-gu, Seoul, Republic of Korea
[Postal] 02841 [Tel] + 82-3290-2684 [E-mail(Professor)] limhseok@korea.ac.kr.
Copyright © 2024 NLP&AI Lab. All rights reserved.