모바일 메뉴 닫기
 

커뮤니티

제목
연세대학교 첨단컴퓨팅학부, EMNLP 2025 논문 발표
작성일
2025.09.26
작성자
첨단컴퓨팅학부
게시글 내용




연세대학교 첨단컴퓨팅학부는 2025년 11월 4일부터 11월 9일까지 중국 쑤저우(Suzhou)에서 열리는 세계 최고 권위의 자연어처리 국제 학술대회 EMNLP 2025 (Conference on Empirical Methods in Natural Language Processing) 에서 다수의 연구 논문을 발표합니다.

EMNLP는 매년 전 세계 자연어처리(NLP) 및 인공지능(AI) 연구자들이 최신 성과를 공유하는 자리로, 언어 모델, 대규모 언어모델(LLM), 멀티모달 학습, 윤리와 공정성, 사회적 응용 등 다양한 분야의 혁신적 연구가 소개됩니다. 올해는 특히 “Advancing our Reach: Interdisciplinary Recontextualization of NLP” 라는 주제 아래, NLP가 학문·산업 전반으로 확장되는 가능성을 집중적으로 조명합니다.




✅ 주요 연구 내용

연세대학교 첨단컴퓨팅학부 연구진은 이번 학회에서 개인화 언어모델, 보건 및 화학 응용, 대규모 언어모델(LLM)의 한계와 가능성, 대화형 에이전트, 코드 및 알고리즘 이해, 혐오 발언 탐지, 보안 및 데이터셋 구축 등 다양한 주제의 논문을 발표합니다. 이를 통해 연세대학교 첨단컴퓨팅학부는 차세대 인공지능 연구를 선도하는 글로벌 연구 허브로서의 위상을 다시 한 번 확인하게 될 것입니다.




✍️ 논문 제목 및 저자

  1. 1. AmpleHate: Amplifying the Attention for Versatile Implicit Hate Detection

- Yejin Lee, Joonghyuk Hahn, Hyeseon Ahn and Yo-Sub Han


  1. 2. Can Large Language Models be Effective Online Opinion Miners?

- Ryang Heo, Yongsik Seo, Junseong Lee, Dongha Lee


  1. 3. Improving Chemical Understanding of LLMs via SMILES Parsing

- Yunhui Jang, Jaehyung Kim, Sungsoo Ahn


  1. 4. Mondrian: A Framework for Logical Abstract (Re)Structuring

- Elizabeth Grace Orwig, Shinwoo Park, Hyundong Jin and Yo-Sub Han


  1. 5. Personalized Language Models via Privacy-Preserving Evolutionary Model Merging

- Kyuyoung Kim, Jinwoo Shin, Jaehyung Kim


  1. 6. Personalized LLM Decoding via Contrasting Personal Preference

- Hyungjune Bu*, Chanjoo Jung*, Minjae Kang, Jaehyung Kim


  1. 7. R-TOFU: Unlearning in Large Reasoning Models

- Sangyeon Yoon, Wonje Jeung, Albert No  


  1. 8. SEPS: A Separability Measure for Robust Unlearning in LLMs

- Wonje Jeung*, Sangyeon Yoon*, Albert No


(Findings)

  1. 1. LLMAP: LLM-Assisted Multi-Objective Route Planning with User Preferences

- Liangqi Yuan, Dong-Jun Han, Christopher Brinton, and Sabine Brunswicker


  1. 2. Can Code-Switched Texts Activate a Knowledge Switch in LLMs? A Case Study on English-Korean Code-Switching

- Seoyeon Kim, Huiseo Kim, Chanjun Park, Jinyoung Yeo, Dongha Lee


  1. 3. CodeComplex: Dataset for Worst-Case Time Complexity Prediction

- SeungYeop Baik, Joonghyuk Hahn, Jungin Kim, Aditi, Mingi Jeon, Yo-Sub Han and Sang-Ki Ko


  1. 4. How Diversely Can Language Models Solve Problems? Exploring the Algorithmic Diversity of Model-Generated Code

- Seonghyeon Lee, Heejae Chon, Joonwon Jang, Dongha Lee*, Hwanjo Yu*


  1. 5. PRINCIPLES: Synthetic Strategy Memory for Proactive Dialogue Agents

- Namyoung Kim, Kai Tzu-iunn Ong, Yeonjun Hwang, Minseok Kang, Iiseo Jihn, Gayoung Kim, Minju Kim, Jinyoung Yeo*


  1. 6. Stop Playing the Guessing Game! Target-Free User Simulation for Evaluating Conversational Recommender Systems

- Sunghwan Kim*, Kwangwook Seo*, Tongyoung Kim*, Jinyoung Yeo, Dongha Lee


  1. 7. ToolHaystack: Stress-Testing Tool-Augmented Language Models in Realistic Long-Term Interactions

- Beong-woo Kwak, Minju Kim, Dongha Lim, Hyungjoo Chae, Dongjin Kang, Sunghwan Kim, Dongil Yang, Jinyoung Yeo*


  1. 8. Towards Personalized Conversational Sales Agents: Contextual User Profiling for Strategic Action

- Tongyoung Kim*, Jeongeun Lee*, Soojin Yoon, Seonghwan Kim, Dongha Lee


  1. 9. TrapDoc: Deceiving LLM Users by Injecting Imperceptible Phantom Tokens into Documents

- Hyundong Jin, Sicheol Sung, Shinwoo Park, SeungYeop Baik and Yo-Sub Han

 

홈페이지 바로가기: https://2025.emnlp.org

첨부
EMNLP.jpg