
국내 인공지능(AI) 연구자와 인재들이 한자리에 모여 AI의 현재와 미래를 논의하는 ‘2025 AI대학원 심포지엄’이 27일 서울 여의도 FKI타워 컨퍼런스센터에서 개최됐다. 올해로 6회째를 맞은 이번 행사는 오는 28일까지 이틀간 국내 AI 생태계 발전을 위해 정부와 학계, 산업계가 연구 성과를 공유하고 협력 체계를 구축하는 장으로 마련됐다.
‘AI와 동행: AI대학원과 함께하는 미래 혁신’을 주제로 열린 2025 AI대학원 심포지엄에서는 미래를 이끌어나갈 인재들의 성과 공유의 장이 열렸다. 첫 째날인 27일 오후 FKI 타워 에메랄드 홀에서는 국내 주요 AI대학원·AI융합혁신대학원 소속 대학원생들이 최신 AI 기술과 연구 성과를 발표했다.
우수 성과 발표회는 △헬스케어·의료 △컴퓨터 비전 △자연어 처리 △AI 이론 등 다양한 분야에서 진행된 연구들이 발표됐다.
헬스케어·의료 분야에서는 송수정 고려대 AI대학원 연구원이 발표에 나섰다. 컴퓨터 비전 분야에서는 이수빈 성균관대 AI대학원 연구원, 정현준 GIST 연구원, 강세일 연세대 연구원, 서준혁 한양대 연구원이 발표했다. 자연어처리 분야에서는 석주영 KAIST AI대학원 연구원이 발표했다. AI 이론 분야에서는 이동엽 포항공대 AI대학원 연구원, 이현규 UNIST 연구원, 김정헌 서울대학교 연구원이 발표했다.
◇ AI 신뢰도를 높이려면
송수정 고려대 인공지능대학원 박사과정생은 인과 추론(causal inference)의 핵심 과제인 ‘히든 컴파운더(hidden confounder)’ 문제를 다룬 논문 ‘인과 효과 식별을 위한 양자화 요인 변분 오토인코더(Quantized Factor Identifiable Causal Effect VAE)’를 발표했다. 그는 기존 변분오토인코더(VAE) 방식의 ‘식별 불가능성’ 한계를 지적하며, 잠재 공간을 격자 구조로 제한해 교란 요인을 통제하는 새 방법을 제안했다. 미국 임상시험 데이터로 검증한 결과 기존 기법보다 성능이 개선됐으며, 맞춤형 의료·정책 평가·AI 공정성 분야에 응용 가능성을 보였다.
석주영 KAIST 박사과정생은 언어모델(LLM)의 성능을 정밀하게 평가할 수 있는 ‘BiGGen Bench’를 선보였다. 기존 벤치마크가 정답 여부에만 의존하는 한계를 지적하고, 총 765개 문제에 문제별 평가 기준을 부여해 풀이 과정과 질을 반영했다. 연구팀은 자체 저지 모델을 통해 GPT-4보다 작은 규모에서도 더 안정적 판정이 가능함을 입증했다. 석 연구원은 “문항 단위의 구체적 기준이 AI 평가 신뢰성을 높인다”고 강조했다.
◇ 젊은 연구자들이 조명한 컴퓨터 비전은
정현준 광주과학기술원(GIST) 연구원은 단일 이미지에서 라이트필드를 생성하는 새로운 이미지 기반 렌더링 기법을 제안했다. 기존 다중 카메라 배열의 한계를 극복하고, 뎁스 정보와 앵귤러 정보를 동시에 반영해 3D 시각화를 가능하게 한 점이 특징이다.
이수빈 성균관대 연구원은 ‘시간 동기화가 불필요한 영상 매칭(Temporal Alignment-Free Video Matching)’ 기법을 통해 비디오 액션 인식의 비효율성을 줄였다. 기존 방법이 동작 속도 차이를 처리하지 못하는 한계를 지적하며, 크로스 어텐션 기반 요약으로 더 정확하고 빠른 판별 성능을 입증했다.

강세일 연세대 연구원은 대규모 비전-언어 모델(LVLM) 내부의 주목 메커니즘을 분석해, 소수의 어텐션 헤드만으로도 비주얼 그라운딩이 가능함을 밝혔다. 추가 학습 없이도 모델 성능을 유지하며 효율적으로 대상 객체를 포착할 수 있음을 보여줬다.
서준혁 한양대 연구원은 초소형 메타렌즈 이미징 시스템의 한계를 극복하기 위해 딥러닝 기반 복원 모델을 개발했다. 실제 촬영 이미지의 색 번짐과 해상도 저하를 개선해, 드론·AR·VR 기기에 적용 가능한 경량 고성능 이미징 솔루션으로 이어질 수 있음을 확인했다.
◇ 더 정확하고 가볍게 만드는 AI 이론
김정헌 서울대 연구원은 그래프 데이터의 불완전성을 고려한 새로운 링크 예측 기법을 발표했다. 기존에는 연결되지 않은 노드 쌍을 무조건 ‘비연결’로 간주했지만, 그는 이를 ‘미확정(unlabeled)’으로 해석해 PU(Positive?Unlabeled) 러닝 관점에서 접근했다. 이 방식은 숨겨진 연결 가능성을 반영해 예측 성능을 크게 끌어올렸으며, 다양한 데이터셋에서 일관된 향상을 확인했다.

이동엽 포항공대 연구원은 신경망 프루닝(pruning) 과정에서 성능 저하를 막기 위한 최적화 방법을 제시했다. 그는 희소성을 높이면서도 손실 함수 곡선을 평평하게 유지하는 ‘SAFE’ 알고리즘을 개발해, 이미지 분류와 언어 모델 압축에서 기존 기법보다 우수한 일반화 성능을 입증했다. 이를 통해 AI 모델을 더 작고 효율적으로 만들 수 있는 가능성을 제시했다.
이현규 UNIST 연구원은 환경 변화에도 성능을 유지하는 강화학습 기법을 발표했다. 그는 손실 함수를 ‘플랫(minima)’하게 만드는 최적화 방식을 강화학습에 적용해, 노이즈가 많거나 물리 조건이 변한 상황에서도 기존 알고리즘보다 견고한 성능을 입증했다.
출처 : https://www.newstheai.com/news/articleView.html?idxno=8837