/ 2023 XAI Workshop

KCC 2023 설명가능 인공지능(XAI) 워크샵

09:00 - 18:00 Monday, June 19th, 2023

@ 제주오리엔탈호텔 일출홀


Invitation

2023 한국컴퓨터종합학술대회(KCC 2023) 기간 중 개최되는 '설명가능 인공지능(XAI) 워크샵'에서 논문을 모집합니다. 인공지능과 딥러닝 모델의 눈부신 발전에도 불구하고, 그 내부 작동 원리를 이해하고 설명하는 기술의 발전은 여전히 초기 단계에 머물러 있는 것이 사실입니다. 최근 인공지능 기술이 다양한 산업 분야에 확산됨에 따라 인공지능의 의사결정 과정을 사람이 이해할 수 있는 방식으로 명확하게 설명하는 기술의 중요성은 더욱 커지고 있습니다.

본 워크샵은 설명가능 인공지능 분야의 최근 연구결과를 공유하며, 이 기술의 발전 방향에 대한 다양한 의견을 수렴하는 데에 목표를 두고 있습니다. 국내외 다양한 AI 분야의 연구자들과 설명가능 인공지능에 관심이 있는 연구자들의 많은 참여를 기대합니다. 감사합니다!

  • 일시: 2023. 6. 19(월) 09:00-18:00
  • 장소: 제주오리엔탈 호텔 2층 (일출홀)
  • 참가 사전등록: 2023년 6월15일(목) 까지
  • 사전등록 URL: bit.ly/3MPGNzF

Program

시간 발표제목 발표자
09:00 - 09:05

환영사

이현규 PM (IITP AI·데이터PM)

09:05 -09:10

축사

이원준 회장 (한국정보과학회)

09:10 -09:40 초청강연 1: 설명가능 인공지능 연구동향

최재식 교수 (KAIST/INEEJI)

09:40 - 10:10

초청강연 2: 알려져있지 않은 영상 인공지능 모델의 편향성을 언어적 설명을 통한 발견 및 완화

신진우 교수 (KAIST)
10:10 - 10:35

우수논문 발표: 우수논문 발표 / 시상식

2편 (각 10분)
10:35 - 10:50 Coffee Break
10:50 - 11:20 초청강연 3: 리걸테크 규제 및 표준화 동향

조원희 대표 (법무법인 디라이트)

11:20 - 12:00 구두발표 1: Spotlight 발표

8편 (각 5분)

12:00 - 13:10 포스터 세션 1 / 점심 18 편
13:10 - 13:40 초청강연 4:

질의 기반 의미그래프와 적응형 메타학습을 이용한 생성형 요약 시스템

고영중 교수 (성균관대학교)

13:40 - 14:10 초청강연 5:

법, 정책 이슈를 포함해서, 설명요구권의 구체화 과정에서의 알고리즘 공개와 영업비밀 관계

김윤명 교수 (경희대학교)

14:10 - 14:30 초청강연 6:

화학공장의 연속 생산 공정에서 공정 Trouble 원인분석을 위한 XAI 적용 사례 공유

신해빈 매니저 (SK 디스커버리)

14:30 - 14:50 초청강연 7:

다중 클래스 딥러닝의 의사결정에 대한 시각적 이유 설명

남우정 교수 (경북대)

14:50 -15:00 Coffee Break
15:00 - 15:40 구두발표 2: Spotlight 발표 8편(각5분)
15:40 - 16:30 포스터 세션 2: 포스터 발표 19편
16:30 - 18:00

과제미팅: 사람중심인공지능핵심원천기술개발사업 1,2,3,4세부 참여연구실

과제참여기관 비공개 회의

18:00

행사 종료


Invited Speakers

Invited Talk 1.

설명가능 인공지능 연구동향 최재식 교수 (KAIST 김재철AI대학원/INEEJI)

설명가능한 혹은 해석가능한 인공지능은 기초연구, 산업 및 국가 정책에도 많은 관심을 갖고 있습니다. 최근 급격한 성능 향상이 있었던 인공지능 모델은 그 내부의 구조와 작동 기전을 알기 어려워 블랙박스로 불리고 있습니다. 이런 모델의 작동 기전을 이해하는 것은 인공지능 시스템의 소비자 뿐만 아니라 이를 개발하는 개발자에도 중요합니다. 이 발표에서는 설명가능 인공지능의 최신 동향 및 딥러닝을 포함한 복잡한 인공지능 모델의 기전을 이해하고 해석해서 사용자에게 설명하는 기술들을 소개합니다.

Invited Talk 2.

Explaining Visual Biases as Words via Vision-Language Foundation Models 신진우 교수 (KAIST 김재철AI대학원)

최근 영상 인공지능 모델의 편향성이 안전하고 신뢰성있는 사용을 위한 중요한 문제중 하나로 대두되고 있습니다. 본 강연에서는 (알려져있지 않은) 영상 인공지능 모델의 편향성을 발견하고 완화시키는 새로운 방법을 제시합니다.

Invited Talk 3.

리걸테크 규제 및 표준화 동향 조원희 대표 (법무법인 디라이트)

최근 리걸테크 분야를 둘러싸고 다양한 규제 이슈가 제기되고 있어 이를 알아보며, 특히 로톡 사건에서 볼 수 있는 변호사협회와의 법적 분쟁도 살펴봅니다. 아울러 이번 과제에서 진행되고 있는 법률 분야의 연구 내용을 설명하며, ChatGPT로 인한 고민과 표준화와 관련한 검토 내용도 공유합니다.

Invited Talk 4.

질의 기반 의미그래프와 적응형 메타학습을 이용한 생성형 요약 시스템 고영중 교수 (성균관대학교 )

본 강연에서는 XAI을 위한 근거를 찾기 위해서 생성형 요약이 어떻게 유용하게 활용될 수 있는지 알아보고, 최신 연구들 중에 그래프 신경망을 이용한 질의기반 생성 요약 기술과 메타학습 기반의 도메인 적응형 생성 요약 기술을 소개합니다.

Invited Talk 5.

법, 정책 등 이슈를 포함해서, 설명요구권의 구체화 과정에서의 알고리즘 공개와 영업비밀 관계 김윤명 교수 (경희대학교)

학습데이터로 가공되어지는 공개된 정보에는 세상의 모든 편견이나 오류가 그대로 담겨있습니다. 이처럼, 인간의 문제가 투영된 데이터를 기반으로 학습하는 AI모델도 인간의 편견을 그대로 학습하게 됩니다. ​알고리즘으로 인하여 발생하는 다양한 문제를 해결하기 위한 방안으로 알고리즘 공개를 주장합니다. 알고리즘 공개에 대한 설득력을 얻기 위해서는 공개의 정당성을 확보하기 위한 구체적인 방안을 제시해야 합니다. 알고리즘 공개에 대한 구체적인 방안과 사업자들이 우려하는 영업비밀과의 비교교량을 통해 신뢰가능한 알고리즘을 위한 합리적인 방안을 제시하고자 합니다.

Invited Talk 6.

화학공장의 연속 생산 공정에서 공정 Trouble 원인분석을 위한 XAI 적용 사례 공유 신해빈 매니저 (SK 디스커버리)

SK Advanced 공장에서는 프로판을 원료로 프로필렌을 생산하는 PDH 공정이 가동되고 있습니다. 프로필렌 생산량 관리를 위해 전환율과 선택도, 수율이 주요 관리 지표로 사용됩니다. xAI를 활용하여 주요 지표 변화의 Root cause를 분석함으로써 즉각적인 대응이 가능하게 되었습니다.

Invited Talk 7.

다중 클래스 딥러닝의 의사결정에 대한 시각적 이유 설명 남우정 교수 (경북대학교)

설명가능한 인공지능은 딥러닝 모델이 결정을 내리는 과정을 설명함으로써, 사용자들이 AI 모델의 신뢰성과 투명성을 높이는 것을 목표로 합니다. 이를 통해 사용자들이 결정의 근거를 파악하고, 문제가 발생했을 때 원인을 찾을 수 있습니다. 본 발표에서는 다중 클래스를 구분하는 딥러닝 모델에서 설명가능 인공지능 기술을 적용하는 방법에 대해서 소개합니다.


Papers List

Best Papers Presentation (10:10-10:35)

1.

투자자 심리와 설명 가능 인공지능 기법을 적용한 비선형 자산 변동성 예측 모델 개선 (Enhancing non-linear asset volatility forecasting models with investor sentiment and Explainable AI)

이승주(서울대), 박진성(서울대), 이재욱(서울대)

2.

로컬 그라디언트 정렬을 통한 강건한 해석 가능성 (Towards More Robust Interpretation via Local Gradient Alignment)

정석현(서울대)*, 주성환(성균관대)*, 허주연(Univ. of Cambridge), 아드리안 윌러(Univ. of Cambridge & The Alan Turing Institute), 문태섭(서울대)

Oral Presentation 1 (11:20-12:00)

3.

개념 병목 모델의 개입 과정 분석 (A Closer Look at the Intervention Procedure of Concept Bottleneck Models)

신성빈(포스텍)*, 조요한(아마존), 안성수(포스텍), 이남훈(포스텍)

6.

BERT 회로에서 편향 생성 과정 (Emergence of Bias in the Circuits of BERT)

박범진(KAIST AI), Artyom Olegovich Stitsyuk(KAIST AI), 최재식(KAIST AI/INEEJI)

7.

트랜스포머 모델의 시계열 상황기반학습 탐구 (Exploring In-context Learning in Transformer Models for Time Series Analysis)

김정민(KAIST AI)*, Enver Menadjiev(KAIST AI)*, 박범진(KAIST AI)*, Artyom Olegovich Stitsyuk(KAIST AI)*, Anh Tong(KAIST AI)*, 최재식(KAIST AI/INEEJI)

8.

AI 기반 스마트 헬스 케어 시스템 맥락에서의 설명 방식 비교 평가 연구 (Comparatively evaluating different explanation types for an AI-based smart healthcare system)

이욱재(서울대), 황기태(서울대), 김성민(서울대), 반가영(서울대), 송영희(서울대), 박우진(서울대)

9.

SwiFT: 화소 단위로 설명가능한 fMRI 트랜스포머 (SwiFT: Voxel-Level Interpretable fMRI Transformer)

김용호(서울대)*, 권준범 (서울대)*, 주성환 (성균관대), 배상윤 (서울대), 이동규 (서울대), 정윤호 (서울대), 유신재 (Brookhaven National Lab), 차지욱 (서울대), 문태섭 (서울대)

Poster Session 1 (12:00-13:10)

11.

데이터 토폴로지 의존 신경망 너비의 상한 (Data Topology-Dependent Upper Bounds of Neural Network Widths)

이상민(KAIST), 예종철(KAIST AI)

12.

안전하고 효과적인 약물 추천을 위한 개인화된 의료 지식 그래프 활용 (Harnessing Personalized Medical Knowledge Graph for Safe Medication Recommendation)

Ahmad Wisnu Mulyadi(고려대), 석흥일(고려대)

13.

버락 오바마의 아내 힐러리 클린턴: 대형 언어 모델의 사실적 지식에 대한 동시 출현 빈도의 영향 분석 (Barack's Wife Hillary: Unveiling the Effects of Co-occurrence on Factual Associations in Large Language Models)

강청웅(KAIST AI), 최재식(KAIST AI/INEEJI)

14.

기상예측 인공지능 모델을 위한 사용자 중심 설명가능 인공지능 인터페이스 시스템 (User-Centric XAI Interface System for Weather Forecasting AI)

김소연(KAIST AI), 최준호(KAIST AI), 이수빈(KAIST AI), Artyom Olegovich Stitsyuk(KAIST AI), 최예지(SI Analytics), 박민경(KAIST), 정성엽(KAIST AI), 백유현(NIMS), 최재식(KAIST AI/INEEJI)

15.

근접 이웃 검색을 결합한 GPT-2 기반 언어모델링 및 감성분류도 (GPT-2 with nearest neighbor search for language modeling and sentiment classification task)

노지현(ETRI), 김민호(ETRI), 배경만(ETRI)

16.

연합학습을 위한 다층 단계 분기 정칙화 (Multi-Level Branched Regularization for Federated Learning)

김진규 (서울대)*, 김지호 (서울대)*, 한보형(서울대)

17.

통합 경사도 입력 기여도의 기준점 생성을 위한 잠재공간 탐구 (Exploring the Effect of Baselines Generated from Latent Space in Integrated Gradient)

이동훈(Purdue Univ.), 박범진(KAIST AI), 최재식(KAIST AI/INEEJI)

Oral Presentation 2 (15:00-15:40)

20.

파인튜닝 기반 요약 모델의 사실적 일관성을 위한 모델 내재적 특징 (Model Intrinsic Features of Fine-tuning based Text Summarization Models for Factual Consistency)

송종윤(서울대), 박노일(서울대), 황봉규(삼성 SDS), 윤재웅(삼성 SDS), 조성호(삼성 SDS), 권영준(삼성 SDS), 윤성로(서울대)

21.

계층적 심층 강화학습을 통한 설명가능한 적응형 네비게이션 스킬 배포 (Adaptive and Explainable Deployment of Navigation Skills via Hierarchical Deep Reinforcement Learning)

이교운(UNIST)*, 김성운(KAIST AI)*, 최재식(KAIST AI/INEEJI)

22.

한국 법학교육의 새로운 미래 : 리걸 마인드를 구현한 GPT? (An Unexplored Future of Lawyers Training Systems in Korea: GPT Embodied the Legal-Mind?)

양정(서강대 ICT 법경제연구소), 김요한(법무법인(유) 로고스), 김소연(서강대 법학전문대학원), 지원석(서강대 법학전문대학원), 경기룡(서강대 법학전문대학원)

24.

ReLU 신경망의 경로적 설명 (Pathwise Explanation of ReLU Neural Networks)

임성우(KAIST AI), 이주형(KAIST), 박치연(KAIST), 최재식(KAIST AI/INEEJI)

26.

프롬프트 튜닝을 이용한 한국어 감성 분석 (Korean Sentiment Analysis using Prompt Tuning)

정영준(강원대), 이창기(강원대)

Poster Session 2 (15:40-16:30)

27.

대규모 언어 모델을 통한 자연어를 사용한 데이터의 이해 (Understanding Data with Language via Large Language Models)

김채리(UNIST AI대학원), 김태환 (UNIST AI대학원)

31.

각도 결정 트리와 그 인터페이스 (The Angular Decision Trees and Its Interface)

김혁동(KAIST AI), 최재식(KAIST AI/INEEJI)

33.

영향력 기반 그래프 수정의 군집 영향력 추정 오류 (Group Influence Estimation Error in Influence Based Graph Rectification)

양준용(KAIST AI)

34.

음성 합성 모델의 주의 집중 기법 정렬 오류를 자동으로 수정하는 방법 (An Automatic Method to Correct Attention Mechanism Error in Neural Text-to-Speech Models)

정성엽(KAIST AI), 최재식(KAIST AI/INEEJI)

36.

설명 가능한 보험사기 탐지를 위한 BWGNN 방법론 적용 (Application of BWGNN for Explainable Insurance Fraud Detection)

김희현(KAIST), 최진혁(KAIST), 황지영 (KAIST)


Call for papers

주요일정:

  • 논문 제출마감 연장: 2023.06.11 (일)

  • 심사결과 통보: 2023.06.14 (수)

  • 최종논문 제출: 2023.06.16 (금) 09:00

논문모집분야

  • 설명가능 인공지능 알고리즘 및 관련 이론
  • Large Language Model 등 생성모델의 설명 알고리즘 및 모델 수정 기법
  • 설명가능 인공지능의 적용 사례 (제조, 의료, 금융, 제조, 법률 등)
  • 사용자 중심의 설명가능 인공지능 (설계가이드라인, UX, 시스템, 적용사례)
  • 설명가능 인공지능의 평가기법
  • 설명가능 인공지능의 국내외 표준 동향

논문 작성 안내 및 제출처

  • KCC 2023 논문투고 양식을 권장하나, 자유 양식입니다.

  • 기존에 다른 학회/저널에서 발표한 논문을 제출하는 것도 가능합니다.

  • 제출된 논문은 구두(Oral/Spotlight), 포스터(Poster)를 나누는 용도만 사용됩니다.

  • 많은 논문이 제출될 경우, 온라인(동영상녹화) 발표를 할 수 있습니다.

  • 제출된 논문은 2인 이상의 심사위원이 심사하여 발표 형태를 결정하게 되며, 채택된 논문 중 저자가 동의하는 논문은 워크샵 페이지에서 온라인으로 공유할 예정입니다.

  • 아래 이메일을 통해 제출해 주십시오. (이메일 제목: [XAI Workshop: 논문 제목] )

제출처: jaesik.choi@kaist.ac.kr

문의처

KAIST 설명가능 인공지능연구센터

(이메일: bbomi0@kaist.ac.kr | 전화: 031-8022-7530)


Organizers

조직위원장

최재식 (KAIST)

프로그램위원

한보형 (서울대)
구명완 (서강대)
배경만 (ETRI)
김나리 (KAIST)

Contact

KAIST 설명가능 인공지능연구센터 (xai.kaist.ac.kr)

문의처: 김은희 ( 이메일: bbomi0@kaist.ac.kr | 전화: 031-8022-7530 )