Invitation
AI기술의 활용 범위가 급속도로 확대되면서 AI시스템의 의사결정 과정에 대한 투명성과 설명성을 제공하는 기술인 설명가능 인공지능에 대한 중요도가 그 어느 때보다 부각되고 있습니다. 작년 제1회 워크샵에서 보여주신 높은 관심을 이어가기 위해 올해에도 KCC 2024 기간 중 제 2회 ‘설명가능 인공지능(XAI) 워크샵’을 개최합니다. 설명가능 인공지능 분야 최신 연구논문을 소개하고 기술의 발전 방향에 대해 소통하는 귀한 시간이 될 것입니다.
설명가능 인공지능에 관심 있는 연구자 및 기업 관계자 여러분의 많은 참여를 기대합니다!
- 일시: 2024. 6. 27(목) 09:00-18:00
- 장소: 제주국제컨벤션센터 (ICC 제주)
- 참가 사전등록: 2024. 6. 24(월) 까지
- 사전등록 URL: bit.ly/4aSmcUT
Program
시간 | 발표제목 | 발표자 | |
---|---|---|---|
09:00 - 09:10 |
개회사 |
최재식 교수 (KAIST/INEEJI) |
|
09:10 - 09:40 |
Invited Talk 1 |
Digital Health에서의 XAI의 역할: Repeech 사례를 중심으로 |
김진우 교수 (연세대학교) |
09:40 - 10:15 |
우수논문 발표 및 시상 |
Best Papers (최우수논문1편, 우수논문3편) |
4편 (최우수 10분 우수 각 5분) |
10:15 - 10:45 |
Invited Talk 2 |
Towards Multimodal Conversational AI |
서홍석 교수 (고려대학교) |
10:45 - 11:00 |
Coffee Break |
(15분) | |
11:00 - 11:50 |
Spotlight 1 |
(50분) |
10편 (각5분) |
11:50 - 13:00 | 점심 식사 | (70분) | |
13:00 - 13:30 |
Poster Session 1 |
(30분) | |
13:30 - 14:00 |
Invited Talk 3 |
Multimodel counterfactual 예측을 이용한 자연어 해석 연구 동향 |
박천음 교수 (한밭대학교) |
14:00 - 14:30 |
Invited Talk 4 |
XAI 표준동향(가제) |
이재호 교수 (서울시립대학교) |
14:30 - 14:40 |
Coffee Break |
(10분) | |
14:40 - 15:40 |
Spotlight 2 |
(60분) |
12편 (각5분) |
15:40 - 16:10 |
Poster Session 2 |
(30분) | |
16:10 - 16:20 |
장내 정리 |
(10분) | |
16:20 - 17:50 |
과제미팅(비공개) |
세부 연구책임자 및 참여연구원 참석 | |
18:00 |
행사 종료 / 저녁식사 |
Invited Speakers
Invited Talk 1.
금융 및 은행에서의 설명가능한 AI(Explainable AI (XAI) in Finance and Banking industry) 오순영 (과실연)
설명 가능성의 개념은 금융 부문에서 특히 중요하다. 이는 금융 부문이 다른 많은 산업보다 더 높은 사회적 기준을 따르기 때문이며, AI를 통한 결정은 금융 시스템의 평판에 중요한 영향을 미칠 수 있기 때문이다. 금융 기관의 경우 관련 프로세스를 설명할 필요성이 있기 때문에 거버넌스 역시 함께 고려되어야 한다. XAI는 은행 운영에 가치를 더하는 동시에 편향 가능성을 해결하고 행동, 규정 준수, 규제 및 감사와 관련된 리스크를 줄일 수 있는 분명한 통찰력을 제공할 것이며, 은행의 미래를 위한 중요한 도구로서 모든 이해관계자 간의 투명성과 신뢰를 향상시킬 것이다.
The concept of explainability is particularly crucial in the financial sector. This is because the financial industry adheres to higher societal standards compared to many other industries, and AI decision-making can significantly impact the reputation of financial systems. Given the necessity for financial institutions to explain their processes, governance must also be considered. Explainable AI (XAI) not only adds value to banking operations but also addresses bias potential, provides clear insights into areas where it can mitigate risks related to behavior, regulatory compliance, and audit, thus enhancing transparency and trust among all stakeholders for the future of banking.
Invited Talk 2.
멀티모달 대화형 인공지능 관련 연구 동향(Towards Multimodal Conversational AI) 서홍석 교수 (고려대학교 정보대학 컴퓨터학과)
우리 인간은 멀티모달 세상을 살아가며 여러 감각 체계를 통해 이같은 멀티모달 세상을 인지하고 이해한다. 한편, 자연어는 오랜시간 사람 간의 커뮤니케이션의 주요 매체로 사용되어 왔다. 멀티모달 대화형 AI 에이전트는 이 둘, 즉 지각과 커뮤니케이션을 연결하기 위해 멀티모달 입력 신호로부터 주어진 상황과 문맥을 이해하고 이를 기반으로 인간과 자연스럽게 대화하는 지능을 가진 에이전트를 의미한다. 이러한 멀티모달 대화형 AI 에이전트를 구축하는 것은 인공 일반 지능을 실현하기 위한 주요 단계 중 하나로 본 강연에서는 최근의 멀티모달 대화형 AI와 관련 된 최신의 연구들을 소개하고 앞으로의 연구 방향과 다른 분야의 연구자들과의 잠재적인 협업에 대해 논의한다.
Humans perceive the world through multiple sensory systems (ex., vision, audition, touch, smell), which work together complementing each other and therefore it is rather natural to build a model processing multiple modalities simultaneously. Based on this understanding of multimodal data, AI systems should communicate with human users through language, which is the main medium for human communication. In this talk, I will introduce our endeavors that expand the realm of multimodal conversational AI where multimodal understanding of the world and communication in language are connected.
Invited Talk 3.
Multimodal Counterfactual reasoning을 이용한 자연어 해석 연구 동향(Natural Language Interpretation Study using Multimodal Counterfactual Reasoning) 박천음 교수 (국립한밭대학교 컴퓨터공학과)
Counterfactual reasoning은 인간 지능의 중요한 표현으로서, 확립된 사실을 바탕으로 전제를 세우고 잠재적인 결과를 추론하는 것을 의미한다. 최근, counterfactual reasoning을 평가하기 위한 벤치마크를 구성하여 Large Language Model (LLM)과 Multimodal LLM (MLLM)을 이용한 연구가 많이 진행됐다. 본 강연에서는 counterfactual reasoning 을 이용한 자연어 해석 연구 동향에 대하여 살펴본다.
Counterfactual reasoning is a significant aspect of human intelligence, involving the formulation of premises based on established facts and the inference of potential outcomes. Recently, a substantial amount of research utilizing Large Language Models (LLMs) and Multimodal LLMs (MLLMs) has been conducted, aimed at developing benchmarks for evaluating counterfactual reasoning. This presentation will explore the trends in natural language explanation research that employ counterfactual reasoning.
Invited Talk 4.
Digital Health에서의 XAI의 역할: Repeech 사례를 중심으로(What can XAI do for digital health? focusing on stroke rehabilitation DTx) 김진우 교수/CEO (연세대학교 경영대학/HAII)
의료 인공지능에서의 오류 발생이 치명적인 결과로 이어질 수 있는 분야인만큼 최근 이를 해결하기 위해 설명가능한 인공지능의 도입이 활발하게 이루어지고 있다. 뇌졸중 후 마비말장애 디지털 치료기기 개발 사례를 중심으로 디지털 헬스 그리고 의료 인공지능에서의 설명가능한 인공지능의 역할과 중요성, 향후 나아가야 할 길에 대해 살펴본다.
As errors in medical AI can lead to critical consequences, the introduction of explainable AI has been actively pursued to address this issue. Focusing on the development of a digital therapeutic device for post-stroke dysarthria, this presentation examines the role and importance of explainable artificial intelligence in digital health and medical AI, and explores future directions for the field.
Invited Talk 5.
프론티어 AI 신뢰성 기술과 정책(Trustworthy use of the frontier AI: Technology and policy) 이재호 교수/CTO (서울시립대학교 인공지능학과/아리카)
의료 인공지능에서의 오류 발생이 치명적인 결과로 이어질 수 있는 분야인만큼 최근 이를 해결하기 위해 설명가능한 인공지능의 도입이 활발하게 이루어지고 있다. 뇌졸중 후 마비말장애 디지털 치료기기 개발 사례를 중심으로 디지털 헬스 그리고 의료 인공지능에서의 설명가능한 인공지능의 역할과 중요성, 향후 나아가야 할 길에 대해 살펴본다.
As errors in medical AI can lead to critical consequences, the introduction of explainable AI has been actively pursued to address this issue. Focusing on the development of a digital therapeutic device for post-stroke dysarthria, this presentation examines the role and importance of explainable artificial intelligence in digital health and medical AI, and explores future directions for the field.
Papers List
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
15.
16.
17.
19.
20.
21.
22.
23.
24.
25.
26.
27.
28.
29.
30.
31.
32.
33.
34.
35.
36.
37.
Call for papers
주요일정:
-
논문 제출마감: 2024.06.15 (토)
-
심사결과 통보: 2024.06.20 (목)
-
최종논문 제출: 2024.06.24 (월)
논문모집분야
- XAI 알고리즘 및 관련 이론
- LLM 등 생성모델의 설명성 제공 또는 모델 수정 기법
- 멀티모달 AI모델에 대한 설명 기법
- XAI 평가 기법, 벤치마킹, 데이터셋
- XAI 적용 사례 (의료, 금융, 제조, 법률, 기후환경 등)
- 사용자 중심 XAI (설계 가이드라인, 사용자 경험 평가, 사례)
- XAI 국내외 표준 동향
논문 작성 안내 및 제출처
-
제출된 논문은 2인 이상의 심사위원이 심사하여 구두발표, Spotlight, 포스터(Poster)로 발표 형태를 결정합니다.
-
기존에 다른 학회/저널에서 발표한 논문을 제출하는 것도 가능합니다.
-
채택된 논문 중 저자가 동의하는 경우에 본 워크샵 페이지에서 온라인으로 공개합니다.
-
KCC 2024 논문투고 양식을 권장하나, 자유 양식입니다.
-
제출파일제목: [XAI 2024] 논문제목
-
KCC 2024 투고양식: HWP파일 MS Word 파일
-
논문을 제출하기 위해서 먼저 워크샵 사이트 계정을 생성하신 후 [논문 제출하기]를 클릭하여 논문을 제출하세요.
(You need to create an account in order to submit a paper.)
우수논문 시상
- 최우수 논문상 1편: 상장, 상품 (아이패드에어)
- 우수 논문상 3편: 상장, 상품
Organizers
조직위원장
프로그램위원
Contact
KAIST 설명가능 인공지능연구센터 (xai.kaist.ac.kr)
문의처: 김은희 ( 이메일: bbomi0@kaist.ac.kr | 전화: 031-8022-7530 )