Invited Talk 1.
설명가능 인공지능 연구동향
최재식 교수 (KAIST 김재철AI대학원/INEEJI)
설명가능한 혹은 해석가능한 인공지능은 기초연구, 산업 및 국가 정책에도 많은 관심을 갖고 있습니다. 최근 급격한 성능 향상이 있었던 인공지능
모델은 그 내부의 구조와 작동 기전을 알기 어려워 블랙박스로 불리고 있습니다. 이런 모델의 작동 기전을 이해하는 것은 인공지능 시스템의 소비자
뿐만 아니라 이를 개발하는 개발자에도 중요합니다. 이 발표에서는 설명가능 인공지능의 최신 동향 및 딥러닝을 포함한 복잡한 인공지능 모델의 기전을
이해하고 해석해서 사용자에게 설명하는 기술들을 소개합니다.
Invited Talk 2.
Explaining Visual Biases as Words via Vision-Language
Foundation Models
신진우 교수 (KAIST 김재철AI대학원)
최근 영상 인공지능 모델의 편향성이 안전하고 신뢰성있는 사용을 위한 중요한 문제중 하나로 대두되고 있습니다. 본 강연에서는 (알려져있지 않은)
영상 인공지능 모델의 편향성을 발견하고 완화시키는 새로운 방법을 제시합니다.
Invited Talk 3.
리걸테크 규제 및 표준화 동향
조원희 대표 (법무법인 디라이트)
최근 리걸테크 분야를 둘러싸고 다양한 규제 이슈가 제기되고 있어 이를 알아보며, 특히 로톡 사건에서 볼 수 있는 변호사협회와의 법적 분쟁도
살펴봅니다. 아울러 이번 과제에서 진행되고 있는 법률 분야의 연구 내용을 설명하며, ChatGPT로 인한 고민과 표준화와 관련한 검토 내용도
공유합니다.
Invited Talk 4.
질의 기반 의미그래프와 적응형 메타학습을 이용한 생성형 요약 시스템
고영중 교수 (성균관대학교 )
본 강연에서는 XAI을 위한 근거를 찾기 위해서 생성형 요약이 어떻게 유용하게 활용될 수 있는지 알아보고, 최신 연구들 중에 그래프 신경망을
이용한 질의기반 생성 요약 기술과 메타학습 기반의 도메인 적응형 생성 요약 기술을 소개합니다.
Invited Talk 5.
법, 정책 등 이슈를 포함해서, 설명요구권의 구체화 과정에서의 알고리즘 공개와 영업비밀
관계
김윤명 교수 (경희대학교)
학습데이터로 가공되어지는 공개된 정보에는 세상의 모든 편견이나 오류가 그대로 담겨있습니다. 이처럼, 인간의 문제가 투영된 데이터를 기반으로
학습하는 AI모델도 인간의 편견을 그대로 학습하게 됩니다. 알고리즘으로 인하여 발생하는 다양한 문제를 해결하기 위한 방안으로 알고리즘 공개를
주장합니다. 알고리즘 공개에 대한 설득력을 얻기 위해서는 공개의 정당성을 확보하기 위한 구체적인 방안을 제시해야 합니다. 알고리즘 공개에 대한
구체적인 방안과 사업자들이 우려하는 영업비밀과의 비교교량을 통해 신뢰가능한 알고리즘을 위한 합리적인 방안을 제시하고자 합니다.
Invited Talk 6.
화학공장의 연속 생산 공정에서 공정 Trouble 원인분석을 위한 XAI 적용 사례
공유
신해빈 매니저 (SK 디스커버리)
SK Advanced 공장에서는 프로판을 원료로 프로필렌을 생산하는 PDH 공정이 가동되고 있습니다. 프로필렌 생산량 관리를 위해 전환율과
선택도, 수율이 주요 관리 지표로 사용됩니다. xAI를 활용하여 주요 지표 변화의 Root cause를 분석함으로써 즉각적인 대응이 가능하게
되었습니다.
Invited Talk 7.
다중 클래스 딥러닝의 의사결정에 대한 시각적 이유 설명
남우정 교수 (경북대학교)
설명가능한 인공지능은 딥러닝 모델이 결정을 내리는 과정을 설명함으로써, 사용자들이 AI 모델의 신뢰성과 투명성을 높이는 것을 목표로 합니다.
이를 통해 사용자들이 결정의 근거를 파악하고, 문제가 발생했을 때 원인을 찾을 수 있습니다. 본 발표에서는 다중 클래스를 구분하는 딥러닝
모델에서 설명가능 인공지능 기술을 적용하는 방법에 대해서 소개합니다.