본문 바로가기

Faculty Introduction

김주호 (Google Scholar)

전산학부

인간-컴퓨터 상호작용, 인간-AI 상호작용, 인공지능과 빅데이터 기법을 활용한 사용자 인터페이스와 인터랙션 설계
Email : juhokim@kaist.ac.kr
Laboratory : http://juhokim.com/
Research LIST

Research contents

KIXLAB은 전산학부 소속의 인간-컴퓨터 상호작용 연구실로, 사람들이 온라인 상에서 학습하고 협업하고 토론하고 의사결정을 하는 경험을 돕는 사용자 인터페이스와 인터랙션을 설계, 구현, 검증하고 있습니다. 특히 많은 사용자가 인터랙션 하는 대규모 온라인 플랫폼에서 발생하는 데이터를 활용하여 AI와 빅데이터 기법을 적용한 시스템을 설계하는 연구에 전문성과 경험을 가지고 있습니다. 2021년의 대표적인 연구성과로는 크게 아래의 세 가지 새로운 시스템을 들 수 있습니다. - 음성 기반의 비디오 탐색 지원 시스템인 RubySlippers (ACM CHI 2021 논문) - 사회 이슈에 대한 사람들의 다양한 의견을 시각화하고 나와 다른 의견을 추천해 주는 시스템인 별별생각 (ACM CSCW 2021 논문) - 원격 팀 협업 상황에서 음성과 화면 상 시각 요소를 결합한 커뮤니케이션을 지원하는 시스템인 Winder (ACM CHI 2021 논문)

Research results

□ 음성 기반 컨텐츠 단위 비디오 탐색 지원 시스템: RubySlippers

학습용 영상을 시청하는 데에 있어 기본이 되는 인터랙션은 영상 플레이어를 직접 조작하여 재생, 멈춤, 건너뛰기를 하는 것이지만, 요리나 가구 조립, 춤 연습과 같이 물리적 활동을 하는 상황에서는 손을 사용하는 비디오를 조작하는 것이 어렵습니다. 음성을 통한 인터랙션이 최근 지원되고 있지만, 여전히 "20초 뒤로" 정도의 시간 조작 수준에 그쳐 의미 단위의 효과적인 조작을 지원하지 못하고 있습니다. 요리 영상을 보면서 "설탕", "버터 추가하고 젓기"와 같이 컨텐츠 내 키워드로 음성 조작을 할 수 있다면 어떨까요?

저희 연구팀이 개발한 RubySlippers 시스템은 컨텐츠 기반의 키워드로 비디오 내 다양한 장면을 빠르고 정확하게, 손을 사용하지 않고도 찾을 수 있게 도와줍니다. 비디오 내 탐색 타겟이 될만한 단위를 자동으로 인식하고 최소한의 조작만으로 원하는 타겟을 찾을 수 있게 비디오를 세분화합니다. 또한 상황에 맞는 다양한 키워드를 추천하여 사용자의 음성 검색을 지원합니다. 이 연구는 인간-컴퓨터 상호작용 분야의 최고권위 국제학술대회인 ACM CHI 2021 학회에 논문으로 발표 되었습니다.

           


     

     

□사회 이슈에 대한 다양한 의견을 시각화하고 나와 다른 의견을 추천해 주는 시스템: 별별생각

날이 갈수록 심화되는 의견 양극화(opinion polarization) 현상은 큰 사회문제로 대두되고 있습니다. 우리가 사용하는 소셜 미디어의 효율성, 매출 극대화에 최적화된 알고리즘에 의해 필터버블과 같이 나와 비슷한 의견에만 노출되는 문제가 나타나고 있습니다. 사회 이슈에 대해 보다 다양한 의견의 공유를 촉진하고 나와 다른 의견에 귀기울일 수 있도록 도울 수 없을까요?

저희 연구팀은 사회 이슈에 대한 다양한 의견을 시각화하는 데에 있어 효율적인 탐색이나 시각적 구성을 포기하고 일부러 사람들의 의견을 다소 임의로 흩뿌리는 별이 가득한 밤하늘의 메타포를 사용하였습니다. 이렇게 설계한 별별생각 시스템은 각 사용자의 의견을 점으로 표현하며 사용자의 연령/정치성향/성별 등의 정보에 기반한 의견 탐색을 지원합니다. 또한 나의 의견과 다른 의견을 추천하고, 의견은 비슷하지만 전혀 다른 집단의 사용자임을 확인할 수 있도록 인터랙션을 설계하였습니다. 이를 통해 타인의 의견을 새롭게 발견하고 탐색할 수 있는 시스템을 SBS 방송국과 협업하여 2019년 SBS D Forum에 소개하였고, 이를 발전시켜 인간-컴퓨터 상호작용 분야의 최고권위 국제학술대회인 ACM CSCW 2021 학회에 논문으로 발표 하였습니다. 

     

 

     

     

 원격 팀 협업 상황에서 음성과 시각 요소를 결합한 커뮤니케이션을 지원하는 시스템: Winder

코로나 이후 원격 팀 협업이 급증함에 따라 UI 설계, 슬라이드, 이미지 등 시각적인 문서를 원격에서 공유하고 공동작업하는 상황이 빈번해졌습니다. 이 과정에서 타인의 의도를 이해하지 못하고 화면의 어느 요소를 지칭하는지 파악이 어려워 생기는 소통의 비효율을 어떻게 개선할 수 있을까요?

저희 연구팀은 팀 내 원활한 소통을 지원하기 위해 원하는 시각 요소를 클릭하면서 음성으로 설명하며 멀티모달 댓글을 남길 수 있는 Winder 시스템을 개발하였습니다. 이렇게 저장된 댓글은 텍스트와 관련 링크가 담긴 형태로 탐색 및 확인이 가능해 보다 명확한 팀 내 소통을 가능케 합니다. 이 연구는 인간-컴퓨터 상호작용 분야의 최고권위 국제학술대회인 ACM CHI 2021 학회에 논문으로 발표 되었습니다.