IT 컴퓨팅

천현득 교수 “AI 신뢰·책임성 확보해야” [14회 퓨처ICT포럼]

김미희 기자

파이낸셜뉴스

입력 2023.06.21 11:47

수정 2023.06.21 11:47

천현득 서울대학교 AI연구원 ELSI 센터장 기조연설

“AI 위험성 대비해야 기술 수용가능성 높일 수 있어”
[파이낸셜뉴스] “인공지능(AI) 윤리의 가장 궁극적인 목표는 신뢰성과 책임성을 확보하는 것이다.”

제14회 퓨처ICT포럼이 파이낸셜뉴스와 과학기술정보통신부 공동 주최로 21일 서울 여의도 콘래드 서울 호텔 파크볼룸에서 열렸다. 천현득 서울대학교 AI연구원 ELSI 센터장이 기조연설을 하고 있다. 사진=김범석 기자
제14회 퓨처ICT포럼이 파이낸셜뉴스와 과학기술정보통신부 공동 주최로 21일 서울 여의도 콘래드 서울 호텔 파크볼룸에서 열렸다. 천현득 서울대학교 AI연구원 ELSI 센터장이 기조연설을 하고 있다. 사진=김범석 기자

천현득 서울대학교 AI연구원 ELSI 센터장은 21일 파이낸셜뉴스와 과학기술정보통신부 공동주최로 서울 여의도 콘래드서울 호텔 파크볼룸에서 열린 제14회 퓨처ICT 포럼에서 ‘인간-AI 상호작용의 윤리’라는 주제의 기조연설을 통해 이같이 밝혔다.
디지털 휴먼(합성 미디어 기술) 등 첨단 AI 융합 서비스를 개발하는 과정에서 ‘잠재적 위험성’에 대한 경고를 미리 듣고 대비하는 것이 오히려 기술의 수용 가능성을 높여줄 수 있다는 게 천 센터장의 제언이다.

서울대 AI연구원 ELSI 센터는 AI 관련 윤리적(Ethical)·법적(Legal)·사회적쟁점(Social Issues)들을 연구하고 있다. 교통, 의료, 추천 알고리즘, 안면인식 등 각 영역에서 제시되는 ELSI를 구체적 수준에서 연구하고 학계와 산업계는 물론 정책 당국에 의견을 전달하는 역할도 한다.

천 센터장은 특히 기술의 선용과 악용을 분리할 수 없다는 점을 지목했다. 그는 “딥페이크가 선한 목적으로 활용되는 경우도 있다”며 “반면 굉장히 좋은 의도로 만들어진 기술이 또 다른 방식으로 악용될 수 있는 만큼, 기술 선용과 악용을 쉽게 나눌 수 없다는 문제의식을 가져야 한다”고 강조했다.

또 디지털 휴먼이나 챗봇(대화형 AI)과 의사소통한다는 부분도 인간의 감정 및 생각을 투사해 이뤄진다는 점을 지적했다.
천 센터장은 “디지털 휴먼은 실제 감정을 느끼지 않지만 점차 정서적 의사소통이 중요해지고 있다”면서 “사용자 필요에 부응해 더 효과적으로 과제를 수행하거나 외로운 현대인에게 이른바 ‘인공 반려’가 될 가능성도 있다”고 내다봤다.

천 센터장은 이어 디지털 휴먼과 인간의 상호작용이 늘어날수록 인간 감정이 가지는 개별성이나 맥락의존성 등이 간과될 가능성이 있음을 우려했다.
그는 특히 사용자 조종 가능성을 언급, “디지털 휴먼 같은 AI 로봇으로부터 지지를 받음으로써 실제 인간과 멀어질 수 있지 않을까라는 생각이 든다”라며 “해당 기업이나 제조사가 로봇과 인간이 맺는 관계를 이용해서 사용자를 조종할 우려도 있기 때문에 그런 우려들을 불식시키는 방식으로 사용자의 수용성도 높이면 좋겠다”고 조언했다.

elikim@fnnews.com 김미희 정원일 기자

fnSurvey