ADVERTISEMENT
오피니언 강주안의 직격인터뷰

“일의 중간 단계선 AI 막강하지만 시작과 끝은 사람 몫”

중앙일보

입력

지면보기

종합 26면

강주안 기자 중앙일보 논설위원

장병탁 서울대 AI연구원장

강주안 논설위원

강주안 논설위원

인공지능(AI) 챗봇인 챗GPT가 연일 화제다. 세상에 나온 지 두 달 만에 월간 사용자(MAU) 1억명을 넘어선 데 이어 최근 시작한 유료화 서비스 역시 가입자가 폭증 추세다. 모임마다 챗GPT가 대화의 중심에 선다. 특히 윤석열 대통령이 지난달 25일 국무회의에서 언급한 이후 각 부처가 앞다퉈 대책을 발표한다. 박윤규 과학기술정보통신부 2차관은 지난 15일 “이르면 이달 말이나 다음 달 초에 큰 변화에 대응하기 위해 우리나라가 어떤 역할을 해야 하고 어떻게 나아가야 하는지 방향성을 제시해보고자 한다”고 밝혔다.

챗GPT가 보여준 AI의 수준은 어느 정도이며 우리나라는 치열한 경쟁에서 성과를 낼 수 있을까. 지난 13일 서울대 AI연구원을 찾아가 장병탁 원장을 만났다. 독일과 미국을 오가며 AI와 뇌인지과학을 40년 동안 연구해온 그는 인공지능 분야가 관심에서 밀려난 시기에도 한 우물을 팠다. 그는 AI의 가능성을 강조하면서도 한계와 단점을 지적했다.

챗GPT, 연설문 작성 뛰어나지만 여러 단계 거친 논리적 추론 부족
그럴 듯하게 말하는 것처럼 보여도 제공 정보 무조건 믿으면 안돼
스타트업 투자 인색한 우리나라선 당분간 AI 획기 발전 기대 어려워
수학·인문학 인재 중요…챗GPT 이용한 과제·리포트 작성 허용해야


문장 완전 이해한 후 답하는 건 아냐

지난 13일 장병탁 서울대 AI연구원장이 인공지능을 가진 로봇을 소개하고 있다. 챗GPT로 주목 받은 AI를 로봇에 탑재하면 청소 같은 집안일을 알아서 하게 된다. 강주안 기자

지난 13일 장병탁 서울대 AI연구원장이 인공지능을 가진 로봇을 소개하고 있다. 챗GPT로 주목 받은 AI를 로봇에 탑재하면 청소 같은 집안일을 알아서 하게 된다. 강주안 기자

온통 챗GPT 얘기뿐이다.
“알파고 이후 6년 만에 나온 건데, 알파고는 훌륭한 기술이었지만 바둑 두는 사람들만 관심이 많았다. 이번엔 누구나 다 써봤다. 1억 명이 전 세계에서 최신 AI 기술을 경험해서 반향이 큰 것 같다.”
기술 수준도 진보했나.
“챗GPT가 훨씬 고도의 기술이다. 알파고의 계산 복잡도는 어마어마하지만 ‘19×19’의 좌표가 있는 닫힌 세계다. 언어는 열린 세계다. 몇만 단어만 조합해도 만들 수 있는 문장은 무궁무진하다. 뒤에 GPT, 즉 초거대 AI가 백업하고 있는 거다. 거대 언어 모델(LLM) AI가 문서를 학습해서 어마어마한 데이터를 축적해 채팅과 접목하니 보고서도 써준다.”
유료화도 주목된다.
“이게 가장 큰 변화다. 그동안 AI는 눈에 안 드러나게 쓰였다. 유튜브 맞춤형 광고 등에 AI가 들어갔는데 유료화는 큰 터닝 포인트다. 검색 광고를 하는 구글이 흔들릴 수 있다.”
구글이 내놓은 후속작이 실망스러웠다.
“챗GPT는 오픈AI라는 작은 신생회사가 만들었다. 잃을 게 없다. 구글이 출시했는데 이상한 답변을 하니 주가가 내려갔다. 구글이 기술을 먼저 만들었는데도 대기업이니 조심스러운 거다. 스타트업이었던 구글이 마이크로소프트를 무너뜨렸는데 이제 오픈AI에 밀린다.”
챗GPT의 강점을 꼽아달라.
“요약하는 글쓰기에 가장 좋은 것 같다. 대화로만 문제를 해결하는 기존 챗봇과 달리 지식을 갖고 연설문을 쓰지 않나. 웬만한 보고서뿐 아니라 다양한 프로그램 코드도 생성해 준다. 아마도 연설문 탬플릿을 가진듯하다. 기승전결 구조를 학습한 거다. 다만 실은 완전하지 않다는 것을 알아야 한다.”
엉뚱한 대답을 내놓는 의외의 모습도 있다.
“생성하는 문장이 상당히 그럴듯해 보이는데 사실 완전히 이해한 게 아니다. 질문에 만물박사처럼 대답하는 것처럼 보일 뿐이다. 우리가 지금 대화하면서 아까 한 얘기를 어느 정도 문맥으로 기억하는데 AI는 잘 못 한다. 논리적인 추론을 여러 단계 거쳐서 하는 문제는 어려울 거라고 본다.”

문제를 이해 못 해 수학엔 취약

지난 15일 챗GTP와 대화한 내용. 업데이트가 안돼 과거 자료가 나오는가 하면 엉뚱한 답변을 내놓기도 한다.

지난 15일 챗GTP와 대화한 내용. 업데이트가 안돼 과거 자료가 나오는가 하면 엉뚱한 답변을 내놓기도 한다.

수능 문제를 풀었더니 영어는 잘하고 수학은 낙제라는데.
“수학의 답은 명확한데 문제를 이해 못 한 것 같다. 챗GPT가 잘하는 건 말하는 흉내를 내는 거다. 질문을 이해한다기보다 그냥 한번 말을 시작하면 다음엔 어떤 단어가 나올 확률이 얼마인지를 학습해서 단어를 계속 던지는 거다. 글자만으로 학습했기 때문이다. 논리적으로 연결된 질문에 약하다.”
좀 더 쉽게 설명해 달라.
“사람들에게 ‘찻잔’을 말하면 듣는 순간 따뜻한 느낌이 든다. (가수)노고지리의 노래를 비롯해 온갖 개념이 녹아들어서 찻잔이 된다. 그런데 지금 기계가 하는 건 ‘찻잔을 깨트렸다’는 등 찻잔이라는 단어가 들어간 문장을 모아서 그냥 흉내를 내는 거다. 논리적으로 얘기하면 과거 AI는 연역적인 추론만 잘했는데 지금은 귀납적인 추론을 하는 거다. 귀납적인 추론은 팩트를 모아서 일반적인 규칙이나 지식을 만든다. 추상화, 일반화 과정이다. 그러다 보니 참이 아닌 결과까지 추론해버린다.”
주식 투자 조언을 받을 수 있을까.
“지금 챗GPT에게 무슨 주식 살지 묻고 결정하는 건 조심해야 한다. 대화를 잘하는 거지, 정보의 안정성이나 신뢰성은 약한 부분이 있다. 이걸 하려면 대량의 데이터 분석을 하는 또 다른 AI가 있어야 한다. 월스트리트에서 일부 쓰긴 하는데 일반인에게 공개는 안 할 거다.”
악용 우려가 제기된다.
“언어에 문화도 녹아있다. 그래서 악용하고 오염되면 편향성 문제가 제기된다. 의도했든 안 했든 한쪽으로 치우칠 수 있는 거다. 네거티브하게 쓰일 수 있는 위험성을 학교에서 교육해야 한다.”
전력 소모가 많아 환경을 파괴한다는 지적도 나온다.
“그런 측면이 있다. AI는 계속 방대한 데이터를 학습하기 때문에 전기를 많이 쓴다. 효율화가 큰 과제다. 사람의 뇌는 25W밖에 안 쓰는데….”
그런데도 기대가 분출한다.
“기존 검색은 원문과 문서를 준다. 그러면 내가 그걸 읽고 답을 찾아야 하는데 이건 많은 문서를 학습해서 갖고 있다가 답을 말한다. 업무에 유용할 수 있다. 보고서를 작성할 때도 도움된다. 처음엔 사람이 써준 데이터를 모아 학습을 시켰다. 초기에 사람이 많이 붙었다. 노동력이 많이 들어간 거다.”

몸으로 직접 하는 일이 인간의 강점

사람의 일자리를 위협할 거 같다.
“소리를 듣고 타이핑하거나, 요약하는 일은 이제 기계에 양보하는 게 맞는 것 같다. AI로 대체되는 일은 중간 단계의 업무라고 생각한다. 법률사무소를 예로 들면 자료를 조사하거나 판례를 찾는 일의 상당 부분은 AI가 하게 되고, 관련 인물을 만나 얘기를 듣는 것처럼 몸으로 직접 해야 하는 일은 AI 기술이 아직 많이 모자란다. 몸을 움직여 직접 하는 일이 가장 어려운 기술이다. 사건의 어떤 부분을 포인트로 잡아야 하고 어떤 자료를 활용할지 등 고차원적인 업무도 사람이 훨씬 잘할 수 있다. 인간의 물리적인 세계에서 일어나는 가장 기본적인 일과 고도의 일은 여전히 사람이 뛰어나다. AI가 조금씩 올라오면서 가장 먼저 위협받는 부분은 중간 단계다.”
우리나라의 AI 경쟁력은 기대할 만한가.
“이 질문을 정말 많이 받는다. 한 10년 후에 우리나라가 뭔가 만들 수 있을까. 솔직히 쉽지 않다고 본다. 지금 보면 이런 게 나올 수 있는 문화가 아니다. 페이팔 마피아를 보라.” (※2003년 결제 프로그램인 페이팔을 이베이에 매각한 돈으로 벤처에 투자한 창업자들을 ‘페이팔 마피아’라고 한다. 테슬라를 만든 일론 머스크와 유튜브 설립자 스티브 천 등이다.)
우린 그런 사례가 잘 안 보인다.
“오픈AI의 공동 창업자가 일런 머스크다. 우리는 대기업에서 스타트업에 투자하는 문화가 없다. 벤처 캐피털도 모험보다 돈 벌기에 치중한다. 대기업이 작은 회사에 투자할 경우 생기는 규제 문제도 있다. 이런 환경에선 쉽지 않다. 우리도 통신사나 대기업이 초거대 AI에 투자는 많이 했다. 그건 잘한 거지만 지금이 중요한 시기인 만큼 문화가 바뀌어야 한다.”

“왜”라고 질문하는 교육이 중요

교육에도 변화가 필요할 것 같다.
“모든 걸 다 외워야 하는 암기 과목보다는 무엇이 중요한지 알아보고 ‘왜’라는 질문을 던지는 게 중요해진다.”
챗GPT로 리포트를 작성해 논란이 된다. 허용해야 할까.
“무조건 못 쓰게 하는 건 아니라고 본다. 논문 참고를 밝히듯 명시하면 된다. 기본적인 내용을 챗GPT에게 도움을 받고 절약한 시간을 창의적인 데 써야 한다. 그걸로 차별화가 된다. 우리가 학교 다닐 땐 시험 때 계산기를 못 쓰게 했지만, 지금은 다 허용한다. 계산에 허비할 시간에 더 중요한 문제를 풀면 된다.”
AI의 미래가 급진전할까.
“지금 뭔가 점프한 듯 보이지만 사실 AI 연구 초기부터 다룬 내용이다. 기존에 대화한 걸 데이터로 학습해서 패턴을 흉내 낸 거다. 진정한 이해로 가려면 근본적인 연구가 상당히 진척돼야 한다. 사람을 완전히 대체하는 건 생각보다 어렵다. 인터페이스가 잘 안 된다. AI에게 뭔가를 주고 명확히 뭘 하라고 하면 그건 사람보다 잘한다. 그런데 뭘 먼저 해야 할지 판단하는 건 여전히 사람의 일이다. 별것 아닌 것 같지만 그런 부분이 AI에겐 아직 없다.”
AI 시대 필요한 인재는.
“프로그램 코딩도 중요하지만, 자신감을 가지려면 기초가 튼튼해야 한다. 수학이 중요하다. 또한 문제를 바라보는 시각이 관건이기 때문에 인문·사회과학이 중요해진다. 우리 연구원에도 법 윤리 등 인문 사회학 전공자들이 함께 참여한다.”

◆장병탁=서울대 컴퓨터공학 학·석사를 마치고 독일 본 대학에서 컴퓨터과학으로 박사학위를 받았다. 독일국립정보기술연구소(GMD) 선임연구원 시절부터 줄곧 AI를 연구해왔다. MIT 인공지능연구소 및 뇌인지과학과에서 초빙교수로 활동했고 2019년부터 서울대 AI연구원을 이끌었다. 2007년 오카와 재단 학술연구상을 받았고, 현재 뇌 정보처리 구조와 기능을 닮은 인지 로봇 개발을 진행하고 있다.