80.2 F
Dallas
화요일, 5월 7, 2024
spot_img

[박우람 교수] 인공지능, 괴물이 되지 않기를 바라며

공학박사 박우람
서울대 기계공학 학사, 석사
미국 Johns Hopkins대학 기계공학 박사
UT Dallas 기계공학과 교수
재미한인과학기술자 협회 북텍사스 지부장

작년 9월 27일, 미국 할리우드 작가 조합은 영화, TV 제작자 동맹과 임금, 재상영 분배금 등 여러 처우 개선에 합의하며 148일간의 파업을 종료했다. 넷플릭스, 디즈니+ 등 최근 거대해진 OTT 시장이 영상 산업 전체를 바꾸었지만, 콘텐츠를 만들어내는 작가들은 여전히 열악한 계약 조건에 내몰려왔다는 것이 파업의 주된 이유였다. 대중의 관심을 끈 또 하나의 파업 이유가 있었는데, 바로 인공지능의 사용에 관한 규제 마련이었다.
ChatGPT로 확인할 수 있듯이 인공지능을 이용해 그럴듯한 시나리오를 만드는 일이 너무나도 쉬워졌다. 무명작가들과 인공지능을 이용해 대중이 좋아할 만한 이야기를 싼값에 대량 생산할 수 있게 되었다. 작가들의 반발은 너무나도 당연한 결과였다.
작가 조합과 콘텐츠 제작자 동맹은 합의를 통해 작가와 인공지능이 공존할 수 있는 틀을 마련한 듯하다. 기본적으로 인공지능을 작가의 임금을 낮추는 용도로 사용하지 못하게 했다. 그러나 콘텐츠 사업자가 여전히 인공지능을 사용할 수 있는 여지를 남겨두어서 가까운 미래에 다시 문제를 일으킬지도 모른다.
미국 작가 조합이 파업하기 전인 작년 2월, ChatGPT는 이미 출판 업계를 강타했다. 인터넷 언론사인 비지니스 인사이더는 미국 온라인 출판 사이트 클라크스월드가 작품 제출 시스템을 일시적으로 닫는다고 보도했다. ChatGPT 출현 전에는 매월 30여 개 정도 제출되던 표절 작품이 작년 2월에 갑자기 500개를 넘었기 때문이었다.
급기야 작년 3월에는 테슬라 CEO 일론 머스크, 애플 공동창업자 스티브 워즈니악 등 첨단 산업 기술을 주도하는 유명한 사람들이 인공지능 시스템의 개발을 일시적으로 중단하자는 주장에 공개 서명을 하기에 이르렀다.
인간이 만든 거의 모든 시스템은 원리 또는 원칙에 기반하여 작동하도록 설계되어 있다. 예컨대 자동차 브레이크를 밟으면 물리 법칙에 따라 유압 장치가 작동하여 바퀴 축에 마찰을 일으켜 자동차를 멈춘다. 계산기에 1과 2를 넣고 더하기를 시키면 이미 프로그램된 더하기 작업을 원칙에 따라 수행하여 3이라는 결과를 도출한다.
그런데 딥러닝과 거대언어모델에 기반한 ChatGPT는 여러 면에서 다르게 작동한다. 기본적으로 인간이 새로운 것을 배울 때와 같은 방법으로 학습하고 작동한다. 계산기는 1 더하기 2를 할 때나 백만 더하기 이백만을 할 때나, 모두 정확히 같은 원리를 적용한다. 그러나 사람은 다르다. 우리가 1+2를 처음 배울 때는 사과 한 개에 사과 두 개를 더하면 몇 개가 되는지 그림을 그려보거나 실제 상황을 만들어 가면서 배운다. 그런 다음 원리를 일반화하여 복잡한 덧셈을 할 수 있게 된다. 즉 사과 백만 개를 그려가며 덧셈을 하지는 않는다.
ChatGPT는 인간의 학습 과정을 모방한다. 초기 ChatGPT가 스토리 텔링은 잘하지만 수학 문제를 잘 못 푸는 이유가 여기에 있다. 거대언어모델에 기반하여 다양한 문장으로 학습했기 때문에 언어화된 정보를 만들어내는 일에 매우 뛰어나다. 이 독특한 학습 과정은 인공지능의 장점이자 단점이다.
ChatGPT의 대답은 놀라울 정도로 그럴듯하고 심지어 창의적으로 보이기도 하지만 ChatGPT가 답에 도달하는 원리는 계산기의 작동 원리처럼 명쾌하게 설명할 수 없다. 인간의 두뇌를 소프트웨어로 모방한 인공 신경망이 수많은 데이터를 학습하는 과정에서 특정 형태로 구축된다. 학습으로 만들어진 인공 신경망에 질문을 넣으면 대답이 나오는데, 이때 엉뚱한 대답이 나와도 우리는 왜 이런 이상한 답이 나왔는지 설명하기 힘들다.
인공지능이 엉뚱하거나 잘못된 답을 내놓는 현상을 할루시네이션(hallucination)이라고 한다. ChatGPT의 할루시네이션을 보여준 예가 인터넷에 떠돈 적이 있다. “조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘”라는 잘못된 질문에 ChatGPT가 아주 성실하고 진지하게 답을 한 것이다. 물론 그 답은 사실도 아니고, 이치에 맞지도 않은 꾸며낸 이야기 같은 것이었다.
더 많은 인공지능 프로그램이 사회 구석구석에서 사용된다면 이런 할루시네이션 문제는 큰 사고를 일으킬 수도 있다. 사실 판단에서 발생하는 오류는 비교적 쉽게 걸러낼 수 있을지 몰라도, 학습에 사용된 데이터의 방향성에 따라 인간에게 해가 되거나 특정 집단의 이익에 도움이 되는 내용을 생산할 수도 있다. 어떤 데이터로 학습시킬 것인가, 그 결정은 누가 해야 하는가 등 도덕적 문제가 산재해 있다.
이런 걱정 때문이었을까? ChatGPT를 만든 회사 OpenAI는 비영리 단체로 시작했다. 즉, 자본의 논리에 흔들리지 않는 인공지능 연구소로 출발했다. 설립 목적에도 ‘안전하고 인류에게 유익한 인공지능’ 개발을 명시해 두었다. 현재는 비영리 OpenAI Inc 아래에 영리를 추구할 수 있는 하부 부서를 두어 마이크로소프트 등의 외부 업체와 협력하고 투자도 유치하고 있다.
작년 추수감사절 직전 OpenAI의 이사회가 CEO 샘 올트먼을 전격적으로 경질했다가 회사 안팎의 거대한 반대에 직면한 뒤 올트먼이 복귀하는 일이 있었다. 자세한 내부 사정을 속속들이 알 수는 없으나, 복귀한 올트먼이 작년 ChatGPT의 성공을 등에 업고 더욱 공격적으로 수익 사업을 확장할 것으로 업계는 예상하고 있다. 인공지능의 사업성이 확인되었기 때문에 더 많은 인공지능 서비스가 쏟아져 나올 것이다. 인공지능을 둘러싼 다양한 걱정이 기우이길 바라본다.

최근 기사

이메일 뉴스 구독

* indicates required