[사이언스칼럼] 디지털뉴딜과 슈퍼컴퓨터
Published:
지난 9월 디지털 뉴딜의 핵심 과제인 ‘데이터 댐’의 7대 사업을 수행할 기업들이 선정되면서 데이터 댐 사업이 본격적으로 시작됐다. 데이터 댐의 핵심은 민간과 공공 데이터를 5G와 같은 고속의 네트워크를 통해 대량으로 수집하고 이를 가공·거래·활용해 인공지능(AI) 기술 기반의 혁신적인 서비스 개발로 기존 산업을 혁신하고 일자리를 창출하는 데 있다. 정부는 필요한 컴퓨팅 인프라로 민간 클라우드를 활용하기로 하고 클라우드 플래그십과 클라우드 바우처 사업 등을 추진하고 있다.
디지털뉴딜에 슈퍼컴퓨터는 어떻게 기여할지에 대해서 생각해보자. 데이터 댐의 핵심 기술은 AI고 AI 핵심 인프라는 고성능 컴퓨팅 자원이다. 2016년 이세돌 9단과 세기의 대결을 벌였던 인공지능 프로그램 ‘알파고’는 1920개의 CPU 코어와 280개의 GPU가 장착된 세계 300위권에 해당하는 슈퍼컴퓨터상에서 수행됐다. 지난 6월 오픈AI(OpenAI)는 스스로 코딩도 하고 몇 개의 키워드만 주면 소설도 쓰는 자연어 처리 기반의 AI인 GPT-3를 공개해 세상을 깜짝 놀라게 했다. 약 3000억 개의 텍스트 데이터 세트와 1750억 개의 변수를 가진 GPT-3 모델 학습과 AI 서비스를 위해 마이크로소프트는 28만 5000개의 CPU 코어와 1만 개의 GPU가 장착된 세계 5위권의 슈퍼컴퓨터 구축을 발표했다.
AI 분야 혁신에 큰 획을 긋는 알파고와 GPT-3 두 사건 이면에는 슈퍼컴퓨터가 있다. 오픈AI에 따르면 AI 분야의 최대 실험 규모는 1.1~1.4년마다 10배씩 증가하는 추세로 슈퍼컴퓨팅 인프라 없이는 기술혁신을 기대할 수 없다고 한다. 이런 추세라면 혁신적인 AI 모델 학습을 위한 세계 1위의 슈퍼컴퓨터가 곧 출현하게 될지도 모른다.
알파고와 GPT-3모델 개발 사례에서 보듯이 AI 기술혁신을 선도하기 위해선 슈퍼컴퓨팅 인프라가 중요하다. 아마존과 함께 전 세계 클라우드 시장을 석권하고 있는 구글과 마이크로소프트에서 알파고와 GPT-3모델 개발을 위해 자체적으로 슈퍼컴퓨터를 구축한 것은 시사하는 바가 크다. 혁신적인 AI 서비스를 서로 선점하기 위해 슈퍼컴퓨터에 예산을 선 투자한 것이다. 글로벌 클라우드 업체가 부재한 우리나라는 이번 데이터 댐 사업을 통해 민간 클라우드를 육성하는 동시에 공공 영역의 슈퍼컴퓨터를 잘 활용할 필요가 있다. 어쩌면 우리나라의 경우에는 막대한 예산이 드는 슈퍼컴퓨터 구축을 통한 혁신적인 AI 연구개발 지원은 당분간은 공공 슈퍼컴퓨팅의 역할이 아닐까라는 생각이 든다.
필자가 속한 한국과학기술정보연구원(KISTI) 국가슈퍼컴퓨팅본부는 지난 반세기 이상 우리나라의 컴퓨팅 역사에서 중추적 역할을 해왔다. 1967년 한국과학기술연구원(KIST) 전자계산실로 출발해 1969년 국내 최초로 대형 범용컴퓨터를 도입해 기재부와 체신부 업무 전산화 등의 공공 업무를 지원하였다. 1988년에는 국내 최초로 슈퍼컴퓨터 1호기를 구축해 현대자동차와 대우자동차 자동차 충돌 시뮬레이션 등 산업체를 지원했다. 현재 5호기는 생명의료와 우주 기원 등 과학난제와 초거대문제해결에 활용되고 있다. 지난 반세기 동안 주어진 시대적 역할과 소명에 따라서 공공, 산업체, 과학기술 연구개발을 지원해 온 셈이다. 이제는 정부의 디지털뉴딜 성공과 내년으로 바짝 다가온 엑사스케일 컴퓨팅 시대를 맞이해 미래 국가 경쟁력 제고를 위한 엑사급 슈퍼컴퓨터 6호기를 조기에 구축하고, 첨단 AI 연구개발과 서비스 지원이라는 새로운 시대적 소명에 대해서도 생각해 볼 때다.