최근 인공지능은 다양한 산업과 시너지를 창출하며 산업 전반에 영향을 미치고 있습니다. 이제는 범위를 더욱 확대해 인간의 고유 영역으로 여겨졌던 예술 영역까지 인공지능이 활용되고 있습니다. 최근 오픈AI는 인공지능 모델인 DALL-E(차이)를 통해 상상하는 이미지를 글로 입력하면 그림으로 생성해주는 AI 기술을 선보였습니다. 이런 기술을 구현할 수 있었던 것은 하이퍼스케일 인공지능(초거대 AI) 덕분입니다.

하이퍼스케일 인공지능이란?하이퍼스케일 인공지능은 초거대 인공지능 혹은 대규모 인공지능이라고 불리기도 합니다. 하이퍼스케일 인공지능은 슈퍼컴퓨팅 인프라로 대용량 데이터를 빠르게 처리하여 딥러닝 효율을 대폭 높인 인공지능이지만 기존 인공지능은 학습할 수 있는 데이터의 양과 속도에 한계를 가지고 있었지만 기존 인공지능보다 파라미터(매개변수)의 수를 대폭 늘려 인공지능의 처리능력 및 학습능력을 비약적으로 발전시킨 인공지능입니다.
그럼 파라미터란 무엇일까요? 파라미터를 이해하기 전에 인공지능, 머신러닝, 딥러닝의 용어를 이해한 후 딥러닝의 인공신경망 구조를 이해해야 합니다.인공지능, 머신러닝, 딥러닝이란?머신러닝과 딥러닝은 인공지능의 한 분야이며 머신러닝은 딥러닝을 포함하는 개념입니다. 사례를 통해 머신러닝과 딥러닝의 차이를 설명합니다.
머신러닝의 경우 개와 고양이를 분류하기 위해 일반적으로 두 동물을 분류할 수 있는 특징(귀 모양, 입 구조 등)을 사람이 추출하여 입력해야 합니다. 즉, 머신러닝은 사람이 AI에게 무엇을 학습해야 하는지를 결정해야 합니다.
반면 딥러닝은 인간의 개입 없이 수많은 강아지와 고양이 사진 자체를 스스로 학습해 패턴을 파악한 뒤 강아지와 고양이를 분류합니다. 이처럼 딥러닝과 머신러닝의 차이는 기계가 스스로 학습하느냐에 달려 있습니다.

머신러닝과 딥러닝의 차이를 정리하면 머신러닝은 사람이 데이터의 특징을 분류하고 분석해 패턴을 입력해야 하고 딥러닝은 여러 층으로 구성된 인공신경망을 통해 스스로 학습해 의사결정을 하는 방법입니다.
그렇다면 인공신경망이란 무엇일까요? 인공신경망은 딥러닝에서 가장 기본이 되는 개념으로 사람의 뇌 정보처리 방식을 본떠 만든 구조입니다.

인공신경망 구조 인공신경망은 여러 뉴런이 서로 연결되어 있는 구조의 네트워크로 입력층(inputlayer)을 통해 학습하고자 하는 데이터를 입력받습니다. 이렇게 입력된 데이터는 여러 단계의 은닉층(hiddenlayer)을 지나 출력층(outputlayer)을 통해 최종 결과로 출력됩니다. 이때 은닉층을 둘 이상인 경우를 심층신경망(Deep Neural Network)이라고 부르고 이를 활용한 머신러닝 학습을 딥러닝이라고 부르는 것입니다.파라미터란 무엇일까요?우리 뇌에는 뉴런 간 정보 전달 통로 역할을 하는 시냅스가 100조 개 정도 있습니다. AI에서 시냅스와 같은 역할을 하는 것이 파라미터(매개 변수)입니다. 뇌의 신경세포 뉴런이 그림의 원에 해당한다면 원을 연결하고 있는 선이 시냅스이며 파라미터에 해당합니다. 또한 파라미터는 가중치, Weight, W라고도 합니다. 그 이유는 접속선마다 고유한 값을 가지고 있기 때문입니다.

파라미터 인공신경망은 연결선 형태로 정보가 저장돼 있고 입력으로 들어오는 데이터를 가중치와 함께 계산하면 결과값이 산출되는 구조입니다. 그래서 파라미터를 가중치, Weight라고도 부릅니다. 즉 인공신경망을 연결하는 연결선 하나를 파라미터라고 하고, 초거대 AI는 이런 연결선이 2000억 개 이상인 인공지능입니다. 2019년 GPT2의 파라미터 수가 15억개에 불과했던 것을 감안하면 빠른 속도로 기술이 발전하고 있음을 확인할 수 있습니다.그렇다면 하이퍼스케일 AI에는 어떤 사례가 있을까요?(1)제시한 문장에 따라 그림을 그리는 인공지능 모델 ‘달리2’
하이퍼스케일 인공지능의 대표적인 사례는 오픈AI가 개발한 GPT 모델 시리즈입니다. 최근 오픈AI는 120억 개의 파라미터를 가진 DALL-E를 통해 제시한 문장에 따라 그림을 그리는 인공지능 모델 ‘DALL-E’를 선보였습니다. DALL-E에 ‘우주인이 말을 타고 달을 달리고 있다’는 문장을 입력하면 해당 문장의 그림을 그대로 그려주는 등 AI로 매우 사실적인 이미지를 만들 수 있습니다. 특히 제품 디자인이나 새로운 아이디어 생성에 활용될 것으로 보입니다.
(2) 네이버의 ‘하이파크 로버’.
네이버도 AI 하이퍼클로버를 통해 초거대 AI 기술을 선보였습니다. 하이퍼클로버는 GPT-3를 넘는 2040억 개의 파라미터를 갖추고 있습니다. 일례로 네이버 하이퍼클로버는 ‘지식인터랙티브’ 서비스를 통해 AI와 사람처럼 대화하고 정보를 검색하는 서비스를 제공하고 있습니다. 초거대 AI를 통해 이제는 질문 의도를 명확히 파악하고 대화체를 구현하는 AI와 연속적인 대화를 하는 시대가 도래한 것입니다.
(3) 구글의 ‘PaLM(Pathways Language Model)’
구글은 무려 5400억 개의 파라미터를 통해 프로그래밍, 수학 문제 해결 등 복잡한 추론이 가능한 모델인 PaLM을 선보였습니다. PaLM을 기반으로 한 미네르바는 문장을 보고 문제를 이해한 후 변수와 방정식을 설정하여 문제를 푼다고 합니다. 그동안 AI는 언어처리 중심으로 활용 범위가 한정됐지만 해당 모델을 통해 수학은 물론 향후 천문학, 과학 등 다양한 분야에서도 새로운 기회를 창출할 수 있을 것으로 기대됩니다.

이처럼 최근 미국, 중국 기업들의 AI 지능이 향상됨에 따라 AI 패권 경쟁이 심화되고 있는 상황입니다. 국내에서도 네이버, LG그룹 등이 초거대 AI 개발에 착수하고 있지만 개별 기업을 넘어선 국가 차원의 AI 경쟁력 강화를 위한 지원이 필요한 시점입니다. 이에 최근 과학기술정보통신부에서는 인공지능 혁신허브 사업을 통해 국내외 57개 대학, 119개 기업, 18개 연구소 등 총 215개 기관이 참여하는 국가연구체계를 구축했습니다.
또 과기정통부는 2022년 4대 추진과제 중 디지털 대전환을 위한 계획으로 초거대 AI(하이퍼스케일 AI) 등 디지털 신산업 발전기반을 조성해 핵심기술을 확보할 계획이라고 합니다. 초거대 AI는 미래 산업 전 분야에서 활용될 만큼 무한한 가치를 지닌 기술입니다. 앞으로 이어질 하이퍼스케일 인공지능 발전과 과학기술정보통신부의 정책적 지원에도 많은 관심 부탁드립니다.
