인공지능과 세라믹스소재기술
정 두 석_ 한국과학기술연구원 전자재료연구단 선임연구원
지난 3월 인공지능이 대한민국을 강타했다. 구글 딥마인드社의 인공지능 알파고와 이세돌 9단과의 대국이 서울에서 펼쳐졌으며 많은 국민의 관심이 이 대국에 모아졌다. 총 다섯 번의 대국으로 구성된 인공지능과 바둑 인간대표의 대결은 시작 전부터 많은 사람들의 이야깃거리가 되었다. 체스와 달리 매우 많은 경우의 수를 가진 바둑의 경우 인공지능이 바둑최강자를 이기기엔 시기상조라는 예상을 바탕으로 대부분의 사람들은 이번 대결이 인간 두뇌활동의 존엄을 증명할 수 있는 좋은 기회가 될 것이라는 즐거운 상상을 하였다. 총 다섯 번의 대국이 종료되었다. 알파고의 완승이었다. 즐거운 상상은 경악으로 바뀌었다. 인공지능 기술의 엄청난 발전을 전 국민이 간접적으로 체험하였다.
최근 제4차 산업혁명에 대한 언론보도가 줄을 잇는다. 4차 산업혁명의 핵심 키워드는 인공지능이다. 인공지능 기술 발전으로 인한 신산업의 등장 등의 산업계의 재편이 4차 산업혁명의 시나리오이다. 신산업 등장이란 장밋빛 전망 및 인공지능이 인간 노동을 대체하여 대량실업으로 이어질 것이라는 우려 섞인 전망 등 아직 시작되지 않은 4차 산업혁명을 바라보는 시각은 다양하다. 확실한 것은 인공지능 기술의 현재 고도화가 되었으며 기술의 성숙도는 점점 증가할 것이라는 점이다.
그림 1. (a) 기계학습의 기본 개념도. (b) 박막의 증착시간과 측정한 박막두께의 예시 데이터. (c) 증착시간과 박막두께 데이터 플롯 및 기계학습을 위한 수학모형 예시
인공지능은 기계가 학습을 근거로 스스로 의사결정을 할 수 있는 능력을 의미한다. 인공지능구현 방법론은 다양하며 최근에 가장 성공적으로 응용되고 있는 방법론은 기계학습(machine learning)이다. 구글과 페이스북을 포함하는 인공지능 선두기업은 기계학습방법론을 적용하여 인공지능을 구현하고 있다. 기계학습의 기본 개념은 그림 1에 도식화하였다. 성공적인 기계학습 적용을 위해 우선 수학적 모형(hypothesis)이 필요하다. 이 수학적 모형은 다수의 계수(parameter)를 포함한다. 이 수학적 모형을 양질의 데이터(training set)를 이용해 학습시킨다. 학습은 수학적 모형에 포함된 다수의 계수를 데이터에 맞게 최적화함을 의미하며 이를 위해 적절한 최적화 알고리즘이 필요하다.
그림 2. (a) 인공신경망의 개형. Input layer와 output layer는 데이터의 입력과 출력을 담당하며 hidden layer는 비선형 계산을 위한 은닉층을 의미함. (b) 시냅스 전 뉴런 (presynaptic neuron)과 시냅스 후 뉴런 (postsynaptic neuron)의 모식도
단언컨대 적어도 누구나 한번쯤은 기계학습을 적용하여 연구를 한 경험이 있을 것이다. 스퍼터링 방법을 이용한 세라믹소재 박막 증착실험의 예를 들어보자. 흔히 박막의 증착속도 측정을 위하여 증착시간을 달리하여 제작한 박막의 두께를 측정한다. 증착속도 측정의 신뢰성을 높이기 위해 증착시간을 달리한 다양한 박막을 제작하는 것이 기본이다. 그림 1은 증착시간을 달리한 다섯 개의 박막의 두께를 측정한 데이터를 보여준다. 기계학습에서 이 데이터는 수학 모형 최적화를 위한 training set에 해당한다. 선험적으로 박막두께(y)와 증착시간(x)의 선형적 상관관계를 예측할 수 있으므로 대부분의 연구자는 y = ax+b의 1차 수학 모형을 가정할 것이다. 이 식이 기계학습의 수학 모형(hypothesis)에 해당한다. 이 수학모형은 a와 b 두 개의 계수를 포함하며 학습 알고리즘을 통해 이 두 개의 계수를 최적화한다. 흔히 사용되는 방법은 최소자승법(least square regression)으로 이 방법이 학습 알고리즘에 해당한다. 공학 소프트웨어를 이용하여 손쉽게 실험 데이터를 만족하는 a와 b를 얻을 수가 있다. 즉, 손쉽게 training set를 잘 설명할 수 있는 y = ax+b라는 1차의 수학모형을 얻을 수 있으며 따라서 기계학습을 성공적으로 실험에 적용할 수 있다. 궁극적으로 최적화된 수학 모형 (y = ax+b)을 이용하여 기계학습에 사용되지 않은 새로운 변수에 대한 예측이 가능하다. 예를 들어 이 수학 모형을 이용하여 그림 1에 포함되어 있지 않은 증착시간-예를 들어 200초-에 대한 박막두께를 예측 가능하다.
비록 매우 간단한 예이긴 하지만 기계학습의 기본 개념을 충실히 설명해 줄 수 있는 쉬운 예에 해당한다. 위의 예와 달리 기계학습에 근거한 인공지능은 매우 고차원의 데이터(즉, training set)를 대상으로 한다. 알파고의 입력데이터는 19 x 19 바둑판 상의 흑의 위치, 백의 위치, 빈 공간 위치, 이전의 바둑돌의 위치 등 매우 고차원이다. 따라서 박막증착의 예와 달리 매우 복잡한 형태의 수학 모형 적용이 필수적이다. 현재 최고 성능을 보여주는 수학 모형은 신경망의 형태를 띠고 있으며 이를 통상적으로 인공신경망 (ANN: artificial neural network)라 명명한다. 인공신경망은 전체적인 함수의 형태를 y = ax+b 등의 방정식으로 표현 불가능하다. 인공신경망의 모식도는 그림 2와 같다. 신경망은 노드 (뉴런)와 노드간의 연결 (시냅스)로 구성되며 각 노드는 시냅스로 연결된 노드로부터 입력 값을 취하며 입력 값이 0 이상일 경우 ‘1’을 출력하며 이하일 경우 ‘0’을 출력한다. 주목할 점은 노드간의 연결은 특정 가중치를 지니고 있다. 노드 간의 연결 가중치가 이 수학 모형의 계수 역할을 한다. 이전 노드로부터 입력 값을 취할 때 각 노드의 결과(1 또는 0)에 가중치를 곱한 값을 합산하여 다음 노드의 입력 값으로 전달을 한다. 이는 인공신경망의 기본 동작 원리에 해당한다. 이 경우 학습은 각 노드간의 연결 가중치를 최적화하는 과정을 의미한다.
현재까지 다양한 형태의 인공신경망이 소개가 되었으며 각각 특정 정보를 처리함에 있어서 장점이 있음이 보고되었다. 특히 주목할 만한 인공신경망은 CNN(convolutional neural network)다. CNN은 사물인식, 얼굴인식, 음성인식 등의 성공률을 획기적으로 개선하였으며 현재 기계학습 분야에서 가장 성공적인 인공신경망 구조로 알려져 있다. 실제로 알파고 역시 CNN에 기반 하였다.
지금까지 수학모형에 근거한 인공지능 특히 기계학습을 언급하였으며 디지털 컴퓨터에 신경망을 프로그래밍하여 구현이 가능하다. 고차원 데이터 학습을 위하여 막대한 컴퓨팅 리소스가 필요하며 매우 긴 시간이 필요하다. 구글, 페이스북, 마이크로소프트, IBM 등은 자사가 보유한 데이터센터를 통해 이를 구현하며 클라우드를 이용해 사용자들에게 인공지능 서비스를 제공한다. 즉, 데이터센터 기반의 인공지능은 중앙집중형 인공지능이다. 병렬연산을 극대화한 GPU(graphics processing unit) 기반의 기계학습이 대세를 이루고 있으며 NVIDIA 등의 기업은 인공지능의 폭발적인 기술발전에 빠르게 대응하여 데이터센터용 연산처리장치 마켓쉐어를 크게 늘리고 있는 추세다.
그림 3. 두뇌를 구성하는 신경망의 모식도
앞서 설명한 데이터센터 기반의 소프트웨어 인공지능과 달리 아날로그 컴퓨팅을 이용한 하드웨어 인공지능 구현을 위한 노력 역시 최근 활발히 진행 중이다. 인간 대뇌피질(neocortex)의 뉴런과 시냅스의 생리학적 거동을 VLSI(very large-scale integration) 아날로그 회로를 이용하여 모사하여 두뇌의 인지활동을 모사할 수 있는 아날로그 컴퓨팅 체계 개발이 대표적인 예이다. 이러한 아날로그 컴퓨팅을 뉴로모픽 컴퓨팅(neuromorphic compu-ting)으로 불린다.[1]
인간의 두뇌는 대략 1010개의 뉴런으로 구성되어 있으며 하나의 뉴런은 대략 103개의 주변 뉴런과 연결을 이루고 있다. 뉴런과 뉴런의 연결부는 시냅스라 불리며 대략 1013개의 시냅스가 존재한다. 즉, 인간의 두뇌는 매우 복잡한 형태의 뉴런체계(neural network)를 구성하고 있으며 총 뉴런의 길이는 대략 72 km에 이른다. 뉴런체계로 구성된 두뇌의 모식도는 그림 3과 같다. 뉴런체계의 정보전달은 뉴런 내에서는 전기적인 신호로 그리고 뉴런과 뉴런의 이음부인 시냅스에서는 신경전달물질(neurotransmitter)을 통한 화학적인 신호를 통해 이루어진다. 두뇌의 뉴런체계는 스파이킹 뉴런체계(SNN: spiking neural network)로 알려져 있다. 각 뉴런은 시냅스로 연결된 인접 뉴런으로부터 화학신호를 전달받으며 그 결과로 전류가 인가되며 입력 전류의 합이 역치(threshold) 이상이 될 경우 전압 스파이크를 형성하여 다음 뉴런으로 이 신호를 전달하게 된다. 기본적인 스파이킹 신경망의 구성은 그림 2의 인공신경망과 유사하다. 각 뉴런에서 발생한 스파이크는 앞서 언급한 신경전달물질의 분비로 연결되며 이는 연결 뉴런 내에서 전기신호로 재변환되어 뉴런 간의 정보전달이 이루어진다. 인공신경망과 유사하게 시냅스를 통한 신호전달의 가중치가 존재하며 이는 시냅스 가중치(synaptic weight)로 명명된다. 가중치가 높은 연결은 뉴런 간의 신호전달이 원할함을 의미한다.
인간의 두뇌는 디지털 컴퓨터와 달리 창의적인 사고, 학습, 비결정론적인 문제해결 등의 매우 창조적인 연산이 이루어지고 있지만 에너지 소모는 20W 수준으로 매우 효율적인 체계다. 특히 현재 연산체계는 앞서 설명한 바와 같이 기억부와 연산부가 분리되어 존재하므로 기억, 연산부의 신호전달과정 중 ‘von Neumann bottleneck’이 발생하고 전체 연산속도가 줄어든다. 하지만 두뇌는 기억/연산 통합체계로 ‘von Neumann bottleneck’문제로부터 자유롭다.
자세한 내용은 본지 7월호에서 확인하실 수 있습니다.
기사를 사용하실 때는 아래 고유 링크 주소를 출처로 사용해주세요.
https://www.cerazine.net