Special 국가전략기술 양자소재 및 양자기술 개발 동향
양자오류정정과 결함허용 양자컴퓨팅 연구 동향
이승우_한국과학기술연구원 양자기술연구단 책임연구원
1. 서론
양자컴퓨팅(Quantum computing)은 양자역학의 성질을 이용하여 고전 컴퓨터보다 더 빠르고 정확한 연산을 할 수 있는 기술로 기대를 모으고 있다. 고전 컴퓨팅의 최소 연산 단위는 0과 1의 비트(bit)지만, 양자컴퓨팅은 0과 1의 양자상태가 중첩되어 있는 큐비트(Qubit)를 최소 단위로 연산을 수행한다. 양자컴퓨팅의 가능성이 처음 이론적으로 제안된 건 30여 년 전이지만, 실제로 큐비트를 구현해서 간단한 연산을 할 수 있게 된 건 비교적 최근의 일이다. 양자역학 성질이 아주 작은 미시의 세계에서만 나타나고 쉽게 사라지기 때문인데, 그만큼 큐비트를 안정적으로 유지하고 조작하는 건 상당히 어렵다. 다행히 지난 10년간 비약적으로 발전한 양자 실험 기술을 바탕으로, 이제는 수십에서 수백 개 규모의 큐비트를 만들고, 조작하고, 간단한 연산을 수행할 수 있는 단계에 와있다. 많은 나라에서 관련 기술에 집중적인 투자를 하고 있고, IBM과 Google, AWS(아마존) 등의 거대 IT기업이 양자컴퓨터 개발을 이끌고 있다. 양자 소프트웨어와 알고리즘 연구 개발도 활발하며, 많은 스타트업이 관련 응용 기술을 개발하고 있다. 양자컴퓨터가 기존 컴퓨터가 풀지 못하는 문제들을 빠르고 정확하게 풀 수 있으며, 천문학적인 액수의 경제적 가치가 있다는 전망도 나온다. 이런 양자컴퓨터의 가능성에 대한 이야기는 이제 여러 매체의 뉴스와 영상, 보고서나 기사에서 쉽게 찾아볼 수 있다.
하지만 본 원고에서는 조금 다른 이야기를 하려고 한다. 양자컴퓨팅 기술의 상황을 조금 냉정하고 짚어보고 이 분야가 해결해야 할 과제를 이야기하고자 한다. 쉽게 말해서 기대만큼의 양자컴퓨터를 만드는 일이 얼마나 어려운지 설명하고자 한다. 그 원인은 바로 ‘오류’이다. 앞서 언급했듯이 큐비트에 입력된 정보는 근본적으로 외부 환경과 조작의 영향을 쉽게 받는다. 아무리 특수한 환경에서 정교한 조작을 하더라도, 큐비트 하나에서 발생한 오류는 여러 큐비트로 전파되고 누적된다. 결국 연산 규모와 양자컴퓨팅 시스템의 크기가 커지면 오류 영향이 지수적으로 증가하여 어떤 유용한 알고리즘도 수행이 불가능하다. 사실 이런 오류는 양자역학의 근본 성질에 기인하기 때문에, 양자컴퓨팅의 가능성을 처음 탐구하던 수십 년 전부터 잘 알려진 문제였다. 한동안 이 문제는 주로 이론적으로만 다루어졌으나, 최근에는 양자컴퓨팅 분야의 가장 중요하고 시급한 해결 과제로 떠올랐다. 양자컴퓨팅의 개념을 증명하는 단계를 지나 이제 실제 적용 가능한 쓸모있는 문제를 찾는 일이 중요해졌기 때문이며, 실용적인 문제의 적용을 위해서는 오류 문제가 해결된 대규모 양자컴퓨팅 시스템이 필요하기 때문이다.
전 세계 주요 양자컴퓨팅 기업과 연구팀의 동향에서도 그 사실이 잘 드러난다. 2024년 10월에 발표된 영국의 Riverlane사의 리포트에 따르면[1], 양자컴퓨팅 개발을 이끄는 전 세계 29개 기업 대다수가 현재 양자 오류정정 기술 중심 개발 전략을 수립했으며, 단 10%의 기업만이 아직 오류정정이 없는 방식의 기존 방향성을 유지하고 있었다.
본 원고에서는 중요한 도전 과제로 떠오른 양자컴퓨팅의 오류 문제를 설명하고, 이를 궁극적으로 해결하는 양자오류정정 기술과 양자컴퓨팅 개발 최종 목표인 결함허용 양자컴퓨팅을 소개하고자 한다. 그리고 각 물리 플랫폼별 오류정정 관련 해외 연구 개발 동향과, 최근 국내에서 발표된 양자오류정정 관련 연구도 소개한다.
그림 6. 이산 변수(DV)와 연속 변수(CV)의 하이브리드 방식의 오류정정 기법을 이용한 측정 기반(measurement-based) 양자컴퓨팅 RHG lattice 구조.
2. 양자컴퓨팅의 오류 문제
양자컴퓨팅은 0과 1상태의 양자 중첩으로 정의된 큐비트의 논리 공간에서 연산을 수행한다. 그 상태는 α|0>+β|1>처럼 표현된다 (그림1). 여기에서 α와 β는 |α|2+|β|2=1을 만족하는 복소수다. 오류 발생의 주요 원인은 큐비트의 외부와의 상호작용, 불완전한 큐비트 및 양자 자원의 생성, 조작과 측정에서 발생하는 오류 등이 있다. 양자컴퓨팅에서 발생하는 오류는 고전컴퓨팅에서 발생하는 오류와 근본적으로 성질이 다르다.
우선, 고전컴퓨팅의 오류는 0과 1이 뒤집히는 오류뿐이지만, 양자컴퓨팅에서는 α|0>+β|1> → α|1>+β|0>처럼 0과 1 상태가 뒤집히는 X 오류와 α|0>+β|1> → α|0>-β|1>처럼 중첩의 부호가 바뀌는 Z 오류가 발생한다. 또, 고전컴퓨팅의 정보는 언제든 복제가 가능하여 오류 발생을 확인하는 데 쓰일 수 있지만, 양자컴퓨팅에서는 임의의 큐비트 정보를 복제하는 것이 근본적으로 불가능하다. 이를 복제 불가의 법칙(no-cloning theorem)[2]이라고 한다. 또, 고전컴퓨팅의 측정은 단순히 입력된 정보를 읽어내는 행위지만, 양자컴퓨팅에서 큐비트에 입력된 정보를 측정하면 그 상태가 붕괴된다. 상태가 붕괴되어 정보가 사라진 큐비트는 더 이상 연산에 활용할 수 없다. 따라서 실시간으로 반복해서 오류를 확인하고 정정하기 위해서는 큐비트에 입력된 정보의 획득 없이 오류 발생 여부만을 탐지할 수 있어야 한다.
큐비트 수가 수십에서 수백 개 규모로 늘었지만 양자오류정정이 수행되지 않는 양자컴퓨팅의 단계를 NISQ(Noisy Intermediate-Scale Quantum)라고 한다. 발생하는 오류를 감수하고 양자오류완화(Quantum error mitigation)와 억제(suppression) 기술을 활용하여 양자컴퓨팅의 유용성을 찾으려는 단계다. 큐비트의 오류를 억제하고 완화하는 방법은 다양하다. 큐비트의 기저를 오류에 강한 물리계의 상태로 정의하고 구현할 수도 있으며, 큐비트에 주기적인 조작을 가하여 환경의 상호작용을 방해하고 오류 발생을 줄일 수도 있다. 어떤 관측량의 기댓값을 구하는 연산에서는 결과 측정 이후에 데이터의 후처리로 오류 효과를 줄일 수 있다. 예를 들어, 오류의 크기가 다를 때의 기댓값을 비교하여 오류가 없을 때의 기댓값을 유추하는 zero-noise extrapolation[3], 게이트의 확률적인 조작으로 기댓값의 오류 효과를 상쇄시키는 probabilistic cancellation[3] 등이 있다. 양자오류완화 기술은 양자정보 실험에서 널리 활용되고 있다. 큐비트 한 개부터 수십 개 이상의 큐비트에도 적용이 가능하며 활용성이 높다. 하지만 그 한계도 명확하다. 특정 오류에만 잘 동작한다거나, 오류의 종류를 사전에 파악해야 하는 등의 제약 조건이 있어서 연산 규모가 커지면 활용이 어렵고 효과도 줄어든다.
또한 양자컴퓨팅의 오류는 쉽게 전파되고 증폭된다. 예를 들어, 연산 과정에서 한 큐비트의 오류가 다른 복수의 큐비트로 빠르게 전파된다. 연산에 참여하는 큐비트의 수가 많아지면 오류가 발생할 확률도 늘어난다. 즉, 단순히 연산에 쓰이는 큐비트 수가 많아진다고 양자컴퓨팅의 성능이 좋아지는 것은 아니며, 큐비트 하나에서 발생하는 오류를 아무리 줄이더라도 연산에 쓰이는 큐비트 수와 필요한 조작이 많아질수록 오류가 전파되고 누적된다. 결국 큐비트의 수가 아무리 많더라도 어떤 양자 알고리즘도 성공적으로 수행하기 어렵게 된다.
그림 1. 임의의 큐비트에 입력된 정보는 Bloch Sphere 표면의 한 점을 나타낸다. 발생한 오류는 X와 Z 오류로 분해된다.
-----이하 생략
<본 사이트에는 일부 내용이 생략되었습니다. 자세한 내용은 세라믹코리아 2024년 12월호를 참조바랍니다. 정기구독하시면 지난호보기에서 PDF 전체를 열람하실 수 있습니다.>
기사를 사용하실 때는 아래 고유 링크 주소를 출처로 사용해주세요.
https://www.cerazine.net