디지털을 넘어 양자시대를 준비하는 양자컴퓨터

날짜2021.12.27
조회수13373
글자크기
  • 박성수 한국전자통신연구원 양자기술연구단장 sspark@etri.re.kr
  • 눈앞으로 다가온 데이터 폭증의 시대
    • 전세계는 디지털 전환을 준비하고 있다. 모든 비즈니스에 디지털 기술이 접목되고 새로운 생태계가 만들어지고 기존의 산업체계와 질서가 재편되고 있다는 것을 말한다. 이에 따라 매년 데이터 생산량이 폭증하고 있다. 인공지능의 도입, 전세계 인구의 휴대폰 소지, 자동차 수요 급증 등에 따라 하드웨어, 즉 메모리, CPU, GPU, MPU 등의 반도체 수요가 크게 증가하고 있다. 또한 컴퓨팅 파워 증대 요구도 계속 높아지고 있다. 이러한 전세계적인 기술 수요에 대처할 수 있는 방안에 대한 활발한 연구가 진행되고 있다.
    • 2018년 발행한 IDC의 전세계의 데이터 생산량 전망을 보면 지수함수적으로 급증하고 있으며 데이터 생산량은 2018년도에만 33ZB(1TB 하드디스크(HDD)에 저장한다면 330억 개 분량)라고 한다. 참고로 1ZB(제타바이트, Zetta Byte)는 10의 21승 바이트, 즉 1TB HDD 10억 개로, 7mm 두께의 2.5인치 HDD로 쌓으면 지구 둘레를 175바퀴 돌 수 있을 정도에 해당한다. 2025년이 되면 175ZB(HDD 1,750억 개)에 이를 것으로 내다봤다. 이렇게 폭증하고 있는 데이터들은 저장장치에서 장기간 저장되는 경우도 있겠지만 잠시 저장되는 경우도 많아서 저장장치가 그 정도로 많이 필요하지는 않지만, CPU는 이 모든 데이터를 처리해야 한다.
    • 2022년에는 약 80ZB 정도이지만, 3년 후에는 2배가 넘는 175ZB가 되면서 컴퓨팅 처리용량에도 많은 부담이 올 것이다. 또 3년 후에는 3~4배 정도로 증가하게 될것인데 이렇게 되면 데이터 처리를 위한 많은 비용 증가도 무시하지 못하겠지만, 기술적으로도 CPU의 처리능력에 엄청나게 큰 부담을 주게 될 것이다. CPU 구조에서도 코어, 쓰레드 수를 늘리는 등 개선을 하고 있으나 CPU의 성능을 결정짓는 반도체 기술의 발전은 한계에 직면한 상황이다. 폭발적 데이터 증가를 수용할 수 있는 초고성능 CPU 개발을 위해서는 더 많은 노력이 필요할 것으로 보인다.
    • 2021년 7월 인텔은 10nm 이하 미세공정에서 2nm 정도까지 내려갈 수 있음을 발표하였다. CPU 제작에 사용되는 반도체 기술로 현재는 10nm급 기술을 사용하고 있는데, 10nm→7nm→4nm→3nm→20A으로 작아지는 인텔의 미세공정로드맵에서 10nm에서 7nm로 내려갈 때 10~15% 정도의 성능향상을 기대하고 있다고 한다. 여기서 20A는 20Å(옹스트롱, 100억 분의 1m, 즉 0.1nm)를 의미하는 기호로 보이는데, 향후 2nm 이하는 1nm가 아니라 1.8nm, 1.6nm 등이 될 것임을 짐작할 수 있다. 반도체 칩은 실리콘 기판에 만드는데, 실리콘 기판은 원자가 일정한 간격으로 배열되어있는 결정구조를 가지고 있다. 즉, 실리콘 원자 간 간격은 0.543nm로 4개 실리콘 원자 간 간격은 약 1.63nm이다. 다시 말해, 2nm 이하에서의 반도체 공정이라는 것은 실리콘 원자 3~4개를 덜어내는 문제가 되고 실리콘 원자 간 간격인 0.543nm 이하에는 아무것도 없으므로 그 이하로는 불가능하다는 뜻이다. 물론, 연구실 차원에서는 원자 1개를 조작하는 수준의 실험도 얼마든지 가능하지만, 웨이퍼 전체가 아니라 아주 극히 일부분에 국한된 부분에 그치는 정도로서 대량생산을 위한 기술이 아니다. 그러나 지름 300mm 웨이퍼에 CPU칩을 수백 개씩 한꺼번에 대량 생산할 때는 이야기가 달라진다. 인텔, 삼성의 반도체 공정이 그렇다는 것이다.
  • 새로운 컴퓨팅 환경이 필요한 시대
    • 2020년 7월 MIT, IBM, 연세대, 브라질리아대 등은 이미지인식, 음성인식, 번역 등 다섯 가지 인공지능 응용에 대해 딥러닝이라는 신기술이 컴퓨팅 파워의 한계에 접근하고 있다는 내용으로 논문을 발표하였다. 딥러닝에 필요한 컴퓨팅 파워는 “(데이터 포인트의 개수)×(매개변수의 개수)”에 비례하는데 여기서 매개변수는 딥러닝일 경우, 약 100만 개 데이터 포인트일 때 수백만 개 이상으로 늘어나는 것으로 알려져 있다. 딥러닝은 다른 인공지능 방법보다 훨씬 더 많은 컴퓨팅 파워를 필요로 하고 있다. 인공지능 인식의 오류율을 줄이기 위해서도 많은 컴퓨팅 파워를 필요로 한다. ImageNet 영상인식의 경우 11.5%의 오류율을 5%로 줄이기 위해 10만 배 더 많은 컴퓨팅 파워가 필요하고 1%로 줄이려면 100조 배나 더 필요하다고 계산하였다.
    • 컴퓨팅 파워가 더 필요하다는 것은 더 많은 전력이 필요하다는 뜻이고, 많은 전력을 생산하기 위해서는 더 많은 환경오염을 만들어 낸다는 뜻이다. 이를 개선하기 위해 알고리즘 효율화와 저전력화 연구가 진행되고 있다. ImageNet 영상인식의 경우, 2015년 인간의 인식 오류율인 5.1%를 넘어섰다고 발표했다. 2010년 28%, 2012년 16.4%, 2011년 9.4%, 2015년 3.6%, 2017년 2.3%, 2020년 1.3%로 나아지고 있다. 그러나 연구개발 결과가 그렇다는 것일 뿐 실생활의 여러 가지 행태의 인공지능 인식에 적용될 때도 반드시 그럴 것으로 보기는 어려울 수 있다.
    • 영상인식 이야기를 더 해보면, 자율주행을 위해 영상 인식에 의존하고 있는 우버와 테슬라 자율주행 자동차가 2018년에 각기 사망사고를 냈다. 보행자 인식과 차선 인식의 오류로 인한 사고였다. 카메라 이외의 다른 센서도 같이 사용해야 안전하다는 의견이 높아졌음에도 테슬라는 영상인식 기술에만 전념하겠다고 발표하였고 도로 상황 영상데이터 확보를 위해서 전세계에서 운행 중인 테슬라 차량으로부터 1.5PB(Peta Byte, 1,000TB)의 영상정보를 수집하여 자사가 보유하고 있는 세계 5위급인 1.8EF(Exa FLOPS, 1초에 100경 번 소수점 계산이 가능), 10PB 메모리를 가진 슈퍼컴퓨터로 분석하여 자율주행 기술을 업데이트하는 데에 사용하고 있다고 2021년 6월 발표하였다. 즉 인공지능의 활용도가 높아짐에 따라 안정되고 신뢰할 수 있는 인공지능이 되기 위해서는 강력한 컴퓨팅 환경을 더욱 필요로 하게 된다.
    • 2차 세계대전 중인 1940년대부터 시작되어 1초에 3번 정도 정수의 덧셈을 하던 디지털컴퓨터는 약 80여년이 지난 지금, 비약적으로 성장했다. 2021년도 세계 1위 슈퍼컴퓨터인 일본 후카쿠의 계산능력은 1초에 약 40경 번 소수점 계산(442,010TFlop/s)을 할 수 있을 정도가 되었다. 단순히 비교해도 약 14경 배나 성능이 좋아졌다고 볼 수 있다. 슈퍼컴퓨터는 국가의 계산능력을 말하는 척도가 되므로 미국, 중국, 유럽은 자존심을 걸고 더 좋은 슈퍼컴퓨터를 개발하는 데에 막대한 자원을 투자하고 있다. 계산능력의 비약적인 증가와 함께 생긴 부작용도 있는데 바로 소비전력이다. 후카쿠의 소비전력은 약 30MW 정도인데 이는 서울 강남구 2018년 10월 한 달간 도소매업의 전기사용량인 21MW보다 높은 수치이다. 슈퍼컴퓨터는 여러 개의 프로세서(후카쿠 의 경우 프로세스 코어로써 760만여 개)가 병렬계산을 함으로써 계산속도 향상을 추구하고 있다. 따라서 냉각, 프로세스 간 인터페이스, 소프트웨어 안정성, 안정된 전력공급 등의 여러 가지 문제를 해결해야 한다. 그리고 필연적으로 대규모 컴퓨팅 시스템으로써 유지보수에도 많은 자원을 필요로 한다.
    • 따라서 현재의 디지털컴퓨팅을 더 발전시키기 위한 노력뿐만 아니라 전혀 새로운 컴퓨팅 방법을 찾아내는 연구도 진행되고 있는데 뉴로모픽컴퓨팅, DNA컴퓨팅, 멤브레인컴퓨팅, 오토마타, 확률컴퓨팅 등이 있다. 그중에서도 가장 오랫동안 연구가 진행되었고, 전세계 모든 국가에서 동시에 연구개발 경쟁을 벌이고 있어서 디지털 컴퓨팅을 보완하고 대체할 수도 있는 가능성을 가지고 있다고 생각되는 것이 바로 양자컴퓨팅이다.
  • 디지털에서 양자로
    • 디지털은 전압으로 구분할 경우 5V인 1과 0V인 0이 1개의 비트에 할당된다. 양자컴퓨터에서는 1인 양자상태(|1>)와 0인 양자상태(|0>)가 1개의 큐비트(Qubit, Quantum Bit)에 할당되는데 1개 큐비트에는 중첩이라는 양자적 성질에 의해 |1>과 |0>이 동시에 존재하게 된다. 이 경우 3개의 큐비트라면 |000>, |001>, |010>, |011>, |100>, |101>, |110>, |111>의 2³의 경우가 모두 중첩된 상태가 되어 다음과 같이 표현될 것이다. a1|000>+a2|001>+a3|010>+a4|011>+a5|100>+a6|101>+a7|110>+a8|111>. 모든 상태가 3개 큐비트에 저장 가능하다는 뜻이 되는 것이다. 여기서 a1, a2 등은 확률인데, 복소수로 표현되어 직관적으로 이해하기에는 약간 어려움이 있을 수 있다. 반면 디지털 비트라고 하면 위와 같은 경우에서 모든 상태를 표시하기 위해서는 “3개 비트×8개” 즉, 24개 비트가 필요하다. 여러 가지 비트 상태에 대해 3개 비트씩 계산해 본다면 디지털컴퓨터로는 3개 비트에 대해 8번을 계산해야 하지만 양자컴퓨터로는 3개 큐비트에 대해 한 번만 계산하면 모든 상태를 계산한 셈이 된다.
    • 이러한 계산방법을 ‘양자병렬계산(Quantum Parallelism)’이라 부르는데 양자컴퓨팅이 강력한 계산성능을 가진다고 말할 때 가장 많이 사용되는 예이다. 그러나 양자의 세상은 실생활과는 다른 복소수로 표현되는 세상이다. 양자계산된 결과를 알아보기 위해서는 측정이라는 과정을 거쳐 실수로 변환되어야 우리가 알아볼 수 있게 된다. 양자상태를 측정하는 방법에는 여러 가지가 있지만, 양자컴퓨팅에서는 일반적으로 On-Off 측정방식을 사용하게 되는데 1개 큐비트에 중첩된 |0>과 |1>의 2개 값이 있다면 1번 측정으로는 1개 값만을 얻을 수 있다. 0과 1이 얼마나 중첩되었는지 확률을 알고 싶으면 새로 계산하고 다시 측정하는 과정을 여러 번 반복해서 통계적으로 정리해야 한다.
    • 즉, 양자병렬계산은 한꺼번에 계산된 결과를 가지고 있지만, 실제 어떤 결과 값이 나오는지를 알아보려면 모든 경우에 대한 확률분포를 알기 위해 실제 디지털컴퓨터보다 더 많은 계산을 해야 하는 아이러니가 있다. 때문에 이러한 방법은 양자컴퓨팅에서 추천되지 않는다. 문제의 크기가 작은 경우에는 디지털컴퓨터로 계산하는 것이 훨씬 더 빠르므로 디지털컴퓨터로 계산하는 것이 답이다. 그러나 문제의 크기가 커지는 경우에는 적절한 양자알고리즘을 사용한 양자컴퓨터가 디지털컴퓨터에 비해 문제의 크기만큼 지수함수적으로 빨라지는 것을 이용할 수 있다. 그렇다고 해서 모든 양자알고리즘이 지수함수적으로 빨라지지는 않지만 산술적으로는 빨라질 수 있다.
    • 간단한 예를 들면 13×7이 얼마인지(91)는 금방 계산 가능할 것이다. 조금 더 어렵게 문제의 크기를 키워 937×947이 얼마인지(8,873,339)도 금방 계산할 수 있다. 그러면 91은 무슨 수의 곱인가 하는 문제는 어떨까? 프로그램과 알고리즘을 통해 별로 어렵지 않게 알아낼 수 있다. 그러나 8,873,339을 소인수분해하라고 한다면 91의 소인수분해보다 조금 늦어질 것이다. 문제의 크기를 더 키운다면? 1,000비트의 숫자라면 2의 1,000승, 즉 300자리 정수가 되는데, 이에 대해 소인수분해를 하라고 한다면 수십만 년이 걸려도 풀 수 없을정도로 어려운 문제가 된다. 이러한 경우는 문제의 크기에 따라 ‘기하급수적’으로 어려워지는 문제라고 한다. 그런데 양자컴퓨터를 사용하면 1초 만에도 가능할 수 있다고 알려져 있다. 이러한 기하급수적으로 어려지는 문제를 양자적 알고리즘에 의해 빠르게 풀 수 있다고 알려진 계산들은 소인수분해, 검색, 추천, 양자근사계산 등이다. 인공지능 분야에서 획기적으로 계산성능을 높일 수 있는 양자알고리즘과 양자RAM(랜덤어세스메모리)에 대해 연구 중에 있고, 최근에는 편미분방정식을 풀 수 있는 양자알고리즘에 대해서도 연구가 진행되고 있다. 따라서 슈퍼컴퓨터로도 며칠씩 걸리던 유체역학 해석이 수분 만에도 가능하게 된다면 자동차, 비행기, 선박, 미사일 등의 설계뿐만 아니라 바람에 날리는 머리카락 한 올 한 올, 옷의 하늘거림 등도 바로바로 계산해낼 수 있어 극사실감의 CG영상 제작도 가능해진다. 또한, 이 수식이 널리 쓰이는 분야로는 훼손된 영상의 복원, 비파괴검사, MRI 등의 영상처리, 경제학이나 금융분야의 데이터 분석 등으로 실생활에서 매우 폭 넓게 쓰이고 있어서 양자컴퓨터의 활용 영역은 상상하기 어려울 정도로 커질 수 있다.
  • 양자하드웨어도 계속 발전 중
    • 양자컴퓨터의 하드웨어나 전체 시스템도 계속 발전을 거듭하고 있다. 2012년 캐나다의 D-Wave는 초전도 소자로 만든 512큐비트의 양자컴퓨터를 출시한다고 발표하였다. 그 응용으로써 시스템 최적화, 기계학습, 패턴 인식과 이상패턴 탐지, 금융 분석, 소프트웨어/하드웨어 검증, 바이오인포매틱스, 암 연구 등에 사용 가능하다고 하였다. 그 당시 국내에서는 KAIST에서 NMR기술을 사용하여 4큐비트를 만들어 본다거나 ETRI에서 단일광자를 사용하여 양자암호통신을 실험실 수준에서 성공시킨 정도였다. 사실 그때까지는 양자컴퓨터에 어떤 것이 있고 어떻게 동작하는지에 대해 실제 연구자 이외에는 잘 알려져 있지 않은 상태라서 D-Wave 소식에 대한 국내외의 반향은 컸다. 2013년에 구글, NASA 등이 D-Wave 양자컴퓨터를 구매하였고, 구글은 기계학습과 인공지능의 알고리즘 성능 향상에 NASA는 외계탐사 시스템의 최적화 문제해결에 사용하기로 하였다고 한다. 양자컴퓨터에 대한 장밋빛 미래가 그려지는 듯했다. 사실 D-Wave 초전도 양자칩을 살펴보면 각 큐비트를 디지털로 제어하도록 디지털-아날로그 변환회로가 내 장되어 있는 등 정말 잘 만들어진 칩이어서 엔지니어링 입장에서 볼 때 상당한 기술력을 가진 것으로 보인다.
    • 그러나 2014년 초 미국 물리학회 발표장의 D-Wave 양자컴퓨터의 동작원리인 어닐링(annealing)에 대한 세션에서 IBM의 스몰린은 D-Wave는 양자컴퓨터가 아니라는 발표를 해서 모두를 깜짝 놀라게 하였다. 그 후 여러 가지 방법에 의해 양자적 속도 향상에 대한 검증이 이루어졌다.
    • D-Wave에 대한 의구심으로는 512개의 초전도큐비트는 IBM이 2016년도에나 발표하게 되는 5개의 초전도큐비트에 비해 100배나 월등히 앞서 있는가 하는 것이다. 또 최적화 문제를 잘 푼다고 하는데 교통흐름 처리, 물류처리, 신약/재료 탐색, 화학공정반응 최적화, 금융 포트폴리오 수립 등 현재의 디지털컴퓨터로 해결하기 까다로운 문제를 양자컴퓨터가 정말로 빠르게 해결해 준다는 것인가이다. 당시에는 이러한 문제들이 금방 해결될 것이라는 성급한 예상을 내는 보고가 국내외를 막론하고 많이 있었다. 현재까지 알려진 바에 의하면 D-Wave와 IBM의 큐비트는 서로 다른 방법으로 작동시키므로 초전도체를 사용하는 것은 맞지만 같은 선상에서 비교할 수는 없다는 것이다. 여러 가지 문제를 잘 풀 수 있는, 즉 실환경의 문제를 해결할 수 있을 정도의 큐비트 개수와 성능을 달성하기 위해 아직 많은 연구 중에 있고 이를 위해 어떤 하드웨어와 소프트웨어를 만들어 내야 하는지에 대해서도 진지하게 고민하고 노력하고 있다. 양자알고리즘을 설명할 때 아직도 논란이 없는 것은 아니지만 D-Wave 양자어닐러는 학자들과 일반인에게까지 양자 컴퓨터의 존재를 알리고 그 가능성에 대해 많은 기대와 관심을 불러일으키게 한 점에서 큰 공로로 인정된다.
    • 2016년 12월 뉴욕주 요크타운하이츠에 있는 IBM왓슨연구소를 방문하였다. 2016년 5월에 인터넷 접속을 통해 누구나 5큐비트 양자컴퓨터를 누구나 사용할 수 있도록 개방한 지 6개월 정도 된 시기였다. 실제 인터넷으로 서비스되고 있는 양자컴퓨터를 볼 수 있었다. 초전도 양자칩이 들어 있어서 20mK(약 –273.1℃) 정도의 극저온으로 냉각하는 흰 드럼통(희석식 극저온냉각기), 큐비트를 제어하고 판독하기 위한 전기신호를 발생시키고 측정하는 겹겹이 쌓인 전자장비, 이들 모두를 제어하는 컴퓨터가 있었다.
    • 5큐비트를 만든 이후 어떤 일들을 해야 하는지에 대해 설명도 들었다. 큐비트 개수를 수십 개 정도로 늘리고 큐비트의 에러정정 방법에 대한 연구를 더 해야 한다고 하였다. 이것은 양자컴퓨터를 사용하여 실제 문제를 해결할 수 있느냐 없느냐를 결정짓는 대단히 중요한 요소들이다. IBM은 2017년 4월 양자볼륨(Quantum Volume) 개념을 말했는데 큐비트 개수와 각 큐비트의 유효 에러율의 역수를 곱한 값이 크다면 성능이 더 좋다는 것을 의미한다고 밝혔다. 한마디로 성능 좋은 큐비트가 많이 있어야 한다는 것으로서 이는 양자컴퓨터의 성능지표로 볼 수 있다. 큐비트의 성능에 영향을 줄 수 있는 것으로서 온도, 자기, 전기 등 외부환경뿐만 아니라 큐비트의 배열에 따른 간섭 및 큐비트 연산종류에 따라 서로 성능에 영향을 미치게 된다. 즉 환경뿐만 아니라 큐비트 연산 방법이나 연산순서의 차이, 여러 개 큐비트에 대한 병렬처리 방법 등 큐비트 동작방법에 의해서도 에러가 생길 수 있기 때문에 양자볼륨은 큐비트 소자 자체의 성능뿐만 아니라 큐비트 동작 방법을 포함한 종합적인 평가방법이 될 수 있다.
    • 또한, 당시 IBM의 설명으로는 양자컴퓨팅 서비스 확장을 위해 여러 대의 양자컴퓨터가 들어설 실험공간을 공사 중이라고 밝혔다. 그로부터 4년 만에 2020년 기준, 18대의 양자컴퓨터를 갖고 대기업, 벤처기업, 대학 등 106개 기관, 23만 명의 등록사용자를 보유하여 양자컴퓨팅 기술을 알리고 양자컴퓨터를 접할 수 있는 기회를 제공하게 되었다. 2020년에는 53큐비트 양자칩을 발표한 데에 이어 2020년 9월에는 2023년까지 1,121큐비트를 개발하고 그 후 수백만 큐비트를 개발하겠다는 하드웨어 로드맵을 발표하였다. 칩 사이즈도 커질 것이고 1,000여 개의 모든 큐비트를 한꺼번에 동작시키기도 만만치 않을 것이다. 사람이 들어갈 수 있는 사이즈의 극저온냉각기, 1,000여 개를 동작시키기 위한 외부제어기기로부터 큐비트 칩까지 신호전달선을 모두 합치면 어른 2명이 팔로 다 감싸지 못하는 정도가 될 것이고 구리선이므로 무게 또한 감당하기 어려울 것이다.
    • 이를 위해서는 다중화를 통해 신호선 입출력 방법을 개선하고 플렉시블PCB를 사용하여 무게를 감소하고 칩에서는 적층에 의한 반도체패키징, 다층배선 등으로 칩의 집적도와 입출력을 개선하고 무엇보다도 반도체 공정개선을 통해 초전도 칩의 수율을 향상시키는 등 다양한 노력이 필요할 것이다. 2년 밖에 남지 않은 시간에 이러한 모든 일을 해내야 하는 것이다.
    • 위 내용을 자세히 들여다보면 큐비트를 어떻게 만들어야 하는지에 대한 내용은 거의 없고 칩 수율, 패키징, RF선연결방법, 극저온냉동기 등의 주변기술에 대한 내용이 더 많다. 그런데 IBM은 2023년에 1,121큐비트를 동작시키기 위한 소프트웨어에 대한 로드맵을 2021년 2월에 발표하기에 이른다. 현재는 Qiskit이라는 응용 알고리즘 개발을 위한 소프트웨어 모듈을 제공하여 Use Case별로 사용되고 있으나 최종적으로는 하드웨어 컨트롤과 알고리즘 자체를 라이브러리화하고 최적화, 기계학습, 계산과학, 금융 등 분야별 모델화된 개발 서비스를 제공하는 등 통합개발환경 제공 등을 제시하고 있다. 즉 일반 소프트웨어 개발자가 어렵지 않게 양자컴퓨팅을 활용하여 응용 소프트웨어를 만들 수 있게 된다는 것이다.
    • 한편 이온트랩양자컴퓨터도 개발 중인데 미국의 IonQ와 오스트리아의 AQT 등의 벤처기업이 20여 개 큐비트로 시제품을 만들었고 2개사 모두 인터넷으로 컴퓨팅 서비스 중에 있다. 반도체소자를 제작하는 공정기술을 그대로 사용하는 양자점큐비트도 개발 중인데 아직은 큐비트 성능과 개수를 높이는 데에 어려움이 있으나 향후에 수백, 수천만 개 집적도 가능할 것으로 예상하므로 미국 인텔이 집중하고 있다.
    • 2020년에는 수K에서도 동작하는 큐비트를 선보여서 외부로부터의 용이한 제어와 연구개발 속도가 상대적으로 빨라질 것이라는 희망을 보이고 있다. 극저온 냉각기로 20mK까지 내리려면 하루 이상이 걸리고 양자칩의 특성을 측정 후 교체를 위해 다시 상온까지 올리는데도 하루 이상 걸리기 때문에 일주일에 양자칩 1개를 측정할 수 있다는 뜻이다. 그렇다면 1년에 최대 50여개 칩을 측정할 수 있다는 뜻인데 웨이퍼 1장에 수십, 수백 개가 나온다면 웨이퍼 1장도 다 측정할 수 없다는 뜻이 된다.
  • 양자컴퓨팅 시스템의 발전 방향
    • 양자컴퓨팅 기술은 그야말로 현존하는 모든 과학기술의 집약체이다. 중첩, 얽힘 등 양자현상을 보이는 여러 가지 방법 중에 외부에서 제어 가능하고 수백만 큐비트까지도 확장 가능하며 에러도 매우 작고, 많은 연산스텝도 가능해야 한다. 때문에 기본적인 큐비트 설계기술과 이를 실현시킬 나노급 반도체 제조공정기술, 현존하는 모든 반도체패키징 기술 및 수백·수천 채널 이상 다중 고주파 저온측정 기술, 시간적·공간적으로 균일한 극저온냉각기술, 이온이나 원자를 제어하고 정보를 읽고 쓰기 위한 초정밀 레이저광학기술 등이 필요하다. 또한 컴퓨터로써 동작하기 위해서는 양자적 계산을 하기위한 수학적 알고리즘과 이들을 포함한 라이브러리 및 개발환경이 필요하고 인공지능, 최적화, 금융, 신약 탐색 등에 사용하기 위한 적절한 양자알고리즘 등의 소프트웨어뿐만 아니라 컨설팅까지도 필요하다. 인공지능을 처리하기 위해 컴퓨팅 파워를 클라우드로 서비스를 받는 것처럼 양자컴퓨터의 컴퓨팅 자원도 인터넷에서 제공하기 위한 효과적인 서비스 방법이 개발되어야 할 것이다.
    • 발전 속도에 대해 확실한 예상을 하기에는 아직 이른감이 있다. 양자컴퓨터 발전방향에서 달성해야 할 마일스톤 중 하나는 ‘슈퍼컴퓨터보다 빠르다’는 것을 증명하는 양자우월성 증명인데 2019년, 2021년에 세 가지 논문에 의해 달성되었음을 인정하고 있다. 2019년 7월 구글의 53큐비트 초전도양자컴퓨터를 사용한 무작위 양자회로 방법과 2020년 12월 중국과학기술대의 50개의 압착양자광원을 사용한 보존샘플링 방법과 2021년 6월 같은 중국과학기술대에서 56큐비트 초전도양자컴퓨터로 구글과 동일한 방법인 무작위 양자회로 방법으로 성공하였다고 발표하였다. 이것은 구글 입장에서도 환영하고 있는데, 자신의 방법을 모방했다는 것이 아니라 자신의 증명방법을 사용하여서 다른 연구자도 같은 결론을 도출할 수 있다는 것을 보여준 것이라고 생각하 고 있다.
    • 양자컴퓨터의 최종 목표는 결함허용 범용양자컴퓨터이다. 소인수분해, 자료검색, 추천, 행렬의 고유값 계산 등 일부 계산에서만 범용고전컴퓨터보다 월등히 빠르기 때문에 양자컴퓨터는 슈퍼컴퓨터 옆에서 어려운 계산의 일부를 해 주는 계산 도우미 같은 형태로 쓰이겠지만, 최종적으로는 슈퍼컴퓨터를 대체하고 모든 계산을 양자적으로 해내는 범용컴퓨터가 되는 날까지 계속 발전해 나갈 것이다. 이런 전망에 따라 IBM, 구글, 마이크로소프트, 인텔, 알리바바, 텐센트 등 기술선도기업뿐만아니라 미국, EU, 중국, 독일, 영국, 일본 등 각 정부에서도 연간 수천억 원 정도를 기술개발에 투자하고 있다. 향후 10년 정도면 소규모 또는 중간 규모 정도의 실제 문제를 풀 수 있는 소프트웨어 툴까지 갖춘 양자컴퓨터가 나올 것으로 전망해 본다.