ISSUE REPORT l 2025.07.21. IS-204
 
양자컴퓨팅과 AI 융합 
발전 가능성과 시사점
Convergence of quantum computing and AI: Potential advances and implications
김지민
이 보고서는 「과학기술정보통신부 정보통신진흥기금」에서 지원받아 제작한 것으로 
과학기술정보통신부의 공식의견과 다를 수 있습니다.
이 보고서의 내용은 연구진의 개인 견해이며, 보고서와 관련한 의문 사항 또는 수정·보완할 필요가 
있는 경우에는 아래 연락처로 연락해 주시기 바랍니다.
소프트웨어정책연구소 AI정책연구실
김지민 선임연구원 (jmkim@spri.kr)
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
  CONTENT
    
Ⅰ. 논의 배경 
P.1
Ⅱ. 양자컴퓨팅의 기본 이해 
P.3
Ⅲ. 양자컴퓨팅과 AI 융합 
P.7
 1. AI를 활용한 양자컴퓨팅 기술 개발 
P.7
 2. 양자컴퓨터를 활용한 AI 기술 개발 
P.20
Ⅳ. 양자컴퓨팅+AI의 한계와 과제 
P.28
Ⅴ. 요약 및 시사점 
P.31
 1. 주요 내용 요약 
P.31
 2. 시사점 및 정책 제언 
P.34
참고문헌 
P.36
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
요 약 문
인간이 개발하는 기술은 자연의 작동 방식과 매우 닮아있어, 자연으로부터 아이디어를 
얻고 모방하며 기술 개발이 시작된다고 해도 과언이 아니다. 현재 AI 기술의 기반이 되는 
신경망 역시 인간의 뇌 구조와 작동 방식에 대한 모방으로부터 시작되었다.
양자역학은 분명히 자연이 근본적으로 작동하는 방식이지만, 우리가 경험하는 일상의 
현상과 다른 방식으로 기술된다. 인간이 실제로 보고 느끼는 것으로부터 생겨나는 일상적 
직관과 감각적 경험과는 사뭇 이질적이기 때문에, 일반적인 대중에게 양자는 항상 어렵고 
난해하게만 느껴지는 ‘과학’의 영역에만 머물러 있었다.
그러나 최근 양자컴퓨터를 개발하는 글로벌 기업 및 스타트업들이 보여준 놀라운 기술
적 성과는 더 이상 양자를 ‘과학’의 영역이 아닌 ‘실용적인 기술’의 영역으로 끌어들이는 
데 충분하다고 평가되고 있다. 양자컴퓨터의 개발은 미시적 세계, 즉 양자의 세계를 완전
히 이해하지 못해도 기술로서의 활용이 가능하다는 놀라운 증명이기도 하다. 우리가 사용
하는 고전 컴퓨터의 트랜지스터 회로가 어떻게 동작하는지 모르더라도 수많은 사람들이 
컴퓨터를 잘 활용할 수 있는 것처럼, 이제 양자역학을 이해하지 못해도 차세대 컴퓨팅이
자 복잡한 연산을 위한 자원으로 양자컴퓨터를 활용할 수 있는 단계에 접어들고 있는 것
으로 보인다.
현재 인류는 이미 놀라운 컴퓨팅 자원과 기술을 개발하여 활용하고 있다. AI 기술은 다
양한 영역에서 활용되고 있는데, 양자컴퓨터의 개발에서도 마찬가지다. 기술적 어려움이 
많은 양자컴퓨팅 개발에서 AI의 활용은 여러 가시적인 성과를 거두고 있는데, 이러한 성
과는 이제 곧 인류가 양자컴퓨터를 실용적으로 활용할 수 있는 수준에 도달할 것이라는 
큰 기대를 불러일으키고 있다. AI는 양자의 세계를 더 잘 이해하고 기술을 개발할 수 있
도록 ‘과학’과 ‘실용적인 기술’의 영역을 넘나들며 연구자들에게 도움을 주고 있는 셈이다.
한층 더 흥미로운 점은 AI 기술로 인해 양자컴퓨터 개발이 의미있는 진전을 보이면서, 
양자컴퓨터가 실용적인 컴퓨팅 자원으로 실현되었을 때 AI 개발에는 어떤 이점을 제공할 
수 있을지에 대한 관심도 증가하고 있다. 현재 AI 기술은 고차원 데이터의 처리와 수많은 
학습이 필요한 구조로 연산자원에 대한 수요가 급증한 상황이다. 양자컴퓨터는 고전 컴퓨
터 대비 특정 연산에서 기하급수적인 연산우위를 가짐으로써, 인류가 AI를 활용해 풀고자 
하는 여러 문제에 대해 도움을 줄 수 있을 것으로 기대된다.
그러나 양자컴퓨터와 AI의 상호보완적 발전에는 여전히 풀어야 할 기술적 문제와 한계
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
점이 존재한다. 실제 개발되어 활용할 수 있는 양자컴퓨터 하드웨어가 한정적인 상황에
서, 아직은 시뮬레이션이나 가능성 탐색 수준에 머물러 있는 영역도 존재하는 것으로 보
인다.
그럼에도 불구하고 지금 양자컴퓨터와 AI의 융합은 인류에게 차세대 신기술의 영감을 
불러일으키는 것은 분명한 것으로 보인다. 이미 AI 선진국들은 양자 기술에서도 주도권을 
확보하기 위해 기술 개발 지원 및 기술 유출 방지 정책을 동시에 시행하고 있다. 우리나
라에서도 양자컴퓨팅과 AI 융합기술에 대한 적극적인 지원 정책이 필요한 시점이다.
본 보고서는 ‘AI를 활용한 양자컴퓨팅 기술 개발(AI for Quantum)’과 ‘양자컴퓨터를 활
용한 AI 기술 개발(Quantum for AI)’로 나누어, 현재 기술 융합 상황과 앞으로의 기술 
개발이 나아가고자 하는 방향성을 살펴보고자 하였다. 실제적인 융합 성과를 내는 AI의 
양자컴퓨팅 기술 개발 활용 사례와 양자컴퓨터가 AI 개발에 활용될 가능성을 함께 살펴
봄으로써, 양자컴퓨터와 AI 융합에서의 주요 내용을 짚어보고 정책적 시사점을 제언하고
자 한다.
양자컴퓨터와 AI 융합기술은 아직 연구개발 초기 단계지만 기술 파급력이 높을 것으로 
예상되며, 따라서 국가적 차원에서의 R&D 지원이 필요할 것으로 보인다. 또한 양자컴퓨
팅 산업과 AI 산업에서는 스타트업들이 혁신적인 기술 개발을 선도하고 있기 때문에, 국
내 기업들도 시장 조기 선점에 나설 수 있도록 관련 산업 기반을 조성해 주는 것이 매우 
중요할 것이다. 더불어 다양한 학문이 융합된 양자컴퓨팅과 AI 분야에서, 융합 인재 양성 
및 확보 정책이 필요할 것으로 보인다. 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
Executive Summary 
The technologies that humans develop closely resemble the way nature works, and 
it's no exaggeration to say that technology development begins by borrowing ideas 
from nature and imitating it. Current AI technology is based on neural networks, 
which were originally designed to mimic the structure and function of the human brain.
Quantum mechanics is clearly a fundamental aspect of how nature works, but it is 
described in a manner that differs from the everyday phenomena we experience. 
Because it is so different from our everyday intuitions and sensory experiences 
based on what we see and feel, quantum mechanics has always remained in the 
realm of 'science' for the general public, seeming difficult and esoteric.
However, recent technological breakthroughs by global companies and startups 
developing quantum computers are considered to be enough to bring quantum 
computing out of the realm of science and into the realm of "practical technology". 
The development of quantum computers is a remarkable demonstration that, while we 
don't need to fully understand the microscopic world of quanta, we can still utilise 
them as a technology. Just as many people can use computers without knowing how 
they work, we appear to be entering a phase where quantum computers can be used 
as the next generation of computing and a resource for complex computations 
without understanding quantum mechanics.
Humanity has already developed and utilised incredible computing resources and 
technologies. AI technology is being used in many areas, including the development 
of quantum computers. The use of AI in the development of quantum computing, 
which is technically challenging, has yielded a number of tangible results, raising high 
hopes that humanity will soon reach a point where quantum computers can be put to 
practical use. AI is helping researchers to better understand the quantum world and 
develop technologies that can be used in the realm of science and practical 
technology.
More interestingly, as AI technology has led to meaningful progress in the 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
development of quantum computers, there is also growing interest in how quantum 
computers could benefit AI development when they are realized as practical 
computing resources. Current AI technologies require high-dimensional data 
processing and a lot of training, which puts a huge demand on computational 
resources. Quantum computers are expected to offer exponential computational 
advantages over classical computers for certain types of computation, which could 
enable humans to solve many of the problems that are currently being solved by AI.
However, there are still technical challenges and limitations in the complementary 
development of quantum computers and AI. Due to the limited availability of quantum 
computer hardware for development and utilisation, some areas remain in the realm 
of simulation or exploration.
Nevertheless, it is clear that the convergence of quantum computers and AI will 
inspire a new generation of technologies for humanity. Countries at the forefront of 
AI have already recognised quantum technology as a strategic national asset and are 
implementing policies to support its development and prevent leakage. The time has 
come for Korea to actively support the convergence of quantum computing and AI.
The report is split into two sections, "AI for Quantum" and "Quantum for AI," to 
examine the current state of technology convergence and the future direction of 
technology development. We will highlight key issues in the convergence of quantum 
computers and AI, as well as suggest policy implications, by examining examples of 
AI's use of quantum computing technology development to achieve practical 
convergence, as well as the potential for quantum computers to be used in AI 
development.
Although the convergence of quantum computers and AI is still in the early stages 
of research and development, it is expected to have a significant technological 
impact. Therefore, it is crucial to support R&D at a national level. In addition, since 
startups are leading the development of innovative technologies in the quantum 
computing and AI industries, it will be very important to create a relevant industrial 
base so that domestic companies can take an early lead in the market. Furthermore, 
given the convergence of various disciplines in the fields of quantum computing and 
AI, there is a need for policies to encourage and protect convergence talents.
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
1
1)
 ‘AI for Quantum and Quantum for AI’는 양자컴퓨팅과 AI의 상호보완적인 관계를 표현하는 문구로, 2013년 
Google Quantum AI Lab의 설립으로 점차 사용되기 시작하여 현재 두 기술의 융합을 표현하는 용어로 사용
I. 논의 배경
최근 양자(量子)컴퓨터* 기술의 발전으로 차세대 컴퓨팅 자원에 대한 
기대감이 고조, 양자컴퓨터와 AI의 융합 가능성에 대한 논의도 증가
*
양자 원리를 기반으로 계산을 수행하는 양자 튜링 기계
그동안 양자컴퓨터는 하드웨어 구현의 어려움으로 인해, 전문가들 
사이에서 실용적인 양자컴퓨터의 개발 가능성에 대한 다양한 견해가 존재
그러나, 주요 기업에서 하드웨어 개발에 진전을 보이는 연구 결과를 
발표, 더 나아가 실용성 있는 차세대 컴퓨터로서의 확장성을 시연
Google Quantum AI는 시카모어(Sycamore, 53큐비트, ‘19.10), 
윌로우(Willow, 105큐비트, ‘24.12) 큐비트 칩을 발표
IBM은 세계 최초로 1,121큐비트 칩 콘도르(Condor, ‘23.12) 발표
캐나다 스타트업 D-Wave는 5,000큐비트 양자 어닐링* 방식의 연산 
기계를 개발
*
IBM, Google Quantum AI 등이 개발하고 있는 범용 양자컴퓨터와는 달리, 조합 
최적화와 같은 특정 문제 해결만 가능한 연산 기계
양자컴퓨터의 고유한 특성과 연산적 이점을 기반으로, 고전 컴퓨팅 
방식으로 한계에 부딪혔던 복잡한 AI 모델 개발에 대한 가능성이 대두
양자컴퓨터는 고전 컴퓨터 대비 소인수분해, 최적화 문제 등 특정 
연산에서 기하급수적인 연산우위를 가져, 최근 대두되는 AI 연산자원의 
한계에 대한 대안으로 부상
또한 기존 AI 기술이 다양한 산업에서 활용됨에 따라, 양자컴퓨터 
개발에서도 AI 기술이 활발히 사용 추세
양자컴퓨팅과 AI의 융합은 (1)‘AI for Quantum’, (2)‘Quantum for AI’로 
구분되며 양방향의 상호보완적 발전이 기대(Zhu, Y., & Yu, K., 2023)1)
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
2
‘AI for Quantum’은 AI 기술을 양자컴퓨터 및 양자 알고리즘 개발에 
활용하는 것을 의미
‘Quantum for AI’는 양자컴퓨터를 활용하여 AI의 개발, 머신러닝 및 
신경망 학습을 가속하는 것을 의미
양자컴퓨터의 개발은 양자 데이터 활용을 가능하게 함으로써, 인류에게 
더욱 유용한 AI를 개발하는데 기여 가능할 것으로 전망
양자 데이터는 미시적 세계의 양자 상태까지 표현하는 정보로, 고전 
데이터 형식으로는 구현하기 어려운 양자역학적 고유 성질을 
효과적으로 표현 가능
특히 현대 AI가 풀고자 하는 화학, 물리, 재료 분야의 문제는 미시적 
양자 상태의 정밀한 모델링과 해석 능력이 필요
양자 데이터는 양자컴퓨터가 없이는 표현하거나 다루기 어렵기 때문에, 
양자컴퓨터 하드웨어의 진보는 AI 발전에도 중대한 기회가 될 전망
양자컴퓨터 하드웨어 개발에는 기술적 어려움이 여전히 존재하며, 
실용적으로 활용할 수 있는 하드웨어의 개발이 선행되어야 구체적인 
양자 인공지능의 이점을 가져올 수 있을 것으로 전망
지금은 기존의 AI 기술을 잘 활용하여, 양자컴퓨터의 실용성을 앞당길 
수 있도록 연구개발에 활용하는 단계로 보는 것이 현실적
본 보고서는 양자컴퓨터가 가진 가능성과 기술 개발의 한계를 고려하여, 
양자컴퓨터와 AI 융합기술의 실현 가능성과 발전 방향을 살펴보고 
양자컴퓨팅+AI 융합 시대에 대한 정책적 시사점을 제언
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
3
Ⅱ. 양자컴퓨팅의 기본 이해
양자컴퓨터는 양자적 특성*을 가진 입자**를 활용해 계산을 수행하는 
양자 튜링 기계로, 특정 연산에서 고전 컴퓨터보다 매우 빠른 계산이 가능
*
 중첩, 얽힘 등, ** 전자(쿠퍼쌍), 이온, 중성원자, 광자 등
양자컴퓨터는 양자적 특성인 ‘중첩’을 활용하여, 0과 1이 동시에 
존재하는 확률적인 상태인 큐비트(Qbit)로 정보를 표현하고 처리
고전 컴퓨터는 0과 1의 이진(Binary) 비트(Bit) 방식으로 정보 처리
고전 컴퓨터의 비트가 ON(1) 또는 OFF(0)의 이산적인 상태만 갖는 
‘스위치(Switch)’라고 한다면, 큐비트는 0부터 1까지 연속적인 상태를 
가질 수 있는 ‘다이얼(Dial)’에 비유
단일 큐비트의 양자 상태는 블로흐 구(Bloch Sphere) 위의 벡터로 
표현, 고전 데이터가 2D, 3D 좌표 평면상의 점(벡터)로 표현되는 것과 
유사
0과 1이 동시에 존재하는 양자 중첩 상태를 구의 위도로, 양자 
위상을 경도로 표현 가능
양자 게이트 연산을 블로흐 구상의 벡터 회전으로 직관적 시각화 
가능
※ 자료: 이종완(2023)
[그림 1] 블로흐 구(Bloch Sphere): 단일 큐비트의 양자 상태 표현
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
4
큐비트는 물리(Physical) 큐비트와 논리(Logical) 큐비트로 구분
(물리 큐비트) 양자적 특성을 가진 입자를 활용해 양자 상태를 
표현하는 기본 단위
(논리 큐비트) 실질적인 연산에 활용할 수 있는 물리 큐비트의 
조합으로, 물리 큐비트와 보조 큐비트로 구성되어 오류 발생률을 
낮춤으로써 안정적인 양자 연산 가능
양자컴퓨터를 개발하는 데 사용되는 입자로는 초전도체, 이온트랩, 
중성원자, 광자 등이 있으며, 하드웨어 플랫폼별로 구현 방식이 상이
(초전도체) 현재 가장 많이 사용되는 구현 방식, 극저온 냉각장치 
내부에 큐비트 칩*을 배치하여 초저온 환경에서 양자 상태를 
안정적으로 조작
*
반도체 칩 형태의 큐비트 칩은 초전도체 방식에서만 사용, 그 외 방식은 칩 위의 
회로가 아닌 각기 다른 물리적 장치 형태의 플랫폼
美 IBM, 美 Google Quantum AI, 美 Rigetti Computing 등이 
초전도체 방식으로 개발
(이온트랩) 이온트랩 방식은 전기장에 떠 있는 이온을 레이저로 
제어하는 방식
美 IonQ, 美 Quantinuum 등이 이온트랩 방식으로 개발
(중성원자) 중성원자는 레이저로 중성원자를 배열하여 큐비트를 구현
프랑스 Pasqal, 美 QuEra Computing 등이 중성원자 방식으로 개발
(광자) 광자 방식은 광자의 편광, 위상 등을 이용하여 큐비트를 구현
캐나다 Xanadu, 美 PsiQuantum 등이 광자 방식으로 개발
플랫폼별 기술적 장점과 한계가 뚜렷이 달라 대규모 큐비트를 가진 
오류 내성 양자컴퓨터(FTQC)의 최종 구현 방식은 미정, 병렬적인 
연구개발이 진행 중
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
5
양자컴퓨터는 노이즈 섞인 하드웨어에서 오류 제어 없이 계산을 
수행하는 NISQ(Noisy Intermediate-Scale Quantum)*와 하드웨어 
노이즈를 제어하며 계산을 수행할 수 있는 FTQC(Fault-Tolerant 
Quantum Computer)로 구분(Preskill, J., 1998; 2018)
*
노이즈 제어가 불완전하여 오류가 있으나, 큐비트 개수 기반의 규모는 상당한 
정도의 2020년대 양자 기술 전반을 일컫는 명칭. 이론물리학 석학이자 양자컴퓨터 
최고 전문가 중 한 명인 존 프레스킬(John Phillip Preskill) 美 캘리포니아 공과대학 
교수가 Q2B학회에서 최초로 제안한 개념
(구분 기준) NISQ와 FTQC의 핵심적인 구분 기준은 ‘오류에 대한 
제어 역량’이며, NISQ를 거쳐 FTQC로 발전
(NiSQ) ‘노이즈를 포함하는 중간 규모의 양자컴퓨터’를 의미하며, 
수십에서 수천 개 물리 큐비트 개수의 규모로 회로 깊이*가 얕으며 
일반적으로 입력 큐비트 개수에 비의존적인 것이 특징
*
‘회로 깊이’는 양자 회로에서 게이트 연산이 순차적으로 적용될 때, 가장 긴 연산 
레이어(layer) 수를 의미. 하나의 레이어에는 여러 양자 게이트가 동시에 적용될 수 
있으며, 회로 깊이가 길어질수록 더 많은 연산을 수행할 수 있으나 양자 상태를 
오래 유지해야 하므로 오류율이 증가
(FTQC) 오류정정 기술 혹은 이와 호환되는 기술이 실현되어 오류에 
대한 완전한 제어를 구현하고 활용할 수 있는 양자컴퓨터
FTQC의 등장은 실용적인 수준의 응용이 가능한 ‘범용 양자컴퓨터*’의 
등장을 의미하며, FTQC에서는 양자 소인수분해 알고리즘 등을 구현할 
수 있을 것으로 예상(황용수 외, 2022)
*
양자 논리를 기반으로 양자 상태를 원하는 방식으로 변환하는 것이 양자컴퓨팅의 
핵심이며, 이러한 임의의 양자 상태 변환을 구현할 수 있는 역량을 범용 
양자컴퓨팅으로 명칭
따라서 FTQC에서는 극대화된 양자컴퓨팅의 역량과 AI 융합 방안도 
고도화될 것으로 예상
양자컴퓨팅의 양자 원리와 AI의 융합 과정은 양자컴퓨팅 발전 
전반에도 영향을 끼칠 것으로 전망
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
6
※ 자료 : Ezratty, O. (2023), 번역
[그림 2] NISQ와 FTQC에서의 응용 및 논리 큐비트 연산 오류율
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
7
2)
 본 장에서 제시된 AI를 활용한 양자컴퓨터 기술 개발 분야는 Alexeev, Y., et al.(2024)의 연구에서 제시된 
구분을 바탕으로 재구성한 것이며, 각 분야에서 AI를 활용한 구체적인 연구 사례를 추가로 다루었음.
Ⅲ. 양자컴퓨팅과 AI 융합
1. AI를 활용한 양자컴퓨팅 기술 개발2)
양자컴퓨팅 관련 기술 개발에 AI를 활용하여, 기존 양자컴퓨터 
하드웨어 및 소프트웨어 개발의 기술적 어려움을 보완 또는 개선 
더 나아가, 범용 양자컴퓨터의 개발을 포함한 전반적인 양자컴퓨팅 
발전 과정에서 AI와의 융합은 중요한 역할을 할 것으로 기대
※ 자료: Alexeev, Y., et al. (2024), 번역 및 재구성
[그림 3] 양자컴퓨터 스택(Stack)에서의 AI 활용 이점
(하드웨어) 현재 양자컴퓨터 하드웨어는 노이즈를 포함하고 있으며, 
이를 개선 및 해결하기 위한 AI 기술의 융합 노력이 시도 중
(양자 시스템 특성화) AI 기술을 활용하여 양자 시스템을 파악 및 
분석하고, 양자컴퓨터 설계 및 최적화에 활용
미시 세계를 설명하는 양자이론에 따르면, 다체(Many-body)* 
양자계를 기술하는 데 필요한 변수는 계를 구성하는 입자의 수에 
따라 기하급수적으로 증가해 고전 컴퓨팅으로는 사실상 시뮬레이션 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
8
불가능
*
다체(Many-body)란, 여러(多) 개의 입자(體)가 모여 구성된다는 의미
양자 시스템의 특성화가 정밀할수록 양자컴퓨터 개발이 용이하므로, 
AI 모델의 강점인 특징추출과 학습을 통해 복잡한 양자 시스템을 
파악하는데 기여 가능
AI는 양자 시스템의 주요 특성을 추출하고, 입자 간 상호작용이 
양자 시스템에 미치는 영향을 분석하는 데 활용 가능
(플랫폼 설계) 양자컴퓨터의 기본 연산 단위인 큐비트를 구현하는 
방식에는 초전도체, 이온트랩, 중성원자, 광자 등이 있으며, 이러한 
여러 방식의 양자컴퓨터 하드웨어 플랫폼 설계에 AI를 활용
플랫폼에 따라 서로 다른 구현 방식과 제어가 필요하므로, AI를 
활용하여 각 플랫폼의 특성을 분석하여 큐비트의 설계와 구성을 
도출
AI 기반 알고리즘을 활용해 4큐비트 간 4-체(body) 상호작용을 
유도하는 초전도 회로의 자동설계를 시연(Menke, T. et al., 2021)
아래 4큐비트 초전도체 양자컴퓨터 회로는 색상별로 각각 하나의 
큐비트를 나타내며, 서로 정보를 상호작용하도록 구성
※ 자료: * Menke, T. et al. (2021)
[그림 4] AI 자동설계 4큐비트 초전도 회로 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
9
(장치 제어) 큐비트는 물리적인 외부 환경에 매우 민감하여, 큐비트를 
정확히 조작하고 연산을 수행하기 위해서 AI를 활용
큐비트를 연산에 활용하기 위해 상태를 변화시키거나, 두 큐비트의 
얽힘을 구현해 내기 위해서는 정확한 제어 신호가 필요
AI 모델로 큐비트 간 상호작용을 학습하여 큐비트 제어 신호를 
최적화하고, 더 긴 결맞음 시간(Coherence Time)*을 유지하여 
양자컴퓨터 성능 최적화에 활용
*
양자 결맞음(Coherence) 시간이란, 큐비트가 중첩과 얽힘 등의 양자적 특성을 
유지하며 양자적으로 제대로 작동할 수 있는 유효 시간을 의미. ‘양자 상태가 외부 
간섭으로 인해 깨지는 데까지 걸리는 시간’이라는 의미로 결어긋남(Decoherence) 
시간이라고도 표현
(소프트웨어) 현재 양자컴퓨터 하드웨어가 아직 초기 개발 단계에 있기 
때문에, 소프트웨어 개발 영역에서 AI의 활용은 전반적으로 가능성에 
대한 탐색 및 개념 검증 수준
그러나 오류정정 분야에서는 AI 기술을 적용해 정확도를 향상시키는 
등 일부 실질적인 성과*가 입증
*
Google DeepMind(2024)는 표면 코드(Surface Code) 기반 양자 오류정정에서, 
Transformer 등 신경망을 적용하여 빠르고 효율적인 디코더(즉, 오류 수정 연산 
알고리즘)를 개발.
아래와 같이 격자형 배치 큐비트를 반복적으로 측정하면서, 단계마다 
신경망이 오류 패턴을 해석하고 누적 정보를 기반으로 전체 에러 예측
※ 자료: Google DeepMind (2024.11.20.), 번역
[그림 5] 신경망을 활용한 오류정정 예시
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
10
양자컴퓨터 소프트웨어는 (1)시스템 소프트웨어, (2)알고리즘 단계로 
구분 가능(Zhu, C. et al., 2025)
시스템 소프트웨어는 추상적인 양자 알고리즘과 프로그래밍 언어를 
하드웨어가 실행할 수 있는 형식으로 변환해 주는 역할
회로 컴파일러는 실질적인 회로 구성(Construction), 회로 조작 
(Manipulation), 회로 변환(Transpilation) 과정을 통해, 양자 
알고리즘과 실제 하드웨어 사이의 번역기 역할을 수행
양자컴퓨터 소프트웨어의 개발에는 Qiskit(IBM), Cirq(Google), Braket 
(AWS), Tket(Quantinuum), PennyLane(Xanadu) 등 양자 소프트웨어 
개발 키트(SDK)와 Q#(Microsoft) 양자 전용 프로그래밍 언어가 활용
※ 블록(Block)의 크기는 주요 구성요소의 상대적 중요도를 반영 (Nation et al. 2025)
※ 자료: Zhu, C., Zhang, L., & Wang, X. (2025), 번역
[그림 6] 양자컴퓨터 소프트웨어 스택(Stack)
(전처리) AI를 활용하여 고전 데이터를 큐비트에 최적화된 방식으로 
인코딩하고, 연산을 위한 양자 회로가 적절한 초기 상태를 가지도록 
준비
인코딩에서는 양자 특징 맵(Feature Map)*을 활용하여 고전 데이터를 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
11
양자 상태로 큐비트에 변환하여 표현
*
고전 데이터를 양자 상태로 변환해 주는 매핑(Mapping) 함수
고전 데이터를 고차원 양자 상태 공간인 힐베르트(Hilbert) 공간에 
매핑함으로써, 저차원에서 드러나지 않은 복잡한 데이터 구조 및 
패턴을 효과적으로 파악 가능
숨겨진 데이터 구조를 잘 표현하기 위해서는 양자 특징 맵의 설계가 
매우 중요하며, AI는 학습을 통해 매핑 함수의 구조나 파라미터를 
최적화하는 데 활용 가능
아래와 같이 2차원 입력공간에서는 복잡한 비선형 결정 경계를 
구분하기 어려우나, 데이터를 고차원 공간으로 매핑하면 2차원에서는 
숨겨진 구조가 드러나면서 보다 쉽게 선형 경계를 파악 가능
※ 자료: Dataiku (2024.03.20.), 번역 및 재구성
[그림 7] 양자 특징 맵(Feature Map)을 활용한 고전 데이터 인코딩
(양자 알고리즘) 양자컴퓨터 활용을 위해서는 양자 알고리즘의 개발이 
필요하고, 양자 알고리즘의 복잡한 설계에 AI의 활용이 가능
(회로합성) AI를 활용하여 양자 알고리즘을 양자 하드웨어에서 실제 
연산이 수행되는 회로로 변환할 때, 정확하고 효율적으로 동작하도록 
구현
AI 모델은 양자 회로의 구조를 학습하여 회로의 깊이 및 구성 등을 
조정 가능
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
12
아래와 같이 딥러닝 기반 신경망 및 강화학습을 활용하여 회로를 
학습하고, 고비용의 게이트를 최소화하여 효율적인 최적화 회로를 구성
이는 양자 회로의 T 게이트를 벡터로 치환하여 텐서를 구성하고, 이 
벡터들의 조합 구조(텐서)를 인식함으로써 T 게이트 수를 줄이는 AI 
기반 최적화
※ 자료: Ruiz, F. J. et al. (2025), 번역 및 재구성
[그림 8] 신경망 및 강화학습을 활용한 회로합성: AlphaTensor-Quantum
(알고리즘 파라미터 학습) 양자 알고리즘을 수행하면서 필요한 
파라미터를 최적화하는 과정에서 AI 모델이 활용
매개변수화된 양자회로(PQC)를 최적화하는 변분 양자 알고리즘(Variational 
Quantum Algorithm)*에서, AI는 옵티마이저 성능 향상에 기여
*
VQA의 한 종류인 VQE(Variational Quantum Eigensolver)는 대표적인 양자-고전 
하이브리드 알고리즘으로, 주로 분자의 안정적인 상태를 찾기 위한 최소 에너지 
계산에 사용. 에너지 계산은 양자 회로에서 수행하고, 고전 옵티마이저가 회로 
파라미터를 조정해 가며 최솟값을 찾아나가는 알고리즘
(물리적 파라미터 최적화*) AI를 활용하여 양자컴퓨터의 연산이 잘 
이루어질 수 있도록 파라미터를 최적화해 안정된 연산환경을 조성
*
소프트웨어 계층에서 수행되는 하드웨어의 간접 제어를 의미, 하드웨어 장치를 더 
정밀하게 동작하도록 하는 아날로그 직접 제어와 구분
AI 모델은 양자 하드웨어로부터 수집한 측정값(주파수, 상호작용, 
노이즈 등)과 시스템 성능 지표(결맞음 시간, 에러율 등) 간의 관계를 
학습하여 최적의 파라미터를 예측
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
13
Google Quantum AI(Klimov et al. 2020), Xanadu(2022) 등은 
Graph Optimization, Bayesian Optimization 등을 활용해 이러한 
물리적 파라미터를 최적화
아래는 격자 구조의 큐비트에서, 이전 파라미터와 제약조건을 
바탕으로 학습된 오류 모델을 활용하여 큐비트 간의 활성화 관계를 
결정하는 AI 최적화 과정
※ 자료: Klimov, P. V. et al. (2020), 번역
[그림 9] AI 알고리즘을 활용한 물리적 파라미터 보정(Calibration)
(게이트 펄스 최적화) 양자 게이트 연산을 수행하기 위해 펄스 시퀀스, 
주파수, 위상, 진폭 등을 AI 기반으로 최적화하여 연산 정확도 개선
펄스 시퀀스를 실시간으로 조정하기 위해, 경로 최적화 기법 또는 
강화학습(Reinforcement Learning) 등을 활용*
*
Google Quantum AI(Niu et al. 2019, Klimov et al. 2024)에서 관련 연구 발표
AI 모델은 큐비트 제어 신호를 입력받아 연산을 위한 주파수, 위상, 
진폭을 최적화하여 정확도를 개선하는 데 활용
아래는 AI 옵티마이저가 주파수 경로상의 오류(펄스 왜곡, 디코히어런스, 
위상 손실 등)를 분석하고, 큐비트 제어 파라미터(주파수, 위상, 진폭 
등)를 최적화하는 과정
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
14
※ 자료: Klimov, P. V. et al. (2024), 번역 및 재구성
[그림 10] AI 알고리즘을 활용한 게이트 펄스 최적화
(오류정정) 양자 상태를 완전히 제어하지 못해 발생하는 오류를 
제어하는 기법으로, AI를 활용하여 부분 측정 결과(신드롬)를 분석해 
오류 패턴을 식별, 예측하여 보정
양자오류정정(Quantum Error Correction, QEC)은 양자 상태의 
조작에서 발생하는 노이즈로 인한 오류를 정정하고 연산 안정성을 
확보하기 위한 핵심 기술
고전 컴퓨터에서는 전송되는 비트(bit)에 패리티 비트(짝수, 홀수 
등)를 함께 전송하여, 오류 존재 여부와 종류를 측정하고 판별 가능
양자컴퓨터는 고전 컴퓨터 오류 검출과 유사하게 부분 측정 
결과(신드롬)를 통해 판별이 가능하나, 측정 시 큐비트 상의 양자 
정보를 유지하는 것이 중요
양자오류정정 방식인 표면 코드(Surface Code)는 양자 정보를 
저장하는 데이터 큐비트를 직접적으로 측정하지 않고 측정을 위한 
보조 큐비트를 활용하는 방식
데이터 큐비트와 측정 큐비트의 배치는 격자형, 벌집형 등의 구조로, 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
15
오류를 간접적으로 추론하여 감지
아래는 데이터 큐비트(노랑)와 보조(측정) 큐비트(파랑)의 격자형 
구조로, 특정 데이터 큐비트(빨강)에 에러가 발생하면 인접 보조 
큐비트를 측정해 오류 발생 여부와 종류를 판별
※ 자료: Google Quantum AI (2023.02.22.), 번역
[그림 11] 표면 코드(Surface Code) 기반 양자오류정정(QEC)
양자오류정정은 마치 지뢰 찾기 게임에서 주위 정보로만 지뢰가 있는 
칸을 찾아내는 것처럼, 인접 칸의 측정 결과(신드롬)를 조합하여 직접 
알 수 없는 오류가 어디에 발생하였는지 추론
양자오류는 확률적으로 발생하기 때문에 추론이 매우 어렵고, 비트 
반전(Bit Flip), 위상 반전(Phase Flip), 그리고 비트 및 위상이 동시에 
반전되는 복합 오류(Bit+Phase Flip) 등이 발생
이러한 오류를 정정하기 위해 주변 큐비트 오류를 학습하여 오류 
위치를 추론하고 정정하는 AI 기반 디코더 개발이 연구
Google DeepMind와 Google Quantum AI가 공동으로 AI 디코더 
기반의 양자 오류를 식별하는 AlphaQubit 개발 (2024.11)
아래는 격자형 큐비트에서 시점별 오류 측정 결과(신드롬)를 벡터로 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
16
임베딩하고, 딥러닝 기반 신경망이 이전 시점 정보를 입력받아 다음 
시점의 오류를 예측하도록 하는 AI 디코더의 학습 과정
※ 자료: Bausch, J. et al. (2024), 번역
[그림 12] 양자오류 식별을 위한 AI 모델 학습 과정 - AlphaQubit
(후처리) 현재 양자컴퓨터는 오류를 완전히 정정하지 못하는 한계점을 
가지고 있어, 연산 결과를 수백, 수천 번 측정하여 그 분포를 기반으로 
최종 결과를 도출
그림 13은 오류 분포와 이상값의 차이, 오류가 있는 목표 분포를 모두 
학습한 신경망을 활용하여, 최종적으로 오류가 완화된 최적의 분포 및 
추정값을 예측하는 과정(Liao, M. et al., 2025)
그림 14는 오류가 있는 양자컴퓨터의 결괏값을 입력으로, 오류가 없는 
시뮬레이션 결과를 목푯값으로 사용하여 신경망을 학습시키고 오류 
완화 결과를 예측하는 과정(Liao, H. et al., 2024)
AI를 활용하여 오류가 없는 양자컴퓨터의 결과를 예측함으로써, 오류가 
있는 양자컴퓨터로도 유용하고 신뢰할 수 있는 연산을 할 수 있도록 
연구들이 진행 중
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
17
※ 자료: * Liao, H. et al. (2025), 번역
[그림 13] AI 기반 오류 완화를 통한 양자 측정 분포 예측
※ 자료: Liao, H. et al. (2024), 번역
[그림 14] AI를 활용한 양자 오류 모델링
아직 범용적이고 안정적인 양자컴퓨터 하드웨어가 개발되지 않았기 
때문에, 현실적으로 운용할 수 있는 소프트웨어는 매우 제한적
현재로서 AI 기술의 활용은 하드웨어의 안정화와 성능 향상에 더 
실질적인 이점을 제공
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
18
(하이브리드 양자컴퓨팅) AI를 활용하여 양자컴퓨터 개발을 고도화하고, 
동시에 고전적 고성능 컴퓨터의 연산자원을 연계하는 양자-HPC(High 
Performance Computing) 하이브리드 컴퓨팅 형태로 발전 예상
현재 HPC에서는 뛰어난 성능을 바탕으로 양자컴퓨터를 그대로 
모사하는 양자 에뮬레이터를 개발, 다방면으로 활용하고 있으나 많은 
큐비트를 모사하기에는 제약이 존재
고전 컴퓨터에서 효율적인 부분은 HPC를 활용하고, 양자 우위*가 
기대되는 연산은 양자컴퓨터를 활용해 양자 시스템의 시뮬레이션을 
수행하는 방식으로 역할 분담
*
양자우위(Quantum Supremacy)는 ‘양자컴퓨터가 고전 컴퓨터 대비 명확한 계산 
성능적 우위를 입증한 상태’를 의미
 ※ 자료: IonQ (2025.01.08.)
[그림 15] 하이브리드 양자컴퓨팅
대표적인 양자-고전 하이브리드 알고리즘으로는 Variational Quantum 
Eigensolver(VQE)가 있으며, 다양한 화학 응용 분야에서 유용
그림 16은 고전 컴퓨터에서 계산된 피드백을 바탕으로, 양자컴퓨터의 
양자 상태 준비 과정을 반복적으로 최적화하는 구조
양자컴퓨터의 연산 결과를 고전 컴퓨터가 종합하여, 다음 입력 상태 
생성을 위한 파라미터를 조정하는 옵티마이저 역할 수행
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
19
 ※ 자료: Peruzzo et al. (2014)
[그림 16] 양자-고전 하이브리드 알고리즘(VQE) 구조 예시
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
20
2. 양자컴퓨터를 활용한 AI 기술 개발
현존 AI 기술을 양자컴퓨터 개발에 활용할 뿐만 아니라, 양자컴퓨터가 
가지는 연산우위를 활용하여 AI 개발을 가속화하려는 연구개발이 진행
양자컴퓨터가 풀 수 있는 문제는 기존의 고전 알고리즘으로 충분히 
해결이 가능한 문제들도 있지만, 현실적으로 고전 알고리즘으로는 
불가능한 문제를 양자컴퓨터에서 해결 가능
데이터를 활용한 머신러닝과 딥러닝 기술의 발전으로 인류가 해결할 
수 있는 문제의 범위가 크게 확장되었지만, 여전히 AI로도 해결할 수 
없는 문제들이 존재
실제 AI 개발에서 대규모 학습과 하이퍼파라미터 튜닝이 필요한 
이유도 완전한 최적해를 찾는 것이 불가능하기 때문에 최대한 
최적해에 가까운 답을 찾아나가는 절충안이기 때문
반면 양자컴퓨터는 일부 복잡도가 높은 문제에서 지수적으로 빠른 
연산을 통해, 그동안 고전 컴퓨터와 AI 기법으로 해결할 수 없었던 
문제에 접근 가능
양자컴퓨터는 현재 AI의 한계를 극복하며 차세대 AI 기술 개발의 
도구로 주목, 그러나 아직 실용적인 수준에는 도달하지 못한 상태
※ 자료: Huang, H. Y. et al. (2021), 번역
[그림 17] 고전 알고리즘과 양자 알고리즘의 문제 해결 범위
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
21
(양자인공지능) 양자인공지능(Quantum AI, QAI)은 고전 컴퓨터 대비 
양자컴퓨터가 가지는 압도적인 연산 이점을 활용하여, 머신러닝, 신경망, 
대규모 언어 모델(LLM)과 같은 AI 개발에 활용하려는 연구 분야
양자인공지능에 대한 관심과 기대가 증가하는 이유는 (1) 양자컴퓨터 
하드웨어 기술의 의미 있는 진전, (2) AI 학습과 추론에 필요한 대용량 
컴퓨팅 자원의 한계 때문
양자인공지능의 대표적인 분야*로는 양자머신러닝(Quantum Machine 
Learning, QML), 양자신경망(Quantum Neural Network, QNN), 양자 
최적화(Quantum Optimization) 등(Wang et al., 2025)
*
명확한 분류 체계는 현재까지 미확립
(양자머신러닝) 양자인공지능의 핵심 분야로, 양자컴퓨터를 활용하여 
머신러닝 알고리즘 가속화 연구가 진행
(1)다체 시스템 시뮬레이션과 같은 양자 작업을 고전 머신러닝으로 
수행하는 형태(Q-C ML), (2)고전 머신러닝의 속도를 높이기 위해 
양자컴퓨터를 활용(C-Q ML), (3)양자 데이터*를 양자컴퓨터로 
학습하는 형태(Q-Q ML)로 구분 가능(Beer et al., 2020)
*
양자 데이터란, 양자 시스템의 상태와 변화를 포괄적으로 반영하는 정보를 의미. 
단순히 고전 데이터를 양자 회로에 인코딩한 것이 아니라, 양자컴퓨터로 생성되어 
양자 시스템의 물리적 특성을 반영하는 데이터. 중요한 연구 자원이나, 현재는 
실용적 제약으로 1~2큐비트 수준의 데이터 셋이 존재(Perrier et al., 2022)
양자머신러닝 알고리즘은 주로 (1)지도학습, (2)비지도학습, 
(3)강화학습으로 분류(Beer, 2022)
주요 알고리즘으로는 양자 서포트 벡터 머신(Quantum Support Vector 
Machine), 양자신경망, 양자 k-평균 군집화, 양자 PCA 등 (Beer, 
2022; Chen, L. et al., 2024)
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
22
※ 자료: Chen, L. et al. (2024), 번역 및 재구성
[그림 18] 양자머신러닝(Quantum Machine Learning) 알고리즘 예시
양자머신러닝에서는 양자 커널(Quantum Kernel)을 활용하여 데이터를 
고차원 양자 상태 공간으로 매핑할 수 있으며, 복잡한 데이터 구조도 
효과적으로 파악하여 공간상의 분류 문제 등에 강점
*
양자 특징 맵은 고전 데이터를 양자 상태 공간으로의 변환, 양자 커널은 변화된 
양자 상태 간 유사도 측정을 포함하는 함수
고전 공간의 차원 표현력 한계를 해결하기 위해 양자 상태 공간으로 
데이터를 매핑하고, 이를 다시 고전 공간으로 투영하여 숨겨진 
데이터의 구조를 효과적으로 파악(Huang, H. Y. et al.,2021)
아래 그림 19는 양자 커널의 데이터 구조 변환 효과를 보여주는 예시
고전 공간에서의 데이터 간 거리(C, E, G의 유사도)가 양자 
상태(힐베르트) 공간으로 매핑된 뒤, 다시 고전 공간으로 투영되었을 
때 거리(유사도)가 어떻게 변화하는지를 표현
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
23
※ 자료: Huang, H. Y. et al. (2021), 번역
[그림 19] 양자 커널을 활용한 고차원 공간 데이터 표현
실제로 고전 컴퓨터와 양자컴퓨터로 동일한 데이터 분포를 학습하였을 
때, 고전 컴퓨터보다 양자컴퓨터에서 더 적은 학습 횟수로도 목표 
분포를 더 근사하게 생성(IonQ, 2024)
아래는 고전 컴퓨터 기반 생성 모델(GAN)이 20,000회 반복한 
결과보다, 양자컴퓨터 기반 모델(QCBM)이 단 26회 반복한 결과가 
타겟 분포에 더 근접하게 분포를 생성한 사례
※ 자료: IonQ IR 자료 (2024.08), 번역
[그림 20] 양자컴퓨터를 활용하여 데이터 학습 효과 증대
(양자신경망) 양자적 특성인 중첩과 얽힘을 활용하기 위해 양자 회로로 
신경망을 구현, 기존 고전 신경망보다 적은 횟수로도 학습 정확도를 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
24
높일 수 있도록 학습 가속화 시도
(공통점) 양자신경망은 연속 매개변수 함수로 구성되어 매개변수에 
대해 미분 가능한 구조로, 고전 신경망과 같이 기울기를 최적화하는 
경사하강법(Gradient Descent)의 적용이 가능(김현지 외, 2023)
그래서 매개변수의 반복적인 업데이트를 통해 학습이 가능한 구조
(차이점) 그러나 학습 과정인 매개변수의 업데이트 방식에는 고전 
신경망과 차이가 존재
고전 신경망은 역전파(Backpropagation)를 통해 한 번의 손실함수 
계산으로 출력층에서 입력층 방향으로 모든 매개변수 기울기를 
업데이트
반면, 양자신경망은 측정에 따른 정보 소실로 매개변수마다 
개별적으로 기울기를 계산(김현지 외, 2023)
따라서 매개변수가 많아질수록 계산 비용이 증가하는 점은 고전 
신경망과 양자신경망 모두 동일하지만, 양자신경망이 고전 
신경망보다 상대적으로 비효율적인 방식
(주요 알고리즘) 양자신경망은 양자머신러닝의 대표적인 구현 모델로, 
주로 지도학습 방식에서 사용되나, 양자신경망을 활용한 여러 
알고리즘이 등장하는 중(Beer, 2022)
QCNN(Quantum Convolutional Neural Network), QGAN(Quantum 
Generative Adversarial Network), QRL (Quantum Reinforcement 
Learning) 등(김현지 외, 2023)
그러나 실제 양자컴퓨터 하드웨어에서 시연된 연구가 매우 적으며, 
대부분 이론적 시뮬레이션 수준에서 실험
양자신경망 연구는 아직 초기 단계에 있으므로, 향후 발전 동향에 
대한 지속적인 관찰이 필요
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
25
(하이브리드 신경망) 양자신경망은 풀고자 하는 문제의 특성과 목적에 
따라 다양한 고전-양자 하이브리드 구조로 설계 가능
양자컴퓨터의 데이터 표현력만 활용하는 고전 신경망, 양자 회로로만 
이루어지는 완전한 양자신경망, 양자 회로와 고전 신경망 결합구조 등
※ 자료: Kim, H. et al. (2023) & Dataiku (2024.03.20.), 번역 및 재구성
[그림 21] 고전/양자 머신러닝 및 신경망: 구조와 학습 방식의 차이 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
26
(양자 최적화) 양자컴퓨터는 조합 최적화 문제에서 고전 컴퓨터 대비 
연산 우위
조합 최적화 문제는 여러 가지 경우의 수를 탐색하는 문제로, 
양자컴퓨터는 병렬성을 활용해 모든 경우의 수를 순차적으로 탐색하는 
고전 컴퓨터보다 기하급수적으로 빠른 연산이 가능
미분 기반 고전 신경망 학습에서도 파라미터, 하이퍼파라미터 최적화에 
활용 가능성 제기
경사하강법에서 발생하는 국소 최소점(Local Minimum) 문제를 
해결하는 데 활용 논의가 이루어지나, 양자 최적화에서도 유사한 
문제*가 발생
*
‘불모의 고원(Barren Plateaus)’은 양자 회로로 구현된 양자신경망의 학습에서 
매개변수에 대한 기울기 소실 현상
많은 큐비트로 얕은 회로에서는 전역 최소점(Global Minimum)을 
상대적으로 쉽게 찾을 수 있으나, 적은 큐비트 수로 깊은 회로에서는 
국소 최소점 문제 발생
아래 그림 22는 동일한 조건에서, (a) 큐비트 수(6큐비트)를 늘려 
단일 연산 게이트를 구성한 경우, 뚜렷한 손실함수 기울기를 갖는 
반면, (b) 적은 수 큐비트(4큐비트)로 깊은 회로를 구성하면 
기울기가 평탄해지며 소실이 발생하는 현상을 시각화한 도식
기울기 소실 문제를 해결하기 위해 고전 신경망에서 적합한 
아키텍처(네트워크 구조)를 잘 설계해야 하듯, 양자컴퓨팅에서도 
매개변수화 된 회로 구조(안자츠, ansatz)를 잘 설계하는 것이 불모의 
고원 문제를 해결하는 데 중요한 요소(Larocca & Thanasilp, 2025). 
양자 최적화, 양자 신경망 등 양자인공지능 알고리즘의 실용적인 
활용을 위해서는 지속적인 연구개발이 필요할 것으로 전망
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
27
※ 자료: Melnikov, A. et al. (2023), 번역
[그림 22] 불모의 고원(Barren Plateaus): 양자 회로의 기울기 소실 문제
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
28
Ⅳ. 양자컴퓨팅+AI의 한계와 과제
현재 양자컴퓨팅과 AI 융합에서 가장 큰 한계는 양자컴퓨터 하드웨어가 
수백 큐비트 수준이며, 범용 양자컴퓨터로서의 오류정정 수준에 
도달하지 못해 실용적인 컴퓨터로서의 활용 제약이 존재한다는 점
현재까지 발표된 양자 우위는 양자컴퓨터에 유리하도록 특화된 문제로 
증명되어, 고전 컴퓨터와 같은 범용적인 연산에서는 여전히 활용이 
어렵다는 한계가 존재
양자 우위를 보여준 주요 결과들이 아직 실험실 수준의 
시연(Demonstration)에 그치고 있다는 부정적 평가도 존재
실용적인 범용 양자컴퓨터 개발을 위해서는 (1) 외형적인 큐비트 수의 
확장과 (2) 신뢰할 수 있는 오류정정이 필수
큐비트 수의 확장은 여러 플랫폼에서 시도되고 있는 상황으로, 현재 
초전도체 플랫폼에서 큐비트 칩 간의 연결을 통해 대규모 큐비트 
수를 확보하려는 로드맵이 발표(IBM, 2024)
Google Quantum AI는 논리 큐비트를 활용해 큐비트 수 증가에도 
오류가 감소하는 오류정정 기술을 시연함으로써, 오류정정 가능성에 
대한 기대가 증가
하지만, 여전히 물리적 큐비트의 확장과 대규모 큐비트에서의 
오류정정은 매우 큰 기술적 도전을 의미
현재로서는 아직 난제로 여겨지고 있으며, 실용적으로 유용한 대규모 
연산에 대해서는 부정적인 전망도 존재
아직은 양자컴퓨팅과 AI의 융합에서 양자컴퓨터 개발을 위한 AI의 
활용만이 현실적인 융합 단계에 와있다고 보는 것이 타당
양자컴퓨터 하드웨어 및 소프트웨어 개발을 위한 AI 기술 활용은 
활발히 이루어지고 있는 상황
AI 모델 개발을 위한 양자컴퓨터의 활용은 아직 고전 컴퓨터에서의 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
29
시뮬레이션 수준으로, 실제 양자컴퓨터 하드웨어 개발 없이는 실현할 
수 없어 하드웨어의 개발 선행이 필수적 
양자컴퓨팅과 AI의 융합에서의 남은 과제는 양자컴퓨터 하드웨어와 
소프트웨어 개발의 기술적 어려움에 대한 해결
(큐비트) 양자컴퓨터가 실용적으로 유용한 연산을 수행하기 위해서는 
최소 1백만 큐비트 이상의 하드웨어가 필요할 것으로 전망
(오류정정) 양자컴퓨터에서는 양자 상태의 조작으로 인해 발생하는 
오류를 정정하는 기술이 필수적이지만, 고전 컴퓨터와 달리 오류정정이 
기술적으로 매우 어려운 문제
양자 상태는 측정하면 붕괴하는 특성이 있어, 큐비트를 측정하지 
않고도 오류를 감지하고 수정하는 오류정정 기술 필요
1백만 큐비트 이상의 양자컴퓨터 하드웨어 개발과 대규모 
큐비트에서도 신뢰할 수 있는 오류정정 기술의 병렬적 연구개발이 
필요
(데이터) 양자컴퓨터 연산을 위해서는 데이터를 큐비트로 인코딩하는 
과정이 필요, 양자컴퓨터는 메모리가 없어 고전 컴퓨터 대비 대용량 
데이터 인코딩에 불리
양자컴퓨터는 메모리 없이 회로로 연산이 흘러가는 방식으로 동작
큐비트 수가 점차 증가함에 따라, 실제 양자컴퓨터 하드웨어에서 
이미지 등 데이터의 인코딩이 가능함이 증명(Gharibyan, H. et al., 
2025)
그러나 고전 컴퓨터의 대용량 데이터 병렬처리 성능을 넘어서는 
이점을 아직 보여주지 못하고 있어, 전처리 단계에서는 고전 
컴퓨팅의 빠른 데이터 I/O를 활용하는 하이브리드 방식의 개발이 
필요
(양자 알고리즘) 양자컴퓨터를 활용하여 양자인공지능을 개발하기 
위해서는 양자 알고리즘 개발이 필요
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
30
양자 알고리즘은 회로 기반 연산 게이트 등을 활용하여 문제를 
해결하는 방식으로, 현재 연구개발 인력이 상대적으로 부족하고 
지속적인 기술 발전과 연구가 필요
현재 양자 알고리즘은 총 100개 되지 않는 것으로 알려져 있으며, 
그 중 주요 알고리즘은 5개 수준
또 다른 양자컴퓨팅과 AI 융합의 남은 과제는 두 기술을 효과적으로 
연결할 수 있는 융합형 인재의 부족
양자컴퓨터는 오랫동안 과학적 연구와 실험의 영역에 머물러 있었으며, 
실용적 기술 개발 및 상용화를 위해서는 더욱 많은 전문 인력이 필요
양자컴퓨팅만의 고유한 특성을 이해하고, 실제 하드웨어 및 소프트웨어 
개발 역량을 갖춘 실전형 개발 인재의 체계적인 양성이 중요
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
31
Ⅴ. 요약 및 시사점
1. 주요 내용 요약
최근 양자컴퓨팅 기술이 의미있는 진전을 보이며 기술적 도약 단계에 진입
AI를 활용하여 기존의 기술적 문제점을 보완하고, 해결을 향한 개선 
방향을 제시한다는 점에서 중요한 전환점을 통과한 것으로 평가
AI 기술의 등장은 이론적 영역에만 머물러 있던 양자컴퓨터 개발에도 
영향을 미치며, 양자 과학기술의 발전을 가속화
양자컴퓨터 하드웨어의 개발에 대한 기대와 함께, 응용 가능성에 대한 
관심도 증가
특히 차세대 컴퓨팅 자원으로서 양자컴퓨터가 AI 개발에 활용될 수 
있을지 논의 활발
양자컴퓨터는 다양한 강점과 가능성을 가지고 있으나, 개발과 제어에서 
극복해야 할 문제들이 여전히 존재
양자컴퓨터는 양자 원리를 활용하여 계산을 수행하는 양자 튜링 
기계를 의미, 고전 컴퓨터와는 다른 양자 원리를 바탕으로 연산을 
수행하여 계산속도 향상, 발열량 감소 등 여러 부분에서 강점 보유
이러한 연산우위는 양자 원리에 기인하며, 양자 원리는 양자 
상태(중첩, 얽힘 등), 양자 상태 조작 및 측정을 포함
양자 상태에 대한 흠결 없는 제어를 통해, 완전한 양자컴퓨팅의 구현을 
위해서는 여전히 극복해야 할 문제들이 존재
AI는 이러한 한계를 보완하고 개선하는 데 활용될 수 있을 뿐만 
아니라, 양자컴퓨터와의 상호작용을 통해 계산 및 정보 처리 역량을 
극대화하려는 시도로 해석 가능
양자컴퓨터 개발을 위한 AI 활용 시도는 일부 영역에서 구체적인 성과 달성
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
32
양자컴퓨터의 전 개발 스택(Stack)에서 AI를 활용한 연구개발이 
이루어지고 있는 상황
특히 오류정정은 양자컴퓨터 개발의 핵심인 동시에 기술적인 난제로 
여겨지는데, 양자오류에 대한 학습을 통해 AI 모델이 오류를 식별하고 
수정할 수 있는 기술이 개발
AI의 활용을 통해 ‘범용 양자컴퓨터’의 개발 가능성에 대해 긍정적인 
전망이 증가하였으며, 실용적인 양자컴퓨터의 등장 시기를 앞당길 수 
있을 것으로 예상
또한 AI의 적극적인 활용을 위해 양자-고전 하이브리드 컴퓨팅 
환경에 대한 연구개발이 증가하는 추세
양자컴퓨터는 최적화와 같은 특정 연산에서 고전 컴퓨터 대비 연산 
우위를 가짐으로써, 양자컴퓨터를 AI 개발에 활용하려는 노력도 등장
양자머신러닝, 양자신경망, 양자 최적화 등이 연구되고 있으며, 
양자컴퓨터를 활용하여 기존 고전 컴퓨터보다 적은 학습 횟수로도 
좋은 성능을 보이는 연구 결과 등장
또한 양자컴퓨터는 고전 데이터를 고차원 양자 상태공간으로 매핑시켜 
데이터 구조를 효과적으로 파악하는 데 활용 가능할 뿐만 아니라, 양자 
상태를 표현하는 양자 데이터의 생성이 가능
AI 모델에 가장 많이 사용되는 신경망 역시 양자 회로에서 
양자신경망으로 구현이 가능하나, 비효율성과 기울기 소실 등의 한계가 
존재
양자인공지능 연구는 현재 양자컴퓨터 하드웨어가 개발 초기 단계이므로 
실제 하드웨어에서 실험된 연구가 매우 적고, 대부분 고전 컴퓨터에서의 
시뮬레이션을 활용하고 있어 향후 지속적인 연구개발이 필요
실용적인 양자컴퓨터가 등장하게 되면 양자컴퓨팅과 AI의 융합이 
본격화되며, 그 이점이 더욱 명확해질 전망 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
33
‘가능성 탐색’의 영역에 머물러 있던 양자컴퓨터 개발이 ‘실용적인 
하드웨어 개발’의 영역으로 넘어오면서, 차세대 컴퓨팅과 AI의 융합에 
대해 주목할 필요성이 높을 것으로 전망
양자컴퓨터는 특정 연산에서 고전 컴퓨터 대비 기하급수적인 
연산우위를 가지기 때문에, AI 개발에서 HPC와 결합하여 GPU와 같은 
가속기 역할을 수행할 수 있을 것으로 기대
양자인공지능은 기존의 AI 알고리즘과 결합하여 다양한 산업에서 
활용될 가능성 존재
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
34
2. 시사점 및 정책 제언
(연구개발) 국가적 차원에서 양자컴퓨팅과 AI 융합 R&D에 대한 지원을 
확대하여 기술 경쟁력 확보가 필요
양자컴퓨터와 AI 융합기술은 아직 초기 단계지만 기술 파급력이 높을 
것으로 예상되어 전 세계적으로 주목받는 분야, 선제적인 R&D 지원이 
필요
양자컴퓨팅의 잠재적 경제 가치는 2035년까지 4개 주요 산업*에서만 
약 0.9조~2조 달러 수준에 이를 것으로 전망(McKinsey & Company, 
2025)
*
글로벌 에너지/소재, 제약/의료 제품, 금융, 여행/운송/물류
UN은 1925년 베르너 하이젠베르크가 양자역학에서 중요한 발전을 이룬 
100주년을 기념하여 2025년을 ‘세계 양자과학기술의 해(International 
Year of Quantum)’로 지정하였고, 이에 따라 양자컴퓨팅 기술의 
발전과 응용에 대한 관심도 더욱 증가할 것으로 예상
미국, 중국과 같은 AI 기술 선진국은 AI에 이어 양자 기술에서도 
주도권을 확보하기 위해 관련 투자와 기술 유출 방지를 위한 정책을 
시행
미국은 중국의 반도체, AI, 양자정보기술에 투자 제한을 
시행(소프트웨어정책연구소, 2025)
미국과 중국의 기술 주도를 견제하기 위해, 유럽연합(EU)은 
2030년까지 양자 선도국이 되기 위한 5대 유럽 양자 전략을 
발표(European Commission, 2025)
공공-민간 협력 기반의 공동 연구개발 플랫폼을 구축하고, 실증 및 
상용화를 위한 테스트베드 조성 필요
또한 양자컴퓨팅과 AI 융합 분야의 핵심 기술에 대한 특허 확보를 
지원하고, 유관 기술을 선도할 수 있도록 지원 필요
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
35
(산업 조성) 양자컴퓨팅과 AI 융합기술의 산업화를 위해, 스타트업 육성과 
투자 활성화를 중심으로 한 정책적 지원과 산업 기반 조성이 필요
양자컴퓨터의 개발에 뛰어든 주요 스타트업들이 현재 시장의 큰 
주목을 받고 있으며, 실제로 뛰어난 기술력과 연구 성과를 바탕으로 
빠르게 경쟁력을 강화 중
양자컴퓨터는 아직 표준화된 구현 플랫폼이 정해지지 않은 ‘열린 기술 
경쟁 시장’으로, 혁신성과 유연성을 가진 스타트업의 생태계 참여가 
산업 성장의 핵심 요소
또한 양자컴퓨팅과 AI는 기술이 성숙할수록 바이오, 화학, 소재, 보안, 
금융 등 여러 산업에 활용될 전망이며, 다양한 산업에서 비즈니스 
기회가 창출될 전망
국내 기업들도 기술 개발 및 사업화에 적극적으로 참여하여, 초기 시장 
선점을 도모할 수 있도록 국가 차원의 전략적 산업 기반 마련이 필요
(인재 육성) 양자컴퓨팅과 AI를 접목한 다학제간 융합 인재 양성 및 
확보 정책 마련이 필요
양자컴퓨팅은 이미 양자정보과학, 물리학, 컴퓨터공학, 전자공학 등 
다양한 학문 분야가 서로 얽혀있는 융합 학문 분야
AI 기술 역시 컴퓨터공학 관련 기술뿐만 아니라 응용 도메인의 지식이 
매우 중요한 분야이며, 이미 AI 적용 분야가 크게 확대되어 다양한 
지식이 요구되는 분야
여러 분야의 지식과 다양한 전문성을 바탕으로 기술 개발에 나설 수 
있도록 다학제간 교과목 및 실무형 재교육 프로그램 마련 필요
또한 양자컴퓨팅과 AI 기술 인재가 미국, 중국 등 주요 기술 강국으로 
유출되지 않도록, 육성뿐만 아니라 지속적인 연구개발을 할 수 있는 
환경 마련과 기회 제공이 필요
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
36
참고문헌
국외문헌
Alexeev, Y., et al. (2024). Artificial Intelligence for Quantum Computing. arXiv 
preprint arXiv:2411.09131.
Bausch, J., Senior, A. W., Heras, F. J., Edlich, T., Davies, A., Newman, M., ... 
& Kohli, P. (2024). Learning high-accuracy error decoding for quantum 
processors. Nature, 1-7.
Beer, K. (2022). Quantum neural networks. arXiv preprint arXiv:2205.08154.
Beer, K., Bondarenko, D., Farrelly, T., Osborne, T. J., Salzmann, R., 
Scheiermann, D., & Wolf, R. (2020). Training deep quantum neural networks. 
Nature communications, 11(1), 808.
Chen, L., Li, T., Chen, Y., Chen, X., Wozniak, M., Xiong, N., & Liang, W. 
(2024). Design and analysis of quantum machine learning: a survey. Connection 
Science, 36(1), 2312121.
Dataiku. (2024, March 20). Quantum leap: Beyond the limits of machine 
learning. Dataiku Blog.
https://blog.dataiku.com/quantum-leap-beyond-the-limits-of-machine-learning
European Commission. (2025, July 2). Quantum Europe Strategy: Quantum 
Europe in a changing world (COM(2025) 363 final). 
https://ec.europa.eu/commission/presscorner/detail/en/ip_25_1682
Ezratty, O. (2023). Is there a Moore's law for quantum computing?. arXiv 
preprint arXiv:2303.15547.
Gharibyan, H., Karapetyan, H., Sedrakyan, T., Subasic, P., Su, V. P., Tanin, R. 
H., & Tepanyan, H. (2025). Quantum Image Loading: Hierarchical Learning and 
Block-Amplitude Encoding. arXiv preprint arXiv:2504.10592.
Google DeepMind. (2024, Nov 20). AlphaQubit: A machine learning approach to 
quantum error correction. Google Blog. 
https://blog.google/technology/google-deepmind/alphaqubit-quantum-error-corre
ction/
Google Quantum AI. (2023, Feb 22). Suppressing quantum errors by scaling a 
surface code logical qubit. Google Research Blog. 
https://research.google/blog/suppressing-quantum-errors-by-scaling-a-surface
-code-logical-qubit/
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
37
Huang, H. Y., Broughton, M., Mohseni, M., Babbush, R., Boixo, S., Neven, H., 
& McClean, J. R. (2021). Power of data in quantum machine learning. Nature 
communications, 12(1), 2631.
IBM. (2024). IBM Quantum development & innovation roadmap explainer: 2024 
update. IBM. 
https://www.ibm.com/quantum/assets/IBM_Quantum_Developmen_&_Innovation_Ro
admap_Explainer_2024-Update.pdf
IonQ. (2024). Investor Presentation. 
https://investors.ionq.com/events-and-presentations/presentations/presentation-d
etails/2024/Q3-2024-Investor-Presentation/default.aspx
IonQ. (2025, January 8). What is hybrid quantum computing? 
https://ionq.com/resources/what-is-hybrid-quantum-computing
Kim, H., Jang, K., Lim, S., Kang, Y., Kim, W., & Seo, H. (2023). Quantum 
neural network based distinguisher on speck-32/64. Sensors, 23(12), 5683.
Klimov, P. V., Bengtsson, A., Quintana, C., Bourassa, A., Hong, S., Dunsworth, 
A., ... & Neven, H. (2024). Optimizing quantum gates towards the scale of 
logical qubits. Nature Communications, 15(1), 2442.
Klimov, P. V., Kelly, J., Martinis, J. M., & Neven, H. (2020). The snake 
optimizer for learning quantum processor control parameters. arXiv preprint 
arXiv:2006.04594.
Larocca, M., Thanasilp, S. (2025). Wang, S. et al. Barren plateaus in 
variational quantum computing. Nature Reviews Physics 7, 174–189.
Liao, H., Wang, D. S., Sitdikov, I., Salcedo, C., Seif, A., & Minev, Z. K. 
(2024). Machine learning for practical quantum error mitigation. Nature 
Machine Intelligence, 1-9.
Liao, M., Zhu, Y., Chiribella, G., & Yang, Y. (2025). Noise-agnostic quantum 
error mitigation with data augmented neural models. npj Quantum Information, 
11(1), 8.
McKinsey & Company. (2025, June). Quantum technology monitor: June 2025.
Melnikov, A., Kordzanganeh, M., Alodjants, A., & Lee, R. K. (2023). Quantum 
machine learning: from physics to software engineering. Advances in Physics: 
X, 8(1), 2165452.
Menke, T., Häse, F., Gustavsson, S., Kerman, A. J., Oliver, W. D., & 
Aspuru-Guzik, A. (2021). Automated design of superconducting circuits and its 
application to 4-local couplers. npj Quantum Information, 7(1), 49.
Nation, P. D., Saki, A. A., Brandhofer, S., Bello, L., Garion, S., Treinish, M., & 
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
38
Javadi-Abhari, A. (2025). Benchmarking the performance of quantum computing 
software for quantum circuit creation, manipulation and compilation. Nature 
Computational Science, 1-9.
Niu, M. Y., Boixo, S., Smelyanskiy, V. N., & Neven, H. (2019). Universal 
quantum control through deep reinforcement learning. npj Quantum Information, 
5(1), 33.
Perrier, E., Youssry, A., & Ferrie, C. (2022). QDataSet, quantum datasets for 
machine learning. Scientific data, 9(1), 582.
Peruzzo, A., McClean, J., Shadbolt, P., Yung, M. H., Zhou, X. Q., Love, P. J., ... 
& O’brien, J. L. (2014). A variational eigenvalue solver on a photonic quantum 
processor. Nature communications, 5(1), 4213.
Preskill, J. (1998). Fault-tolerant quantum computation. In Introduction to 
quantum computation and information (pp. 213-269).
Preskill, J. (2018). Quantum computing in the NISQ era and beyond. Quantum, 
2, 79.
Ruiz, F. J., Laakkonen, T., Bausch, J., Balog, M., Barekatain, M., Heras, F. J., 
... & Kohli, P. (2025). Quantum circuit optimization with alphatensor. Nature 
Machine Intelligence, 1-12.
Wang, X., Ali, S., & Arcaini, P. (2025). Quantum Artificial Intelligence for 
Software Engineering: the Road Ahead. arXiv preprint arXiv:2505.04797.
Xanadu. (2022). BayesianOptimization. GitHub. 
https://github.com/bayesian-optimization/BayesianOptimization
Yen-Chi Chen, S. (2024). An Introduction to Quantum Reinforcement Learning 
(QRL). arXiv e-prints, arXiv-2409.
Zhu, C., Zhang, L., & Wang, X. (2025). A quest toward comprehensive 
benchmarking of quantum computing software. Nature Computational Science, 
1-2.
Zhu, Y., & Yu, K. (2023). Artificial intelligence (AI) for quantum and quantum 
for AI. Optical and Quantum Electronics, 55(8), 697.
국내문헌
김현지, 임세진, 김덕영, 서화정. (2023). 양자컴퓨팅을 이용한 양자 인공지능 기술 
동향. 정보보호학회지, 33(2), 57-67.
소프트웨어정책연구소. (2025.01.20.). 미국의 AI안전·신뢰성 정책 추진 현황과 시사
점. https://spri.kr/posts/view/23815?code=issue_reports
SPRi 이슈리포트 IS-204                                       양자컴퓨팅과 AI 융합 발전 가능성과 시사점
39
이종완. (2023). VPython으로 구현한 블로흐 구의 온라인 3차원 시뮬레이터. 새물
리, 73(11), 984-991.
황용수, 김태완, 백충헌, 조성운, 김송석, & 최병수. (2022). 결함허용 양자컴퓨팅 
시스템 기술 연구개발 동향. 전자통신동향분석, 37(2), 1-10.
[소프트웨어정책연구소]에 의해 작성된 [SPRI 보고서]는 공공저작물 자유이용허락 표시기준 
제4유형(출처표시-상업적이용금지-변경금지)에 따라 이용할 수 있습니다.
주      의
이 보고서는 소프트웨어정책연구소에서 수행한 연구보고서입니다. 
이 보고서의 내용을 발표할 때에는 반드시
소프트웨어정책연구소에서 수행한 연구결과임을 밝혀야 합니다.
양자컴퓨팅과 AI 융합 발전 가능성과 시사점
Convergence of quantum computing and AI: Potential advances and implications
경기도 성남시 분당구 대왕판교로 712번길 22 글로벌 R&D 연구동(B) 4층
Global R&D Center 4F 22 Daewangpangyo-ro 712beon-gil, Bundang-gu, Seongnam-si, Gyeonggi-do
www.spri.kr