시대의 이중 위협: 알고리즘 역기능, 신종 범죄 전망, 그리고 초국가적 대응 거버넌스 구축 전략
인공지능(AI) 기술의 발전은 사회의 다양한 영역에서 혁신과 효율성을 증진시키고 있으나, 동시에 기술의 오용 및 악용 가능성이라는 본질적인 '이중 사용 딜레마(Dual-Use Dilemma)'를 심화시키고 있다. AI 기술발전이 일상생활을 더욱 편리하게 만드는 동시에, 이러한 기술이 범죄에 악용될 수 있는 환경을 제공하고 있다. 특히 생성형 인공지능과 가상자산의 결합은 사이버범죄의 판도를 근본적으로 바꾸는 '게임 체인저'로 부상하며, 개인의 안전과 사회적 신뢰를 위협하는 새로운 차원의 문제들을 야기하고 있다. 본 보고서는 AI가 초래하는 구조적인 반윤리적 위험(Anti-Ethics)과 현실적인 신종 범죄 위협(Novel Crimes)을 심층 분석하고, 이에 대응하기 위한 기술적, 제도적, 법적 차원의 포괄적인 거버넌스 구축 전략을 제시하는 것을 목적으로 한다.
AI 기술의 내재된 윤리적 위험과 그로 인해 파생되는 실제 범죄 위험은 밀접하게 상호작용한다. 예를 들어, AI 시스템이 개발 단계에서 투명성(Transparency) 원칙을 충분히 준수하지 않아 의사 결정 과정이 '블랙박스화'되면, 사후에 이 시스템이 범죄에 악용되었을 경우 공격 경로와 취약점 추적이 극도로 어려워진다. 이는 윤리적 기준의 미준수가 직접적으로 범죄 대응 능력의 약화로 이어진다는 것을 의미한다. 이러한 문제 해결을 위해 한국 정부는 물론, Microsoft 등 글로벌 기업들 역시 책임 있는 AI(Responsible AI) 원칙과 투명성 확보 노력을 강조하고 있다. 또한 국내에서는 「2025년 한국 AI 거버넌스 백서」의 심층 논의 및 인공지능 윤리 기준 수립을 통해 거버넌스의 체계화를 시도하고 있다. AI 기술의 발전 속도와 악용 속도가 규범적/제도적 정비 속도를 앞지르고 있는 현 상황에서, 초국가적인 위협에 대응할 수 있는 거버넌스 구축은 더 이상 선택이 아닌 필수적인 과제로 인식되고 있다.

[AI 이미지]
인공지능 편향(AI Bias)은 AI 시스템에 내재되어 기존 사회의 편견, 차별, 고정관념을 강화하고 증폭시킬 수 있는 체계적인 차별을 의미한다. 이러한 편향은 주로 훈련 데이터의 불완전성(데이터 편향)이나 알고리즘 설계상의 결함(알고리즘 편향)에서 기인하며, 이는 채용, 대출, 사법 판결 등 민감한 사회 시스템에 적용될 경우 공정성을 심각하게 저해하고 사회적 약자에게 불평등한 결과를 초래한다.
이러한 편향 문제를 해결하기 위한 접근 방식 중 하나는 AI 기술 자체의 편향을 모니터링하고 예방하는 강력한 도구로 활용하는 것이다. 또한, 데이터 부족과 편향 문제를 해결하기 위해 개인정보 보호에 영향을 주지 않으면서 다양한 데이터 세트를 생성할 수 있는 합성 데이터(Synthetic Data)를 사용하여 훈련 세트를 보강하는 방안이 모색되고 있다. 궁극적으로는 공정성 고려 사항을 개발 라이프사이클의 초기 단계부터 통합하는 '설계에 따른 공정성(Fairness by Design)' 접근법이 요구된다.
그러나 AI를 편향 제거 도구로 사용하는 것에는 근본적인 딜레마가 내포되어 있다. AI가 편향을 줄이려면 편향된 데이터를 인지하고 교정해야 하지만, 이 교정 AI 역시 인간이 설정한 기준과 데이터로 훈련된다. 만약 교정 AI에 새로운 종류의 편향이 내재된다면, 이는 기존보다 더 복잡하고 은폐된 차별을 초래하는 '무한 퇴행적 검증(Regressive Verification)' 문제를 낳을 수 있다. 따라서 윤리 거버넌스는 단순한 기술적 해결책에 의존하기보다, 인간의 지속적인 감독과 감사(Audit) 체계를 필수적으로 요구한다.
한국의 「인공지능(AI) 윤리기준」은 인공지능의 개발부터 활용에 이르는 전 과정에서 정부, 기업, 이용자 등 모든 사회 구성원이 '사람 중심의 인공지능'을 구현하기 위해 참조할 수 있도록 수립되었다. 이 기준은 인간 존엄성, 사회 공공성, 기술 합리성의 3대 기본원칙과 인권보장, 프라이버시 보호, 투명성, 책임성, 안전성 등을 포함하는 10대 핵심요건으로 구성된다. 이는 기업의 자율성을 존중하고 기술 발전을 장려하기 위해 법적 구속력이 없는 자율 규범의 형태로 제시되었으며, 분야별 세부 지침 수립의 기반이 되는 것을 목적으로 한다.
이러한 자율 규범 중심의 접근 방식은 AI 산업의 빠른 혁신을 촉진하는 장점이 있지만, 치명적인 제도적 한계를 안고 있다. 이는 '규범 비대칭성(Asymmetry of Norms)' 문제를 발생시킨다. 즉, 선의의 윤리적 기업에게는 자율 점검표를 활용하여 규범을 준수할 동기를 부여하지만, 악의적인 행위자—예를 들어 다크웹에 등장한 AI 기반 피싱 도구인 'FraudGPT'를 개발하고 사용하는 범죄 조직—에게는 이러한 자율 규범이 전혀 적용되지 않는다. 범죄 조직이 규범을 무시하고 기술을 악용하는 속도가 윤리를 준수하려는 기업의 속도보다 빠를 때, 사회 전체의 위험은 극대화된다. 따라서 잠재적인 피해를 최소화하고 국민 안전을 보장하기 위해서는 인권 및 안전과 관련된 핵심적인 10대 요건 중 일부에 대해 법적 강제성을 동반한 최소한의 안전망(Legal Safety Net) 구축이 시급하다.
AI 시스템의 책임 소재는 기술 복잡성으로 인해 점점 더 모호해지고 있다. AI 개발자, 서비스 제공자, 최종 이용자 간의 책임 경계가 불분명하며, 특히 자율 해킹 도구나 자동화된 공격 시스템을 이용한 범죄의 경우 법적 책임을 추궁하기가 매우 어렵다. 이러한 '블랙박스' 모델의 투명성 부족은 불합리한 AI 결정에 의한 피해 구제 및 소명 과정을 사실상 불가능하게 만든다.
글로벌 차원에서는 이러한 책임 소재 문제를 해결하기 위해 투명성 확보 노력을 강화하고 있다. Microsoft와 같은 선도 기업들은 책임 있는 AI 투명성 보고서를 발표하며 AI 구축부터 고객 지원에 이르는 전 과정의 책임성을 명시하려 노력하고 있다. 이러한 맥락에서, AI 윤리 핵심 요건이 반윤리적 결과로 이어지는 구체적인 경로를 분석하는 것이 중요하다.
Table 1. AI 윤리 핵심 요건 대비 반윤리적 실패 유형 분석
| AI 윤리 핵심 요건 (출처: ) | 관련 기술 영역 | 반윤리적 실패 유형 (Anti-Ethical Outcome) | 주요 현상/사례 |
| 다양성 존중 | 데이터 학습/모델 설계 | 알고리즘 편향 및 차별의 체계화 | 채용, 사법 판결, 대출 승인에서의 불공정 강화 |
| 인권 보장 및 프라이버시 보호 | 데이터 수집/생성 모델 | 디지털 인격권 침해 및 착취 | 딥페이크 기반 성적 착취, 사생활 데이터 노출 |
| 책임성 및 안전성 | 시스템 운영 및 자율 행동 | 책임 소재 불분명성 및 통제 불능 | 자율 해킹 도구(FraudGPT)의 광범위한 악용 |
| 투명성 | 알고리즘 설명 및 공개 | 의사결정 블랙박스화 | AI의 불합리한 피해 결정에 대한 피해 구제 및 소명 어려움 |
이러한 대비 분석은 윤리 강령의 준수가 이상적인 원칙을 넘어 구체적인 사회적 피해를 예방하는 현실적인 안전장치임을 보여주며, 거버넌스 부재가 초래하는 사회적 위험 비용을 명확히 제시한다.
AI 기술의 발전은 전화금융사기(보이스피싱) 수법을 극도로 정교화하고 있다. 특히 딥페이크(Deepfake) 및 딥보이스(Deepvoice) 기술을 악용한 지능형 사기 범죄는 사회적 충격을 주고 있다. 범죄 조직은 인공지능 기술을 활용하여 피해자의 자녀와 유사하게 얼굴을 합성한 가짜 영상을 제작하거나, 자녀의 목소리를 복제하여 마치 납치된 것처럼 흐느끼거나 돈을 요구하는 가짜 음성을 생성한다.
이러한 범죄 수법은 부모와 자식 간의 특수성을 이용해 심리적 압박을 극대화하는 데 중점을 둔다. 범인은 피해자에게 자녀가 감금된 영상을 전송하거나, 통화를 끊지 못하게 협박함으로써 피해자가 상황을 판단할 여유를 가질 수 없도록 압박하며 즉각적인 송금을 요구한다. 실제로 지난 10월경 외국인 부모를 대상으로 딥페이크를 악용한 자녀 납치형 전화금융사기가 발생했으며, 이러한 범죄 유형은 단순히 금전적 피해를 넘어, 사회적 신뢰와 인식 기반 자체를 붕괴시키는 '인식론적 위기(Epistemological Crisis)'를 가속화한다. 딥페이크 기술이 완벽에 가까워지면, 가족과의 영상 통화나 음성 통화조차 그 진위를 판단할 수 없게 되며, 이는 안전 확인을 위한 전통적인 수단마저 무력화시킨다. 또한 딥페이크 및 딥보이스 기술 학습에는 실제 인물의 영상, 사진, 목소리 등이 필요하기 때문에, 사회관계망 서비스(SNS) 등에 공개된 본인과 가족의 데이터가 범죄 조직의 표적이 될 수 있다는 점은 디지털 환경에서의 개인 정보 관리의 중요성을 극명하게 보여준다.
AI는 범죄의 효율성과 규모를 증대시키는 핵심 도구가 되고 있다. 다크웹에 등장한 인공지능 기반 피싱 도구인 'FraudGPT'는 기업 임직원을 사칭하여 송금을 유도하는 사기 수법(BEC 공격)을 더욱 정교하고 빠르게 실행할 수 있도록 지원하며, 기업의 보안 위협을 심각하게 만들고 있다. 이러한 자율 해킹 도구의 상용화는 공격의 자동화, 타겟팅의 정교화, 그리고 대규모 공격 실행 능력을 부여하여 사이버 위협의 수준을 한 단계 높인다.
해커들은 AI 기술을 활용하여 보안 취약점을 자동 분석하고 새로운 유형의 악성코드를 신속하게 개발하고 있다. 이는 AI 기반 보안 시스템이 사이버 공격에 대한 방어력을 강화하는 동시에, 공격자 역시 AI를 활용하여 방어 시스템의 한계를 우회하려는 '창과 방패'의 기술 경쟁을 심화시킨다. 기술의 발전과 확산에 따라 이러한 AI 기반 범죄 위협은 더욱 증가할 것으로 예상된다.
생성형 AI의 지능화된 범죄 수법은 가상자산과의 결합을 통해 국경 초월적인 위협으로 진화하고 있다. AI는 복잡한 가상자산 거래 경로를 분석하거나, 추적을 회피하는 지능형 자금세탁 수법을 고도화하는 데 사용된다. 이러한 지능형 자금세탁의 급증은 법 집행기관이 금융 인프라를 추적하는 속도보다 범죄 자금의 이동 속도가 훨씬 빠르다는 '집행 속도의 격차'를 발생시킨다. 이 때문에 사후 수사로는 자금 회수에 한계가 있으며, 범죄 계좌를 사전에 차단하는 예방적 금융 치안 시스템의 중요성이 극대화된다.
또한 딥페이크 기술은 섹스토레이션(Sextortion) 및 기타 디지털 착취 범죄에 악용되어 젠더 기반 폭력과 청소년 범죄의 새로운 도구가 되고 있다. 경찰청 통계에 따르면 관련 범죄 피의자의 약 70%가 10대이며 피해자의 95%가 여성인 것으로 나타나, 이는 기술 악용이 초래하는 사회적 폭력의 심각성을 보여주며 교육적, 사법적 대응의 시급성을 요구한다.
AI 기반의 신종 범죄에 대응하기 위한 핵심 전략은 AI를 이용해 AI 범죄를 제압하는 '이이제이(以夷制夷)' 방어 모델이다. 이는 'AI vs. AI'의 기술 경쟁에서 우위를 점하는 것을 목표로 한다.
기술 개발 측면에서, 통신사들은 AI가 픽셀 단위로 영상을 분석하여 합성 여부를 가려내거나, 부자연스러운 얼굴 경계면이나 움직임, 부자연스러운 목소리 등 딥페이크 영상의 특징을 분석하여 판별력을 높이는 탐지 기술을 개발 및 상용화하고 있다. 이러한 탐지 기술의 개발 속도는 매우 중요하며, 특히 사기범들이 피해자에게 판단할 시간을 주지 않기 위해 실시간 영상 통화를 요구하는 점을 고려할 때, 서버 기반이 아닌 최종 사용자 기기(스마트폰 등)에서 즉각적으로 합성 여부를 판별하는 온디바이스 기술로의 최적화 및 경량화(Optimization/Miniaturization)가 필수적이다. 이 경량화 학습의 성패가 실질적인 '골든 타임' 내 대응을 보장하는 기술적 병목이 될 것이다.
한편, 사이버 보안 영역에서는 AI 기반 보안 시스템의 도입이 필수적이다. AI 기반 보안 솔루션은 해커들의 지능화된 공격에 대응하여 실시간 위협 탐지, 자동 대응, 이상 징후 분석 등 기존 시스템의 한계를 보완하는 다양한 기능을 제공한다. AI 기술은 안티바이러스 및 안티말웨어 시스템에 적용되어 새로운 유형의 악성코드를 신속하게 탐지할 수 있으며, 호스트기반 침입탐지 시스템(HIDS)은 엔드포인트 장치에서 발생하는 비정상적인 활동을 조기에 감지하여 공격을 선제적으로 차단한다.
신종 AI 범죄에 효과적으로 대응하기 위해서는 기존의 개별 기관 중심의 사후 대응 방식으로는 한계가 있다. 이에 따라 사후 치안(Post-Crime Policing)에서 AI 기반 사전 치안(Pre-Crime/Predictive Policing)으로의 패러다임 전환이 강력하게 요구되고 있다.
정부는 이 문제를 해결하기 위해 경찰청 등 유관기관 통합적 협력체계를 구축하고 있다. 이러한 노력들이 실질적인 대응체제로 연결되길 기대한다.
금융 부문에서는 예방 중심의 선제 대응 전략의 핵심으로 '보이스피싱 AI 플랫폼(가칭)'을 구축한다. 이 플랫폼은 최신 보이스피싱 수법 패턴 분석을 거쳐 전 금융권 등의 범죄 계좌를 사전에 차단하는 데 활용될 예정이다. 또한, 국회 AI 포럼 등을 통해 AI 치안 혁신이 신종 범죄 대응의 핵심 해법이라는 인식이 공유되고 있으며, 산학연, 정부, 국회 간의 긴밀한 협력을 통해 치안 AI 국정과제 추진 및 입법적 근거 마련이 진행 중이다. 경찰청은 AI 및 가상자산 관련 신종 사이버범죄에 대한 전쟁을 선포하고, 이에 대응하기 위한 범죄수법 분류체계 개선 연구를 진행하는 등 사법 역량을 강화하고 있다.
Table 2. AI 기반 신종 범죄 수법과 대응 전략 매트릭스
| 신종 범죄 수법 | AI 악용 기술 | 주요 피해 양상 | 핵심 대응 전략 (기술/제도) | 적용 전략 모델 |
| 딥페이크 납치 빙자 사기 | 딥페이크, 딥보이스 | 극심한 심리적 압박, 즉각 송금 유도 | 24/7 통합대응단 신고, AI 영상/음성 온디바이스 탐지 | 골든타임 대응 |
| 지능형 기업 이메일 사기 (BEC) | FraudGPT, LLM (자연어 생성) | 정교한 사칭을 통한 대규모 기업 자금 편취 | AI 기반 실시간 위협 탐지 및 보안 솔루션 도입 | 사전 방어 (Pre-emption) |
| 가상자산 연계 지능형 자금세탁 | 복잡한 가상자산 경로 분석 AI | 국경 초월 금융 범죄 및 불법 자금 은닉 | 금융 부문 AI 플랫폼을 통한 범죄 계좌 사전 차단 | 예측 치안 (Predictive Policing) |
| 디지털 성 착취 (Sextortion) | 딥페이크, LLM 기반 심리 조작 | 젠더 기반 폭력, 청소년 피해 심화 | 피해자 보호 및 금융 인프라(가상자산) 추적 시스템 강화 | 범죄 금융 인프라 마비 |
AI 기술 발전 속도에 맞추어 법제도적 환경을 구축하는 것이 시급하다. 현재 자율 규범으로 제시된 「인공지능(AI) 윤리기준」 중 인권 보장, 프라이버시 보호, 안전성, 책임성 등 국민 안전과 직결되는 핵심 요건들에 대해서는 법적 구속력을 부여하는 방안을 적극적으로 검토해야 한다. 이는 악의적 행위자에 의한 기술 악용을 방지하고 시장의 규범 비대칭성을 해소하는 최소한의 장치가 될 것이다.
또한, 보이스피싱 등 AI 기반 금융 사기 피해가 발생했을 때, 피해를 더 이상 개개인의 부주의 탓으로 돌리지 않고 대포폰 개통 관리 책임을 강화하며, 사고 발생 시 금융기관 등 예방 책임이 있는 주체가 배상 책임을 지도록 법제화해야 한다. 이러한 배상 책임의 명확화는 금융 및 통신 기관의 예방적 노력 투자를 유도하는 강력한 정책적 기제가 될 것이다.
AI와 가상자산을 이용한 신종 범죄는 본질적으로 국경을 초월하는 특성을 지닌다. 이에 대응하기 위해서는 범정부적 대응 및 민관 협력 강화와 더불어, 국제적인 공조가 필수적이다. 경찰청은 '2025 국제 사이버범죄대응 학술대회(ISCR 2025)' 등을 통해 국경 초월 위협에 대한 국제 공조 해법을 모색하고 있다.
향후 딥페이크/딥보이스 범죄나 지능형 자금세탁에 효과적으로 대응하기 위해서는 유관기관 및 해외 수사기관 간에 실시간 정보 공유 및 공조 시스템을 구축해야 한다. 특히, 범죄 계좌 사전 차단에 활용되는 AI 플랫폼의 정보 연계를 국제적인 차원으로 확장하기 위한 데이터 공유 프로토콜 및 법적 기반을 마련하는 것이 시급하다.
AI 시스템의 편향 문제를 해결하고 공정성을 확보하기 위해서는 개발 초기 단계에서의 제도적 개입이 필요하다. '설계에 따른 공정성(Fairness by Design)' 접근법을 단순히 권고하는 수준을 넘어, 공정성 고려 사항을 AI 개발 라이프사이클에 통합하도록 의무화하는 정책적 강제가 필요하다.
또한, 데이터 부족과 편향 문제 해결, 그리고 동시에 개인정보 보호를 확보하기 위해 합성 데이터(Synthetic Data) 기술 개발 및 활용을 적극적으로 지원해야 한다. 합성 데이터는 실제 개인정보 유출 위험 없이 다양한 훈련 데이터를 생성할 수 있는 혁신적인 대안이며, 공공 영역에서 윤리적인 AI 시스템 개발을 위한 핵심 인프라로 자리매김할 필요가 있다.
AI 기반 범죄에 대한 국민의 인식 수준을 높이는 것이 가장 기본적인 방어 전략이다. 피해 예방을 위해 국민들은 딥페이크 및 딥보이스 기술이 범죄에 악용될 수 있음을 반드시 숙지하도록 교육해야 한다.
특히, 범죄 조직이 AI 학습 표적으로 삼을 수 있는 SNS 데이터 관리에 대한 주의를 높여야 한다. 가족의 영상, 사진, 목소리 등을 불특정 다수가 볼 수 있는 공개 설정으로 게시하는 것을 지양하도록 홍보해야 한다.
납치 빙자 사기 등 AI를 악용한 긴급 상황 발생 시, 피해자들이 두려움 때문에 신고를 주저하는 범죄 조직의 노림수를 염두에 두고, 무조건 경찰에 신고하거나 통화가 곤란할 경우 문자메시지로 112에 신고하여 자녀의 안전을 확인하는 등 구체적인 행동 수칙을 체계화하고 홍보 콘텐츠로 제작하여 국내외에 적극적으로 전파해야 한다.
AI 기반 치안 서비스(치안 AI 혁신)는 단순 경찰력 보완을 넘어 위험 지역에서도 안전하고 효율적인 대응을 가능케 하는 핵심 공공 안전 인프라로 정의되어야 한다. 이를 위한 연구개발 예산 확보와 기술 사업화 지원이 필수적이다.
국회 AI 포럼 등은 치안 AI 국정과제 추진을 위해 국회, 현장 경찰관, AI 개발자, 정부, 산학연, 민간기업 간의 긴밀한 협력과 초당적 정책 지원이 필요하다는 데 뜻을 모았다. 이러한 협력 생태계는 기술 발전에 발맞추어 입법과 정책이 산업 생태계를 뒷받침할 수 있도록 하는 동력이 될 것이며, AI 기반 신종 범죄 대응 역량 강화를 실질적으로 지원할 것이다.
Table 3. AI 시대 범죄 대응을 위한 제도적 혁신 로드맵
| 전략 축 | 기존 패러다임 (사후 대응 중심) | 필요한 혁신 패러다임 (선제 예방 중심) | 주요 정책 수단 |
| 치안 시스템 | 기관별 분산 대응, 평일 주간 운영 | 24시간 연중무휴, 통합적 실시간 대응 체계 | 보이스피싱 통합대응단 확대, 사전 치안 AI 도입 |
| 금융 보안 | 피해 발생 후 계좌 지급 정지/회수 시도 | 최신 수법 패턴 기반 범죄 계좌 사전 차단 | 보이스피싱 AI 플랫폼 구축, 금융기관 배상 책임 강화 |
| 거버넌스 | 비구속적 자율 규범 중심 | 위험 기반 강제 규범 (Risk-based Mandatory Norms) 도입 | 핵심 윤리 요건의 법제화, 공정성 설계 의무화 |
| 법 집행 | 전통적인 범죄 분류 및 수사 기법 | AI 기반 지능형 범죄 전문 수사 및 국제 공조 | 범죄수법 분류체계 개선 연구, 국제 협력 시스템 강화 |
AI 기술의 급격한 발전은 알고리즘 편향이라는 구조적 위험뿐만 아니라, 딥페이크 사기, 자율 해킹 도구(FraudGPT), 지능형 자금세탁 등 고도화된 신종 범죄라는 직접적인 위협을 초래하고 있다. 이러한 위협은 단순히 재산 피해를 넘어, 인간이 디지털 세상에서 무엇을 믿고 의지할 수 있는지에 대한 근본적인 신뢰를 붕괴시키는 '인식론적 위기'를 야기한다.
성공적인 AI 시대의 안전 확보는 다음 세 가지 축에 대한 근본적인 혁신에 달려 있다. 첫째, 기술적 측면에서 'AI 대 AI'의 이이제이 방어 모델을 강화하고, 실시간 대응을 위한 온디바이스 탐지 기술 및 AI 기반 보안 시스템 도입을 가속화해야 한다. 둘째, 제도적 측면에서 기존의 사후 치안 중심에서 24시간 연중무휴 통합 대응단과 AI 플랫폼을 통한 선제적 예방 치안으로 패러다임을 전환해야 한다. 셋째, 법적 측면에서 비구속적 자율 규범의 한계를 인정하고, 인권 및 안전 관련 핵심 윤리 요건에 법적 강제력을 부여하여 '규범 비대칭성'을 해소해야 한다.
궁극적으로 초국가적이고 지능화된 AI 범죄 위협에 대응하기 위해서는 경찰청이 국제 협력을 강화하고, 국회, 정부, 산학연, 민간이 초당적으로 협력하여 치안 AI 인프라 구축에 지속적인 연구 개발 투자를 단행하는 것이 필수적이다. 이러한 포괄적이고 선제적인 거버넌스 구축 전략만이 안전하고 신뢰할 수 있는 AI 강국으로의 도약을 보장할 수 있을 것이다.