안내
뉴스 랭킹 이슈 오피니언 포럼
산업 속보창
Site Map
기간 설정
딜스탁론-딜사이트씽크풀스탁론
이원태 교수 "AI 보안 최대 리스크, 디지털 신뢰 상실"
최령 기자
2025.10.13 06:00:19
"모델·데이터 취약점부터 민관 협력까지…5년 내 'AI 보안 3강' 대비 시급"
이 기사는 2025년 10월 06일 16시 02분 유료콘텐츠서비스 딜사이트 플러스에 표출된 기사입니다.
이원태 국민대학교 특임교수가 1일 서울 서대문구에서 딜사이트와 인터뷰를 진행하고 있다. (사진=최령 기자)

[딜사이트 최령 기자] 인공지능(AI)의 급속한 확산이 보안의 판도를 바꾸고 있다. 네트워크 경계를 지키는 기존 방식으로는 더 이상 진화하는 위협을 막아내기 어렵고 AI 모델과 데이터 자체가 새로운 공격의 통로로 떠오르면서 국가 차원의 대응 필요성이 커지고 있다.


이원태 국민대학교 특임교수(전 한국인터넷진흥원 원장, 국가AI전략위원회 보안TF 리더)는 본지와의 인터뷰에서 "AI 보안은 기존 경계 방어식 보안으로는 대응할 수 없는 새로운 차원의 문제"라며 "모델과 데이터 자체가 공격의 취약점이 될 수 있는 만큼 선제적 대응이 필요하다"고 강조했다.


이 교수는 전통적 보안이 알려진 취약점 패치와 경계 방어에 집중됐다면 AI 보안은 시스템 내부의 취약점과 자동화된 공격까지 관리해야 한다는 점에서 본질적으로 다르다고 설명했다. 생성형 AI와 오픈소스 거대언어모델(LLM) 확산으로 누구나 공격 도구를 만들 수 있는 환경이 열리면서 피싱 메일 자동화, 음성·영상 딥페이크, 맞춤형 금융사기 등 새로운 위협이 급증하고 있다. 실제 해외에서는 기업이 AI 기반 보이스 피싱으로 거액의 피해를 입은 사례도 보고됐다.


특히 생성형 AI의 악용 확산은 시급한 과제로 꼽혔다. 그는 "딥페이크 영상뿐 아니라 음성을 정밀하게 위조해 개인정보나 계정을 탈취하는 사례가 늘고 있다"며 금융과 의료를 보안 사각지대가 우려되는 대표 산업으로 지목했다. 금융은 국민과 기업의 자산이 직결된 만큼 공격의 1순위 표적이 될 수밖에 없고 의료는 민감한 개인정보뿐 아니라 AI 진단 오류가 생명과 직결될 수 있어 피해가 치명적이라는 설명이다.

관련기사 more
AI 기본법 시행령, '진흥 우선' 내세웠지만 스타트업계 '혼란' 투심·성장성 정상궤도 '눈앞' '해킹 책임론' 김영섭 KT 대표, 사퇴압박 가중 과방위, 해킹사고 청문회…​KT 사후대처 미흡 "알고도 은폐"

이에 대응책으로는 ▲AI 위변조 탐지 ▲보안 검증 및 레드팀 테스트 ▲데이터 안전성과 프라이버시 보호 ▲AI 생성물 워터마킹 등이 꼽힌다. 그는 "AI 보안 대응을 위해 AI 생애주기 전반에 걸친 보안 체계를 마련해야 한다"며 "AI 모델은 완벽할 수 없으므로 취약점을 조기에 찾아내 보완하고 학습 단계부터 데이터 암호화와 개인정보 보호 장치를 적용해야 한다"고 강조했다.


법과 제도의 보완도 뒤따라야 한다는 지적이다. 내년 1월 시행을 앞둔 AI 기본법은 보안 사고 발생 시 책임 주체를 명확히 규정하지 못하고 있어 개발자·운영사·이용자 간 책임 소재를 분명히 하고 피해 구제 체계를 마련해야 한다는 것이다.


국내 기업들의 보안 관행에 대해서도 우려가 제기됐다. 그는 "AI 개발 속도에만 치우쳐 보안 검증 과정을 생략하는 경우가 많다"며 "사고가 발생하면 금전적 피해뿐 아니라 사회적 신뢰가 무너진다"고 경고했다. "AI 보안의 최대 리스크는 결국 디지털 신뢰 상실"이라는 것이다.


민관 협력 방안으로는 사이버 위협 정보 공유 체계가 필요하다고 제안했다. 그는 "민간 기업들이 가진 위협 데이터를 수집·분석·공유하는 AI 기반 협의체가 필요하다"며 미국에서 추진 중인 AI-ISAC(AI 정보공유분석센터) 모델을 한국에도 도입해야 한다고 말했다. 각 기관과 기업이 보유한 위협 정보를 익명으로 제출하면 정부와 전문가들이 이를 분석해 경보를 공유하고 공격 징후를 조기에 포착할 수 있다는 설명이다. 그는 정보 공유뿐 아니라 모의 해킹, 보안 훈련, 정책 공동 개발까지 아우르는 '코-레귤레이션(co-regulation)' 모델도 필요하다고 덧붙였다.


국가AI전략위원회가 나서 AI 보안 프레임워크를 마련하고, 기업들이 이를 적용·준수하도록 권고하는 정책적 장치가 필요하다는 제언도 나왔다. 그는 "기업들이 국가대표 AI 모델을 내세우고 있지만 실제로 안전한 프레임워크를 적용해 운영하는지는 알 수 없다"며 "정부가 보안 내재화 원칙을 제시하고 이를 평가·검증하는 구조를 만드는 것이 위원회의 당면 과제"라고 강조했다.


그는 인재 양성과 대응 공조의 필요성도 짚었다. 대학·연구기관·기업이 함께 AI 보안 전문 인력을 양성하고, 정기적인 합동 세미나와 모의훈련을 통해 최신 위협 동향과 대응 전략을 공유해야 한다는 것이다. 보안 사고 발생 시 민·관 합동 대응팀을 즉시 가동해 피해 확산을 막는 체계도 마련돼야 한다고 덧붙였다.


보안은 '비용'이 아닌 '투자'라는 인식 전환도 강조됐다. 경영진이 보안 투자 효과를 정량적으로 확인할 수 있도록 하고 투자 기업에는 인센티브를 제공하며 최고정보보호책임자(CISO)의 위상을 CEO 직속으로 격상해야 한다는 것이다.


거버넌스 방향성에 대해서는 특정 집단에 치우치지 않은 다층적 협력 구조가 필요하다고 평가했다. 정부·산업계·학계·시민사회가 함께 참여하는 유연한 의사결정 체계가 마련돼야 하며 최근 출범한 국가AI전략위원회가 그 출발점이 될 수 있다는 설명이다.


향후 5년 내 한국이 대비해야 할 핵심 과제로는 'AI 보안 3강' 달성이 꼽혔다. 그는 "AI 자체를 지키는 '시큐리티 포 AI(Security for AI)'와 AI를 활용해 방어하는 'AI 포 시큐리티(AI for security)'를 동시에 발전시켜야 한다"며 "제로 트러스트 아키텍처와 지능형 보안 시스템을 도입해 AI 시대에 맞는 보안 패러다임으로 전환하는 것이 국가적 과제"라고 말했다. 단순히 기술 경쟁력만 확보해서는 세계적 위치를 지킬 수 없으며 안전한 활용과 신뢰 확보까지 병행해야 진정한 의미의 'AI 3강'이 가능하다는 설명이다.


그는 이어 "제로 트러스트는 모든 접속과 데이터 흐름을 끊임없이 검증해 내부 위협까지 통제할 수 있는 차세대 아키텍처"라며 "사고가 발생해도 피해를 최소화하는 '사이버 복원력' 관점에서 반드시 도입돼야 한다"고 강조했다. 또 "AI가 공격 도구가 될 수 있는 시대인 만큼 역으로 AI를 가장 강력한 방어 수단으로 만들어야 한다"며 "이 두 축이 균형을 이룰 때 국가 차원의 신뢰 생태계가 구축될 것"이라고 덧붙였다.


국가 전산망 마비 사태에서 얻은 교훈도 강조됐다. 보안은 단순히 경계를 지키는 차원을 넘어 사고 발생 후 얼마나 빠르게 복구할 수 있느냐가 핵심이라는 것이다. 그는 "정보보호 관리체계(ISMS) 인증만으로는 충분하지 않다"며 "백업 시스템을 물리적으로 분리해 보관하고 정기적 복구 훈련을 상시화해야 한다"고 지적했다. 이러한 준비가 부족하면 랜섬웨어나 대규모 장애 발생 시 피해가 눈덩이처럼 커질 수 있다는 경고다.


끝으로 그는 "데이터와 시스템을 분리·격리해 복원력을 확보하고 위기 상황을 가정한 반복적 훈련을 통해 '사이버 복원력'을 키워야 한다"며 "AI 보안 시대에도 이 원칙은 유효하다"고 말했다.

ⓒ새로운 눈으로 시장을 바라봅니다. 딜사이트 무단전재 배포금지

딜사이트S VIP 3일 무료 체험
lock_clock곧 무료로 풀릴 기사
help 딜사이트 회원에게만 제공되는 특별한 콘텐트입니다.
무료 회원 가입 후 바로 이용하실 수 있습니다.
more
딜사이트 회원전용
help 딜사이트 회원에게만 제공되는 특별한 콘텐트입니다. 무료 회원 가입 후 바로 이용하실 수 있습니다.
회원가입
Show moreexpand_more
[딜사이트] M&A 포럼
Infographic News
2023년 월별 회사채 만기 현황
Issue Today more