해커들이 사이버 공격과 사기를 저지르기 위해 AI를 "무기화"하는 추세에 대해 어떻게 생각하시나요?

Nguyen Tuan Khang 박사: IBM의 2024 X-Force 위협 인텔리전스 지수에 따르면, 베트남을 포함한 아시아 태평양 지역은 2023년에 전 세계에서 가장 많은 사이버 공격을 받는 지역입니다. 그 중에서도 제조업은 사이버 공격을 가장 많이 받는 산업입니다.

악의적인 놈들의 주요 수법은 여전히 ​​취약한 대상을 표적으로 삼아 피싱 공격을 가하고, 취약점을 악용해 맬웨어를 설치하는 것입니다. 또한 2024년에는 인공지능(AI)을 활용한 사이버 공격이 새로운 트렌드로 떠오르고 있습니다.

Wired의 보도에 따르면, 많은 악의적인 사람들이 생성적 AI를 사용해 해킹을 유도하고, 사기성 챗봇을 만들거나, Deepfake를 사용해 다른 사람의 얼굴과 목소리로 된 가짜 이미지와 비디오를 만들고 있다고 합니다.

하지만 이러한 추세에 맞춰 정보 보안 시스템에도 WatsonX와 같은 AI 기능이 통합되기 시작했습니다. 인공지능은 활용될 수 있지만, 분석, 모니터링, 수치 식별, 공격 시나리오 예측 등에서 인간을 대체하여 방어 역량을 강화하고 정보 보안 위험을 최소화할 수도 있습니다.

W-nguyen-tuan-khang-ibm-1.jpg
사이버 보안 전문가 Nguyen Tuan Khang. 사진: Trong Dat

딥페이크 사기가 점점 더 흔해지고 있습니다. AI의 급속한 발전으로 인해 미래에는 이러한 공격이 얼마나 위험해질까요?

응우옌 투안 캉 박사: 기본적으로 딥페이크는 해커가 가짜 디지털 신원을 만들어 다른 사람을 사칭하는 데 도움이 되는 기술입니다. 딥페이크는 점점 더 정교해지는 기술이므로 위험한 문제가 될 것입니다.

딥페이크를 방지하려면 먼저 사람의 이미지나 음성이 AI가 생성한 것인지 확인해야 합니다. 공격자들이 끊임없이 새로운 모델을 개발하고 있기 때문에 현재로선 딥페이크를 즉시 감지할 수 있는 보편적인 도구는 없습니다.

딥페이크를 인식하는 것 외에도 이를 처리하는 또 다른 기술이 있는데, 바로 기술을 사용하여 행동을 분석하는 것입니다. 조직과 사업 관점에서 볼 때, 이 두 가지 기술을 결합한 시스템을 개발하는 것이 필요합니다.

최근 해커들이 기업 시스템에 악성 코드를 비밀리에 심는 사이버 공격이 발생하고 있습니다. 이 악성 소프트웨어는 잠복하여 모든 활동을 분석하고, 이를 통해 가짜 신원을 만들어 악의적인 의도를 실행합니다. 딥페이크 기술의 발전과 AI가 비디오를 생성할 수 있는 능력이 더해지면서, 앞으로 이런 유형의 공격은 훨씬 더 위험해질 것입니다.

딥페이크 사이버 공격이 확대됨에 따라, 노인, 어린이 및 기타 취약 계층을 사기꾼으로부터 어떻게 보호할 수 있을까요?

응우옌 투안 캉 박사: 노인과 어린이는 사회 공학이라는 기술을 사용하는 사기꾼의 공격을 받는 경우가 많습니다. 이는 인간의 행동을 조작하여 공격을 하는 것을 설명하는 용어입니다.

해커는 이제 AI를 데이터 수집, 마이닝, 분석과 결합하여 사기를 당할 가능성이 높은 사람을 식별한 다음 공격 방법을 찾을 수 있습니다. 대중의 인식을 높이는 것 외에도, 사용자가 속는 상황이 있을 수 있다는 사실을 받아들여야 하며, 이를 탐지하고 방지하기 위해 기술을 사용해야 합니다.

W-온라인-사기-1.jpg
탄르엉 구 경찰(하노이)이 경찰관을 사칭하여 송금 사기를 저지른 사례에 대한 경고입니다. 사진: Trong Dat

최근 은행 직원이 돈을 이체하러 온 노인 여성이 사기를 당한 흔적이 있다고 의심한 사건이 있었습니다. 그러자 그 사람이 적절한 시간에 차를 멈추고 당국에 신고했습니다. 이제 은행의 IT 시스템은 이러한 업무에서 인간을 대체할 수 있는 기술을 갖춰야 합니다.

기술의 역할은 돈을 이체하는 사람이 알려져 있더라도 다른 사람이 이 행동을 조종하고 있다고 의심되면 시스템이 여전히 이를 방지한다는 것입니다. 이러한 도구를 사기 방지, 위조 방지 시스템이라고 합니다.

베트남이 AI를 관리하고, AI 연구, 개발, 활용을 체계화하기 위한 제재를 가할 때가 아닐까요?

응우옌 투안 캉 박사: AI 관리에 대한 제재는 오랫동안 언급되어 왔지만, 여전히 논란의 여지가 많은 문제가 있습니다. 예를 들어, 제가 사는 지역의 주차장에는 차량 번호를 인식하는 AI 시스템이 있지만, 여전히 도난 사건이 발생합니다. 그러자 누구의 잘못인지를 두고 논란이 일어났다. 아파트 주인, 경비원, AI 시스템 개발자 중 누가 책임이 있을까?

그 이후 건물 측은 규칙을 변경하여 거주자가 편의를 위해 차량 번호판 인식 AI를 사용할 수 있도록 했지만, 그에 따른 위험을 감수해야 한다고 밝혔습니다. 동의하는 사람들은 자동문을 이용할 수 있고, 동의하지 않는 사람들은 옛날 방식대로 차를 주차해야 합니다. 우리는 그런 제재를 받아야 합니다.

마찬가지로 IBM은 암 예방에 도움이 되는 AI 시스템을 개발했습니다. 시스템이 약을 처방했는데도 환자가 복용 후에도 여전히 살아나지 않는 경우, 그것은 의사의 잘못인가, 아니면 인공지능의 잘못인가?

저는 AI에 대한 제재는 구체적으로 규제되어야 하며, AI 애플리케이션을 개발할 때 무엇을 할 수 있고 무엇을 할 수 없는지 명확히 명시해야 한다고 생각합니다. 세상을 더 안전하게 만들기 위해 우리가 할 수 있는 가장 기본적인 제재는 대규모 자금 이체에 생체 인증을 요구하는 것입니다. 이런 상황에서는 신원 정보를 잃어버린 사람이 돈을 잃는 일을 전혀 피할 수 있습니다.

감사합니다.

2024년에는 딥페이크 사기, 가짜 얼굴, 음성이 증가할 전망 VSEC의 예측에 따르면, 얼굴과 음성을 가짜로 만드는 딥페이크 사기를 비롯해 AI를 이용한 사이버 공격이 2024년에 증가할 것으로 전망됩니다.