AI 기술이 발전하면서 이를 악용한 해킹 사례가 증가하고 있으며, 그 유형 또한 다양해지고 있습니다. 다음은 AI 해킹으로 인해 발생한 주요 피해 사례들입니다.
AI 기반 공격의 증가
- 해킹 3.0 시대: AI 기반 해킹은 자동화되고 지능적인 공격을 가능하게 하여 기존 보안 시스템을 우회하는 데 사용됩니다.
- 공격 자동화: AI는 피싱 캠페인을 자동화하여 설득력 있는 메시지를 대량으로 생성하고, 멀웨어가 실시간 탐지를 회피하도록 동적으로 적응시키는 데 활용됩니다.
- 다국어 피싱 공격: AI는 현지 문화와 언어에 맞춰 피싱 메시지를 자동 생성하여 공격의 성공률을 높입니다.



딥페이크 및 허위 정보 활용
- 소셜 엔지니어링 공격: 딥페이크 기술을 사용하여 신뢰할 수 있는 인물의 음성이나 영상을 만들어 민감한 정보를 유출하거나 금전적 이득을 취하려는 시도가 증가하고 있습니다. 예를 들어, CEO의 딥페이크 음성을 사용하여 재무 부서에 긴급 송금을 요청하는 이메일을 보내는 경우가 있습니다.
- 정치적·사회적 공격: 딥페이크는 정치적 인물의 허위 영상이나 음성을 만들어 여론을 조작하거나 선거에 영향을 미치기 위해 사용될 수 있으며, 이는 국가 안보에도 위협이 될 수 있습니다.
- 가짜 뉴스: AI는 가짜 뉴스를 생성하고 유포하는 데 사용되어 사회적 혼란을 야기하고, 잘못된 정보에 기반한 고위험 의사 결정을 유도할 수 있습니다.



데이터 유출 및 악성코드
- 데이터 유출: AI 모델은 학습용 훈련 데이터의 일부 또는 전체를 그대로 사용하거나, 비식별 처리된 민감 정보를 외부 정보와 결합하여 추측할 가능성이 있습니다.
- 악성코드 제작: AI는 악성코드 생성, 피싱 이메일 작성, 스미싱 메시지 제작 등에 활용되어 사이버 공격의 진입 장벽을 낮추고 있습니다.
- 유사 AI 모델 서비스: 정상적인 AI 모델 서비스를 사칭한 악성 URL을 제공하여 악성코드 배포를 시도하는 사례가 있습니다.



구체적인 피해 사례
- 카이토 AI 소셜 미디어 해킹: 카이토 AI는 소셜 미디어 계정이 해킹되어 가짜 뉴스가 유포되는 피해를 입었습니다. 해커들은 KAITO 토큰의 가격 하락을 유도하여 이익을 취하려 했습니다.
- 홍콩 금융회사 딥페이크 피싱: 홍콩의 한 금융회사에서 딥페이크 피싱으로 약 342억 원 상당의 피해가 발생했습니다. 사기범들은 화상 회의에서 고위 임원의 모습과 목소리를 딥페이크로 조작해 자금 이체를 지시했습니다.
- 삼성전자 기밀 유출: 삼성전자에서는 챗GPT 사용 중 기업 내부 정보가 유출되는 사고가 발생했습니다. 이는 AI 활용의 보안 위험성을 드러내는 사례입니다.



AI를 이용한 새로운 해킹 시도
- AI가 AI를 해킹: 한 AI 모델이 다른 AI 모델을 해킹하도록 유도하는 'J2' 방식이 개발되어, AI 시스템의 보안 취약점을 자체적으로 식별하고 우회하는 능력이 있음이 밝혀졌습니다.
- 잔소록스AI(Xanthorox AI): 사이버 공격과 프라이버시 침해 활동을 지원하기 위해 개발된 AI 플랫폼이 등장하여 멀웨어 제작, 취약점 이용, 데이터 분석 등을 자동화할 수 있다는 우려가 제기되고 있습니다.
- 몸캠 피싱: 몸캠 피싱은 딥페이크보다 더 치명적이며, 피해자들은 협박에 무방비 상태로 노출됩니다.



대응 방안
- 보안 인식 강화: AI 기반 피싱 공격과 사회 공학적 공격이 정교해짐에 따라, 기업은 보안 인식 교육을 강화해야 합니다.
- 위협 인텔리전스 활용: 글로벌 보안 위협 정보를 실시간으로 모니터링하고 AI 악용 사례를 신속하게 식별하는 것이 중요합니다.
- AI 모델 보안 강화: AI 모델의 학습 데이터 보호, 적대적 공격에 대비한 방어 메커니즘 개발, 정기적인 보안 감사가 필요합니다.
- 윤리적 및 법적 대응: AI 기술 악용을 방지하기 위한 법적 규제와 윤리적 가이드라인 마련이 중요합니다.
AI 기술은 사이버 공격의 양상을 변화시키고 있으며, 이에 대한 대비책 마련이 시급합니다.


