
●기사 핵심 내용
・생성 AI를 악용한 ‘딥페이크’ 문제가 사회적 이슈로 부상. 연예인뿐 아니라 SNS에 사진을 올리는 모든 이가 잠재적 피해자가 될 수 있는 시대 도래. 법과 기술의 한계 노출.
・삭제 요청이나 법적 규제가 미흡한 가운데, 이미지에 노이즈를 추가해 AI 학습을 방해하는 ‘기술적 자구책’이 주목받음. 피해 발생 시 신속한 대응과 전문 기관 활용이 중요.
・AI의 편의성 이면에 개인의 존엄성이 무단으로 침해되는 현실. 개인 방어를 넘어 AI 기업과 사회가 ‘신뢰의 비용’을 어떻게 분담할지가 핵심 과제.
2025년 말 이후, SNS를 들여다보면 기이한 광경이 일상이 되어가고 있습니다. X(구 트위터)에 도입된 생성 AI ‘그록’ 등을 악용해 실존 인물의 사진을 동의 없이 성적으로 조작하고 유포하는 행위, 이른바 ‘딥페이크’ 문제입니다.
얼핏 보면 익명의 악성 사이버 괴롭힘이나 저급한 장난으로 치부될 수 있습니다. 하지만 이 현상의 본질은 훨씬 심각합니다. 단 한 장의 SNS 사진으로 누구나 ‘기술 폭력’의 피해자가 될 수 있는 현실에 우리는 직면해 있습니다.
더욱이 피해자는 연예인이나 인플루언서에 국한되지 않습니다. 평범한 직장인, 학생, 심지어 자녀를 둔 부모까지 – SNS에 얼굴이 나온 사진을 단 한 번이라도 올린 경험이 있다면 누구나 잠재적 피해자입니다.
이 문제에 우리는 어떻게 대응해야 할까요?
●목차
왜 ‘법’과 ‘플랫폼’은 항상 후속 조치에 그치는가
현재 한국에서는 AI를 이용한 불법 성적 이미지 조작에 대해 명예훼손죄, 모욕죄, 음란물 유포죄 등 기존 형법을 적용한 단속이 이뤄지고 있습니다. 또한 최근 개정된 ‘정보통신망법’에 따라 SNS 사업자들은 불법·유해 정보에 대해 신속한 삭제 조치를 취해야 합니다.
제도적으로는 진전이 있어 보이지만, 현장에서는 ‘여전히 역부족’이라는 목소리가 압도적입니다.
사이버 보안 전문가 김철수 씨는 이렇게 지적합니다.
「AI 생성 이미지의 까다로운 점은 ‘실존 인물을 기반으로 하지만, 이미지 자체는 창작물’이라는 모호한 영역에 있습니다. 삭제 요청은 받아들여져도 가해자 특정이나 형사 처벌에는 여전히 높은 장벽이 존재합니다」
가장 큰 문제는 한 번 인터넷에 유출된 자료는 완전히 삭제할 수 없다는 점입니다. 삭제된 이미지를 바탕으로 다른 AI가 새로운 가짜 이미지를 만들어냅니다. 복제는 무한히 증식하고, 피해는 장기화됩니다.
플랫폼 측도 ‘표현의 자유’와 ‘이용자 보호’ 사이에서 딜레마에 빠져 대응이 늦어지곤 합니다. 법과 운영 규정 모두 생성 AI의 진화 속도를 따라가지 못하고 있습니다. 이것이 우리가 직면한 현실입니다.
기술로 기술을 막는다: ‘데이터에 독을 타는’ 자구책
그렇다면 우리는 그저 피해를 기다려야만 할까요? 최근 주목받는 것이 기술로 기술을 방어하는 ‘디지털 자구책’ 개념입니다.
대표적인 예로 이미지 보호 도구인 ‘Glaze’와 ‘Nightshade’가 있습니다.
이들은 이미지에 육안으로는 거의 감지할 수 없는 미세한 노이즈를 추가해 AI의 이미지 인식을 의도적으로 방해하는 기술입니다. 사람 눈에는 일반 사진으로 보이지만, AI는 ‘피부와 옷의 경계를 구분할 수 없다’거나 ‘인체 구조가 이상하다’고 인식해 생성 결과가 왜곡됩니다.
「Nightshade의 원리는 쉽게 말해 ‘학습 데이터에 독을 타는 것’입니다. 자신의 이미지를 AI가 다루기 어렵게 만들어 무단 사용 위험을 줄이는 거죠. 완벽한 방어는 아니지만, 현재 개인이 취할 수 있는 몇 안 되는 대응책입니다」(김철수 씨)
물론 이런 도구들이 만능은 아닙니다. 앞으로 AI가 이에 대한 내성을 키울 가능성도 있습니다. 하지만 ‘아무것도 하지 않는 것’보다는 훨씬 현실적인 대안입니다.
피해를 당했을 때, 감정에 앞서 취해야 할 ‘3가지 행동’
자신이나 가족의 이미지가 무단으로 조작·유포됐다면 분노와 공포를 느끼는 게 당연합니다. 하지만 전문가들은 ‘초기 대응이 이후 결과를 크게 좌우한다’고 입을 모읍니다.
(1)증거 확보
스크린샷, URL, 게시 일시, 계정 ID를 저장하세요. 삭제 후에는 얻을 수 없는 정보가 법적 절차의 핵심이 됩니다.
(2)플랫폼에 신고 및 삭제 요청
‘AI 생성에 의한, 동의 없는 성적 이미지’임을 명확히 기재하세요. 개정법에 따라 사업자는 신속한 대응 의무가 있습니다.
(3)전문 기관 상담
경찰: 사이버범죄 신고 센터
변호사: 발신자 정보 공개 청구나 손해배상 청구 고려
한국인터넷진흥원(KISA): 삭제 지원 및 조언
‘침묵하지 않는 것’이 유사 피해를 줄이는 데 도움이 됩니다.
기업과 사회에 던지는 질문: ‘신뢰의 비용’을 누가 부담할 것인가
마지막으로, 이 문제를 개인의 자구 노력에만 맡겨둬도 되는지에 대한 더 큰 질문이 남습니다.
생성 AI는 비즈니스 생산성을 획기적으로 높이는 도구가 됐습니다. 하지만 그 이면에서 개인의 존엄과 인격이 무단으로 침해되고 있다면, 이는 건전한 혁신이라 할 수 없습니다.
「’가짜니까 괜찮다’는 사고방식은 매우 위험합니다. AI가 만든 이미지라도 피해자의 사회적 평판과 정신적 고통은 실재합니다. 플랫폼과 AI 기업들은 이런 ‘외부 비용’을 누가 떠안고 있는지 진지하게 고민해야 합니다」(김철수 씨)
‘AI로 타인의 신체를 함부로 다루는’ 행위가 왜 이렇게 쉽게 용인됐을까요? 그 배경에는 기술 발전 속도를 우리의 윤리적 상상력이 따라가지 못하는 현실이 있습니다.
이 문제는 결코 연예인만의 이야기가 아닙니다. 오늘 우리가 무심코 올린 한 장의 사진이 몇 달 후 자신이나 소중한 이를 해치는 ‘도구’가 되지 않으리란 보장이 없습니다.
지금 필요한 건 기술 규제만이 아닙니다. 기술을 ‘어떻게 사용할 것인가’에 대한 사회 전체의 확고한 합의가 필요합니다. 이를 소홀히 한다면 디지털 사회의 근간인 ‘신뢰’ 자체가 조용히, 그러나 확실히 무너질 것입니다.
(글=비즈니스 저널 편집부)













Most Commented