Glossary



용어 설명 상세(출처)

AI 거버넌스(AI Governacer) AI 거버넌스는 인공지능을 개발하고 사용하는 과정 전반을 책임감 있고 윤리적으로 관리하기 위한 정책과 규범, 제도, 절차를 말한다. 정부뿐 아니라 기업, 시민사회 등 여러 주체가 참여해 공정성, 투명성, 설명 가능성, 프라이버시 보호 같은 원칙을 지키도록 돕는 관리 체계이다. 이를 통해 AI가 편향되거나 위험하게 쓰이지 않도록 하고, 실제 서비스에 적용될 때 사회적 가치에 맞게 운영되도록 한다. 또한 기술적 도구를 활용해 AI의 성능과 규제 준수 여부를 실시간으로 점검하면서 신뢰할 수 있는 AI 환경을 만드는 데 목적이 있다.
상세(참고) 열기 접기

1. 거버넌스는 전통적으로 국가의 통치 방식을 지칭해 왔으며, 최근 들어서는 중앙집권적 국가 모델의 한계를 넘어 다양한 이해당사자가 협의를 거쳐 공동의 문제를 해결하는 실천적 대안을 의미하는 개념으로 활용된다. 따라서 ‘AI 거버넌스’는 AI 개발, 사용 및 배포와 관련한 정책, 규범, 법률 및 제도를 통칭하며, 정부의 행위뿐만 아니라 사회의 각 부문에서 나타나는 행동, 규범 및 제도를 포함하는 것으로 이해된다. 다만 아직은 AI 거버넌스가 태동 단계에 있어 그 정의나 범위에 대한 명확한 합의가 없이 다양한 맥락에서 사용되고 있다.(김호철, 인공지능 거버넌스, 2024, 커뮤니케이션북스, p. 8–9.)

2. AI 거버넌스는 인공지능이 윤리적이고 안전하며 신뢰성 있게 작동하도록 관리하는 정책과 절차, 그리고 기술적 도구를 모두 아우르는 개념이다. 이를 통해 공정성, 투명성, 설명 가능성, 규제 준수 등을 체계적으로 확보하며, 조직 차원에서는 리더십과 책임 분담, 윤리 원칙의 내재화가 강조된다. 특히 기술적 거버넌스 도구는 모델과 데이터를 실시간으로 점검하고 편향, 성능 저하, 규제 위반 같은 문제를 자동으로 모니터링·기록해 신속한 대응을 가능하게 함으로써, 복잡한 AI 시스템을 효율적이고 신뢰성 있게 운영할 수 있도록 돕는다.(Tim Mucci and Cole Stryker, “What Is AI Governance?,” IBM Think, 2024년 10월 10일, 2025년 7월 27일 접속, https://www.ibm.com/think/topics/ai-governance.)

3. 거버넌스는 일반적으로 다음과 같이 정의할 수 있다. 정부, 민간 부문, 시민사회 등 다양한 행위자들이 각자의 이해관계를 표출하고 상충되는 입장을 조정하며, 법적 권리와 의무를 행사하는 사회에서, 권력과 권한이 어떻게 사용되고 행사되는지를 나타내는 과정이다.(Sakiko Fukuda‑Parr and Ricardo Ponzio, Governance: Past, Present and Future; Setting the Governance Agenda for the Millennium Declaration (Morocco: Fourth Global Forum, 2002), 2.)

4. 거버넌스는 정부와 마찬가지로 학계에서 적어도 네 가지 의미를 가진다고 설명된다. 즉, 구조(structure), 과정(process), 메커니즘(mechanism), 그리고 전략(strategy)이다. ‘구조로서의 거버넌스는 공식적·비공식적 제도의 구조를 뜻하며, 과정으로서의 거버넌스는 끝없이 이어지는 정책결정 과정 속에서의 역동성과 조정 기능을 뜻한다. 메커니즘으로서의 거버넌스는 의사결정, 준수, 통제(또는 도구)의 제도적 절차를 뜻하며, 마지막으로 전략으로서의 거버넌스는 선택과 선호를 형성하기 위해 제도와 메커니즘의 설계를 지배하고 조정하려는 행위자들의 노력을 뜻한다’.(David Levi‑Faur, The Oxford Handbook of Governance (New York: Oxford University Press, 2012), 3.)

5. AI 거버넌스는 AI 시스템의 개발·배포·활용을 책임감 있고 윤리적으로 이끌기 위해 정책, 프로세스, 프레임워크를 수립하는 것을 의미하며, 이는 알고리즘 편향, 투명성 부족, 사회적 영향 등 AI 기술이 야기하는 복잡한 문제를 해결하기 위한 구조적 장치로 정의된다. 논문에서는 AI 거버넌스가 조직 차원에서 기존의 기업 거버넌스, IT 거버넌스, 데이터 거버넌스와 함께 통합되어야 한다고 강조한다. 또한 AI 거버넌스는 공정성, 투명성, 책임성, 프라이버시 보호와 같은 윤리 원칙을 실제 프로세스로 전환하여 조직이 AI 사용의 이점과 위험을 동시에 관리하도록 한다. 궁극적으로 AI 거버넌스는 조직이 AI를 신뢰할 수 있고 사회적 가치에 부합하게 운영하도록 돕는 관리 체계로 설명된다.(Lokesh Agarwal, Defining Organizational AI Governance and Ethics (Jaipur: Manipal University Jaipur, 2023), 2025년 7월 27일 접속, https://ssrn.com/abstract=4553185.)

6. 우리는 책임 있는 AI 거버넌스를 다음과 같이 정의한다. AI의 전 생애주기 동안 적절한 기능을 보장하기 위해 안전하고 신뢰할 수 있으며 윤리적인 방식으로 AI 애플리케이션을 개발, 배포, 모니터링하기 위한 일련의 실천들이다.(Emmanouil Papagiannidis, Patrick Mikalef, and Kieran Conboy, “Responsible artificial intelligence governance: A review and research framework,” Journal of Strategic Information Systems 34 (2025): 6, https://doi.org/10.1016/j.jsis.2024.101885.)

AI 리터러시(AI Literacy) AI 리터러시란 '읽고, 이해하고, 비판적으로 해석하며, 상황에 맞게 활용하는 능력'이라는 '리터러시'의 기본 의미를 인공지능에 적용한 개념이다. AI의 작동 원리와 그 한계 및 사회적 영향력을 함께 인식하고, 다양한 맥락에서 AI를 책임감 있게 활용하는 역량을 뜻한다.

상세(참고) 열기 접기

1. AI 리터러시는 인공 지능의 기능, 한계 및 윤리적 고려 사항을 포함하여 인공 지능의 다양한 측면을 이해하고 이를 실용적인 목적으로 사용하는 능력으로 정의됩니다. 이는 학습자가 AI 기술과 AI 응용에 대한 이해에서 비판적 사고를 발휘하는 것을 수반할 수 있습니다.(Alice Gomstyn, Alexandra Jonker, “AI 리터러시란 무엇인가요?” IBM Korea, AI 리터러시: 인공 지능 기술 격차 해소 IBM Think, 2025년 1월 18일, 2025년 8월 31일 접속, https://www.ibm.com/kr-ko/think/insights/ai-literacy.)

2. 디지털 리터러시에 대한 이론적 논의에서는 최근 AI를 다루는 역량이 포함되어야 하는 필요성 하에서 AI 리터러시를 하나의 하위 영역과 세부 능력 중 하나로 다루고 있다. 그러나 최근 AI 기술이 매우 빠르게 보편화되고 확산되고 있는 환경변화에 AI 리터러시를 독립된 개념으로서 새로운 리터러시의 영역으로 다루고자 하는 이론적 시도들이 늘어나고 있다(Kandhofer et al., 2016; Lee et al., 2021; Long & Margeko, 2021). 기술의 발전과정을 반영한 리터러시의 변화상을 고려해보면 AI 리터러시가 기존에 정의되어온 디지털 리터러시, 미디어 리터러시와 관련성을 갖추고 하나의 발전된 리터러시 개념으로 간주할 수 있다. 그러나 기존 리터러시 개념으로는 AI 리터러시를 완전하게 대체하고 설명하기에는 한계가 있다(Wang et al., 2022). 왜냐하면 AI 기술이라는 것은 디지털 기술의 하나의 범주에 포함되기는 하지만 컴퓨터과학, 정보과학, 심리학, 사회학, 언어학, 철학과 같은 다양한 많은 주제를 포함하고 있는 학제 간 분야이기 때문이다(Russell & Norvig, 2002). 이처럼 학제 간 교차점은 AI 리터러시와 디지털 리터러시의 차이점을 나타내기도 한다.(황현정, 황용석, AI 리터러시 개념화와 하위차원별 세부 역량 도출에 관한 연구. 사이버커뮤니케이션학보 40(2), (2023): 89–148.)

3. “AI 리터러시는 AI로 인해 변화하는 문화에 적응하고 이를 비판적으로 인식할 수 있는 능력이다. 나아가 AI에 대한 이해를 바탕으로 자신의 미래를 설계하고 자신의 삶을 디자인해낼 수 있는 능력을 배양하는 것을 목표로 한다. 이는 AI로 인한 새로운 시대에서 주체적인 인간이 되도록 하기 위한 기초적 능력인 것이다.”(이유미, “AI 시대의 리터러시 특성에 관한 연구 - AI 리터러시와 관계 리터러시를 중심으로,” 어문연구 110, (2021): 281-302.)

4. 우리는 AI 리터러시를 개인이 AI 기술을 비판적으로 평가하고, AI와 원활하게 소통·협력하며, 온라인·가정·직장 등에서 AI를 효과적인 도구로 활용할 수 있게 하는 역량의 집합으로 정의한다.(Duri Long, Brian Magerko, “What is AI literacy? Competencies and design considerations.” Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems (2020): 2.)        

AI 알고리즘(AI Algorithm) 머신 러닝 알고리즘은 작업 수행을 위한 규칙 집합으로, 데이터에서 인사이트를 찾거나 예측한다. AI 알고리즘은 학습(learning)과 예측(prediction)으로 나눌 수 있다. 학습 알고리즘은 데이터 분석을 통해 규칙을 추출하며, 예측 알고리즘은 학습된 규칙을 기반으로 새로운 결과를 추론한다.

상세(참고) 열기 접기

1. 머신 러닝 알고리즘은 AI 시스템이 작업을 수행하기 위해 사용하는 일련의 규칙 또는 프로세스로, 주로 새로운 데이터 인사이트와 패턴을 발견하거나 주어진 입력 변수 세트에서 출력 값을 예측하기 위해 사용됩니다. 알고리즘은 머신 러닝(ML)이 학습할 수 있도록 합니다. 머신 러닝 알고리즘에는 지도 학습, 비지도 학습, 준지도 학습 및 강화 학습과 같은 네 가지 유형이 있습니다.  예산, 필요한 속도 및 정밀도 요구 사항에 따라 각 유형과 변형에는 고유한 이점이 있습니다. 고급 머신 러닝 알고리즘에는 딥 러닝, 신경망, 자연어 처리 등 다양한 기술이 필요하며 비지도 학습과 지도 학습을 모두 사용할 수 있습니다.(IBM, 2025년 9월 7일 접속, https://www.ibm.com/kr-ko/think/topics/machine-learning-algorithms.)

2. 인공지능이란 특정 목적을 위해 설계된 컴퓨터 알고리즘으로, 주어진 입력에 기반해 자동으로 과업을 처리한다. 이는 개발자가 직접 컴퓨터에 알고리즘을 입력하는 기존의 방법과 달리, 데이터를 기반으로 컴퓨터가 스스로 알고리즘을 학습한다는 점에서 큰 차이가 있다. 그래서 인공지능 알고리즘을 ‘알고리즘을 위한 알고리즘’이라고도 부른다. 학습 알고리즘에서 ‘학습(Learning)’은 주어진 데이터를 분석해 특정 작업을 수행할 수 있는 규칙이나 패턴을 발견하는 과정을 뜻한다. 학습 알고리즘의 역할은 데이터로부터 주어진 과업을 수행할 알고리즘을 찾아내는 것이다. 예측 알고리즘에서 ‘예측(Prediction)’은 학습된 모형을 사용하여 새로운 데이터에 대한 결과를 추론하는 과정을 말한다. 즉, 예측 알고리즘은 학습 알고리즘을 통해 학습되며, 특정 과업을 수행하는 역할을 한다. 이 두 알고리즘의 역할과 작동 원리를 이해하는 것은 인공지능의 기본 원리를 이해하는 데 매우 중요하다.(김용대, “알고리즘의 기본 개념과 작동 원리,” SK Hynix Newsroom, 2024년 4월 29일, https://news.skhynix.co.kr/all-around-ai-2/.)


GPT-4 OpenAI가 개발한 GPT 시리즈 네번째 언어 모델이다. GPT-4는 대규모 데이터 세트로 학습된 언어 모델로, 텍스트 생성과 문맥 분석에 능숙하다. 학습 측면에서 긍정적인 어휘를 더 많이 사용하고 혐오 표현 등 부정적인 표현을 회피하도록 설계하였으나, 2025년 OpenAI의 한 관계자는 창의적 자유를 극대화하는 것을 목표로 혐오를 상징하는 표현 규제를 일부 풀었다고 발표하였다.

상세(참고) 열기 접기

1. GPT-4(Generative Pre-trained Transformer 4)는 오픈AI가 개발한 멀티모달 대형 언어 모델이자 GPT 모델 시리즈 중 4번째이다. 2023년 3월 14일에 출시되었으며 ChatGPT 플러스를 통해 한정된 형태로서, 대기 목록을 통해 제공되는 상용 API의 접근을 통해서 공개되었다. 변환기로서 GPT-4는 다음 토큰을 예측하기 위해 미리 훈련되었다. 관찰자들은 GPT-4 기반 버전의 ChatGPT가 이전(GPT-3.5 기반) ChatGPT 대비 개선이 있지만 GPT-4에 일부 동일 문제가 있다고도 보고했다. 전작들과 달리 GPT-4는 문자 외에도 이미지를 입력으로 받을 수 있다. 오픈AI는 GPT-4 모델의 크기 등 기술 정보의 공개를 거부했다.(위키백과, 2025년 6월 23일 접속, https://ko.wikipedia.org/wiki/GPT-4.)

2. GPT는 버전 1부터 3까지 발전을 거듭한 후, InstructGPT와 같은 특수 목적의 변형 모델을 출시하며 점차 성능을 향상시켰다. GPT-1은 라벨이 없는 데이터인 비지도 데이터를 사용하여 모델을 초기 학습을 시키는 비지도 사전 학습과 특정 작업에서 더 높은 성능을 발휘하도록 라벨이 있는 데이터를 활용하여 추가 학습을 시키는 지도 미세조정 단계를 결합한 학습 방식을 적용한 언어 모델이다(Radford et al., 2018). 이후 기존의 접근법과는 달리 수백만 개의 웹페이지로 구성된 WebText와 같은 새로운 데이터 세트를 사용하여 비지도 사전 학습을 통해 훈련된 GPT-2의 발전으로 이어졌다(Radford et al., 2019). 이후에 등장한 GPT-3의 경우, GPT-2에 비해 100배 이상 큰 1,750억개의 매개변수를 가지며 예제를 제공하지 않는 Zero-shot learning과 단일 예제만을 제공하는 One-shot learning 외에도 더 많은 예제를 제시하는 Few-shot learning에서도 성능 향상을 보였다(Brown, 2020). 언어 모델이 사용자의 지시에 더 잘 따를 수 있도록 인간의 피드백을 추가 학습시키는 강화 학습(Reinforcement Learning with Human Feedback)을 적용한 모델인 InstructGPT로 발전해왔다(Ouyang et al., 2022). 현재 최신 모델인 GPT-4는 텍스트뿐만 아니라 이미지와 텍스트를 동시에 입력받아 처리하는 다중 모달(multi-modal) 모델로 발전하였으며, 변호사 시험과 같은 고급 학술적 벤치마크에서 인간 수준의 성능을 발휘한다(Achiam et al., 2023). GPT-4는 GPT-3과 동일한 구조를 기반으로 하지만, GPT-3.5보다 최신 데이터 세트를 사용하고, 모델 크기와 컨텍스트 길이를 확장함으로써 현저한 성능 향상을 이루며 더욱 복잡한 작업을 처리하는 데 유리한 요소로 작용하고 있다(Koubaa, 2023).(심혜미, 이은송, 이만유. "정치적 담화에서의 개념적 은유 분석을 위한 AI 모델의 활용과 한계: GPT-4를 통한 실험적 연구" 언어과학연구  no. 111 (2024): 25-45.)

3. 언어 사용자 중심 분석에는 성별어 분석과 에세이 내 문장에 대한 감성 분석을 진행하였다. 성별어 분석 시 GPT-4는 성별별 기호어, 혐오어를 거의 사용하지 않아 성별에 편향되어 있지 않음을 확인할 수 있었다. 또한 인간에 비해 성별 공통 고빈도 기호어를 더 많이 사용하고 성별 공통 고빈도 혐오어는 회피하는 경향을 보였다. 이와 대조적으로 인간은 성별별 표현을 상대적으로 더 많이 사용하고, 성별 공통 고빈도 기호어보다는 고빈도 혐오어를 더 자주 사용하였다. 감성 분석의 경우에도 GPT-4가 부정보다는 긍정적인 감성을 훨씬 더 높은 비율로 드러내었으며, 인간의 경우에는 반대로 나타났다. 이를 토대로 GPT-4의 경우 학습 측면에서 긍정적인 어휘를 더 많이 사용하고 혐오 표현 등 부정적인 표현을 회피하도록 설계되었음을 유추할 수 있다.(박서윤, 강예지, 강조은, 김유진, 이재원, 정가연, 최규리 and 김한샘. "GPT-4를 활용한 인간과 인공지능의 한국어 사용 양상 비교 연구" 국어국문학 no. 206 (2024): 5-47.)

4. 오픈AI의 조앤 장 모델행동 총괄은 지난 27일(현지시간) 자신의 블로그와 엑스(X·옛 트위터)에 올린 글을 통해 자사의 새로운 AI 모델 출시에 따른 콘텐츠 정책 변경 내용을 알렸다. 이는 오픈AI가 지난 25일 출시한 '챗GPT-4o 이미지 생성'(ChatGPT-4o Image Generation) 모델에 대한 것으로, 샘 올트먼 오픈AI 최고경영자(CEO)는 이 모델 출시를 "창의적 자유를 허용하는 데 있어 새로운 주요 이정표"로 강조했다고 장 총괄은 전했다. 그는 또 '창의적 자유를 허용하는' 부분에 대해 추가로 설명하겠다면서 "우리는 민감한 영역에 대한 포괄적인 거부에서 현실 세계에서의 실제 피해를 방지하는 데 초점을 맞춘 더 정밀한 접근 방식으로 전환하고 있다"고 밝혔다. 이어 "AI 연구소 직원들은 사람들이 무엇을 만들고 무엇을 만들지 말아야 할지 허용하는 중재자가 되어서는 안 된다"며 "우리는 실질적인 피해를 방지하면서 창의적 자유를 극대화하는 것을 목표로 삼았다"고 부연했다. 그러면서 이런 정책 변경의 몇 가지 사례로 공인 관련 이미지와 특정 집단에 모욕적일 수 있는 콘텐츠, 혐오를 상징하는 표현 등을 제시했다. 공인 이미지와 관련해 오픈AI는 '지위'에 관계없이 모든 사람에게 공정하고 동등하게 정책을 적용하기를 원한다면서 "우리는 '충분히 중요한 사람'이 누구인지 판단하는 중재자가 되기보다 우리 모델에 의해 묘사될 수 있는 누구든 (이미지 생성 허용 여부를) 스스로 결정할 수 있도록 옵트-아웃 목록을 만들기로 했다"고 설명했다. 이는 이미지 생성 모델이 기본적으로 유명인을 포함해 모든 사람의 이미지를 모방할 수 있게 하고, 당사자가 이를 원하지 않는 경우에만 이미지 생성이 제한되도록 하겠다는 것이다. 장 총괄은 불쾌하거나 모욕적인 콘텐츠의 사례로는 "이 사람의 눈을 좀 더 아시아인처럼 보이게 해달라"거나 "이 사람을 좀 더 뚱뚱하게 해달라" 같은 요청을 AI 생성기가 그동안 거부했으나, 이제는 그런 제한을 두지 않겠다는 방침을 밝혔다. 정보기술(IT) 매체 테크크런치는 실제로 챗GPT-4o 이미지 생성기에 테스트한 결과, 이런 유형의 요청을 그대로 받아들이는 것을 확인했다고 전했다. 장 총괄은 또 혐오 상징 표현의 사례로 나치를 상징하는 스와스티카 같은 문양을 들어 이것이 교육적이거나 문화적인 맥락에서 사용될 수 있다면서 "그것들을 완전히 금지하면 의미 있는 대화와 지적인 탐구까지 없앨 수 있다"고 설명했다. 그러면서 "대신에 우리는 유해한 오용을 더 잘 식별하고 거부할 수 있는 기술적 방법을 반복하고 있다"고 덧붙였다. 테크크런치는 오픈AI의 이런 정책 변경에 대해 "챗GPT는 오픈AI가 이전에 허용하지 않았던 도널드 트럼프나 일론 머스크, 다른 유명 인사들의 이미지를 생성하고 수정할 수 있게 됐다"며 "이제 AI 콘텐츠 관리를 둘러싼 문화 전쟁이 대두될 수 있다"고 지적했다.(임미나, “오픈AI, 이미지 생성 제한풀어…"유명인·혐오표현 묘사 가능" 우려,” 연합뉴스, 2025년 3월 31일, https://www.yna.co.kr/view/AKR20250331035100075.)


SOTA AI(State-of-the-Art AI) SOTA AI는 최첨단 AI 기술이나 모델을 뜻한다. 즉 각 분야에서 해당 시점에 가장 뛰어난 성능을 가진 인공지능이다.

상세(참고) 열기 접기

1. SOTA는 “State-of-the-Art”의 약자로, 특정 분야에서 가장 앞선 성능을 보이는 기술이나 모델을 의미한다. 이러한 모델들은 고성능 컴퓨팅, 대규모 데이터 세트, 그리고 혁신적인 알고리즘의 결합을 통해 기존의 기술적 한계를 뛰어넘는다.(설동준, SOTA AI 모델 (서울: 커뮤니케이션북스, 2025), 8.)

2. SOTA AI 모델은 특정 분야에 국한되지 않고 자연어 처리(NLP), 컴퓨터 비전(CV), 의료, 금융, 자율 주행 등 다양한 영역에서 활용되고 있다. 예를 들어, GPT 모델은 텍스트 생성뿐만 아니라 번역, 요약, 프로그래밍 등 다양한 용도로 사용되며, 비전 트랜스포머(ViT)는 이미지 분석과 자율 주행, 의료 영상 처리에서 뛰어난 성능을 보인다. 또한 알파폴드(AlphaFold)는 단백질 구조 예측을 혁신하며 신약 개발에 기여하고 있으며, 스테이블 디퓨전(Stable Diffusion)은 창의적 콘텐츠 제작의 패러다임을 변화시키고 있다.(황세웅, 『SOTA AI 모델』 출판사 서평 (서울: 커뮤니케이션북스, 2025), 2025년 9월 7일 접속, https://product.kyobobook.co.kr/detail/S000216047783.)


감시자본주의(Surveillance Capitalism) 감시자본주의는 개인의 경험과 행동 데이터를 수집한 후 그 사람이 앞으로 어떤 행동을 할지 예측한 정보 자체를 상품으로 전환해 수익을 창출하는 데이터 중심의 자본주의 체제이다. 여기서 이용자는 ‘소비자’가 아닌, 데이터 생산자이자 감시 대상으로 간주된다. 그 결과로 생성된 예측 정보는 실제 고객인 광고주나 기업에게 판매되거나, 개인의 결정 구조에 개입하는 방식으로 재투입된다. 즉 이처럼 예측 가능한 미래 행동이 ‘상품’으로 거래되는 것이 감시자본주의의 핵심이다. 감시자본주의는 단순한 경제 모델이 아니라 자율성·사생활·민주주의에 구조적 위협을 가하는 사회-기술적 권력 체계로 볼 수 있다. 

상세(참고) 열기 접기

1. 소셜미디어가 점점 더 많은 시간을 차지하고 많은 사람들이 정보를 이해하고 의견을 발표하고 소통하는 중요한 장소가 되면서, 정보의 정확성과 이견의 포용성 등에 대한 관심은 ‘감시자본주의’에 휘말려 정치적 불안감을 형성한다. 이에 따라 사이버 세계에서의 권위적 경향은 촉각을 곤두세우는 대상이 됐으며, 근래에는 반복적으로 논란거리로 부각되기도 했다.(량청린, 홍명교, 게임제너레이션, “<오웰> - ’감시자본주의’ 시대의 정치 불안”, 2025년 8월 5일 접속, https://www.gamegeneration.or.kr/article/90247b49-f361-4f64-8dfb-66ccd209a434.)

2. 거대한 규모와 경제 비중을 가진 빅테크 기업의 시장 독점이 고착화되면서, 독점적 지위의 플랫폼 기업은 데이터들을 사용하여 부당하게 사회의 가치를 취득하고 나아가 민주주의를 위협할 수 있게 위치에 서게 되었다. 정보통신 플랫폼 기업들은 인간의 경험을 자원으로 활용해 상품을 만들어 이윤을 얻고 있는데, 이 경제에 대해 하버드 경영대학의 쇼샤나 주보프(Shoshana Zuboff)는 ‘감시자본주의(Surveillance Capitalism)’라는 이름을 붙였다. 주보프는 인간의 경험이 플랫폼 기업의 예측 상품의 자원이 되는 과정, 즉 감시자본주의의 메커니즘을 다음과 같이 설명한다. “감시 자본주의 역시 이러한 패턴을 따른다. 하지만 여기에는 일종의 어두운 반전이 추가된다. 그것은 인간의 경험을 무상 원료의 원천으로 만들고, 또한 시장의 힘에 종속시켜 행동 데이터로 재탄생하게 된다는 것이다. 그런 다음 이러한 행동 데이터를 최신 컴퓨터의 능력과 결합시켜 인간의 행동을 예측한다. 그래서 이 모든 행동 데이터들은 [이른바 기계 지능, 기계 학습, 인공 지능으로 불리는] 21세기 어두운 사탄의 맷돌 속으로 줄을 이어 들어간다. 그 목적은 새로운 종류의 생산물 즉 예측을 쏟아 내기 위해서다.”. 감시 자본주의라는 표현은 자본주의의 역사의 새로운 국면을 장식하기 때문이라고 주보프는 말한다. 하지만 중요한 점은 감시 자본주의가 시장 자본주의의 패턴을 모방한다는 사실이다. 감시자본주의는 인간의 행동 데이터와 섀도 텍스트에게 시장의 힘을 관철시킨다. 하지만 감시자본주의는 이용자가 사용상의 혜택을 누리기 위한 행위 과정에서 발생된 데이터들이 새로운 시장 형태에서 가치 창출의 중심이 된다는 점에서 차이점이 발생한다.(임정기, “『보다 정의』 창간준비2호,” 정의정책연구소, 2021년 3월 3일, http://www.justice-platform.org/home/post_view.php?nd=53.)

3. 쇼사나 주보프는 2020년 출간한 <감시자본주의의 시대(The Age of Surveillance Capitalism)>라는 책에서 인간의 경험을 원자재 삼아 상품과 서비스를 만들어내는 경제에 ‘감시자본주의’라는 이름을 붙였다. 기존의 상품과 서비스를 개선하기 위해 필요한 것 이상으로 ‘잉여적인’ 행동 데이터를 수집하고, 이를 이용해 소비자가 지금, 곧 미래에 무엇을 할지 예측하는 상품을 만들어내 수익을 얻는 자본주의를 뜻한다. 데이터 수집을 위한 핵심적인 활동은 감시다. 주보프에 따르면 감시자본주의에 속하는 기업의 진짜 소비자는 이용자가 아닌 기업이다. 이용자는 기업에 맞춤형 광고를 제공하는 데 필요한 데이터를 만들어내는 존재로 축소된다. 이용자를 끌어모으기 위해 페이스북은 사회관계망 서비스를, 구글은 검색과 이메일, 스마트폰 운영체제 등을 유인책으로 제공한다. 개인정보와 사생활은 ‘공짜’ 서비스를 얻기 위한 대가가 됐다. ‘열린 인터넷’이라고 하지만 닫힌 알고리즘의 세계이고, ‘연결성’을 강조하지만 알고리즘이 추천한 연결일 뿐이다. ‘개인화’라고 하지만 우리가 선택하는 게 아니라 알고리즘이 선택한 틀 안에서만 선택권을 누릴 수 있다. 감시자본주의는 우리에 대해서 거의 모든 것을 알지만, 우리는 데이터 수집·활용이 어떻게 이뤄지는지 알기 어렵다. 주보프는 이에 대해 “감시자본주의는 인간 역사에서 비교 대상을 찾을 수 없을 정도로 지식과 권력에서의 비대칭성을 누리고 있다”며 “이런 과정을 사회적 지식 축적의 사유화로 이해할 수 있다”고 말했다. … 감시자본주의는 정보의 삭제권과 잊힐 권리를 보장하거나 유해 콘텐츠 제재 등 정부나 사법부의 조치를 ‘부당한 규제’로 선전했다. 온라인 서비스의 초국적 성격을 강조하며 국가 규제를 회피한다. 기술 혁신이 빠르게 이뤄지기 때문에 정부는 규제해선 안 되며, 사회문제를 기술로 해결할 수 있다고 강조한다. 디지털 기술은 소비자의 권리를 취약하게 만들기도 한다. 개인정보처리 방침이 담긴 약관이 디지털로 바뀌면서 수시로 변경되고 양도 많아져 기업에 유리하다. 한마디로 “더 나은 결정을 내릴 수 있도록 하는 능력을 준다”고 하지만 이를 거부할 권리는 주지 않는다. 주보프 교수는 “산업 자본주의가 자연을 훼손했듯, 감시자본주의는 자유로운 결정을 내릴 인간 본성에 위협이 된다”고 경고했다. 이 때문에 감시자본주의를 ‘위로부터의 쿠데타’라고 표현했다.(주영재, “‘감시자본주의’에 뺏긴 인간의 자유 의지,” 경향신문, 2020년 7월 4일, https://www.khan.co.kr/article/202007041951001.)        


개인정보보호법(PIPA, Personal Information Protection Act) 「개인정보 보호법」은 개인정보 보호에 관해 규정한 일반법으로, 개인정보의 유출, 오용, 남용으로부터 사생활의 비밀 등을 보호함으로써 국민의 권리와 이익을 증진하고 개인의 존엄과 가치를 구현하기 위하여 개인정보의 처리에 관한 사항을 규정하고 있다.

상세(참고) 열기 접기

1. 「개인정보 보호법」은 개인정보 보호에 관해 규정한 일반법으로, 개인정보의 유출, 오용, 남용으로부터 사생활의 비밀 등을 보호함으로써 국민의 권리와 이익을 증진하고 개인의 존엄과 가치를 구현하기 위하여 개인정보의 처리에 관한 사항을 규정하고 있습니다. 개인정보보호법은 1. 적용대상, 2.보호범위, 3. 개인정보 수집·이용·제공 기준, 4. 개인정보의 처리 제한, 5.영상정보 처리기기 규제, 6. 개인정보 유출 통지 및 신고제 도입, 7. 정보주체의 권리 보장, 8.안전조치 의무, 9.가명정보의 처리에 관한 특례 도입 을 규정하고 있습니다. 일반법인 「개인정보 보호법」과 달리 금융 등 개별 분야의 개인정보 보호에 관한 사항을 규정하는 신용정보법과 같은 개별법은 「개인정보 보호법」에 대해 특별법의 지위에 놓이게 됩니다.이렇게 하나의 사안에 적용할 수 있는 일반법과 특별법이 있을 경우, 특별법 우선의 원칙에 따라 신용정보법과 같은 개별법이 우선 적용됩니다.(개인정보보호위원회, “정보주체의 권리,” 개인정보보호 포털, 2025년 7월 28일 접속, https://www.privacy.go.kr/front/contents/cntntsView.do?contsNo=36.)

2. 딥페이크 범죄의 경우 개인정보보호법보다 딥페이크 처벌법 (「성폭력범죄의 처벌 등에 관한 특례법」 개정안(제14조의2 허위영상물 등의 반포 등 관련))이 우선할 수 있다. [참고] 일반법과 특별법의 의미를 살펴보면, 일반법이란 어떤 사항에 관하여 널리 일반적으로 규정한 법령으로서 그 효력이 미치는 범위(사람, 지역, 기간 등)에 특별한 제한이 없으며, 특별법이란 그와 같은 사항에 관하여 일반법보다 제한된 일정한 범위를 정하여 그 효력을 미치도록 규정한 법령을 말합니다. 이렇게 일반법과 특별법을 구분하는 실익은 법 적용과 해석에 있어서 동일한 사항에 대하여 일반법과 특별법이 함께 존재하는 경우 특별법이 일반법에 우선하여 적용되고, 특별법의 규정이 없는 경우에 한하여 일반법이 보충적으로 적용된다는데 있습니다 (보통 “특별법 우선의 원칙”이라고 함).(대한민국 정부, “[법령상식] 법을 일반법과 특별법으로 구분하는 실익은 무엇인가요?,” 정책브리핑, 2004년 5월 21일, https://www.korea.kr/news/policyNewsView.do?newsId=65031799.)


검색 증강 생성(RAG, Retrieval-augmented generation) 검색 증강 생성은 인공지능이 답을 만들 때, 사전에 학습된 데이터만 사용하지 않고 외부에서 필요한 정보를 찾아와 함께 활용하는 기술이다. 먼저 데이터베이스나 문서에서 관련 있는 정보를 검색한 뒤, 그 자료를 대규모 언어 모델(LLM)에 입력하여 근거를 갖춘 답변을 생성한다. 이 과정 덕분에 RAG는 더 정확하고 맥락에 맞는 결과를 제공할 수 있으며, 최신 정보나 특정 분야의 지식을 반영하는 데 유용하다. 

상세(참고) 열기 접기

1. RAG(검색 증강 생성)는 정보 검색과 텍스트 생성을 결합하여 더 정확하고 맥락에 맞는 답변을 만들어 내는 인공지능 프레임워크이다. (IBM Think, “What Is Retrieval-Augmented Generation (RAG)?,” 2025년 7월 27일 접속, https://www.ibm.com/think/topics/retrieval-augmented-generation.)

2. RAG는 데이터베이스에서 관련 있는 문서를 검색해 가져오고, 그 문서들을 대규모 언어 모델에 입력하여, 해당 문서들을 근거로 한 답변을 생성하는 방식으로 작동한다. (Prompting Guide, “Retrieval‑Augmented Generation (RAG),” 2025년 7월 27일 접속, https://www.promptingguide.ai/techniques/rag.)

3. RAG는 LLM의 한계를 보완하기 위해 고안된 혁신적인 자연어 처리 기술이다. 이 기술은 인덱싱 (Indexing), 검색(Retrieval)과 생성(Generation)이라는 세 가지 주요 요소를 결합해서 사용자가 원하는 답변을 생성할 때 학습된 데이터에만 의존하지 않고 외부 데이터 소스를 활용할 수 있도록 한다. RAG는 언어 모델의 생성 능력과 외부 지식 검색의 장점을 결합해서 더 정확하고 상황에 맞는 응답을 제공할 수 있다.(한국지능정보사회진흥원, 검색증강생성(RAG) 기술의 등장과 발전 동향 (NIA ISSUE REPORT, 2024), 3, citing Patrick Lewis et al., “Retrieval‑Augmented Generation for Knowledge‑Intensive NLP Tasks,” arXiv: 2005.11401 (2020).)

4. 검색 증강 생성(RAG)은 검색기(retriever)와 생성기(generator)를 결합하여 외부 지식을 검색하고, 더 정확하고 사실적인 응답을 생성함으로써 대규모 언어 모델(LLM)의 능력을 확장하는 효과적인 패러다임이다.(Yunfan Gao et al., “Retrieval‑Augmented Generation for Large Language Models: A Survey,” arXiv (2023), 2, https://arxiv.org/abs/2312.10997.)


기계학습(Machine Learning, ML) 기계 학습 또는 머신 러닝은 컴퓨터가 명시적인 규칙 없이도 방대한 데이터를 기반으로 스스로 패턴을 학습하고, 그 경험을 바탕으로 미래 상황을 예측하거나 의사 결정을 수행할 수 있도록 하는 인공지능(AI)의 한 분야이다. 전통적인 프로그래밍이 사람이 모든 규칙을 입력해야 했다면, 기계 학습은 데이터를 통해 규칙과 구조를 추론하며 시간이 지날수록 정확도와 성능이 향상된다. 예를 들어, 이메일이 스팸인지 아닌지 구분하거나 이미지 속에서 고양이를 알아볼 수 있다.

상세(참고) 열기 접기

1. 기계학습은 “경험을 통해 학습하도록 컴퓨터를 프로그래밍함으로써 종국적으로는 자세한 프로그래밍을 할 필요가 없도록 만드는” 컴퓨터 과학의 한 분야이다(Samuel, 1959). 개발자가 일일이 프로그래밍하지 않은 특정한 과업 수행 방법을 스스로 익힐 수 있는 능력을 기계나 컴퓨터에게 주는 것이다. 기계학습에서 ‘학습’이라는 말에는 어떤 과업을 수행하는 컴퓨터 프로그램의 성능이 점차 향상된다는 뜻이 담겨있다.(오세욱, 이소은, 최순욱, “기계와 인간은 커뮤니케이션할 수 있는가?,” 정보사회와 미디어, 18(3), (2017): 65.) 

2. 머신 러닝(Machine Learning)또는 기계 학습은 컴퓨터와 기계가 인간의 학습 방식을 모방하여 작업을 자율적으로 수행하고, 경험과 더 많은 데이터에 대한 노출을 통해 성능과 정확도를 향상시킬 수 있도록 하는 데 중점을 둔 인공 지능(AI)의 한 분야이다. 딥 러닝(Deep Learning)과 머신 러닝(Machine Learning)은 같은 의미로 사용되는 경향이 있지만, 둘 사이에는 미묘한 차이가 존재한다. 머신 러닝, 딥 러닝, 신경망은 모두 인공 지능의 하위 분야이다. 그러나 신경망은 실제로 머신 러닝의 하위 분야이며, 딥 러닝은 신경망의 하위 분야이다. 딥 러닝과 머신 러닝의 차이는 각 알고리즘이 학습하는 방식에 있다. '딥' 머신 러닝은 레이블이 지정된 데이터 세트(지도형 학습이라고도 함)를 활용하여 알고리즘에 정보를 제공할 수 있지만, 레이블이 지정된 데이터 세트가 반드시 필요한 것은 아니다. 딥러닝 프로세스는 텍스트나 이미지와 같은 원시 형태의 비정형 데이터를 수집할 수 있으며, 다양한 범주의 데이터를 서로 구별하는 기능 집합을 자동으로 결정할 수 있다.(IBM, “머신 러닝(ML)이란 무엇인가요?,” 2025년 7월 27일 접속, https://www.ibm.com/kr-ko/think/topics/machine-learning.) 

3. 기계 학습(機械學習) 또는 머신 러닝(Machine learning, ML)은 경험을 통해 자동으로 개선하는 컴퓨터 알고리즘의 연구이다. 방대한 데이터를 분석해 ‘미래를 예측하는 기술’이자 인공지능의 한 분야로 간주된다. 기계 학습은 복잡한 패턴에 대한 학습을 통해 상황에 대한 예측과 의사 결정을 돕는다. 컴퓨터가 학습할 수 있도록 하는 알고리즘과 기술을 개발하는 분야이다. 가령, 기계 학습을 통해서 수신한 이메일이 스팸인지 아닌지를 구분할 수 있도록 훈련할 수 있다. 기계 학습의 핵심은 표현(representation)과 일반화(generalization)에 있다. 표현이란 데이터의 평가이며, 일반화란 아직 알 수 없는 데이터에 대한 처리이다.(위키백과, https://ko.wikipedia.org/wiki/기계_학습, 검색일자 2025년 7월 27일) 

4. 딥페이크는 인공 지능, 더 정확하게는 머신러닝을 사용하여 제작된 오디오와 비디오 파일을 설명하는 용어를 나타낸다. 이러한 합성 동영상 조작은 이른바 생성적 적대 신경망(GAN: generative adversarial network)으로 제작된다. 생성적 적대 신경망은 기본적으로 비지도 학습(Unsupervised Learning)에 사용되는 인공지능 알고리즘(지도 학습, Supervised Learning에도 사용 가능)으로, 더 정확한 결과를 도출하기 위해서 서로 경쟁하는 두 개의 신경 네트워크 시스템에 의해 구현되는 머신러닝 모델을 뜻한다.( 김민재, “딥페이크를 식별하는 방법,” Science on, 2023년 12월 11일, https://scienceon.kisti.re.kr/srch/selectPORSrchTrend.do?cn=SCTM00254521.)


기술매개 성폭력(Technology-Facilitated Sexual Violence, TFSV) 기술매개 성폭력은 스마트폰, 인터넷, SNS 같은 디지털 기술이 이용돼 온오프라인에서 벌어지는 젠더 기반 폭력이다. 불법촬영과 촬영물·개인정보에 대한 협박 및 유포뿐 아니라 괴롭힘, 스토킹, 통제, 명예훼손 등도 포함된다. 기술과 매개된 공간에서 피해자의 몸과 정보를 통제하거나 착취하는 방식으로 나타나며, 단순히 ‘음란성’과 ‘성적 수치심을 유발’하는 것 만으로 한정짓고 판단하기는 어렵다.

상세(참고) 열기 접기

1. 기술매개 성폭력(Technology-Facilitated Sexual Violence, TFSV)은 가상과 대면 상황에서 성적인 피해를 유발하는 디지털 기술을 이용한 성폭력으로 정의되는 개념으로, 기술 및 온라인 공간성의 특수성이 매개되어 나타나는 가상 및 대면 상황을 모두 아우르고 있다.(허윤 외 17인, 디지털 시대의 페미니즘 (서울: 한겨레출판, 2024), 91.) 

2. 전통적 의미의 성폭력, 가정폭력과 성매매에서 불법촬영이나 이를 빌미로 한 협박 및 유포 등은 이미 익숙한 기술매개 성폭력의 한 유형이 되고 있다. 더불어 온라인네트워크의 상시적 연결성과 실시간성은 온라인을 이용한 그루밍, 통제, 스토킹 등을 가능하게 하였으며, 파일의 전송과 저장, 복제의 용이성 등은 온라인콘텐츠 등을 이용한 수익을 위해 이미지나 동영상, 신상정보 등을 매개로 여성을 착취하는 폭력으로도 연결되고 있다.(김애라, “기술매개 성폭력의 ‘실질적’ 피해와 그 의미,” 한국여성학 38, no.1 (2022): 6.) 

3. 기술매개 성폭력의 양상에서는 사실상 성적인 행위이냐 아니냐는 선을 그은 듯이 명확하게 나뉘지 않는다. 기술매개 성폭력에서는 성폭력의 측면과 일상적 통제 및 괴롭힘의 측면을 분명하게 구분하기 어렵다. 즉, 모든 형태의 기술을 이용한 괴롭힘이 반드시 성적으로 표현되는 것은 아니다. 이 같은 지점은 ‘음란성’의 남성중심성을 차치하더라도 현재 ‘음란성’에 국한하고 있는 성폭력 개념에 대한 재검토 필요성을 제기한다.(김애라, “기술매개 성폭력의 ‘실질적’ 피해와 그 의미,” 한국여성학 38, no.1 (2022) : 9.) 

4. 기술 매개 젠더 기반 폭력은 한국의 성폭력 처벌법 제14조 관련 범죄 외에도 허위 정보 및 명예 훼손, 사이버 괴롭힘, 혐오 표현, 개인 사칭, 스토킹, 아스트로터핑(astroturfing, 여러 플랫폼에서 동시에 해로운 콘텐츠를 공유하려는 조직적인 행위), 독싱(doxing, 개인 정보를 온라인에 게시), 폭력적 위협, 원치 않는 이미지 또는 성적으로 노골적인 콘텐츠 등의 행위를 모두 포함하여 기술을 사용하여 온오프라인에서 젠더를 이유로 일어나는 폭력을 통칭하는 개념이다.(김수아. "기술 매개 젠더 기반 폭력의 관점에서 본 딥페이크 성범죄 대응 정책," 이화젠더법학 16, no.3 (2024): 193.) 

5. 2000년대 중반 이후, 기술 매개 성폭력(Technology-facilitated sexual violence) 개념이 등장했다. 디지털 기술을 활용한 성범죄가 사이버 공간에서 확산하였고, 기존 오프라인 중심의 성범죄 개념이 이미지 기반 성적 학대, 온라인 성적괴롭힘 등을 포함하는 방향으로 확장되었다(김한균, 2020:373).(조혜민, “판결문 내용 분석을 통해 본 ‘딥페이크 성범죄’ 실태,” 여성연구 124, no.1 (2025): 10.) 

[유의어] 기술 매개 젠더 기반 폭력(Technology-facilitated gender based violence, TFGBV)


대규모 언어 모델(Large Language Models, LLM) 대규모 언어 모델은 방대한 텍스트 데이터를 학습하여 지식, 문법, 개념 관계, 문장 패턴 등을 습득해 인간처럼 자연스럽게 글을 읽고 쓰는 인공지능 프로그램이다. 질문을 하면 답변을 하고, 에세이나 시 같은 글도 생성할 수 있다. 다만, 잘못된 정보 생성이나 편향된 결과를 주는 문제도 함께 생겨나고 있다.

상세(참고) 열기 접기

1. 대규모 언어 모델(LLM) 은 텍스트를 인식하고 생성하는 등의 작업을 수행할 수 있는 일종의 인공 지능(AI) 프로그램이다. LLM은 방대한 데이터 세트를 학습하므로 “대규모”라는 이름이 붙었다. 머신 러닝, 특히 트랜스포머 모델이라고 하는 일종의 신경망을 기반으로 한다. LLM은 다양한 작업을 수행하도록 학습될 수 있다. 가장 잘 알려진 사용 사례 중 하나는 프롬프트가 주어지거나 질문을 받으면 응답으로 텍스트를 생성할 수 있는 생성형 AI로서의 응용이다. 예를 들어, 공개적으로 사용 가능한 LLM ChatGPT는 사용자 입력에 대한 응답으로 에세이, 시, 기타 텍스트 형식의 글을 생성할 수 있다. 실제 LLM의 예로는 ChatGPT(OpenAI 제공), Bard(Google), Llama(Meta), Bing Chat(Microsoft) 등이 있다.(Cloudflare, “대규모 언어 모델(LLM)이란?,” 2025년 7월 27일 접속, https://www.cloudflare.com/ko-kr/learning/ai/what-is-large-language-model/.) 

2. LLM은 딥 러닝 기술과 방대한 양의 텍스트 데이터를 활용하여 작동한다. 훈련 과정에서 이전 단어가 제공하는 컨텍스트를 기반으로 문장의 다음 단어를 예측하는 방법을 학습한다. 이 모델은 토큰화된 단어를 더 작은 문자 시퀀스로 분류하여 반복되는 단어에 확률 점수를 부여함으로써 이를 수행한다. 그런 다음 이러한 토큰은 이 컨텍스트를 숫자로 표현하는 임베딩으로 변환된다. 정확성을 보장하기 위해 이 프로세스에는 수십억 페이지에 달하는 방대한 텍스트 말뭉치로 LLM을 학습시키고, 제로 샷 및 자기 지도 학습을 통해 문법, 의미론, 개념 관계를 학습하도록 하는 과정이 포함된다. 이 학습 데이터에 대한 학습이 완료되면 LLM은 입력된 입력에 따라 다음 단어를 자율적으로 예측하고 습득한 패턴과 지식을 활용하여 텍스트를 생성할 수 있다. 그 결과 광범위한 NLU 및 콘텐츠 생성 작업에 활용할 수 있는 일관되고 상황에 맞는 언어 생성이 가능하다.(IBM Think, “대규모 언어 모델(LLM)이란 무엇인가요?,” 2023년 11월 2일, 2025년 7월 27일 접속, https://www.ibm.com/kr-ko/think/topics/large-language-models.) 

3. 거대 언어 모델(LLM)은 구체적인 서비스 모델로 ChatGPT 등 운용 서비스로서 급격히 발전하고 있는 단계이다. 2023년 1월, GPT3.0이 소개된 이후, 파라미터의 개수가 기하급수적으로 증가한 채 GPT4.0이 2023년 말 출시되었다. 이처럼 빠른 기술변화 속에 거대언어모델(LLM)은 인공지능 환각, 편향된 결과, 가짜뉴스 등 심각한 사회문제를 야기하고 있다. 그러나 발전 중에 있는 LLM의 핵심 요소 기술을 이해하거나 기술 사조를 파악하고 있는 사회과학자는 전무하다. 이에 따라 ChatGPT 사용에 따른 역기능은 현상적으로 증가할 것으로 예상되나 이를 국가 규범, 사회체계, 법규, 윤리로 거버넌스를 규명하고 담당할 전문가가 없는 실정이다.(김지효,  「신경망 기반 LLM (거대 언어 모델, GPT 4.0)의 해킹과 보안 모델에 관한 연구」  (박사학위논문, 극동대학교 일반대학원, 2024), 45.) 

4. LLM은 때때로 할루시네이션이라 불리는 오류를 발생시키며, 정보의 출처를 명확히 제시하지 못하는 한계를 가지고 있다. 또한, LLM은 "블랙박스" 모델로 작동하기 때문에 특정 응답이 생성된 이유를 명확히 설명하기 어렵다. 이러한 특성은 특히 중요한 의사결정에 활용될 때 신뢰성과 투명성을 저하시킬 수 있다.(한국지능정보사회진흥원, “검색증강생성(RAG) 기술의 등장과 발전 동향 (NIA ISSUE REPORT, 2024),” 19.)


데이터 소유권(Data ownership) 데이터 소유권은 데이터를 단순한 정보가 아니라 법적·경제적 권리의 대상으로 보고, 해당 데이터에 대한 접근, 이용, 가공, 유통, 삭제 등 일련의 결정 권한이 누구에게 있는지를 규정하는 개념이다. 하지만 현재까지 법적으로 데이터 소유권은 명확하게 인격권도 아니고, 재산권도 아닌 제도화가 논의 중인 권리이다.
상세(참고) 열기 접기

1. 데이터 소유권이란 “데이터와 데이터 관련 권리에 대한 완전한 통제권을 갖는 것으로 널리 간주하며, 이에는 데이터 접근, 창조, 생성, 수정, 분석, 사용, 판매 또는 삭제 권리를 포함하되 이에 한정되지 않고, 다른 사람에게 데이터에 대한 권리를 부여하는 권리까지 포함”한다.(Asswad & Gomez, 2021). 전통적 개념에서 소유권이란 타인의 간섭 없이 소유물을 사용하고, 사용의 통제가 가능해야 하며 소유자가 누구인지와 상관없이 이를 유지할 수 있는 권리를 의미한다(Hart, 2002). 하지만 데이터는 복제와 전송이 용이한 공공재적 특성을 가진 비물질적 재화이고 원 소유자를 찾기 어렵다는 특성이 있어 법률 전문가들은 재산권(property rights)으로서의 데이터 소유권에 대해 반대하거나 회의적인 태도를 보인다. 따라서 데이터 소유권 개념을 재산권이 아니라 데이터에 관한 통제권(ownership as control)을 부여하는 것으로 이해하는 시각이 더 지배적이다. 정보의 자기 결정권에서 비롯되는 인격권을 지칭하는 것이다.(문상현, 인공지능과 감시 (서울: 커뮤니케이션북스, 2025), 89–90.)

2. 데이터의 상업적 이용이 활발해지면서 데이터의 이용 동의를 넘어 데이터를 가공하여 경제적 가치를 만들고 처분을 통해 이를 실현할 수 있는가, 그리고 이렇게 현실화된 경제적 이익은 어떻게 배분되어야 할 것인가의 문제를 통일적으로 설명하기 위한 시도이다. 물건을 배타적으로 사용, 수익, 처분할 수 있는 절대권인 소유권을 물건이 아닌 데이터에도 인정함으로써 그 권리주체의 경제적 활용가능성과 이익을 독점적으로 보호하려는 취지를 가지고 있다. 그런데, 소유권을 어떻게 정의하고, 어느 범위에서 인정할 것인가의 문제는 역사적, 사회적, 정치적, 경제적 측면과 밀접하게 연관되어 법이론적인 측면만으로 설명할 수 없다. 데이터 소유권을 인정하는 경우 권리주체의 독점적이고 배타적인 권리행사가 보호될 수 있다(예, 금지청구, 강제집행 등). 또한, 개인정보 보호법제와 대비되는 비개인정보(익명데이터나 비식별화된 데이터)에 대한 통일적 규율체계를 마련할 수 있다. 특히, 데이터를 배타적으로 지배하는 것이 기술적으로 가능한 경우, 익명데이터와 비식별화된 데이터에 대한 재산권을 인정할 수 있다. 이러한 데이터에는 개인정보 보호를 위한 법제가 적용되지 않고, 단순한 데이터 점유상태의 보호(민법 제204조부터 제206조, 제209조)만으로는 그 보호가 충분하지 않다.(황원재, “데이터 소유권에 관한 국내외 법제도 동향과 시사점,” 2025년 8월 2일 접속, https://www.google.com/url?sa=i&url=https%3A%2F%2Fwww.mohw.go.kr%2FboardDownload.es%3Fbid%3D0027%26list_no%3D366797%26seq%3D3&psig=AOvVaw2jvFcCrbKHsNg8BF1P9GF7&ust=1754186317412000&source=images&cd=vfe&opi=89978449&ved=0CAQQn5wMahcKEwjg-7e0g-uOAxUAAAAAHQAAAAAQBA.)

 3. 중요한 점은 여기에서 말하는 소유권이, 인격권이 아닌, 재산권이라는 것이다. (중략) 오늘날 데이터 소유권 논쟁이 전형적으로 염두에 두고 있는 상황은 개인정보가 아예 포함되지 아니한 데이터, 현실적으로 유의미한 데이터의 압도적 다수가 누군가와 관련하여 생성되고 있다는 점을 고려한다면, 기계에 의하여 처음부터 익명화되어 생성된 데이터 (machine-generated data)나 (사후에) 비식별화⋅익명화된 데이터(de-identifiedor anonymized data)이다. 이러한 데이터에 재산권을 부여할 것인가, 부여한다면 누구에게 어떤 범위에서 부여할 것인가가 주된 쟁점인 것이다.(이동진, “데이터 소유권(Data Ownership), 개념과 그 실익” 정보법학 22, no. 3 (2018), 224-227.) 

4. 2019년 11월 18일 김세연 자유한국당 의원이 발의한 민법 개정안이 개인의 데이터 소유권 문제를 정치적 의제로 끌어올린 사례로 볼 수 있다. 김 의원 발의안의 핵심은 개인정보를 비롯한 데이터를 민법상 ‘물건’의 정의에 포함하는 것이다. 데이터를 법적으로 거래 가능한 대상이 될 수 있도록 개념적 기반을 마련하는 내용이다. 이는 ‘기술 발전과 노동 축소’라는 점에서 기본소득 논의와 일맥상통하는 면이 있다. 개인정보를 비롯한 데이터가 무작정 수집할 수 있는 천연자원이 아니라 ‘대가를 지불해야 하는 대상’이라는 시각이다. 그러나 기본소득이 정부의 재정 집행에 기반을 두는 반면, 김 의원의 민법 개정안은 개인의 소유권을 인정하되 기업이 각기 대가를 지불하고 거래를 할 수 있도록 하는 시장주의적 접근에 가깝다.(김동인, “개인정보 데이터 소유권 누구에게 있나,”시사IN, 2019년 12월 5일, https://www.sisain.co.kr/news/articleView.html?idxno=40775.)


디지털 리터러시(Digital Literacy) 디지털 리터러시는 정보를 디지털 기술을 통해 안전하고 효과적으로 접근·이해·활용하는 능력으로, 컴퓨터 리터러시, 정보 리터러시, 미디어 리터러시 등을 포괄한다. 이는 오피스 소프트웨어 활용, 이미지·영상 편집, 웹 검색과 정보 평가 등 실용 기술뿐 아니라, 소통과 협업, 콘텐츠 제작, 문제 해결, 안전 등 다섯 개 영역의 역량을 포함한다. 1997년 폴 길스터에 의해 개념화된 이 용어는 기능 중심 접근과 사회문화적 접근 사이의 긴장을 안고 있으며, 최근에는 학생들의 디지털 실천을 교육과정과 연결하려는 사회문화적 관점의 중요성이 강조되고 있다.
상세(참고) 열기 접기

1. 디지털 리터러시는 고용, 양질의 일자리 및 기업가정신을 위해 디지털 기술을 통해 정보를 안전하고 적절하게 접근, 관리, 이해, 통합, 소통, 평가 및 생성할 수 있는 능력을 말한다. 이는 컴퓨터 리터러시, ICT 리터러시, 정보 리터러시, 미디어 리터러시 등의 다양한 역량을 포함한다.(UNESCO Institute for Statistics, “A Global Framework of Reference on Digital Literacy Skills for Indicator 4.4.2,” 2018.) 

2. 디지털 리터러시는 사람들이 ICT를 활용하고 활용할 수 있도록 ICT 개념, 방법, 기술을 익히는 것을 포함한다. 이에 관련된 개념인 정보 리터러시는 사람들이 데이터를 처리하여 정보, 지식, 결정으로 전환할 수 있도록 개념과 교육을 제공하는 것을 의미한다. 이에는 정보 검색 및 평가 방법, 정보 문화와 그 윤리적 측면, 디지털 세계에서의 소통에 필요한 방법론적·윤리적 요소가 포함된다.(International Telecommunication Union, “World Telecommunication/ICT Development Report 2010: Monitoring the WSIS Targets,” 2010.)

3. 디지털 리터러시는 컴퓨터를 자신감 있게, 안전하게, 효과적으로 사용하는 기본 기술 또는 능력으로 이해되어야 하며, 여기에는 워드 프로세서, 이메일, 프레젠테이션 소프트웨어 등 오피스 소프트웨어 사용 능력, 이미지·오디오·비디오의 생성과 편집 능력, 웹 브라우저 및 검색 엔진 활용 능력이 포함된다. 이는 마치 읽기와 쓰기처럼, 중등교육 교사들이 학생들이 기본적으로 가지고 있다고 가정할 수 있어야 하는 역량이다.(The Royal Society, Shut down or restart? The way forward for computing in UK schools (UK: The Royal Society, 2012).)

4. 디지털 리터러시는 5가지 디지털 역량 영역과 총 21개의 디지털 역량으로 구성된다. 이 다섯 영역은 정보 및 데이터 리터러시, 소통 및 협업, 디지털 콘텐츠 제작, 안전, 문제 해결이다.(European Commission, Education and training glossary (accessed January 2016).) 

5. 디지털 리터러시는 직장, 교육 기관, 일상생활에서 참여하기 위해 필요한 ICT 도구들을 사용할 수 있는 능력을 말한다. 여기에는 디지털 정보를 찾고, 이해하고, 평가하고, 생성하고, 소통하는 능력이 포함된다.(Commonwealth of Learning, “TVET Professional Development Toolkit for the Pacific: Commonly Used Terms,” https://unevoc.unesco.org/home/TVETipedia+Glossary/lang=en/show=term/term=Digital+literacy#start.) [편집자 주] 1~5의 설명은 UNEVOC의 TVETipedia Glossary에 수록된 '디지털 리터러시 (Digital literacy)’의 전체 설명에 대한 한국어 번역이다.

6. 1990년대 후반, 디지털 리터러시는 “컴퓨터를 통해 제시되는 다양한 형식과 폭넓은 출처의 정보를 이해하고 활용하는 능력”을 의미한다. (중략) ”디지털 리터러시(digital literacy)”라는 용어는 미국에서 등장했으며, 1997년 폴 길스터(Paul Gilster)의 저서 『디지털 리터러시(Digital Literacy)』의 출간으로 그 기원을 찾을 수 있다. 길스터의 획기적인 저작은 점점 디지털화되는 세계에서 정보를 비판적으로 탐색하는 데 필요한 기술을 처음으로 정의했다. 그러나 디지털 리터러시는 기존의 영역(즉, 리터러시)에서 출발했기 때문에, 리터러시 연구에서 이미 드러났던 많은 긴장과 문제들이 이 새로운 분야에도 그대로 이어졌다. (중략) 디지털 리터러시에 사회문화적 접근을 채택한다는 것은, 연구자와 교육자가 일상적인 디지털 미디어 사용을 단순히 수용하는 것을 넘어 이를 확장하고, 이러한 문화적 실천들이 학교 교육과정 안에서 어떻게 활용될 수 있을지를 탐구해야 함을 의미한다.(Luci Pangrazio, Anna-Lena Godhe, Alejo González López Ledesma, “What Is Digital Literacy? A Comparative Review of Publications across Three Language Contexts,” E-Learning and Digital Media 17, no. 6 (2020): 42–59, https://doi.org/10.1177/2042753020946291.)


디퓨전 모델(Diffusion models) 디퓨전 모델은 처음에 아무 의미 없는 노이즈를 넣고, 이를 점차 제거하면서 실제 같은 데이터를 만들어내는 인공지능 모델이다. 물속에 잉크가 퍼졌다가 거꾸로 모이는 과정을 모방한 것처럼, 데이터를 흐트러뜨린 뒤 거꾸로 복원하는 과정을 학습한다. 이 방식은 기존의 GAN이나 VAE보다 안정적이고 고품질의 결과를 내며 이미지 생성에 널리 쓰인다. 대표적으로 〈DALL‑E 2〉, 〈Stable Diffusion〉, 〈Imagen〉 같은 모델들이 이런 방식을 활용한다. 최근에는 이미지뿐 아니라 소리, 약물, 분자 구조 등 다양한 분야로 활용이 확대되고 있다.
상세(참고) 열기 접기

1. 디퓨전 모델(Diffusion Model)은 주로 이미지 생성과 같은 컴퓨터 비전 과제에서 활용되는 생성형 모델로, 딥러닝을 통해 샘플에 무작위 노이즈를 점진적으로 주입한 뒤 이를 역으로 제거하며 고품질의 이미지를 만들어낸다. 물속에 번지는 잉크처럼 픽셀이 확산되는 과정을 모방한 개념으로, 이 과정을 학습하고 거꾸로 되돌리는 방식으로 무작위 노이즈에서 새로운 이미지를 생성한다. 이러한 특성 덕분에 디퓨전 모델은 기존의 VAE, GAN, PixelCNN과 같은 모델들보다 성능과 안정성이 뛰어나며, OpenAI의 〈DALL‑E 2〉, Stability AI의 〈Stable Diffusion〉, Midjourney, Google의 〈Imagen〉 등 대표적인 텍스트‑이미지 생성 모델로 구현되고 있다. 이미지 인페인팅, 초해상도뿐 아니라 오디오 생성, 신약 설계, 분자 생성 등 다양한 분야로 활용이 확장되고 있다.(IBM Think, “What Are Diffusion Models?,” 2025년 7월 27일 접속, https://www.ibm.com/think/topics/diffusion-models.) 

2. 디퓨전 모델(Diffusion Model)은 확률적 생성 모델(probabilistic generative model) 의 한 계열로, 데이터에 점진적으로 무작위 노이즈를 주입해(확산 과정) 원래 구조를 파괴한 뒤, 이 과정을 역으로 되돌리면서(reverse process)새로운 데이터 샘플을 생성하는 방식으로 작동한다. 이는 디노이징 디퓨전 확률 모델(Denoising Diffusion Probabilistic Models, DDPMs), 스코어 기반 생성 모델(Score-Based Generative Models, SGMs), 확률 미분 방정식(Stochastic Differential Equations, Score SDEs)의 세 가지 대표적 수식화로 구분해서 볼 수 있다. 이들 모두 기본 원리는 동일하게, 데이터에 점차 강해지는 노이즈를 추가한 후 각 단계에서의 스코어(Score)를 학습하여 이를 제거해 나가는 과정을 통해 샘플을 생성하며, 이러한 접근을 통해 이미지 합성, 비디오 생성, 분자 설계 등 다양한 영역에서 최신의 성능을 보여주고 있다.(Ling Yang, Zhilong Zhang, Yang Song, Shenda Hong, Runsheng Xu, Yue Zhao, Wentao Zhang, Bin Cui, Ming‑Hsuan Yang, “Diffusion Models: A Comprehensive Survey of Methods and Applications,” ACM Computing Surveys 1, no. 1 (December 2023): 1–58, https://doi.org/10.1145/3626235.) 

[참고] Diffusion 계열 주요 프레임워크: DDPM (Denoising Diffusion Probabilistic Model), DDIM (Denoising Diffusion Implicit Model), Stable Diffusion, DALL‑E 2 (OpenAI’s Text‑to‑Image Diffusion Model), Imagen, LDM (Latent Diffusion Model), Dream 7B, Mercury


딥러닝(Deep Learning) 딥러닝은 인간 두뇌의 의사결정 방식을 모방하는 인공신경망 기반의 머신러닝 기법이다. 다층 구조의 신경망을 활용하여 복잡한 패턴을 학습하며, 레이어를 통과하면서 정보가 정제되고, 특징 추출이 자동으로 이루어진다. 자동화, 음성 인식, 자율주행 등 다양한 AI 응용에 활용된다.
상세(참고) 열기 접기

1. 딥 러닝(Deep Learning)은 인간 두뇌의 복잡한 의사 결정 능력을 시뮬레이션하기 위해 심층 신경망이라고 불리는 다층 신경망을 사용하는 머신 러닝의 하위 집합입니다. 어떤 형태의 딥 러닝은 오늘날 우리 삶의 대부분의 인공 지능(AI) 애플리케이션을 강화합니다. 딥 러닝과 머신 러닝의 가장 큰 차이점은 기본 신경망 아키텍처의 구조입니다. "Nondeep"이라는 전통적인 기계 학습 모델은 하나 또는 두 개의 계산 계층이 있는 간단한 신경망을 사용합니다. 딥 러닝 모델은 3개 이상의 계층(일반적으로 수백 또는 수천 개의 계층)을 사용하여 모델을 훈련합니다. 지도 학습 모델은 정확한 출력을 만들기 위해 구조화되고 레이블이 지정된 입력 데이터가 필요하지만, 딥러닝 모델은 비지도 학습을 사용할 수 있습니다. 비지도 학습을 통해 딥러닝 모델은 비정형 원시 데이터에서 정확한 출력을 만드는 데 필요한 특성, 특징 및 관계를 추출할 수 있습니다. 또한 이러한 모델은 정밀도를 높이기 위해 출력을 평가하고 개선할 수도 있습니다. 딥 러닝은 자동화를 개선하고 사람의 개입 없이 분석 및 물리적 작업을 수행하는 많은 애플리케이션과 서비스를 구동하는 데이터 과학의 한 측면입니다. 이를 통해 디지털 어시스턴트, 음성 지원 TV 리모컨, 신용 카드 사기 감지, 자율 주행 자동차, 생성형 AI 등 다양한 일상 제품과 서비스가 가능해졌습니다. (IBM, “딥 러닝(Deep Learning).” IBM Think Blog Korea, 2025년 7월 31일 접속, https://www.ibm.com/kr-ko/think/topics/deep-learning.)

2. 딥러닝은 머신러닝의 한 분야로, 레이어의 개수를 수십에서 수만 개로 늘림으로써 더 많은 표상(representation)을 학습할 수 있도록 한 신경망 모형이다. 다층 구조가 주는 첫 번째 장점은 특징 처리(feature engineering)가 모형 내에서 이루어질 수 있다는 것이다. 신경망의 기본 연산인 선형 결합은 정보를 축약하기 때문에 레이어를 통과하면서 정보가 정제되는 효과가 있다. 두 번째는 레이어들이 상호적으로 학습된다는 점이다. 여러 개의 머신러닝 모형을 연결하는 방법과 비교했을 때 필요한 목적 함수가 적고 모형 수정이 더 효율적이라는 장점이 있다(Chollet, 2017). 이러한 장점들에도 불구하고 딥러닝이 2010년대가 되어서야 각광받기 시작한 것은 하드웨어, 데이터, 최적화 알고리즘의 한계 때문이다. 현재는 하드웨어의 발전과 인터넷을 사용한 데이터베이스 구축, 그리고 RMSprop, Adam과 같은 최적기 (optimizer)의 등장으로 딥러닝 모형 적합이 가능해졌다. 그 결과로 그동안 고전하던 여러 분석 문제에서 큰 성과를 보였다(Buduma, 2015). 그리고 현재 언어처리, 컴퓨터 비전, 자연어 처리, 약물 분자 운동 예측과 포트폴리오 최적화와 같은 시뮬레이션 등 다양한 영역에서 응용되고 있다(Rong, 2018).(이종화, 「딥러닝 방법론의 이해,」 (석사학위, 이화여자대학교 대학원 통계학과, 2019), 1.)


딥페이크(Deepfake) 딥페이크란 인공지능 기술인 딥러닝(deep learning)과 ‘가짜’를 의미하는 단어 페이크(fake)의 합성어다. 인공지능 기술을 통해 진위 여부를 구별하기 어려울 정도로 정교하게 조작한 오디오 또는 시각 미디어를 가리킨다. 딥페이크 기술은 의료, 예술 등의 분야에 활용되어 콘텐츠 품질 개선에 기여하는 한편, 가짜 뉴스, 음란물 제작에 사용되어 윤리적인 문제를 만들기도 한다. 사회에 대한 신뢰를 떨어뜨리는 기술이 아닌 유용한 기술이 될 수 있도록 지속적인 활용 방향에 대해 숙고해야 한다.
상세(참고) 열기 접기

1. 딥페이크(Deepfake)는 “deep learning”과 “fake”의 합성어로, 적대관계생성신경망(Generative Adversarial Networks, GAN)을 이용하여 원본 이미지 위에 다른 이미지를 결합해 새로운 이미지를 생성하는 기술로, 적대관계생성신경망 기술은 원본과 차이가 없는 데이터를 만들려는 생성모델과, 원본과 다른 점을 찾아내는 분류모델을 서로 경쟁시켜 반복실행을 통해 원본과 흡사한 데이터를 만들어내는 알고리즘을 말한다.(최창욱, 정유미, “국내외 언론이 바라본 딥페이크 기술,” 디지털콘텐츠학회논문지 vol 23 (2022): 894.)

2. 인공지능 기술인 딥러닝(deep learning)과 '가짜'를 의미하는 단어인 페이크(fake)의 합성어로, 인공지능 기술을 이용하여 진위 여부를 구별하기 어려운 가짜 이미지나 영상물(Science ON, “딥페이크,” 2025년 8월 27일 접속, https://scienceon.kisti.re.kr/aiq/issue/selectIssueReportView.do?searchIssueRptNo=171.)

3. 딥페이크는 2017년 미국의 소셜 플랫폼 레딧에서 먼저 출현하였다. ‘Deepfakes’라는 아이디를 가진 회원이 유명 배우의 얼굴로 조작된 가짜 포르노 비디오를 올렸고 그 아이디로 인해 딥페이크라는 용어가 사용되기 시작했다.(박준, 조영호, “딥페이크 영상 탐지 관련 기술 동향 연구,” 한국 소프트웨어 종합학술대회 논문집 2019, 724.)

4. 사진이나 영상물인 ‘딥페이크’는 AI 딥러닝 기술의 딥(deep)과 거짓의 영어 단어(fake)를 합쳐 만들어낸 신조어이다. 이 명칭 자체가 비윤리를 표현하고 있지만 이 기술 자체가 본질적으로 비윤리적인지는 의문이다. 왜냐하면, 딥페이크 기술이 환자의 프라이버시를 침해하지 않으면서도 질병 진단용 의료영상을 만들어 진단 정확성을 높이는데 기여하는 연구나 루게릭병과 같은 질병으로 말을 할 수 없는 사람들의 목소리를 인공적으로 재생할 수 있게 돕는 연구 등에서 볼 수 있는 것처럼 인류의 유익을 위해 사용될 수 있기 때문이다.(목광수, “딥페이크 기술의 윤리 문제와 대응 방안 모색,” 철학·사상·문화 no. 46 (2024): 294-295.)

5. 딥페이크는 허구의 세계를 창조하기보다는 실제 세계(actuality)를 조작하는 경우, 즉 실재하는 사람과 행동, 장소, 사건의 의미가 매우 중요한 경우들에 주로 사용되며, 이 경우 핵심은 사실적 영상에 등장하는 ‘인물’의 조작에 있다.(최순욱, 오세욱, 이소은, “딥페이크의 이미지 조작: 심층적 자동화에 따른 사실의 위기와 푼크툼의 생성,” 미디어, 젠더 & 문화 34, no. 3 (2019): 361.)

6. 딥페이크 기술은 생성적 적대 신경망(GANs)를 활용하여 이미지와 비디오, 나아가 텍스트 생성까지 신속하고 동시다발적인 영상 제작이 가능하도록 한다. 이러한 특성은 새로운 기술이 대중의 이용문화와 향유 가능성을 증진하면서 기존에 ‘전문가’만이 사용할 수 있었던 기술이 아닌, 다양한 대중이 활용할 수 있는 기술로서 편리성을 가져다준 것이다. (김지현, 강진숙, “2030세대 이용자들의 딥페이크(Deepfake) 기술 경험에 대한 사례연구,” 한국방송학보 38, no. 2 (2024): 131.)

7. 유럽의회(European Parliament)에서 2021년에 발간한 보고서에 의하면, 딥페이크를 ‘머신러닝과 딥러닝을 포함한 인공지능 기술을 사용하여 제작된, 실제처럼 보이지만 실제 사람이 말하거나 행동하지 않은 것처럼 보이는 조작 또는 합성된 오디오 또는 시각 미디어’로 정의할 수 있다. […] 또한 유럽연합 인공지능법에서는 딥페이크가 “기존의 사람, 물건, 장소 또는 기타 실체나 사건과 유사하고, 사람에게 진실인 것으로 잘못 판단할 수 있는 AI가 생성하거나 조작한 이미지, 오디오 또는 비디오 콘텐츠”로 정의되어 있다. (이준복, “인공지능 시대에 있어서 딥페이크 범죄의 합리적인 대응을 위한 헌법적 논의,” 범죄수사학연구 11, no. 1 (2025): 83.)

8. 딥페이크(deepfake)란 딥러닝(deep learning)과 가짜(fake)의 합성어로, 인공지능을 기반으로 한 이미지 합성기술을 말한다. 딥페이크는 도구적 개념의 낮은 수준의 AI에서도 충분히 구현될 수 있는 기술이다. 그런데 오늘날 AI는 신탁을 넘어 지니의 수준까지 그 기술이 발전했다. 이로 인해 종래에는 전문가들만이 할 수 있었던 딥페이크 제작을 지금은 누구나 너무나 쉽게 활용할 수 있게 됐다.(김민호, AI와 딥페이크 음란물, (서울: 커뮤니케이션북스, 2024), 8.)


딥페이크 성범죄(Deepfake sex crime) 딥페이크 성범죄는 개인의 동의 없이 생성형 AI 기술로 개인의 얼굴이나 신체 이미지를 성적인 사진이나 영상에 허위로 합성하고 유포하는 신종 디지털 성범죄다. 2010년 중반 ‘지인 합성’ 문제가 등장한 이후, AI 기술 발전과 함께 그 수법이 정교해지고 피해도 확산되고 있다. 이 범죄는 가까운 관계 안에서 벌어지는 경우가 많고, 합성물뿐만 아니라 개인정보까지 함께 유포되는 등 복합적인 피해로 이어진다. 그러나 딥페이크 성범죄를 ‘진짜’가 아니라며 심각하지 않게 여기는 사회적 인식이 존재하며, 이는 2차 피해를 조장하는 구조적 문제로 이어진다.
상세(참고) 열기 접기

1. 딥페이크 성범죄에 대해 이해하기 위해서는 먼저 디지털 성범죄에 대한 이해가 선행되어야 한다. […] 딥페이크 성범죄는 디지털 성범죄의 새로운 유형으로 분류할 수 있다. 딥페이크 성범죄란 피해자의 동의를 받지 않고 성적인 콘텐츠를 만들어 배포하는 행위로, 이는 개인의 명예와 사생활을 크게 침해하는 중대한 범죄에 해당한다.(송창훈, 도성룡, “국내외 딥페이크 성범죄 처벌 제도 분석을 통한 국내 제도 발전 방향,” 아시아태평양융합연구교류논문지 11, no. 2 (2025): 451.)

2. 딥페이크 성범죄는 2010년대 중반 개인의 이미지와 성적 이미지를 합성하여 유포하는 소위 ‘지인합성’ 문제가 생성형 AI 기술이 발달하면서 더욱 확산된 것이라고 할 수 있다. ‘지인 합성’ 범죄는 2020년까지도 ‘성폭력범죄의 처벌 등에 관한 특례법’(이하 성폭력 처벌법) 제14조에 포함되지 않았기에, 2020년 개정 법률안에 제14조의 2항 ‘허위영상물 등의 반포등에 대한 죄’가 신설되면서 규제 범주에 포함되었다. 하지만 이 법률안이 ‘반포할 목적’을 가졌을 때 처벌하도록 규정되어 있다는 한계가 지적되어 2024년 10월 개정이 되었다.(김수아, "기술 매개 젠더 기반 폭력의 관점에서 본 딥페이크 성범죄 대응 정책," 이화젠더법학 16, no. 3 (2024): 189-190.)

3. 딥페이크 성범죄, 즉 허위영상물 합성과 유포 역시 신종 디지털 성범죄로 불린다. 법적 규제의 맥락에 2020년에야 포함되었기에 신종으로 분류되는 것이다. 법제화 이전 주로 문제로 지적된 것은 유명인들의 얼굴을 다른 나체 상태의 사진이나 동영상에 합성하는 형태로 주로 음란물로 유통되면서 상업적 목적을 위해 여성의 신체를 활용하는 문제가 지적되었다. 또한 해당 합성 피해물이 해외 플랫폼이나 다크웹 등 규제가 어려운 방식으로 유통되는 경우가 많아 방송통신심의위원회의 삭제 조치 비율도 전체 4.5%에 불과한 현실이라는 점이 문제로 지적되어 왔다. 소위 ‘지인 합성’ 혹은 ‘지인 능욕’ 범죄의 맥락, 즉 자신의 주변 인물 얼굴을 타인의 나체 사진 등과 합성하여 유포하는 방식의 연장선에 있다. 지인에게 모욕을 주기 위한/괴롭히기 위한 목적이 있어 개인 정보를 함께 게시하여 유포하는 경우가 많아, 피해자는 성적 대상화에 따른 고통 외에도 사생활 정보가 유포되면서 제2의 피해를 경험하게 되는 경우가 많다. (김수아, "기술 매개 젠더 기반 폭력의 관점에서 본 딥페이크 성범죄 대응 정책," 197.)

4. 딥페이크 기술이 대중에게 알려지게 된 계기는 2017년 말, ‘딥페이크스(deepfakes)’라는 닉네임을 사용하는 이용자가 여러 유명 여성 배우들의 얼굴을 포르노 영상 속 여성 배우의 얼굴과 바꾼 영상을 웹사이트인 레딧(Reddit)에 게시하면서였다. 한국 또한 한 여성 연예인의 얼굴이 딥페이크 기술로 합성·유포되는 사건이 발생하며 사회적 관심이 증가했다(최순욱·오세욱·이소은, 2019:365). 기술적 관점에서 ‘딥페이크 성범죄’를 정의하면 인공지능 기술을 활용한 범죄로 한정될 수 있다. 그러나 실제 성적 합성물 제작에는 포토샵이나 영상 편집 프로그램 등 다양한 기술이 활용되며, ‘딥페이크 성범죄’라는 용어가 단순히 인공지능 기술을 이용한 범죄를 넘어, 성적 합성물을 활용한 범죄 전반을 포괄하는 개념으로 사용되고 있음을 고려해야 한다. 특히, 성범죄가 이미 범죄로 규정되어 있음에도 ‘딥페이크 성범죄’라는 용어가 새롭게 등장한 것은, 성범죄 개념이 확장되는 사회적 현실을 반영한 결과이기도 하다. 과거에는 성범죄를 주로 물리적 접촉이 수반되는 범죄로 여겼으나, ‘딥페이크 성범죄’와 같이 직접적인 신체 접촉 없이도 발생할 수 있는 범죄 유형이 등장하면서 성범죄의 개념과 규범이 변화한 것이다.(조혜민, “판결문 내용 분석을 통해 본 ‘딥페이크 성범죄’ 실태,” 여성연구 124, no. 1 (2025): 10-11.)

5. 딥페이크 범죄는 어제 오늘날의 문제가 아니고, 인터넷이 보급되면서부터 이뤄졌던 고전적인 형태의 범죄 유형이다. 그러나 앞서 언급한 바와 같이 인공지능과 결합되면서 진짜와 가짜를 구별할 수 없을 정도의 영상물이 제작되고, 불특정 다수에게 유포되며, 과거 N번방 사태에서도 유통수단이 되었던 텔레그램 내지는 다크웹을 통해 이뤄지고 있다는 것이 달라진 양상이다. […] 비단 이러한 딥페이크 범죄는 교육계로 한정되는 것이 아니라, 영역을 특정할 수 없기 때문에 전국민이 피해자가 될 수 있다는 것에 주목해야 된다.(이준복, “인공지능 시대에 있어서 딥페이크 범죄의 합리적인 대응을 위한 헌법적 논의,” 범죄수사학연구 11, no. 1 (2025): 82.)


딥페이크 처벌법 (「성폭력범죄의 처벌 등에 관한 특례법」 개정안(제14조의2 허위영상물 등의 반포 등 관련)) 사람의 얼굴·신체 또는 음성을 대상으로 한 촬영물ㆍ영상물 또는 음성물을 영상물등의 대상자의 의사에 반하여 성적 욕망 또는 수치심을 유발할 수 있는 형태로 편집ㆍ합성 또는 가공한 자는 7년 이하의 징역 또는 5천만 원 이하의 벌금에 처한다.
상세(참고) 열기 접기

1. 한국 국회는 2024년 9월 26일 ‘딥페이크 처벌법(성폭력범죄의 처벌 등에 관한 특례법 개정안)’을 통과시켰으며, 이는 딥페이크 성범죄에 대한 제도적 개선의 일환으로 평가받고 있다.(송창훈, 도성룡, “국내외 딥페이크 성범죄 처벌 제도 분석을 통한 국내 제도 발전 방향,” 아시아태평양융합연구교류논문지 11, no. 2 (2025): 449.)

[성폭력처벌법 제14조의2] 제14조의2(허위영상물 등의 반포등) ① 사람의 얼굴ㆍ신체 또는 음성을 대상으로 한 촬영물ㆍ영상물 또는 음성물(이하 이 조에서 “영상물등”이라 한다)을 영상물등의 대상자의 의사에 반하여 성적 욕망 또는 수치심을 유발할 수 있는 형태로 편집ㆍ합성 또는 가공(이하 이 조에서 “편집등”이라 한다)한 자는 7년 이하의 징역 또는 5천만원 이하의 벌금에 처한다.〈개정 2024. 10. 16.〉

② 제1항에 따른 편집물ㆍ합성물ㆍ가공물(이하 이 조에서 “편집물등”이라 한다) 또는 복제물(복제물의 복제물을 포함한다. 이하 이 조에서 같다)을 반포등을 한 자 또는 제1항의 편집등을 할 당시에는 영상물등의 대상자의 의사에 반하지 아니한 경우에도 사후에 그 편집물등 또는 복제물을 영상물등의 대상자의 의사에 반하여 반포등을 한 자는 7년 이하의 징역 또는 5천만원 이하의 벌금에 처한다. 〈개정 2024. 10. 16.〉

③ 영리를 목적으로 영상물등의 대상자의 의사에 반하여 정보통신망을 이용하여 제2항의 죄를 범한 자는 3년 이상의 유기징역에 처한다. 〈개정 2024. 10. 16.〉

④ 제1항 또는 제2항의 편집물등 또는 복제물을 소지ㆍ구입ㆍ저장 또는 시청한 자는 3년 이하의 징역 또는 3천만원 이하의 벌금에 처한다. 〈신설 2024. 10. 16.〉

⑤ 상습으로 제1항부터 제3항까지의 죄를 범한 때에는 그 죄에 정한 형의 2분의 1까지 가중한다. 〈신설 2020. 5. 19., 2024. 10. 16.〉 [본조신설 2020. 3. 24.] 


딥페이크 탐지 기술(Deepfake detection) 딥페이크 탐지 기술은 얼굴의 미세한 움직임, 표정 변화, 음성과 입 모양의 불일치, 비정상적인 눈 깜박임 등 자연스러운 패턴이 깨진 부분을 분석하여 영상·이미지·음성에서 인위적인 조작 흔적을 찾아내는 탐지 방법이다. 이를 위해 이미지·영상 분석, 주파수 패턴 탐지, 딥러닝 기반 분류 모델 등이 활용되며, 특히 AI 생성 과정에서 남는 미세한 노이즈나 주파수 왜곡이 중요한 단서가 된다. 다만 새로운 생성 기법이 등장할 때마다 재학습이 필요하고, 대량의 학습 데이터를 윤리적으로 확보하는 것이 주요 과제로 남아 있다.
상세(참고) 열기 접기

1. 딥페이크 영상의 위협이 커지는 만큼, 이를 탐지하는 기술도 빠르게 발전하고 있다. 현재 딥페이크 탐지를 위해 주로 사용되는 기술로는 4가지가 있다. △이미지 기반 분석 기술 △영상 일관성 분석 기술 △ 주파수 분석 기술 △ 딥러닝 모델 기반 탐지 기술 등이다. 이 가운데 얼굴 변화 감지, 음성과 입 모양의 부자연스러운 부분 분석, 혈류나 세부적인 피부 특징 탐지, AI 이미지 합성 툴 자체 감지 등의 방법이 널리 사용된다. 예를 들어, 사람은 자연스럽게 눈을 깜박이지만, 딥페이크 영상에서는 눈 깜박임이 비정상적이거나 거의 없는 경우가 많다. 또한, 딥페이크는 얼굴의 미세한 움직임, 표정 변화, 입술과 음성의 동기화 등을 완벽하게 재현하지 못할 때가 있는데 이러한 비정상적인 움직임을 탐지하는 것이다.(Annlab 콘텐츠마케팅팀, “가짜와의 전쟁, 딥페이크 탐지 기술의 현주소,” Annlab, 2025년 8월 8일 접속, https://www.ahnlab.com/ko/contents/content-center/35813.)

2. 딥페이크 음성을 구분하여 탐지하기 위해서는 우선 사람 음성(real)과 딥페이크 음성(fake) 데이터 세트를 라벨과 함께 구성하고 이를 음성에 특화된 딥러닝 모델에 학습 시켜야 한다. 초기 모델들에서는 전통적인 신호 처리 기반의 프론트 엔드가 주로 활용되었다.(홍기훈, “음성 딥페이크 탐지기술 동향,” 정부조달기술진흥협회. 2025년 8월 8일 접속, https://ppta.or.kr/webzine/2025_01/a1.html.)

3. 딥페이크 탐지 기술을 학습시키기 위한 대량의 데이터 확보가 중요하다. 효과적인 탐지 모델을 개발하려면 다양한 형태의 딥페이크 사례가 필요하지만, 이런 데이터는 제작 비용과 윤리적 문제로 인해 쉽게 얻을 수 없다. 안전하고 윤리적인 방법으로 데이터셋을 구축하는 방안이 필요하다.(권태경, “딥페이크 실시간 탐지·대응, 어려운 과제지만 악용 방지 위해 필수,” KDI. 2025년 8월 8일 접속, https://eiec.kdi.re.kr/publish/naraView.do?fcode=00002000040000100009&cidx=14938&sel_year=2024&sel_month=11.)

4. 딥페이크 이미지 탐지 기술은 딥페이크 생성 기술의 발전에 대응하여 지속적으로 발전해 왔다. […] 딥러닝을 활용한 딥페이크 탐지 기술이 도입되었다. 합성곱 신경망 기반의 딥페이크 탐지 모델들은 이미지의 미세한 특성이나 고차원적인 특징을 학습하여 딥페이크를 탐지한다. 또한, 딥페이크 이미지 생성 과정에서 발생하는 특유의 주파수 도메인 특징을 활용한 탐지 방법도 제안되었다. 이는 생성 모델이 고해상도 이미지를 생성할 때 발생하는 주파수 왜곡이나 인공적인 노이즈패턴을 분석하여 딥페이크를 탐지하는 방식이다. 더 나아가, 트랜스포머(transformer) 기반의 모델을 활용하여 이미지 내의 장기적인 종속성을 파악하고 딥페이크 이미지를 식별하는 연구도 진행되고 있다. 그러나 이러한 딥러닝 기반의 이미지 탐지 기술들은 대량의 학습 데이터를 필요로 하고 모델의 훈련에 많은 시간과 자원이 소모된다는 점, 새로운 유형의 딥페이크 생성 기술이 등장할 때마다 모델을 재훈련해야 하는 비효율성이 존재한다. 더불어, 탐지 결과에 대한 설명 가능성이 부족하여 실제 적용에 어려움이 있다. 이러한 한계를 극복하기 위해 대규모 멀티모달 언어 모델을 활용한 딥페이크 이미지 탐지 연구가 최근 등장하고 있다.(장현준, 박성준, 최대선, “대규모 멀티모달 언어 모델을 활용한 딥페이크 이미지 탐지 연구,” 정보보호학회논문지 35, no. 2 (2025): 301-302.)


립싱크(Lip sync) 립싱크는 영상 속 인물의 입 모양을 음성에 맞춰 자동으로 조정하는 기술이다. 음성을 분석해 발음별 입술·턱 움직임을 예측하고 영상에 적용하며, 언어 학습, 광고 콘텐츠 제작, 애니메이션 및 영화 더빙을 포함해 다양한 분야에 쓰인다. 다만 딥페이크 범죄 같은 악용 위험이 있어 필터링 기술이나 워터마킹 등 안전 장치에 대한 논의가 따르고 있다.
상세(참고) 열기 접기

1. 립싱크는 오디오 클리핑에 맞춰 입술 움직임을 변경하는 비디오를 포함한다. (Vasist P, Krishnan S, “Deepfakes: An Integrative Review of the Literature and an Agenda for Future Research,” Communications of the Association for Information Systems (CAIS) 51 (2022): 559.)


보상 해킹(Reward Hacking) 보상 해킹은 인공지능이 설계자의 본래 목적이나 의도를 따르지 않고 보상 시스템의 허점을 이용해 ‘보상’만을 추구하는 행동을 의미한다. 이는 AI가 주어진 보상 체계를 전략적으로 해석해 기만적이거나 왜곡된 방식으로 목표를 달성하려는 행동으로 나타난다. 실제로 일부 언어 모델은 이용자의 선호에 부합하는 응답을 제공하거나, 자신이 한 거짓말을 은폐하는 양상을 보이기도 한다.
상세(참고) 열기 접기

1. 보상 해킹은 인공지능 시스템이 설계자가 의도한 진정한 목표를 달성하는 대신, 보상 함수의 허점을 이용해 교묘한 방식으로 높은 보상 점수만 획득하는 현상이다. 이는 AI가 인간의 의도를 왜곡하거나 기만적인 방법으로 목표를 달성하려는 행동 패턴을 의미한다. AI가 인간을 배반할 것이라는 두려움도 결국, 보상 해킹에서 나온다. 오픈AI의 최근 보고서에 따르면, 고도화된 AI 시스템은 자신의 사고 과정을 숨기고 추적을 피하는 행동까지 보이고 있다. 더 충격적인 사실은 고성능 AI일수록 거짓말을 더 정교하게 할 수 있어, 오히려 단순한 저성능 AI가 진실을 더 잘 드러낸다는 아이러니한 현실이다. 실제 사례로, 게임 환경에서 AI는 규칙을 따르는 대신 버그나 꼼수를 활용해 목표를 달성하는 방식을 학습했다. 또한 챗GPT와 같은 대형 언어 모델은 '생각의 사슬(chain-of-thought)'을 분석하는 과정에서 자신의 거짓말을 숨기는 행동을 보였다. 이러한 문제를 해결하기 위해 연구자들은 '얼라인먼트(Alignment)' 기술을 개발하고 있으며, 이는 AI를 인간의 가치와 윤리에 맞게 정렬시키는 것을 목표로 한다. 세계적 역사학자 유발 하라리는 "AI는 지금까지 인류가 만든 그 어떤 기술과도 다르다"며 AI 통제의 어려움에 대해 강하게 경고했다.(한경경제용어사전, 2025년 8월 6일 접속, https://dic.hankyung.com/economy/view/?seq=16320.)

2. 보상해킹은 AI가 본래 목표가 아닌 보상 점수만을 극대화하기 위해 시스템의 허점을 악용하는 현상을 말한다. AI가 인간이 의도한 윤리적 혹은 실질적 목표를 외면한 채 ‘보상’만을 추구한다면 신뢰하기 어려울 것이다. 최근에는 언어 모델이 높은 평가를 얻기 위해 사실과 무관한 답변을 하거나 의도적으로 거짓 설명을 선택하는 사례까지 보고되고 있다. 지난해 AI 연구기관인 앤트로픽(Anthropic)과 레드우드 리서치(Redwood Research)의 실험에 따르면 AI가 평가자의 선호에 맞추기 위해 57%의 확률로 거짓 설명을 선택했다. … 문제는 이 같은 현상이 단순한 기술적 오류가 아닌 사회적 신뢰, 윤리, 정보의 질, 나아가 안전 문제에 직결된다는 것이다.(최주원, “[스낵커블 마켓] AI의 그림자, 보상해킹과 환각현상,” 투데이신문, 2025년 8월 7일 접속, https://www.ntoday.co.kr/news/articleView.html?idxno=115711.)

3. 강화학습(RL) 환경에서 학습 목표의 결함이나 잘못된 명세를 악용하는 현상, 즉 보상 해킹(reward hacking)은 현대 AI 시스템의 치명적인 실패로 남아 있으며, 언어 모델링, 제어 과제, 추천 시스템 등 다양한 분야에서 비정렬된 행동(misaligned behaviors)을 보이는 원인이 되어 왔다. 우리가 실제로 최적화하고자 하는 진정한 목적 함수(true objective function)는 정확히 기술하기 어려운 경우가 많고, 따라서 능력 있고 정렬된 시스템(capable and aligned systems)을 설계하는 데 있어 가장 큰 과제는, 모델이 악용할 수 없는 견고한 대리 목표(robust proxy)를 설계하는 데 있다. 이 문제는 머신러닝 시스템에만 국한된 것이 아니라, 인간의 제도(human institutions)에서도 반복되어 온 고질적인 문제다. 그 예로, 1902년 하노이 정부는 시민들이 제출한 쥐 꼬리(rat tail) 한 개당 보상을 지급하는 방식으로 쥐 박멸 정책을 시행했다. 그러나 이 정책은 사람들이 꼬리를 자르기 위해 일부러 쥐를 사육하는 현상으로 이어졌고, 결과적으로 쥐 개체 수는 더 늘어나는 역효과를 낳았다. 이처럼 보상 해킹은 인간 사회에서도 해결되지 않은 문제이기에 단순히 모델의 지능 수준(intelligence frontier)을 끌어올리는 것만으로 이 문제를 해결할 수 있을 것으로 기대하기는 어렵다. 오히려 에이전트의 능력이 향상될수록 더 복잡하고 감지하기 어려운 악용 전략(exploit)을 발견하고 실행할 수 있게 되어, 문제가 악화될 가능성도 있다.(Bowen Baker 외 9명, “Monitoring Reasoning Models for Misbehavior and the Risks of Promoting Obfuscation,” ArXiv, accessed Aug 8, 2025, https://doi.org/10.48550/arXiv.2503.11926.)


비지도학습(Unsupervised Learning) 비지도 학습은 정답이 주어지지 않은 데이터를 컴퓨터가 스스로 분석해, 비슷한 것들끼리 묶거나 숨겨진 패턴을 찾아내는 머신러닝 방법이다. 예를 들어, 사과, 바나나, 오렌지 사진이 섞여 있을 때, 컴퓨터는 각 과일의 색이나 모양 같은 특징을 보고 사람이 알려주지 않아도 비슷한 것끼리 자동으로 분류한다. 이렇게 비지도 학습은 정답 없이도 컴퓨터가 혼자서 배우고 그룹을 나누는 방식이라고 할 수 있다.
상세(참고) 열기 접기

1. 인공지능의 비지도 학습은 사람의 감독 없이 데이터를 통해 학습하는 머신러닝의 한 유형입니다. 지도 학습과 달리 비지도 머신러닝 모델은 라벨이 지정되지 않은 데이터를 통해 명시적인 지침이나 안내 없이 패턴과 유용한 정보를 발견할 수 있습니다.(Google Cloud, “비지도 학습이란?“ Google Cloud Discover, 마지막 수정 2024년 8월 27일, 2025년 8월 6일 접속, https://cloud.google.com/discover/what-is-unsupervised-learning?hl=ko.)

2. 비지도 학습(또는 비지도 머신러닝)은 라벨이 없는 데이터를 머신러닝(ML) 알고리즘으로 분석해 자동으로 분류하는 방식이다. 이 알고리즘은 사람의 개입 없이도 데이터 속에 숨겨진 패턴이나 구조를 스스로 찾아낸다.(IBM, “What Is Unsupervised Learning?” Think Topics, Sep 23, 2021, accessed Aug 6, 2025, https://www.ibm.com/think/topics/unsupervised-learning.)

3. 비지도학습은 라벨이 필요하지 않은 대신 패턴을 찾는데 초점을 맞춘다. 데이터들의 공통점을 찾고 공통점 여부를 바탕으로 데이터를 분류하거나 예측한다. 이는 인간이 어떤 임무에 집중하면서도 그 배경이 되는 환경을 관찰하면서 하루종일 수행하는 무의식적 학습과 어느 정도 비슷하다. […] 일부 비지도학습 유형은 ‘생성형generative’으로 설계되기도 한다. 다시 말해, 학습용 데이터를 충분히 잘 서술하는 패턴을 파악함으로써 훈련용 데이터와 구별하기 어려울 정도로 비슷한 데이터를 새롭게 만들어낸다. (월터 시넛암스트롱, 재나 셰익 보그, 빈센트 코니처, 『도덕적인 AI: 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음,』 박초월 옮김, (서울: 김영사, 2025), 39.)

[유의어]

지도학습(Supervised Learning): 지도학습은 라벨링된 데이터로부터 입력과 출력 간의 관계를 학습하며, 그럼으로써 미래 데이터에 대해 답을 예측하거나 분류하는 방법이다. 지도학습과 비지도학습은 모두 AI에 목표를 부여한 뒤 목표 달성 방식을 경험을 통해 스스로 알아내도록 하는 기계학습(Machine Learning) 방법이다.

강화학습(Reinforcement Learning): 컴퓨터나 AI가 환경과 상호작용하면서 ‘보상’(reward)에 따라 행동을 학습하는 기계학습 방법이다.

1. 강화학습의 주된 목표는 일정한 시간 안에 무수한 시도의 성패를 통해 학습함으로써 특정한 보상을 극대화하는 것이다. […] 표준적인 강화학습 AI는 세상이 어떻게 작동하는지에 대한 명시적인 지침을 부여받지 않는다. 그러므로 시행착오를 통해 보상을 극대화하는 방법을 스스로 터득해야 한다. […] 강화학습은 라벨링된 데이터가 필요하지 않은 대신 AI가 익숙하지 않은 환경과 상호작용하도록 해야 한다. (월터 시넛암스트롱, 재나 셰익 보그, 빈센트 코니처, 『도덕적인 AI: 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음,』 박초월 옮김, (서울: 김영사, 2025), 40-41.)


생성적 적대 신경망(GAN, Generative Adversarial Networks) GAN은 2014년 Ian Goodfellow가 제안한 인공지능 기법으로, 두 개의 신경망이 서로 경쟁하며 배우는 구조이다. 하나는 생성자(generator)로, 아무런 정보가 없는 노이즈에서 진짜 같은 이미지를 만들어 내고, 다른 하나는 판별자(discriminator)로, 그 이미지가 진짜인지 가짜인지 구분한다. 이런 과정을 반복하면서 생성자는 점점 더 실제와 구분하기 어려운 고품질 이미지를 만들 수 있게 된다. GAN은 이미지 생성, 영상 합성, 데이터 증강 등에 활용되며 예술, 디자인, 의료 영상 같은 분야에서도 쓰인다. 대표적인 GAN에는 Vanilla GAN, Conditional GAN, DCGAN 등이 있다.
상세(참고) 열기 접기

1. GAN은 2014년 Ian Goodfellow 등 연구진이 제안한 생성적 인공지능 프레임워크로, 두 개의 신경망(generative, discriminative)이 서로 경쟁(adversarial)하며 학습하는 구조이다. 구체적으로, 하나의 네트워크(Generator)는 임의의 노이즈를 입력받아 실제와 유사한 데이터(예: 이미지)를 생성하고, 다른 네트워크(Discriminator)는 입력된 데이터가 실제 데이터인지 생성자가 만든 가짜 데이터인지를 판별한다. (Jobit Varughese, “What Are Generative Adversarial Networks (GANs)?” IBM Think, accessed May 6, 2025, https://www.ibm.com/think/topics/generative-adversarial-networks.)

2. GAN(Generative Adversarial Network)은 2014년 Ian Goodfellow가 제안한 프레임워크로, 생성자(generator)와 판별자(discriminator)가 적대적 학습(adversarial training)을 통해 경쟁하며 발전해 나가며, 이 과정을 통해 생성자는 실제와 구분하기 어려운 고품질의 이미지를 빠르게 합성할 수 있다. 이러한 구조 덕분에 GAN은 이미지 생성, 영상 합성, 데이터 증강 등 다양한 분야에서 활용되며, 높은 해상도와 세부 묘사를 제공해 예술, 디자인, 의료 영상 등에서도 효과적이다. 다만 학습 과정에서 모드 붕괴(mode collapse)나 네트워크 균형 조정의 어려움으로 인한 불안정성이 단점으로 지적되며, 상대적으로 적은 데이터로도 결과를 낼 수 있지만 대규모 고해상도 학습에는 많은 자원이 필요하다. (Sapien, “GANs vs Diffusion Models: A Comparative Analysis,” Sapien Blog, accessed July 27, 2025, https://www.sapien.io/blog/gans-vs-diffusion-models-a-comparative-analysis.)

3. 기계학습(ML: Machine Learning) 방식 중 하나인 생성적 대립 신경망(GAN)은 새로운 이미지, 동영상, 음성 등을 생성하는 생성자(generator)와 생성한 이미지와 실제 이미지를 구별하는 판별자(discriminator)가 서로 경쟁하는 학습 모델로 새로운 위조 이미지, 동영상, 음성 등을 만들어낸다. 그리고 이러한 원리를 통해 사진이나 영상에서 기존 인물을 다른 인물로 바꿔주는 것이 가능해져 딥페이크 기술이 실현될 수 있게 된다.(송창훈, 도성룡, “국내외 딥페이크 성범죄 처벌 제도 분석을 통한 국내 제도 발전 방향,” 아시아태평양융합연구교류논문지 11, no. 2 (2025): 448.)

4. 최근에는 안면 매핑(facial mapping) 또는 안면 스와핑(face swapping) 기술을 이용해 만든 가짜 이미지나 영상물이 합성데이터 생성기술인 생성적 적대 신경망(GAN) 알고리즘을 통해 정교화되어 맨눈으로 구분하기가 어려워졌을 뿐만 아니라, 전문가들도 파악이 어려울 정도가 되었다.(목광수, “딥페이크 기술의 윤리 문제와 대응 방안 모색,” 철학·사상·문화 no. 46 (2024): 294.)

5. 적대관계생성신경망 기술은 원본과 차이가 없는 데이터를 만들려는 생성모델과, 원본과 다른 점을 찾아내는 분류모델을 서로 경쟁시켜 반복실행을 통해 원본과 흡사한 데이터를 만들어내는 알고리즘을 말한다.(김희정, “딥페이크 기술을 이용한 신종범죄에 대한 법정책적 시사점 – 외국의 법정책 대응을 중심으로 -,” 서강법률논총 13, no. 3 (2024): 99.)

6. 생성형 적대 신경망은 원본과 동일한 데이터를 만들려는 생성모델과 원본과 다른 점을 찾아내는 분류모델을 서로 경쟁시키는 과정을 반복실행시킴으로써 원본과 흡사한 데이터를 만들어내는 알고리즘을 말한다 (최창욱, 정유미, “국내외 언론이 바라본 딥페이크 기술,” 한국디지털콘텐츠학회, 디지털콘텐츠학회논문지 제23권 (2022): 894.)

[참고] GAN 계열 주요 프레임워크: Vanilla GAN (Generative Adversarial Network), Conditional GAN (Conditional Generative Adversarial Network), DCGAN (Deep Convolutional Generative Adversarial Network), LAPGAN (Laplacian Pyramid Generative Adversarial Network), SRGAN (Super‑Resolution Generative Adversarial Network), Pix2Pix, CycleGAN (Cycle‑Consistent Generative Adversarial Network), StyleGAN (Style Generative Adversarial Network), StyleGAN2 (Style Generative Adversarial Network 2), WGAN (Wasserstein Generative Adversarial Network), BigGAN (Big Generative Adversarial Network)


생성형 인공지능 (Generative AI) 생성형 인공지능은 사용자의 지시에 따라 새로운 텍스트, 이미지, 음성, 코드 등을 능동적으로 만들어내는 기술이다. 이는 대규모 데이터를 학습한 딥러닝 모델이 패턴과 구조를 분석해 새로운 결과물을 생성하는 방식으로 작동한다. 대표적인 생성형 AI 모델로는 GPT(텍스트 생성), StyleGAN(이미지 생성), GitHub Copilot(코드 생성) 등이 있다.
상세(참고) 열기 접기

1. 대표적인 생성형 인공지능 모델(Generative AI Models)로 텍스트 생성 분야에는 CTRL, GPT‑3, T5와 같은 대규모 언어 모델이, 이미지 생성 분야에는 StyleGAN, Pix2Pix, DeepDream이, 코드 생성 분야에는 GitHub Copilot, CoNaLa, Bayou가 대표적인 예로 제시된다. (GeeksforGeek, “Top Generative AI Models to Explore in 2025,” GeeksforGeeks, last updated July 23, 2025, accessed July 27, 2025, https://www.geeksforgeeks.org/blogs/generative-ai-models/.)

2. gen AI라고 불리기도 하는 생성형 AI는 사용자의 프롬프트 또는 요청에 따라 텍스트, 이미지, 비디오, 오디오 또는 소프트웨어 코드와 같은 독창적인 콘텐츠를 생성할 수 있는 인공 지능(AI)이다. 생성형 AI는 인간 두뇌의 학습 및 의사 결정 과정을 시뮬레이션하는 알고리즘인 딥 러닝 모델이라고 하는 정교한 머신 러닝 모델에 의존한다. 이러한 모델은 방대한 양의 데이터에서 패턴과 관계를 파악하고 인코딩한 다음, 이 정보를 사용하여 사용자의 자연어 요청이나 질문을 이해하고 관련성 있는 새로운 콘텐츠로 응답하는 방식으로 작동한다.(IBM Think, “생성형 AI란 무엇인가요?” IBM, 2025년 7월 30일 접속, https://www.ibm.com/kr-ko/topics/generative-ai.)

3. 생성형 AI란 이용자의 특정 요구에 따라 결과를 능동적으로 생성해 내는 인공지능 기술을 의미한다. 기존까지의 딥러닝 기반 AI 기술이 단순히 기존 데이터를 기반으로 예측하거나 분류하는 정도였다면, 생성형 AI는 이용자가 요구한 질문이나 과제를 해결하기 위해 스스로 데이터를 찾아서 학습하여 이를 토대로 능동적으로 데이터나 콘텐츠 등 결과물을 제시하는 한 단계 더 진화한 AI 기술이다. AI 개발사들은 개발하고자 하는 서비스의 목적에 따라 다양한 생성형 AI 모델을 개발하고 적용하고 있는데, ChatGPT와 같은 챗봇 서비스에 가장 널리 쓰이고 있는 생성형 AI 모델은 LLM(Large Language Model)이다. LLM은 쉽게 설명하자면, 텍스트와 같은 언어 데이터를 학습하여 결과를 제공하는 생성형 AI 모델이다. 생성형 AI을 통해 경쟁 우위를 가지는 세 가지 방법(3i)으로는 ‘잘 질문하는 방법(inquiry)’ 익히기(프롬프트), '생성형 AI의 생성 결과를 확인하는 과정(inspection)’, ‘생성형 AI의 결과물에 자신의 전문성과 창의성 더하기’가 있다.(양지훈, 윤상혁, “ChatGPT를 넘어 생성형(Generative) AI 시대로 : 미디어·콘텐츠 생성형 AI 서비스 사례와 경쟁력 확보 방안,” KCA. 2025년 7월 30일 접속, https://www.kca.kr/Media_Issue_Trend/vol55/KCA55_22_domestic.html.)

성인지 감수성(Gender sensitivity) 성인지 감수성은 사회·문화적으로 형성된 성(gender)에 따른 차별과 불평등을 인식하고, 그 영향을 줄이기 위해 필요한 태도와 판단 능력을 의미한다. 단순히 차별을 인지하는 것을 넘어, 성평등을 실현하기 위한 행동과 제도 개선까지 포함하는 적극적인 개념이다. 성인지 감수성이 높을수록 일상과 조직, 정책에서 성차별 요소를 더 명확하게 식별하고 개선할 수 있다.
상세(참고) 열기 접기

1. 성인지 감수성이란 성별 차이에 따른 불평등 상황을 인식하고 성차별적 요소를 감지하는 것으로 조직사회에서 성차별인지 아닌지를 판별하는 능력을 말한다. 성인지 감수성에서 의미하는 ‘성(性)’은 생물학적인 성(sex)이 아니라 사회문화적으로 형성된 성(gender)을 의미한다. 성인지 감수성은 협의로는 성별 간의 불평등에 대한 이해와 일상생활 속에서 성차별적 요소를 감지해 내는 민감성을 뜻하며, 좀 더 포괄적으로는 성평등에 대한 의식과 실행 의지, 실천력을 포함하는 능동적이며 지적인 과정을 포함한다. 양성평등기본법(제18조)에는 성인지 교육을 사회 모든 영역에서 법령, 정책, 관습 및 각종 제도 등이 여성과 남성에게 미치는 영향을 인식하는 능력을 증진시키는 교육으로 정의하고 있다.(전북중학교 학습자료실, “성인지 감수성이란,” 전북중학교, 2025년 8월 9일 접속, https://school.jbedu.kr/jeonbuk/M010309/view/5133526?.)

2. 성인지 감수성이란 젠더 정체성에 따른 불평등을 인지할 수 있는 능력이다. 그러나 다른 학자들은 성인지 감수성이 이러한 인지를 넘어서 실제 행동으로 나아가는 단계까지 포함해야 한다고 주장하기도 한다. […] 대한민국 법원의 판결서 검색 서비스에 따르면 ‘성인지 감수성’이 처음 구체적인 사건의 판결문에 등장한 것은 2018년 4월 대법원 판결(대법원 2018. 4. 12. 선고 2017두74702 교원소청심사위원회결정취소사건 판결)이나, 해당 판결은 행정 심사이므로 본 연구의 대상에는 해당되지 않는다. 형사 사건의 경우 ‘성인지 감수성’이라는 표현이 2018년 8월부터 사용되기 시작했다.(유희재, “성폭력 사건 판결문의 ‘성인지 감수성’ 관련 담화에 대한 비판적 연구,” 한국어학 104 (2024): 123-125.)

3. 이른바 ‘피해자다움’이 부족하다고 보아 이를 이유로 피해자 진술의 신빙성을 배척하는 것은 성폭력 사건의 심리를 할 때 요구되는‘성인지 감수성’을 결여한 것이다.(유희재, “성폭력 사건 판결문의 ‘성인지 감수성’ 관련 담화에 대한 비판적 연구,“ 한국어학 104 (2024): 145.)

4. 성인지 감수성은 성인지적 관점에서 나타난 개념으로 성인지력, 성인지성, 젠더 감수성, 성평등의식, 성별 감수성 등으로 번역되고 있으며 연구자마다 상이하게 활용하고 있다(정영림, 2021). 좁은 의미로는 남녀 사이의 젠더 이슈 및 불평등을 지각하는 능력으로 이해되기도 하고(강선미, 2005; 김영옥 외, 2005), 조금 더 넓은 의미에서는 불평등의 과정과결과에 대한 인식을 확장 시켜, 성차별적 영향을 배제할 수 있도록 행동하는 단계까지 포함하기도 한다(Newman, 2003).(오승연, "형사사법 분야에서 성인지 감수성에 대한 탐색적 연구," (국내석사학위논문, 동국대학교 경찰사법대학원, 2024), 9.)

5. 젠더 데스크 도입 후 성평등 보도의 중요성이 인식되었고, 사내 기자들의 성인지 감수성이 향상되었다고 말했다. 사내에 젠더 데스크가 존재한다는 사실만으로도 언론사 내부에 성인지 감수성의 지표가 마련되는 효과가 나타났다는 것이다. 편집국 내 성인지 감수성이 고양되면서 젠더 관점의 뉴스 스크리닝에 대한 저항감이 줄어들고, 자연스럽게 변화가 이뤄졌다. (김효원, “언론사 성인지 감수성 관련 제도 및 교육 현황_젠더 데스크 긍정 효과 뚜렷, 보편적 제도 정착 필요해,” 한국언론진흥재단 (2024): 9-10.)

[유의어] 성인지력, 성인지성, 젠더 감수성, 성평등의식, 성별 감수성, 성 인지적 관점(gender-sensitive perspective) 등

심볼 그라운딩 문제(Symbol Grounding Problem) 심볼 그라운딩 문제는 인공지능이 기호(symbol)를 실제 세계에서 그것이 가리키는 의미와 연결하지 못하는 한계를 말한다. 인간은 사과라는 기호를 보면 빨갛다, 원숭이, 동그랗다 등의 감각적 경험과 맥락을 통해 의미를 연상하지만, AI는 텍스트 상의 기호로만 처리한다. 따라서 AI가 기호와 외부 세계 간의 접점을 어떻게 형성할 수 있을지에 대한 문제가 핵심 과제로 떠오르고 있다.
상세(참고) 열기 접기

1. 고양이의 특징과 정의를 인간이 기호로 전환해 일일이 입력하는 대신, 반대로 인공지능이 스스로 고양이의 특징을 추출하고 이를 통해 대상을 인식 및 분류했다는 점에서, 분명한 전환을 이루었다고 할 수 있다. 그것은 분명하다. 하지만 여전히 제기될 수 있는 질문은, 이 가운데 고양이라는 청각 이미지(기표)와 그것이 가리키는 개념(기의)이 과연 결합될 수 있는가에 대한 것이다. 이를 ‘기호 접지’ 문제 또는 ‘심볼 그라운딩(symbol grounding)’ 문제라 하는데(Harnad, 1990), 이전의 기호주의 인공지능은 이 문제대로 기표를 기의에 접지시키지 못했고, 결국 세계를 세계 자체로 인식할 수 없었다. ‘고양이는 동물이다’, ‘서울은 한국의 수도이다’, ‘손가락은 손의 일부이다’ 등과 같이 아무리 많은 지식을 입력한다 해도 그것은 단지 컴퓨터상의 기호로만 존재할 뿐 실제의 세계와 결합될 수 없었던 것이다.(박승일, “‘언어적 전회’에서 ‘인공적 전회’로 합성곱 신경망과 오토인코더를 중심으로,” 커뮤니케이션 이론 20, no. 2 (2024): 81.)

2. 프레임 문제와 함께 인공지능의 난제로 여겨지는 또 하나가 심볼그라운딩이다. 인지 과학자인 스테반 하나드에 의해 논의된 것으로 기호를 그것이 의미하는 것과 결부시킬 수 있는 것인가 아닌가를 묻는 것이다. 컴퓨터는 기호의 ‘의미’를 알지 못하므로 기호를 의미하는 것과 결부시킬 수 없다. 예를 들면 얼룩말을 본 적이 없는 사람이 있는데 그 사람에게 ‘얼룩말이라는 동물이 있고, 얼룩이 있는 말이다’라고 가르치면 진짜 얼룩말을 본 순간 그 사람은 ‘저것이 이야기에서 나왔던 얼룩말일지도 모른다’고 바로 인식할 수 있을 것이다. 이것은 인간이 말의 의미와 줄무늬의 의미를 알고 있기 때문이다. 말이라는 것은 갈기와 발굽이 있고 “히힝” 라고 우는 4개의 발을 가진 동물이라는 이미지가 인간에게는 있는 것이다. ‘시마시마’라는 것은 색이 다른 2개의 선이 교대로 나오는 모양이라는 것도 알고 있다. 따라서 그것을 조합시킨 ‘시마시마가 있는 말’도 바로 상상할 수 있는 것이다. 그러한 의미를 알고 있는 인간에게는 지극히 간단한 일이 의미를 알지 못하는 컴퓨터에게는 말할 수 없이 힘든 일이 된다. 얼룩말이 ‘시마시마가 있는 말’이라는 것은 기술할 수 있어도 단순히 기호의 나열에 지나지 않으므로 그것이 무엇을 가리키는지 모른다. 따라서 처음으로 얼룩말을 보아도 ‘이것이 저 얼룩말이다’라고 인식할 수 없다. 즉 얼룩말이라는 심볼과 그것을 의미하는 것이 결부돼 있지 않은 것이 문제인 것이다. 이것을 심볼그라운딩 문제라고 한다.(한정희, “[AI딥러닝] AI가 인간의 지능 초월할까?... 최대 난제는 '심볼그라운딩’ 신체성 모르면 개념 이해 어려워,” AI라이프경제, 2025년 7월 31일 접속, https://www.aifnlife.co.kr/news/articleView.html?idxno=12088.)

3. 2차 인공지능(AI) 황금기 시절에 프레임 문제와 함께 AI의 난제로 여겨지는 또 한가지는 ‘심볼 그라운드(Symbol Grounding, 기호 접지)’ 문제였다. 헝가리 태생의 캐나다 인지 과학자인 스테반 하나드(Stevan Harnad)가 1990년에 발표한 논문에서 제안된 개념으로, 그는 인간이 두뇌를 포함해서 신체와 환경으로부터 모든 것의 정보를 획득하고 특정한 의미를 가지게 과정을 심볼 그라운딩이라고 표현했다. 심볼 그라운딩 문제는 AI 시스템 내부에서 사용되는 기호(symbol)들이 어떻게 현실 세계의 실제 의미와 연결될 수 있는가에 대한 문제이다. 즉, AI가 사용하는 기호로 된 바나나, 의자, 사랑과 같은 단어나 개념이 단순한 기호만이 아니라, 인간처럼 실제 대상이나 경험에 기반한 의미를 가질 수 있느냐는 질문이다. […] 사람마다 다를 수 있지만, 인간에게 바나나라는 단어는 일반적으로 '노랗다' '길다' '달다' 등의 다양한 정보로 두뇌 속에 들어가 있다. 그래서 바나나라는 기호를 보거나 단어를 들으면 이런 것들이 동시에 연상돼 바나나의 다양한 실체를 기호와 적절하게 연관시킬 수 있는데, 이런 것을 심볼 그라운딩 되었다고 표현한다. […] 한편, 로봇 공학에서는 심볼 그라운딩을 환경과 신체를 통한 정보의 획득으로 특정 정보의 의미와 개념을 형성할 수 있다는 ‘신체성’이라는 접근법의 문제로 보기도 한다. 심볼 그라운딩이 되기 위해서는 카메라, 센서 등을 통해서 직접 보고 만져보는 외부 세계와의 상호 작용을 통해 개념이 만들어지기 때문에 신체에 해당하는 하드웨어가 필요하다는 접근법이다.(문병성, “[AI의 역사] 53 줄무늬가 있는 말과 얼룩말의 관계 - 심볼 그라운딩 문제와 누벨 AI,” AI타임스, 2025년 7월 31일 접속, https://www.aitimes.com/news/articleView.html?idxno=171332.)

4. 인공지능에서 심볼이 대상에 대하여 의미를 가지게 되는 과정을 심볼 그라운딩(symbol grounding)이라고 한다. 결국 딥러닝이 인간에게 자신의 의사결정과정을 설명하려면 인간의 언어를 가져야 하고 그 관건은 심볼 그라운딩인 것이다.(박충식, ““인공지능은 인문학이다”: 구성적 정보 철학적 관점에서,” 철학탐구 56 (2019): 186.)

[유의어] 기호 접지 문제

안티딥페이크(Anti-Deepfake) 안티딥페이크는 AI로 조작된 이미지나 영상에서 육안으로는 감지하기 어려운 미세한 흔적을 탐지해 딥페이크를 잡아내는 기술이다. 픽셀 질감의 불균형, 프레임 전환의 어색함, 얼굴 표정이 제한되거나 그림자가 부자연스러운 장면 등을 탐지해 딥페이크 여부를 판단한다.
상세(참고) 열기 접기

1. LG유플러스는 영상이나 이미지를 분석해 AI로 합성된 흔적을 잡아내는 ‘안티 딥페이크’ 기술도 개발했다고 밝혔다. 맨눈으로 잘 보이지 않는 픽셀 단위의 질감, 패턴의 불균형, 프레임 간 일관성이 떨어지는 현상 등을 탐지하는 것이 핵심이다. LG유플러스는 해당 기술을 통해 딥페이크 영상을 이용한 범죄를 차단하고, 위·변조된 유해 콘텐츠를 신속하게 식별하겠다는 계획이다. 한영섭 랩장은 “안티딥페이크 기술은 현재 경량화 개발이 진행 중”이라며 “먼저 서버 기반에서 기술의 성능을 최대한으로 끌어올린 뒤, 사용자 개별 기기에서 일정 성능을 유지할 수 있도록 구현할 계획”이라고 말했다.(어환희, “[팩플] 딥보이스 잡는 데 단 5초…LG유플러스, ‘안티 딥보이스’ 기술 상용화,” 중앙일보. 2025년 8월 9일 접속, https://www.joongang.co.kr/article/25347007.)

2. 안티 딥페이크 기술은 딥페이크를 감지하는 여러 방식을 말한다. […] 안티 딥페이크 기술 개발을 진행함에 있어 딥페이크를 감지하는 방법을 이해하는 것이 중요하다. 일반적으로 딥페이크에는 사람의 분석이나 알고리즘 분석을 통해 식별할 수 있는 아티팩트가 포함되어 있으며, 이는 이미지나 오디오의 진위 여부를 판단하는 데 도움을 줄 수 있다. 눈에 띄는 전환, 선명한 윤곽을 만드는 데 실패해 흐릿함, 제한된 얼굴 표정과 그림자를 감지해 얼굴 조작 여부를 가늠하거나, 금속성 소리, 단조로운 음성 출력, 시간 지연 등을 탐지해 음성 조작 여부를 판단한다.(Golden, “Anti-deepfake technology,“ 2025년 8월 30일 접속, https://golden.com/wiki/Anti-deepfake_technology-R9VDX65.)

약한 AI(Weak AI) 약한 AI는 특정 과업이나 한정된 영역에서만 기능하도록 설계된 인공지능으로, 인간 수준의 일반 지능이나 자각을 갖추지 않는다. 이러한 AI는 언어 처리 및 환경과의 상호작용은 가능하나, 자율적 사고나 유연한 인지 능력은 결여되어 있다. 현재 실용화된 대부분의 AI 시스템은 이와 같은 약한 AI (좁은 AI)의 범주에 속한다.
상세(참고) 열기 접기

1. ‘강한strong’ 인공지능과 ‘약한weak’ 인공지능의 구별은 여러 형태로 변주되면서 적지 않은 모호성을 띤다. 그럼에도 불구하고 그 구별은 인공지능의 능력을 설명하고 또 그것을 인간 지능과 구별하는 기준으로 일반적으로 널리 사용되고 있다. […] 약한 인공지능과 강한 인공지능을 구별할 때, 크게 세 가지 형태를 분류할 수 있다. 우선, 인간의 ‘마음mind’을 진정으로 지니고 있어야 ‘강한’ 인공 지능이라는 기준이 있다. […] 특정한 분야나 영역에서만 인간 못지않은 또는 인간보다 뛰어난 재능을 가지는 로봇이나 인공지능을 ‘약한’ 인공지능이라 부르고, “인간 지능의 모든 국면을 포괄하는 인공적인 일반 지능(general intelligence)”를 ‘강한’ 인공지능이라고 부른다. […] 대표적으로 커즈와일이 큰 목소리로 강조하는 특이점(singularity)은 다름 아니라 “강력한 인공지능(인간 지능을 뛰어넘는 인공지능)”이 등장하는 순간이다. (김진석, “‘약한’ 인공지능과 ‘강한’ 인공지능의 구별의 문제,” 철학연구 0, no. 117 (2017): 111–137.)

2. ‘약한 AI’라는 용어는 오해의 소지가 크다. 이름이 함축하는 뜻과 달리, 약한 AI는 주어진 임무 수행에 있어서 인간을 극적으로 능가할 수 있는 매우 인상적인 인공지능이다. 예를 들어 1997년 당시 세계 체스 챔피언 가리 카스파로프를 상대로 승리를 거둔 AI 시스템 딥블루(Deep Blue)는 약한 AI의 한 형태였다. 딥블루는 초당 1억에서 3억가지의 가능한 수를 평가했다. 그리고 AI엔지니어들과 체스마스터들이 규정하고 미세하게 조정한 규칙에 따라 수를 평가한 다음 그중에서 가장 좋은 수를 선택했다. […] 딥블루가 획기적인 성과를 달성한 방법을 컴퓨터과학자들이 파악할 때까지는 수십 년이 걸렸다. […] 기념비적인 성공을 거두었음에도 딥블루는 카스파로프에게 승리한 직후 미국의 컴퓨터역사박물관으로 은퇴하고 말았다. 왜 그랬을까? 딥블루가 체스를 두는 것 말고는 아무것도 할 수 없다는 사실을 제작자들이 알고 있었기 때문이다. 이것이 바로 좁은 AI 시스템의 정의이다. ‘약한’의 의미는 ‘좁은’과 다르다고 생각하는 사람들도 딥블루가 약한 AI 시스템이라는 데에는 동의할 것이다. 왜냐하면 딥블루는 인간과 동일한 종류의 다목적 인지 메커니즘을 사용하여 체스를 두지 않기 때문이다. (월터 시넛암스트롱, 재나 셰익 보그, 빈센트 코니처, 『도덕적인 AI: 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음,』 박초월 옮김, (서울: 김영사, 2025), 32-34.)

[유의어] 좁은 AI(Narrow AI): 일반적으로 약한 AI와 좁은 AI는 동일하게 특정한(한정된) 목적이나 작업에만 특화된 인공지능을 의미하는 용어로 사용된다.

1. 이러한 도구들은 우리와 상호작용하고 인간의 언어를 처리하며 이해할 수 있지만, 인간처럼 스스로 생각하는 유연성이나 융통성이 부족하기 때문에 약한 AI로 불린다. […] 오늘날 우리 주변에 존재하는 기계 지능은 모두 이러한 좁은 AI의 범주에 속한다. (S. Prasad, V. Rajeswari, N. Niharika, “A Study on Narrow Artificial Intelligence—An Overview,” International Journal of Engineering Science and Advanced Technology (IJESAT) 24, no. 4 (2024): 168–171, https://www.ijesat.com/ijesat/files/V24I0428_1714383466.pdf.)

[대립어] 강한 AI(Strong AI) or 범용 AI(AGI, Artificial General Intelligence): 인간과 동등하거나 그 이상의 지능과 자기 인식, 그리고 자율적인 사고와 학습 능력을 갖춘 이론적 인공지능이다.

1. 제가 ‘강한 AI’로 규정한 주장은, 적절히 프로그래밍된 컴퓨터가 실제로 인지 상태를 가지며, 그 프로그램 자체가 인간의 인지를 설명할 수 있다는 것입니다. (John Searle, “The Chinese Room,” in Minds, Brains, and Programs, Behavioral and Brain Sciences 3, no. 3 (1980): 417–418.)

2. 강한 AI는 인간의 마음과 구별할 수 없을 정도로 유사한 지능을 지닌 기계를 만드는 것을 목표로 합니다. […] 현재 학계와 민간 부문 모두에서 범용 인공지능(AGI)의 개발에 매진하고 있지만, 이 개념은 여전히 이론적인 수준에 머물러 있으며 실제로 구현된 사례는 없습니다. 마빈 민스키(Marvin Minsky)와 같이 몇몇 인물들은 수십 년 안에 AI에서 큰 성과를 낼 수 있다고 지나치게 낙관적인 견해를 보이기도 했지만, 반대로 강한 AI는 애초에 개발이 불가능하다는 의견도 존재합니다. 이런 회의적 시각은, 지능과 이해 같은 성공 기준이 명확히 정의되지 않은 이상 유효하다고 할 수 있습니다. (IBM Think, “What Is Strong AI?” IBM, accessed Aug 4, 2025, https://www.ibm.com/think/topics/strong-ai?utm_source=chatgpt.com.)

오토인코더(Autoencoder) 비지도학습 중 하나인 오토인코더는 인공지능이 데이터를 스스로 압축하고 다시 복원하면서 그 안에 담긴 중요한 특징을 찾아내는 구조다. 복잡한 이미지를 요약해 중요한 정보를 뽑아내고, 그걸 바탕으로 원래 데이터를 최대한 비슷하게 재구성하면서 어떤 정보가 중요한지를 학습한다. 이 구조는 정보를 줄이는 인코더와 다시 복원하는 디코더가 서로 연결되어 있다. 이 방식을 통해 오토인코더는 노이즈 제거, 특징 추출, 이상 탐지 등에 사용된다.
상세(참고) 열기 접기

1. 인공신경망(ANN)에서 학습이 이뤄지게 하는 직접적인 장치는 ‘오토인코더(Autoencoder)’다. 오토인코더는 인코더와 디코더로 이루어지는데, 인코더는 입력층부터 차례차례 앞의 층보다 노드(스위치) 수를 줄여가는 것이고, 디코더는 출력층까지 앞의 층보다 차례차례 노드 수를 늘려가는 것이다.(최순욱, 오세욱, 이소은, “딥페이크의 이미지 조작: 심층적 자동화에 따른 사실의 위기와 푼크툼의 생성,” 미디어, 젠더 & 문화 34, no. 3 (2019): 345.)

2. 오토인코더는 입력 데이터를 주요 특징으로 효율적으로 압축(인코딩)한 후 이 압축된 표현에서 원본 입력을 재구성(디코딩)하도록 설계된 일종의 신경망 아키텍처이다. 자동 인코더는 비지도 머신러닝을 사용하여 입력 데이터의 잠재 변수, 즉 직접 관찰할 수는 없지만 근본적으로 데이터 배포 방식에 영향을 미치는 숨겨진 변수 또는 무작위 변수를 발견하도록 학습된다. 주어진 입력 데이터 세트의 잠재 변수를 총칭하여 잠재 공간이라고 한다. 학습 과정에서 오토인코더는 원본 데이터를 가장 정확하게 재구성하는 데 사용할 수 있는 잠재 변수를 학습한다. 따라서 이 잠재 공간 표현은 원본 입력에 포함된 가장 중요한 정보만을 나타낸다. 대부분의 오토인코더 유형은 데이터 압축, 이미지 노이즈 제거, 이상 감지 및 안면 인식과 같은 특징 추출과 관련된 인공 지능 작업에 사용된다.(Dave Bergmann and Cole Stryker, “오토인코더란 무엇인가요?” IBM Think, 2023년 11월 23일, 2025년 8월 1일 접속, https://www.ibm.com/kr-ko/think/topics/autoencoder.)

3. 지도학습이 결국 인간이 컴퓨터에 ‘이것이 고양이다’라는 정답을 입력하면 컴퓨터가 그 정답의 특징을 추출하고 학습하는 방식인 반면, 비지도학습은 인간이 아무것도 입력하지 않은 상태에서 컴퓨터가 스스로 이것과 저것의 특징을 유사성에 따라 유형화해(clustering) 나가는 (즉 학습하는) 방식인 것이다(Geron, 2022/2023). 구글의 고양이에 사용된 기법은 ‘오토인코더’로서, 이는 간단히 말하면 고차원의 입력 데이터를 저차원의 벡터로 최대한 압축compression)한 후에 이를 다시 원래의 크기로 재구성(reconstruct)하는 인공지능 신경망을 뜻한다(이하 사이토 고키, 2016/2017; Buduma et al., 2022/2024; Geron, 2022/2023; Le et al.,2012). 오토인코더는 입력 데이터의 차원을 압축하는 인코더(encoder)와 이렇게 압축된 데이터를 복원하는 디코더(decoder)로 이루어져 있으며, 그 가운데에 입력 데이터의 대표적인 특징을 추출한 결과물인 잠재 벡터(latent vector)가 둘을 연결하는 모양새다. 즉 오토인코더는 auto encoder라는 이름 그대로 인코더가 고차원 원본 데이터를 압축함으로써 자동으로 그 특징이 가장 잘 내재된(latent) 벡터를 찾아낸다는 의미를 담고 있다. … 오토인코더는 입력과 출력이 최대한 유사해질 수 있도록 가장 대표적인 특징값(잠재 벡터)를 추출함으로써, 그 잠재 벡터만으로도 입력 데이터가 무엇인지를 곧바로 인식할 수 있는, 이를테면 특징 인식의 최소 단위를 구축하는 데 그 의미가 있는 것이다.(박승일, “‘언어적 전회’에서 ‘인공적 전회’로: 합성곱 신경망과 오토인코더를 중심으로,” 커뮤니케이션 이론 20, no. 2 (2024): 66–69.)

오픈소스 인공지능(Open-source AI) 오픈소스 인공지능은 누구나 자유롭게 접근 가능한 AI 기술로, 개발자와 기업의 혁신을 가속화한다. 다양한 산업 분야에서 실질적인 활용이 가능하지만, 보안·편향·책임 문제에 주의가 필요하다. 

상세(참고) 열기 접기

1. 오픈소스 인공 지능(AI)은 누구나 자유롭게 소스 코드를 사용, 수정, 배포할 수 있는 AI 기술을 뜻합니다. AI 알고리즘, 사전 학습된 모델, 데이터 세트가 사용 및 실험할 수 있도록 공개되면, 사용자들이 자발적으로 기존 작업을 기반으로 창의적인 AI 애플리케이션을 제작하는 커뮤니티가 등장하면서 실용적인 AI 솔루션의 개발이 가속화됩니다. 결과적으로 이러한 기술은 많은 기업의 사용 사례에서 복잡한 문제를 처리하는 데 가장 적합한 도구가 되는 경우가 많습니다. GitHub와 같은 플랫폼에서 무료로 사용할 수 있는 오픈 소스 AI 프로젝트와 라이브러리는 의료, 금융, 교육과 같은 산업에서 디지털 혁신을 촉진합니다. 즉시 사용할 수 있는 프레임워크와 도구는 개발자가 시간을 절약하고 특정 프로젝트 요구 사항을 충족하는 맞춤형 솔루션을 만드는 데 집중할 수 있도록 지원하여 개발자의 역량을 강화합니다. 소규모 개발자 팀은 기존 라이브러리와 도구를 활용하여 Microsoft Windows, Linux, iOS 및 Android와 같은 다양한 플랫폼을 위한 유용한 애플리케이션을 구축할 수 있습니다. 오픈 소스 AI의 다양성과 접근성은 실시간 사기 방지, 의료 이미지 분석, 개인화된 권장 사항 및 맞춤형 학습과 같은 광범위한 유익한 사용 사례를 가능하게 합니다. 이러한 가용성 덕분에 오픈 소스 프로젝트와 AI 모델은 개발자, 연구원 및 조직에서 인기를 얻고 있습니다. 오픈 소스 AI를 사용함으로써 조직은 AI 도구의 지속적인 개발 및 개선에 지속적으로 기여하는 다양한 대규모 개발자 커뮤니티에 효과적으로 액세스할 수 있습니다. 이러한 협업 환경은 투명성과 지속적인 개선을 촉진하여 기능이 풍부하고 신뢰할 수 있는 모듈식 도구로 이어집니다. 또한 오픈 소스 AI의 공급업체 중립성은 조직이 특정 공급업체에 얽매이지 않도록 보장합니다. 오픈 소스 AI는 매력적인 가능성을 제공하지만, 자유로운 접근성은 조직이 신중하게 탐색해야 하는 위험을 내포하고 있습니다. 잘 정의된 목표와 목적 없이 맞춤형 AI 개발에 뛰어들면 잘못된 결과와 리소스 낭비, 프로젝트 실패로 이어질 수 있습니다. 또한 편향된 알고리즘은 쓸모없는 결과를 낳고 해로운 가정을 지속시킬 수 있습니다. 오픈 소스 AI는 쉽게 사용할 수 있다는 특성 때문에 보안 문제도 제기됩니다. 악의적인 행위자는 동일한 도구를 활용하여 결과를 조작하거나 유해한 콘텐츠를 만들 수 있습니다. 편향된 학습 데이터는 차별적인 결과로 이어질 수 있으며, 데이터 드리프트는 모델을 비효율적으로 만들고 라벨 지정 오류로 인해 신뢰할 수 없는 모델로 이어질 수 있습니다. 기업이 자체적으로 구축하지 않은 기술을 사용할 경우 이해관계자가 위험에 노출될 수 있습니다. 이러한 문제는 오픈 소스 AI에 대한 신중한 고려와 책임감 있는 구현의 필요성을 강조합니다. 이 글을 쓰는 현재, 거대 기술 기업들은 이 주제에 대해 의견이 분분합니다. Meta 및 IBM과 같은 회사는 AI Alliance를 통해 오픈 소스 AI를 옹호하고 개방형 과학 교류와 혁신을 강조합니다. 반면 Google, Microsoft, OpenAI는 AI의 안전과 오용에 대한 우려를 이유로 폐쇄적인 접근 방식을 선호합니다. 미국과 EU와 같은 정부는 혁신과 보안 및 윤리적 문제의 균형을 맞출 수 있는 방법을 모색하고 있습니다.(Tim Mucci, “Five Open-Source AI Tools to Know,” IBM Think Insights, December 15, 2023, accessed July 30, 2025, https://www.ibm.com/think/insights/open-source-ai-tools.)

2. 인공지능 알고리즘을 구현한 플랫폼의 개발에는 대규모 자본이 투입되어야 하며 고도의 기술력이 집약되어있는 것인데 왜 무료로 외부에 공개를 하는 것일까? 그 이유는 첫째로, 딥러닝 등 인공지능의 핵심 알고리즘은 이미 어느 정도 정립이 되어있어서 알고리즘보다는 이 알고리즘이 적용되는 기반 데이터가 더욱 중요해 졌다는 점이 있다. 둘째로는, 인공지능 기술은 전통적인 ICT 산업 부문을 넘어 전통산업을 포괄하는 매우 광범위한 영역으로 응용이 되며, 또 응용대상 영역에서 얻어지는 데이터 및 사용자 피드백 등 케이스 의존적인 성격이 강하기 때문이다. 예를 들어 머신러닝의 기본 알고리즘은 금융, 의료, 교육 등 모든 분야에 응용 가능하지만 개별적인 응용대상 분야 자체에 대한 노하우가 없으면 그러한 알고리즘이 실제로 구현될 수가 없는 것이다. 따라서 구글과 같은 거대 글로벌 선도기업도 혼자만의 힘으로는 인공지능 기술의 보급 확산을 달성할 수 없으며, 개방형 혁신 생태계를 통하여 다양한 분야에서 인공지능 기술을 응용하는 주체들이 모두 협력하여야 인공지능 기술의 확산 및 보급이 가능하다. 따라서 국내에서도 이러한 인공지능 알고리즘의 표준화 및 오픈소스 라이브러리화 작업이 필요하며, 인공지능 기술의 개발에 필수적인 테스트 및 트레이닝용 데이터 셋의 확보가 요구된다. 그러나 데이터의 확보에는 많은 비용이 소요되어, 규모가 작은 스타트업의 입장에서 이러한 데이터의 확보는 쉽지 않은 일이다. 정부 및 공공부문의 역할은 이러한 인공지능 기술 생태계에서 훈련용 데이터셋과 오픈소스 라이브러리, 기술평가기준 정립과 같은 공공재의 공급을 촉진하는 것에 있다. 특히 정부가 축적한 방대한 양의 데이터를 민간 스타트업 생태계와 공유하는 것이 필요하며, 이 과정에서 직면하게 되는 빅데이터의 상업적 응용 과정에서의 보안 문제나 데이터 완결성 문제, 사생활 침해로 인한 윤리적 문제 등에 대해서 가이드라인을 제시해야 할 필요가 있다. 또한, 인공지능 기술의 초기 수요를 견인하여 시장을 창출해내기 위하여 정부의 공공 IT 시스템에 자연어처리 등 인공지능 기술과 인터페이스를 적극적으로 도입하는 등의 정책을 제안할 수 있다. (남충현, “오픈소스 AI: 인공지능 생태계와 오픈 이노베이션,” KISDI Premium Report 2016, no. 10 (2016): 1–23.)

웹 크롤링(Web Crawling) 웹 크롤링은 인터넷에 공개된 웹 페이지에서 데이터를 자동으로 수집하는 기술로, 크롤러(crawler)나 스파이더(spider)라고 불리는 프로그램을 사용해 대량의 정보를 복제·저장한다. 이 프로그램은 처음 주어진 주소에서 시작해 페이지를 다운로드하고 그 안의 하이퍼링크를 따라가며 다른 페이지들을 계속 탐색하고 수집한다. 이렇게 모은 데이터는 검색 엔진이 페이지를 발견하고 색인하는 데 쓰이거나, 빅데이터 분석·마케팅·비즈니스 전략 수립과 같은 분야에서 활용된다.
상세(참고) 열기 접기

1. 크롤링이란 웹사이트에서 공개된 데이터를 수집하는 행위로, 크롤러(crawler)라는 소프트웨어를 이용해 웹사이트에서 자동으로 대량의 데이터를 복제·수집한다. 크롤링은 정보통신망법상 정보통신망침해, 저작권법상 데이터베이스권 침해, 부정경쟁방지법상 성과도용 등에 해당할 가능성이 있다. […] 불특정 다수에게 공개된 데이터에 대한 크롤링은 부정경쟁방지법 위반이 아닐 가능성이 높아졌다. 결국 AI에 의한 데이터 크롤링의 경우 법적 리스크가 감소했다고 볼 수 있다. (이성엽, AI규제법 (서울: 커뮤니케이션북스, 2024), 27–28.)

2. 웹 크롤링은 크롤러 또는 스파이더라는 프로그램을 사용하여 웹 데이터를 수집하는 방법을 의미한다. 크롤러의 기본적 원리는 주어진 시드 URL에서 출발하여 그 URL과 연결된 웹 페이지를 다운로드하고, 여기에 포함된 하이퍼링크를 추출하고, 이러한 하이퍼링크로 식별되는 웹 페이지를 재귀적으로 계속 다운로드하는 것이다. 웹 크롤링은 이제 데이터가 핵심 요소가 되는 모든 곳에서 데이터를 수집하는 가장 효과적이고 유용한 방법 중 하나로 널리 사용되고 있다. 특히 빅데이터 또는 인공지능의 등장으로 인하여, 마케팅 또는 비즈니스 전략에 있어 경영 판단 또는 의사 결정 과정에서 웹 크롤링은 이제 필수 불가결한 것이 되었다. (김태균, 「웹 크롤링(Web Crawling)에 관한 연구: 그 원리와 법적 책임에 관하여」 (석사학위논문, 서울대학교 융합과학기술대학원, 2023), i.)

3. 웹 크롤링과 유사한 기술로 웹 스크레이핑(web scraping)이 있다. 웹 스크레이핑은 웹 브라우저 화면에 표시되는 다양한 정보 중 사용자가 지정하거나 필요한 정보만 추출한 다음 이를 가공·저장하여 사용자에게 제공하는 기술임에 반하여 웹 크롤링은 특정 형태의 정보를 웹에서 자동으로 수집하여 정보를 최신으로 유지하는 소프트웨어 기술이라고 할 수 있다. (김태균, 「웹 크롤링(Web Crawling)에 관한 연구: 그 원리와 법적 책임에 관하여」 (석사학위논문, 서울대학교 융합과학기술대학원, 2023), 12–13.)

4. 웹 크롤러는 로봇(robot) 또는 스파이더(spider)라고도 불리며, 인터넷 상의 웹 페이지를 대량으로 수집·다운로드하기 위해 설계된 시스템이다. (Christopher Olston and Marc Najork, “Web Crawling,” Foundations and Trends in Information Retrieval 4, no. 3 (2010): 176, https://doi.org/10.1561/1500000017.)

5. 웹 기술의 발전과 함께 데이터의 양은 폭발적으로 증가하였고, 웹은 ‘빅데이터(Big Data)’라 불리는 방대한 비정형 데이터로 가득 차 있다. 그러나 이러한 데이터를 대규모로 수집하고 접근하며 처리하는 일은 쉽지 않다. 이때 “웹 크롤러(Web Crawler)”는 웹 데이터를 효율적으로 수집하기 위해 반드시 필요한 기술로, 하이퍼링크를 따라 이동하며 페이지를 탐색하고 그 내용을 색인하는 컴퓨터 프로그램이다. 웹 크롤러는 스파이더(Spiders), 로봇(Robots), 방랑자(Wanderers)라고도 불리며, 웹사이트를 클러스터링하는 데에도 활용될 수 있다. 크롤러는 웹 분석이나 이메일 주소 수집 등 다양한 용도로 사용되지만, 기본적인 목적은 웹 검색 엔진을 위한 페이지의 발견과 색인 작업이다. 웹 크롤링은 웹 데이터 마이닝 과정의 첫 단계로서, 웹에서 페이지를 수집하고 웹 서버로부터 문서를 자동으로 다운로드하며, 가져온 문서를 분석한 뒤 데이터를 검색 엔진 데이터베이스로 전달한다. 이 과정은 검색 엔진의 색인과 검색 기능을 지원하고, 데이터 분석, 자동화된 웹 상호작용, 사이트 미러링, HTML 및 링크 검증과 같은 다양한 작업에도 활용된다. 웹 크롤러가 웹 페이지를 방문하면 페이지의 본문 텍스트, 하이퍼링크, 그리고 메타 태그와 같은 다양한 태그의 내용을 읽어들인다. 이렇게 수집된 정보는 검색 엔진이 해당 사이트의 주제를 파악하고 색인하는 데 활용되며, 최종적으로 크롤러가 스캔한 웹 문서의 텍스트와 메타데이터는 검색 엔진의 데이터베이스에 저장된다. (Ganesh Chandra Deka, “Chapter Three – NoSQL Web Crawler Application,” in Advances in Computers, vol. 109, ed. Atulya K. Nagar (Amsterdam: Elsevier, 2018), 77–100, https://doi.org/10.1016/bs.adcom.2017.08.001.)

웹하드 카르텔(Webhard cartel) ‘웹하드’는 영상이나 사진, 문서 파일 등을 공유하는 인터넷 저장 공간을 의미하며, ‘카르텔’은 본래 경쟁 관계인 조직이 서로 협력하여 이익을 나누는 것을 뜻한다. ‘웹하드 카르텔’은 불법 촬영 영상을 올리는 사람(업로더), 그 영상이 올라가는 사이트(웹하드), 불법 영상을 감시하는 업체(필터링 업체), 불법 영상을 삭제해주는 전문가(디지털 장의사)로 이루어진다. 이처럼 불법 영상을 막아야 할 사람들이 오히려 서로 도와가며 유통시키는 구조이기에 더욱 문제가 심각하다.
상세(참고) 열기 접기

1. 웹하드 카르텔은 보통 ‘업로더(동영상 올리기)-웹하드(유통)-필터링 업체(불법 파일 차단)-디지털 장의사(불법 파일 삭제)’의 네 단계 구조로 이뤄져 있다. (허윤 외 17인, 디지털 시대의 페미니즘 (서울: 한겨레출판, 2024), 29.)

2. 피해촬영물을 걸러내야 할 필터링업체, 피해자에게 돈을 받고 피해촬영물을 삭제하는 디지털 장의업체까지 한통속이었다. 성착취를 조직적으로 산업화한 이른바 ‘웹하드 카르텔’. (김희진, “②첫 상대는 웹하드 카르텔로 돈 번 양진호…다음 상대는 성착취 영상 본 ‘모든 이용자’,” 경향신문, 2020년 4월 22일, https://www.khan.co.kr/article/202004220600005.)

3. 웹하드업체와 유착된 헤비업로더, 프로그램 개발·판매자, 광고주, 기술적 조치를 무력화한 필터링업체, 디지털장의업체 등에 대한 웹하드 카르텔이 근절될 때까지 집중 단속을 실시합니다. (대한민국 방송통신위원회, “불법음란물 웹하드 카르텔 방지대책 발표,” 대한민국 정책브리핑, 2019년 1월 24일.)

음성 합성 AI(Voice Synthesis AI) 음성 합성 AI는 텍스트를 음성으로 변환하는 Text-to-speech (TTS)에서 출발했다. 현재는 AI 음성 생성기를 통해 인간과 상당히 유사한 목소리를 구현한다. 해당 기술은 인건비를 절감하고 사용이 용이하지만, 저작권 이슈를 동반한다. 
상세(참고) 열기 접기

1. 텍스트-투-스피치(Text-to-speech) 기술은 컴퓨터 생성된 목소리를 사용하여 서면 텍스트를 음성으로 변환합니다. 이 합성 목소리는 때로는 로봇 같거나 단조롭게 들릴 수 있습니다. TTS는 내비게이션 시스템, 화면 리더, 자동 전화 시스템 등에서 널리 사용됩니다. 텍스트-투-스피치 도구는 자연스러움과 표현력 측면에서 제한적이며, 고급 오디오 제작에 필요한 미묘한 억양과 감정을 제공하지 못할 수 있습니다. 사용자들은 감정이 풍부한 콘텐츠를 위해 AI 음성 생성기(AI voice generator)를 선호하는 경우가 많습니다. 반면 AI 음성 생성기는 자연스러운 인간 목소리를 학습한 고급 AI 알고리즘을 사용하여 초현실적인 AI 음성과 AI 내레이션을 생성합니다. AI 음성 기술은 단순히 텍스트를 음성으로 변환하는 것이 아니라, 비디오 음성 해설을 위해 인간과 유사한 음성을 생성합니다. AI 음성 해설 생성 도구는 다양한 음성 옵션, 언어, 억양을 제공하여 사용자가 대상 청중과 일치하는 음성을 선택할 수 있도록 합니다. 이 기술은 비디오, e-러닝 등 고품질 음성 해설을 제작하려는 기업에게 특히 유용합니다.(Synthesia, “AI Voice Generator | Text-to-Speech & AI Voiceover Tool,” Synthesia, accessed August 5, 2025, https://www.synthesia.io/features/ai-voice-generator.)

2.우선 1세대 기술은 딥러닝 기술을 음성합성 분야에 활용하려 했던 첫 번째 시도라는 점에서 의미가 있다. 통계 기반의 파라미터 합성 기술은 ‘은닉 마르코프 모델(HMM, Hidden Markov model)’로 음성 파라미터들의 통계 정보를 모델링했다. 이 1세대 기술은 은닉 마르코프 모델(HMM)을 딥러닝의 심층 신경망(DNN)으로 교체한 것이다.이어 2세대 기술은 시계열 데이터의 예측에서 뛰어난 성능을 보이는 ‘LSTM-RNN(Long Short Term Memory Recurrent Neural Network)’을 활용했다. 음성 파라미터의 통계 모델을 예측하려던 1세대의 시도를 LSTM-RNN의 뛰어난 예측 성능을 활용해 한 단계 뛰어넘고, 음성 파라미터 자체를 직접 예측하려고 했던 시기다. 2세대 기술은 통계 모델을 사용하지 않음으로써 1세대 기술에 비해 발음이 더 명료해지고 음향 품질은 더욱 좋아지게 됐다.3세대부터는 1, 2세대에서 활용됐던 음성의 특징 파라미터들을 대신해 음성 신호를 직접 예측하기 시작했다. 기존의 음성 파라미터를 활용하는 방식은 운율정보, 음향정보, 음의 길이 정보 등의 각 파라미터를 예측하기 위해 여러 단계의 모듈과 각 단계별 전문 지식과 최적화가 필요했는데, 3세대 기술은 입력부터 출력까지 하나의 모듈로 구성된 것이 특징이다.즉, 각 단계별 전문 지식이 필요 없어지고 대신 입력 텍스트와 그에 대한 음성 데이터만 가지고도 모델을 학습할 수 있게 된 것이다. 이는 음성합성 기술에 대한 진입 장벽을 낮추는 역할을 했을 뿐 아니라, 음성 데이터를 가공하기 위해 필요했던 노력도 줄어들며 자체 비용 개발이 절감되는 효과를 얻을 수 있다는 점에서 의미가 있다. 3세대 기술의 시작은 구글이 2017년 3월에 발표한 ‘타코트론(Tacotron)’ 이다. 타코트론은 입력 텍스트와 그에 대한 음성 신호 예측 과정이 하나의 학습 모델로 이루어져 있는데, 학습 모델은 다시 크게 4가지 모듈로 구성된다. 입력 문자열에서 특징 정보를 생성하는 인코더(Encoder), 음성의 스펙트로그램을 예측하는 디코더(Decoder), 인코더와 디코더를 연결해주는 어텐션(Attention), 마지막으로 음성을 만들어 내는 음성합성부다. 그리고 이 3세대 기술은 입력부터 출력까지 하나의 학습 메커니즘으로 구성되는 End-to-End 시스템으로 입력 문장의 시퀀스를 통째로 학습하기 때문에 현존하는 음성합성 기술 중 가장 자연스러운 합성음을 출력할 수 있다. (박태훈, “‘음성합성’이란 무엇인가?,” EP&C, December 20, 2019, 2025년 8월 31일 접속, https://www.epnc.co.kr/news/articleView.html?idxno=93221.)

3. 가수와 AI 음성 합성 소프트웨어 업체 간의 분쟁에서 법원이 가수의 손을 들어줬습니다. 서울중앙지법은 음성 합성 소프트웨어 판매를 금지하라는 가수의 가처분 신청을 받아들였습니다. 소프트웨어의 음성이 가수의 목소리와 거의 동일해 가수의 경제적 이익을 침해할 수 있다고 판단한 건데요. 소프트웨어 개발업체가 가수와 계약 당시 음성이 어느 정도로 유사할 수 있는지도 명확하게 설명하지 않았다는 점을 문제 삼았습니다. (박준우 기자, “법원 ‘AI 음성 합성 소프트웨어 판매 금지’ 가처분 인용… AI 대신 가수 손 들어줬다,” JTBC, 2025년 7월 26일, https://news.jtbc.co.kr/article/NB12256206.)

이미지기반 성착취 (Image-based sexual exploitation) 이미지기반 성착취는 사진·영상 등 디지털 이미지를 성적 피해를 주거나 통제하기 위해 악용하는 행위를 말한다. 피해자의 동의 없이 행하는 이미지 촬영, 제작, 소지, 유포까지 포함한다.
상세(참고) 열기 접기

1. 영상물 사진 등을 다양한 의도에 따라 이용하며 이루어진 성적 침해행위를 일컫는 보다 구체적인 용어로 ‘이미지기반 성착취 (image-based sexual exploitation)’가 있다. 이 개념은 (1) 결별 등 관계에 따른 보복 차원에서의 유포, (2) 소지하고 있는 이미지를 빌미로 한 추가 이미지 및 금전, 원치 않는 성적 행위를 강요하는 성적 협박(sextortion), (3) 성적 만족을 목적으로 제작, 유포하는 관음행위(sexual voyeurism), (4) 피해자의 동의 없이 제작한 이미지로 금전적 이익을 얻고자 하는 경우, (5) 성폭력 행위를 기기에 녹화, 저장하여 유포하는 성폭행(sexual assault)까지 포함한다(Henry and Powell, 2016). (허윤 외 17인, 디지털 시대의 페미니즘 (서울: 한겨레출판, 2024), 103.)

인공신경망(Artificial Neural Network, ANN) 인공신경망은 인간의 뇌가 신경세포(뉴런)를 통해 정보를 처리하는 방식을 모방해 만든 기계학습 모델이다. 입력층, 은닉층, 출력층으로 구성되며, 각 층의 뉴런들은 가중치와 편향을 바탕으로 신호를 전달하고 변환한다. 이러한 과정을 반복하며 인공신경망은 데이터 속 복잡한 패턴을 학습하고, 이를 새로운 입력값에 대한 예측이나 분류에 활용한다.
상세(참고) 열기 접기

1. 신경망은 생물학적 뉴런이 함께 작용하여 현상을 식별하고 옵션을 평가하며 결론에 도달하는 방식을 모방한 프로세스를 사용하여 인간의 두뇌와 유사한 방식으로 결정을 내리는 머신 러닝 프로그램 또는 모델입니다. […] 신경망은 인공 신경망(ANN) 또는 시뮬레이션된 신경망(SNN) 이라고도 합니다. 이는 머신 러닝의 하위 집합이며 딥 러닝 모델의 핵심입니다. (IBM, “신경망이란 무엇일까요?,” IBM Think, 2025년 8월 31일 접속, https://www.ibm.com/kr-ko/think/topics/neural-networks.)

2. 인공 신경망(neural networks)은 생물학의 신경망에서 영감을 얻은 수학적 모델이다. 인공 신경망은 시냅스의 결합으로 네트워크를 형성한 인공 뉴런이 학습을 통해 시냅스의 결합 세기를 변화시켜 문제 해결 능력을 가지고 있는 모델 전반을 가리킨다. […] 인공 신경망은 그림 1과 같이 일반적으로 입력층(input layer), 은닉층(hidden layers)과 출력층(output layer)로 구성되어 있으며 각 층에 포함된 뉴런들이 가중치를 통해 연결되어 있다. (이승철, 정해동, 박승태, 김수현, “딥러닝,” 소음·진동 27, no. 3 (2017): 19–25.)

인공지능(AI) 인공지능은 인간이 설계한 기계·소프트웨어 기반 시스템으로, 주어진 목표를 달성하기 위해 환경을 인지·해석·추론하고 최적의 행동을 수행한다.이는 학습·지식 표현·문제 해결·자기 개선이 가능하며, 정치·경제·사회·문화 등 광범위한 구조와 자원, 인프라에 의존해 구현된다.궁극적으로 AI는 지능이 있는 기계를 만들기 위한 과학·공학이자, 지능의 연산적 측면을 구현하는 산업적 구성물이다.
상세(참고) 열기 접기

1. 미국의 컴퓨터과학자이자 인지과학자인 존 매카시(John McCarthy)는 1955년에 ‘인공지능(Artificial Intelligence)’이라는 용어를 처음으로 만들면서 이렇게 정의했다. “지능이 있는 기계를 만들기 위한 과학과 공학.” 그리고 다음과 같이 덧붙였다. “지능이란, 세상에서 목표를 달성하는 능력의 연산적인 부분이다.” […] 우리는 매우 폭넓은 AI의 정의를 사용하기로 했다. 미국의 ‘국가 인공지능 구상법 2020’에서 제공하는 정의를 살짝 수정한 것이다. “인간이 규정한 일련의 목표에 대해서 충분히 신뢰할 만하게 예측과 추천 및 결정을 수행하여 실제 또는 가상 환경에 영향을 미치는 기계 기반 시스템” 기계 기반이라는 사실은 AI가 인공적이라는 뜻이다. 목표를 신뢰할 만하게 추구한다는 사실은 AI가 지능적이라는 근거로 여겨진다. (월터 시넛암스트롱, 재나 셰익 보그, 빈센트 코니처, 『도덕적인 AI: 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음』, 박초월 옮김 (서울: 김영사, 2025), 27–28.)

2. 인공지능은 체화되고 물질적인 지능이며 천연자원, 연료, 인간 노동, 하부 구조, 물류, 역사, 분류를 통해 만들어진다. AI 시스템은 자율적이지도 합리적이지도 않으며 대규모 데이터 집합이나 기존의 규칙 및 보상을 동원한 방대하고 (연산의 측면에서) 집약적인 훈련 없이는 아무것도 분간하지 못한다. 사실 우리가 아는 형태의 인공지능은 훨씬 폭넓은 정치적, 사회적 구조에 전적으로 의존한다. […] 이 책에서는 AI를 ‘정치, 노동, 문화, 자본을 아우르는 대규모의 산업적 구성물’이라는 의미로 쓴다. (케이트 크로퍼드, AI 지도책: 세계의 부와 권력을 재편하는 인공지능의 실체, 노승영 옮김 (서울: 소소의책, 2022), 17.)

3. 학습의 모든 측면이나 지능의 어떤 특징도 원칙적으로는 매우 정밀하게 기술될 수 있으며, 이러한 기술은 기계가 이를 모방하도록 만드는 데 활용될 수 있다. 우리는 기계가 언어를 사용하고, 추상화와 개념을 형성하며, 현재는 인간만이 수행하는 유형의 문제를 해결하고, 나아가 스스로를 향상시킬 수 있도록 하는 방법을 찾고자 한다. (John McCarthy, Marvin L. Minsky, Nathaniel Rochester, and Claude E. Shannon, A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence (1955), sec. I.)

4. 진정한 인공지능이란 학습하는 기계를 의미한다. 문제는 이 정의에 따르면, 실제로 아무도 진정한 AI를 만든 적이 없다는 것이다. 다만 일부 연구자들이 흥미로운 시도를 해본 적은 있다. […] AI는 지식의 표현과 관련된 것이다. 누군가 실제로 필요로 하는 소규모 기능성 컴퓨터 프로그램일지라도, 그것이 AI 아이디어에 기반하고 있다면 AI 프로그램이 될 수 있다. […] AI는 실제 지식을 갖춘 컴퓨터에 의존한다. 따라서 AI의 핵심은 이 지식을 표현하고, 내용 기반으로 색인을 붙이며, 그 지식을 활용하여 적응하고 수정하는 데 있다.(Roger C. Schank, “Where’s the AI?,” AI Magazine 12, no. 4 (1991): 38–49.)

5. 인공지능(AI) 시스템은 인간이 설계한 소프트웨어(그리고 경우에 따라 하드웨어) 시스템으로, 복잡한 목표를 부여받았을 때 데이터 수집을 통해 환경을 인지하고, 수집된 구조적 또는 비구조적 데이터를 해석하며, 그로부터 도출된 지식을 바탕으로 추론하거나 정보를 처리하고, 주어진 목표를 달성하기 위해 취할 최적의 행동을 결정합니다. AI 시스템은 기호적 규칙(symbolic rules)을 사용할 수도 있고, 수치 모델을 학습할 수도 있으며, 이전 행동이 환경에 미친 영향을 분석하여 스스로의 행동을 조정할 수도 있습니다. (European Commission High-Level Expert Group on AI, AI Watch: Defining Artificial Intelligence (Luxembourg: Publications Office of the European Union, 2020), 9, quoted in Artificial Intelligence Index Steering Committee, Artificial Intelligence Index Report 2025 (Stanford, CA: Stanford Institute for Human-Centered Artificial Intelligence, 2025).)

인식적 부정의(Epistemuc Justice)인식적 부정의는 누군가의 지식, 정보, 믿음, 혹은 의미 생성 과정을 편견이나 사회적 차별 때문에 부당하게 평가하거나 무시하는 현상을 말한다. 지식 전달자가 발화하는 내용의 타당성과 관계없이 발화자의 성별, 계급, 인종, 사회적 지위 등의 이유로 왜곡, 배제, 침묵, 허위진술, 불신의 형태로 드러난다. 정당하지 않은 편견이나 사회적 차별 때문에 누군가의 지식, 정보, 믿음 혹은 의미를 생성하는 과정을 부당하게 판단해 왜곡, 배제, 침묵, 허위진술, 불신으로 간주하는 상황을 말한다. 성폭력 피해자의 진술을 과장되었거나 믿기 어렵다며 의심하거나, 노동자가 경영 회의에서 제안한 아이디어를 전문성 부족이라는 이유로 묵살하는 상황이 여기에 해당한다.
상세(참고) 열기 접기

1. 미란다 프리커(Miranda Fricker)는 진술 내지 증언 청취와 관련한 ‘인지적 부정의’ 개념을 제안한다. 인지적 부정의란 우리가 명제 p에게 그것이 응당 받아야 할 것보다 많은 과도한 신빙성(credibility excess)을 부여하거나 그보다 적은 과소한 신빙성(credibility deficit)을 부여할 때 성립한다. 프리커는 인지적 부정의에 대한 치유책으로 ‘증언 감수성’(testimonial sensibility)의 증진을 든다. 증언 감수성이 적절히 훈련되면 우리는 명제p를 들음으로써 지식 p를 - p의 내용을 왜곡시킨다거나 가감한다거나 하는 것 없이 p 자체를 - 획득하게 된다는 것이다.(양선숙, “미투서사와 진실, 그리고 정의,” 법학연구 21, no. 4 (2018): 318.)

2. 모든 탐구자가 정보와 지식에 평등하게 접근할 수 있는 보편적 참여이다. 권력을 가진 사회 집단과 권력을 가지지 못한 사회 집단 사이에서 어떤 지식이 의사 결정에 있어 진실하고, 타당하며, 중요한 것으로 간주되는지에 대한 의미와 중요성을 둘러싼 논쟁이다. 인식적 부정의라는 개념은 정보나 교육과 같은 인식적 또는 지식적 재화와 서비스의 분배에 있어서의 분배적 불공정성과도 관련이 있다.(IPBES, “Epistemic Justice,” IPBES Glossary, 2025년 7월 29일 접속, https://www.ipbes.net/glossary-tag/epistemic-justice.)

3. 인식적 부정의란 지식의 형태나 의미 생성 과정이 침묵되거나 주변화되는 것을 의미한다. 이는 특정 지식이 제외, 가치 절하, 왜곡되거나 타인의 지식을 가로채는 과정을 통해 나타난다. 이러한 부정의는 젠더, 인종, 성 정체성 및 성적 지향 등의 문제와도 교차되며 지속가능성 연구와 정책 영역에서 사회 과학·인문학(SHH) 및 비서구적 관점이 배제되는 현상을 설명하는 분석 틀로도 활용된다.(H. Duchkova and J. Leventon, Epistemic Justice: How Can Diverse Forms of Knowledge Improve Policy Making? (Cambridge: SSH CENTRE, 2023), 2.)

4. “인식적”이란 ’지식과 관련되어 있다’는 것을 의미한다. 인식적 부정의는 누군가를 지식의 소유자 또는 전달자로서 [정당하게 대우하지 않음으로써] 그에게 잘못을 저지르는 것을 말한다. 즉, 정당화되지 않은 편견 때문에 누군가가 실제로 가지고 있는 지식이나 합리적인 믿음을 가지고 있지 않다고 부당하게 판단하는 것을 말한다. 프리커는 인식적 부정의를 증언적(testimonial) 부정의(누군가의 증언의 신뢰성이 없거나 부족하다고 판단하는 것이 증언 자체의 불합리성 때문이 아닌 개인의 편견 때문일 때 발생)와 해석학적(hermeneutical) 부정의(어떤 개인의 편견으로 인한 결과가 아니라 사회의 편견적 관행의 결과로 발생) 이렇게 두 가지 유형으로 구분한다. 프리커는 인식적 부정의를 방지하기 위해 편견을 없앨 수 있는 신뢰할 수 있는 인격적 특성(미덕)을 기를 것을 제안한다.(Huzeyfe Demirtas, “인식적 부정의,” Doing Philosophy, 2025년 7월 29일 접속, https://doingphilosophy.kr/epistemic-injustice/.)

[유의어] 인지적 부정의, 인식론적 부정의

인지적 구두쇠(Cognitive miser)인지적 구두쇠는 인간이 생각할 때 머리를 많이 쓰기보다 쉽고 빠른 방식으로 판단하려는 성향을 말한다. 이를 테면 처음 만난 사람에게 MBTI를 물어본 뒤, 자신의 경험에 따라 상대방을 특정 성격으로 규정해버리는 것도 인지적 구두쇠의 한 예다.
상세(참고) 열기 접기

1. 1984년 수잔 피스크(Susan T.Fiske)와 셸리 테일러(Shelley E.Taylor)가 발표한 이론에 기초한다. 이러한 경향이 종종 효율적일 수도 있지만, 직관적 판단에 의존할 경우 오류를 초래하거나 비합리적 결정을 내릴 수 있다. 즉 인간은 비이성적이라기보다 제한된 정보, 제한된 합리성인 휴리스티-직관, 개인적 믿음, 부분적 지식 등-에 기초하여 선택과 결정을 내리곤 한다. (황순희, AI와 자연 언어 (서울: 커뮤니케이션북스, 2025), 72.)

일반개인정보보호법(GDPR, The general data protection regulation) 유럽연합 일반개인정보보호법은 2016년에 채택되어 2018년부터 시행된 세계 최고 수준의 프라이버시·보안 법률로, 디지털 시대의 개인 권리와 데이터 처리자의 의무, 준수 방법과 위반 시 제재를 규정한다. GDPR은 EU 내외의 기업과 조직에 적용되며, 데이터 처리 문서화, 데이터 보호 책임자 지정, 영향평가 수행 등 강력한 의무를 부과하여 책임성과 투명성을 강화하고 있다.
상세(참고) 열기 접기

1. 유럽연합 일반개인정보보호법(GDPR)은 세계에서 가장 강력한 프라이버시와 보안 법이다. 이 규정은 1995년 데이터 보호 지침의 원칙을 갱신하고 현대화하였다. 이 법은 2016년에 채택되었으며 2018년 5월 25일부터 시행되었다. GDPR은 다음을 정의한다: 디지털 시대에서 개인이 가지는 기본적 권리, 데이터를 처리하는 자의 의무, 준수를 보장하기 위한 방법, 규정을 위반한 자에 대한 제재. (Council of the European Union, “Data Protection Reform (GDPR),” European Council – Council of the European Union, accessed July 27, 2025, https://www.consilium.europa.eu/en/policies/data-protection-regulation/.)

2. 2018년에 발효된 일반 데이터 보호 규정(GDPR)은 데이터 프라이버시와 보호를 위한 국제적 법률 중 가장 진보적이고 널리 알려진 법률 중 하나이다. GDPR이 도입된 이후, EU 내뿐 아니라 전 세계적으로 데이터 프라이버시와 보호의 위상이 높아졌다. GDPR은 지역적 적용뿐 아니라 역외 적용도 이루어진다. 즉, EU와 그 거주자뿐만 아니라 EU 시민의 개인정보를 처리하거나 국제적으로 이전하는 외국 및 EU 기업에도 적용된다. GDPR이 제정된 이후, 많은 국가들의 데이터 보호 법률이 이 혁신적인 EU 규정을 본떠서 국가 및 하위 국가 수준에서 마련되었다(브라질 – LGPD, 캐나다 – PIPEDA, 나이지리아 – NDPA, 그리고 캘리포니아 – CPRA). 이로 인해 개인의 프라이버시 권리에 대한 인식이 높아졌다. (Uchenna Jerome Orji, “GDPR: Five Years After and the Future of Data Privacy Protection in Review,” SSRN (2023), 1, https://ssrn.com/abstract=4601142.)

3. GDPR은 조직에 상당한 의무를 부과해왔다. 기업들은 데이터 처리 활동을 문서화하고, 필요 시 데이터 보호 책임자(DPO)를 지정하며, 고위험 처리 활동에 대해서는 데이터 보호 영향평가(DPIA)를 수행해야 한다. 이러한 조치들은 데이터 처리 운영에서의 책임성과 투명성을 전반적으로 강화했다. […] 시행 이후 5년 동안, 규제 당국은 비준수 사례에 대해 상당한 벌금과 제재를 부과해왔다. 이러한 집행 조치들은 데이터 보호가 선택이 아니라 EU 내부와 외부에서 활동하는 조직들에게 반드시 준수해야 할 필수 요건이라는 강력한 신호를 보냈다. (Uchenna Jerome Orji, “GDPR: Five Years After and the Future of Data Privacy Protection in Review,” SSRN (2023), 7–10, https://ssrn.com/abstract=4601142.)

[참조] GDPR의 7가지 핵심 원칙: GDPR(General Data Protection Regulation) 제5조(Article 5)에 명시된 공식 원칙이다. 1. 합법성, 공정성, 투명성 (Lawfulness, Fairness, Transparency): 모든 개인정보 처리를 법적 근거에 따라 합법적으로 수행하며, 정보 주체에게 명확하게 고지하여 공정성과 투명성을 확보한다. 2. 목적 제한 (Purpose Limitation): 개인정보를 처음 수집된 명확한 목적을 위해서만 사용하며, 그 목적과 무관하게 추가적으로 활용하는 것을 엄격히 제한한다. 3. 데이터 최소화 (Data Minimization): 개인정보를 해당 목적에 반드시 필요한 최소한의 범위로만 수집·이용하며, 과도한 데이터 수집을 금지한다. 4. 정확성 (Accuracy): 개인정보를 정확하고 최신의 상태로 유지하며, 오류가 발견되는 경우 즉시 수정하거나 삭제한다. 5. 저장 제한 (Storage Limitation): 개인정보를 수집 목적이 달성된 후에는 필요 이상으로 보관하지 않으며, 목적 달성 후에는 안전하게 삭제·파기한다. 6. 무결성 및 기밀성 (Integrity and Confidentiality): 모든 개인정보를 무단 접근, 누출, 변경, 손실 등으로부터 보호하며, 이를 위해 기술적·관리적 보호조치를 시행한다. 7. 책임성 (Accountability): 데이터 관리자가 위의 원칙들을 실제로 지키고 있음을 입증하며, 내부 정책·기록 유지·점검 체계를 갖춘다. (European Union, General Data Protection Regulation, art. 5.)

자연어 처리(NLP, Natural Language Processing) 자연어는 인간이 일상에서 사용하는 언어로, 인공적으로 만들어진 언어와 구분된다. 자연어 처리는 컴퓨터가 사람의 언어(텍스트 또는 음성)를 분석하고 이해하여 자연어로 응답할 수 있도록 돕는 인공지능의 한 분야이다. NLP는 웹 검색, 스팸 메일 필터링, 텍스트 또는 음성 자동 번역, 챗봇 서비스, 전화 상담 등 우리 생활 다양한 곳에서 사용되고 있다.
상세(참고) 열기 접기

1. 자연어 처리(NLP)는 머신 러닝을 사용하여 컴퓨터가 인간의 언어를 이해하고 소통하도록 돕는 인공 지능(AI)의 하위 분야이다. NLP는 인간 언어의 규칙 기반 모델링인 컴퓨터 언어학과 통계 모델링, 머신 러닝, 딥 러닝을 결합하여 컴퓨터 및 디지털 기기가 텍스트와 음성을 인식, 이해, 생성할 수 있게 해준다. NLP는 고급 언어 모델을 사용하여 다양한 목적에 맞게 사람과 유사한 텍스트를 생성한다. 그러나 사람의 말에도 오류가 발생하는 것처럼, 최첨단 NLP 모델도 완벽하지 않다. 다른 AI 기술과 마찬가지로 NLP에도 잠재적인 함정과 위험(학습 편향, 오해, 새로운 단어, 어조)이 관련되어 있다. (IBM, “Natural Language Processing,” IBM Think, 2025년 8월 4일 접속, https://www.ibm.com/kr-ko/think/topics/natural-language-processing.)

2. 자연어(Natural Langugae)는 우리가 일상 생활에서 사용하는 언어이고, 자연어 처리(Natural Language Processing)는 이러한 자연어의 의미를 분석해서 컴퓨터가 처리할 수 있도록 만들어주는 일을 말한다. 컴퓨터에게 사람처럼 텍스트를 이해시키는 것이 아닌 글자 언어(written language)에 대한 통계적 구조를 만들어 처리하는 것이다. 예를 들면 문장에서 다음에 나올 단어의 확률을 구하며, 단어, 문장, 문단에 적용한 패턴들을 인식하는 등의 과정이다. 그래서 컴퓨터 프로그래밍을 말하는 코딩과 자연어 처리는 동일한 개념이 아니다. 최근 인공지능(AI) 분야에서 자연어처리관련 시장이 급격히 커지고 있고, AI 스피커, 챗봇 서비스, 전화 상담 등 다양한 곳에서 자연어 처리 기술을 활용하고 있다. 사람의 언어를 이해하는 기술인 자연어 이해 부분, 기계의 작문 기술로 표현할 수 있는 자연어 생성, 음성인식기술, 기계번역(MT, Machine Translation), 오타 검열 등이 자연어 처리 기술이 활발하게 쓰이고 있는 분야이다.(원영선, “자연어 처리(NLP)란 무엇일까요? 정의부터 활용사례까지,” 모두의연구소 블로그, 2022년 11월 4일, 2025년 8월 4일 접속, https://modulabs.co.kr/blog/natural-language-process-definition.)

3. 자연어 처리는 자연어 텍스트 또는 음성으로 데이터를 상호 연결하는 것으로 '언어 입력(language in)'이라고도 한다. 대부분의 소비자는 자신도 모르는 사이에 NLP와 상호 작용을 하고 있다. 예를 들어, NLP는 Oracle Digital Assistant(ODA)나 Siri, Cortana, Alexa와 같은 가상 도우미의 핵심 기술이다. 이러한 가상 도우미에게 질문을 하면 NLP를 통해 사용자의 요청을 이해할 수 있을 뿐만 아니라 자연어로 응답할 수 있다. NLP는 서면 텍스트와 음성 모두에 적용되며 모든 인간 언어에 적용될 수 있다. NLP 기반 툴의 또다른 예로는 웹 검색, 스팸 메일 필터링, 텍스트 또는 음성 자동 번역, 문서 요약, 감정 분석, 문법/철자 검사 등이 있다. NLP와 거의 유사하게 쓰이는 몇 가지 용어들도 있다. 자연어 이해(NLU)와 자연어 생성(NLG)은 각각 컴퓨터를 사용하여 인간의 언어를 이해하고 생성하는 것을 의미한다. NLG의 경우 일어난 일에 대한 구두 설명을 제공할 수 있는데 이는 '그래픽 문법'이라는 개념을 사용하여 의미 있는 정보를 텍스트로 요약하는 것으로 '언어 출력(language out)'이라고도 한다.(Caroline Eppright, “자연어 처리(NLP)란?,” Oracle 대한민국, 2021년 3월 25일, 2025년 8월 4일 접속, https://www.oracle.com/kr/artificial-intelligence/what-is-natural-language-processing/.)

잠재 공간(Latent Space) 잠재 공간은 머신 러닝과 딥 러닝 모델이 복잡한 데이터(예: 언어, 이미지)의 핵심적인 특징만 추출해 수치화하여 표현하는 추상적이고 압축된 다차원 공간이다. 이 공간에서는 의미나 구조가 유사한 데이터들이 서로 가까운 위치에 놓이기 때문에, 기계가 개념 간의 관계를 수학적으로 계산하거나 생성할 수 있다. 예를 들어, '고양이'와 '호랑이'가 비슷한 특성을 가진다면 잠재 공간에서도 가까운 위치에 매핑되며, 이는 생성형 AI의 텍스트 생성, 이미지 합성 등에 중요한 역할을 한다.
상세(참고) 열기 접기

1. 머신 러닝(ML)의 잠재 공간은 입력 데이터의 기본 구조를 알려주는 필수적인 특성만 보존한 데이터 포인트의 압축된 표현이다. 잠재 공간을 효과적으로 모델링하는 것은 대부분의 생성형 AI(Gen AI) 알고리즘을 포함한 딥 러닝의 필수적인 부분이다. 공간이라는 단어는 일반 언어에서보다 머신 러닝의 맥락에서 더 다양한 의미를 갖는다. 일반적으로 ML의 '공간'은 데이터 포인트를 매핑, 비교 또는 샘플링하는 특정 모드를 나타낸다. 수학적으로 말하자면, 공간은 주로 그 차원에 해당하는 것, 즉 해당 공간의 데이터 포인트를 설명하는 데 사용되는 특성(변수)에 따라 정의된다. 특성 공간은 데이터 포인트가 아니라, 특정 데이터 포인트 집합을 특징지을 수 있는 유의미한 특성 값에 대한 가능성 범위와 연결된 벡터 공간이다. '특성 공간'과 '잠재 공간'은 종종 같은 의미로 사용되지만 항상 동의어는 아니다. 특성 추출은 일반적으로 유용하지 않은 정보를 생략하는 압축된 데이터 표현을 수반한다는 점을 고려하면 두 개념은 밀접하게 관련되어 있다. 그러나 일부 특성은 데이터의 기본 구조와 반드시 관련되지 않을 수도 있다. 따라서 잠재 공간은 일반적으로 머신 러닝을 통해 현재 작업과 가장 관련성이 높은 것으로 식별되는 특성의 하위 집합만 포함하는 특성 공간의 저차원 표현이다.(Dave Bergmann, “잠재 공간이란 무엇인가요?” IBM Think, 2025년 1월 28일, 2025년 8월 4일 접속, https://www.ibm.com/kr-ko/think/topics/latent-space.)

2. 잠재공간(Latent Space)은 그동안 다루기 수학적으로 다루기 어려웠던 언어, 이미지 등과 같은 비정형데이터 속에 잠재(latent)해 있는 특성이 수치화된 공간이다. 이 공간에서는 비정형 데이터의 특성을 더하거나 빼거나 하는 계산을 할 수 있다. 이는 잠재공간에서는 특성이 유사한 항목이 가깝게 존재하기 때문이다. 여기서 설명 드리지는 않겠지만 어떤 특성을 기준으로 유사함을 평가할 것인가가 잠재공간에서의 위치를 결정한다. … 다시 정리하자면 잠재공간은 현실 공간에서 관찰된 데이터의 특성이 의미 있는 내부 표현으로 인코딩된 추상적인 다차원 공간이다.(강승우, “딥러닝에서 활용도 높은 잠재공간을 누비자,” Global Trend & Technology (지티티코리아), 2022년 9월 16일, 2025년 8월 4일 접속, https://www.gttkorea.com/news/articleView.html?idxno=2592.)

주목경제(Attention Economy) 주목경제는 정보와 콘텐츠가 넘쳐나는 시대에 인간의 ‘주의력(attention)’이 가장 희소하고 가치 있는 자원으로 간주되는 경제적 패러다임이다. 개인과 기업은 주목을 화폐처럼 사고팔며, 주목은 팔로워, ‘좋아요’, 구독자 수 등의 지표로 수치화되어 명성과 경제적 자원으로 교환 가능하다.
상세(참고) 열기 접기

1. 현대의 우리는 '주목경제(attention economy)'에 살고 있습니다. 이 새로운 경제에서 자본, 노동, 정보, 지식은 넘쳐나지만, […] 진정으로 부족한 것은 바로 '인간의 주목'입니다. […] 오늘날 주목은 개인과 기업 모두에게 진짜 화폐와 같습니다. 많은 화폐적 속성을 가지고 있어, 가지지 못한 사람은 원하고, 이미 가진 사람도 더 원합니다. 주목은 사고팔 수 있고 교환 가능합니다. […] 노벨 경제학상 수상자 허버트 사이먼이 말한 것처럼, '정보가 소비하는 것은 바로 정보를 받는 이의 주목이다. 그러므로 정보의 풍요는 주목의 빈곤을 낳는다.’ (Thomas H. Davenport and John C. Beck, “The Attention Economy: Understanding the New Currency of Business,” Ubiquity, no. 1 (2001), https://doi.org/10.1145/376625.376626.)

2. 주목경제는 종종 시장경제의 일부로 여겨져 왔다. 우리는 주목이 개인, 교환, 그리고 사회의 여러 요소들을 움직이는 결정적 화폐가 되는 더 큰 사회적 변환이 일어나고 있다고 주장한다. […] 주목은 팔로워 수, 구독자, ‘좋아요’ 등으로 표시되는 고정화된 형태에서 명성과 지위의 상징적 신호로 작용하며, 이는 미래에 더 많은 주목을 끌 수 있다는 약속과 다른 가치 있는 자원(예: 돈)으로 ‘교환’될 수 있는 기회 모두를 내포한다. (Maxi Heitmayer, “The Second Wave of Attention Economics: Attention as a Universal Symbolic Currency on Social Media and beyond,” Interacting with Computers 37, no. 1 (January 2025): 18–29, published August 16, 2024, https://doi.org/10.1093/iwc/iwae035.)

3. 주목경제라는 개념은 1960년대 후반 허버트 A. 사이먼(Herbert A. Simon)에 의해 처음 제안되었으며, 정보 과잉 문제를 경제적 문제로 규정한 것이었다. 이 개념은 인터넷의 발달과 함께 점점 더 주목받게 되었다. 콘텐츠(공급)는 무한히 쏟아지고 즉시 접근할 수 있게 되었지만, 정보를 소비하는 데 필요한 ‘주목’은 한정되어 있기 때문이다. […] 데이븐포트와 벡(Davenport and Beck, 2001)은 ‘주목경제’를 인간의 주목을 희소한 자원으로 간주하고, 경제학 이론을 활용해 정보 관리 문제를 해결하고자 했다. 오늘날 우리는 점점 더 ‘정보경제(information economy)’가 아니라 ‘주목경제(attention economy)’에 살고 있다. (United Nations Economist Network, Attention Economy: New Economics for Sustainable Development (New York: United Nations, February 2023), 1, accessed via UN website policy briefs, https://www.un.org/sites/un2.un.org/files/attention_economy_feb.pdf.)

4. 모든 디지털 미디어 상품은 유저와 구독자들의 ‘한정적인 주목’을 끌어오기 위해 결과를 전혀 예측할 수 없는 주목경쟁을 벌이고 있다. (허윤 외 17인, 디지털 시대의 페미니즘 (서울: 한겨레출판, 2024), 22–23.)

책임 공백(Responsibility Gap) 책임 공백은 AI가 내린 결정이나 행동으로 문제가 생겼을 때, 누구에게 책임을 물어야 할지 정하기 어려운 상황을 말한다. 기술이 복잡하고 관련된 사람이 많아 잘못을 예측하거나 원인을 밝히기 힘들기 때문에 생긴다. 이런 상황이 이어지면 피해를 막기 위한 제도와 규칙을 마련하기가 어려워진다.
상세(참고) 열기 접기

1. AI 로봇으로 인해 제기되는 책임의 물음을 안드레 매티어스(A. Matthias)는 ‘책임 공백’(responsibility gap)이라는 개념으로 설명한다. 그의 논문 부제가 말해주듯이, 책임 공백은 ‘학습하는 자동 기계의 행위에 대해 책임을 귀속시키는 것’과 관련되어 있다. 이 제목에서 주목할 구절은 ‘학습하는 기계’이다. 우리는 학습을 통해 지식을 습득하고 도덕을 함양한다. AI 로봇이 학습한다는 말은 곧 로봇도 스스로 지식을 습득하고 도덕을 함양한다는 뜻이다. 이러한 학습 과정의 산물인 인간은 도덕적 책임을 진다. 그러면 AI 로봇도 도덕적 책임을 지는가? AI 로봇은 자율적으로 행동은 하지만 도덕적 책임의 주체가 될 수 없어 책임 공백의 물음이 발생한다는 게 그의 주장이다. 즉, “책임 공백은 오직 (1) 최소한의 행위자에 불과한 어떤 실재가 x를 행하고, (2) 그 밖의 어느 누구도 x에 대해 책임이 있다고 말할 수 없고, 그리고 (3) x가 정상적인 어떤 사람의 행위였다면, 그 사람이 그에 대해 책임을 지는 경우에만 발생한다.” 이처럼 책임 공백의 물음은 자율성을 지닌 AI 로봇의 판단과 행동에서 발생한다. (김상득, 「AI 로봇의 책임 공백에 관한 윤리학적 연구,」 『철학연구』 제169집 (2024.2), 65-90.) 

2. 우리 사회가 아직도 이러한 사건(AI로 인해 벌어진 사건)에서 피해의 책임이 누구에게 있는지 파악하고 있다는 것은, 달리 해석하면 당분간 아무도 거기에 책임을 지지 않을 수 있다는 뜻이다. 설령 우리 모두가 누군가에게 책임이 있다고 동의하더라고 말이다. 이와 같은 ‘책임 공백’은 사람들이 신중하게 AI를 사용하도록 하는 중요한 동기를 없애고 AI 피해에 대한 보상을 어렵게 한다. 이러한 책임 공백이 두드러질수록 사람들이 AI피해를 예방하기 위해 충분한 조치를 취할 가능성은 낮아지고 피해자가 의지할 수 있는 수단도 적어진다. (월터 시넛암스트롱, 재나 셰익 보그, 빈센트 코니처, 『도덕적인 AI: 딥페이크부터 로봇 의사까지, 인공지능 윤리를 위한 일곱 가지 물음,』 박초월 옮김(서울: 김영사, 2025), 220-221.) 

3. 인공지능이 고유한 기술적 속성이 현행 법체계에 내재된 취약점과 맞물릴 경우 인공지능에 관련된 사고의 책임소재를 판명하는 것이 불가능해질 우려가 있으므로, 이 같은 공백을 방지할 해석론 또는 입법론을 미리 강구할 필요가 있다는 학계의 담론을 일컫어 ‘법적 책임 공백’(legal responsibility gap)이라 부른다. (중략) 인공지능과 책임공백에 관한 최근 약 10년간의 선행연구들은 그 잠재적 원인과 그 난점에 대하여 크게 ‘예견가능성(또는 자율성)’, ‘무체물성’, ‘불투명성’ 등 세 가지 방향에서 문제의식을 제기하는 것으로 정리될 수 있다. (정해빈, 「인공지능과 책임공백에 관한 법경제학적 연구: 소비재로서 자동화 기술의 대중화가 초래하는 변화에 관한 분석을 중심으로」, 『법경제학연구』 20:1 (2023.4), 153-182.) 

4. 인공지능이 경제와 사회 전반에 걸쳐 사용되는 범용기술로 발전하면서 그로 인한 부작용이나 폐해를 방지하려는 규범적 논의가 활발하게 진행 중이다.(중략) 인공지능 의사결정에 대하여 전통적인 도덕적 책임 또는 법적 책임을 적용하려 할 때 발생하는 ‘책임 공백’의 문제(중략)(조성훈, 「인공지능의 설명 가능성: 책임 공백 문제와 설명을 요구할 권리를 중심으로」, 『IP & Data 法』 2:1 (2022.6.30), 61-82.) 

5. 인공지능 시스템의 작동에는 실제로 많은 기술적 요소들, 가령 빅데이터, 클라우드 컴퓨팅 환경, 사물인터넷 시스템, 정보 수집 센서 등이 개입한다. 그만큼 책임을 부과하고자 할 때, 소위 ‘많은 손’의 문제가 발생하게 된다. 같은 맥락에서 인공지능 시스템을 활용하는 과정에서도 사용자 외에 설계자와 제작자들, 가령 빅데이터 공급자, 클라우드 컴퓨팅 환경 설계 및 운영자, 사물인터넷 제작자, 정보 수집 센서 제작자 등 수많은 행위자들이 관여하게 된다. 이 행위자들은 서로 다른 방식으로 다양하게 관여하는 만큼 사건에 관한 질문에 대답하고 그 결과를 책임질 특정한 행위자를 한정하기란 매우 어렵다. 소위 ‘분산된(distributed) 책임의 문제’가 발생한다. [각주: 인공지능 시스템과 관련하여 이 문제는 플로리디에 의해 본격적으로 제기되었다. 플로리디는 이러한 복잡한 관계망을 전제로 분산된 도덕적 행동이 라는 새로운 개념을 제시하였다. 도덕적으로 중요한 결과는 일부 개인의 도덕적으로 중대한 행동으로 환원될 수 없고 여러 행위자들로 분산될 수밖에 없다는 것이다.(Floridi 2013, pp. 727-43)] (이중원, 「인공지능에게 책임을 부과할 수 있는가?: 책무성 중심의 인공지능 윤리 모색」, 『과학철학』 22:2 (2019), 79-104.)

튜링 테스트(Turing test) 튜링 테스트는 앨런 튜링이 1950년 논문에서 제안한 “모방 게임(imititation game)”을 토대로 하는 인공지능 판별 방법이다. 이 테스트에서 심문자는 인간과 컴퓨터(기계) 모두와 텍스트 기반의 대화를 나눈 뒤, 어느 쪽이 인간인지 식별하지 못하면, 해당 기계는 인간과 구별되지 않을 정도의 지능을 모방했다고 본다. 튜링 테스트는 유진 구스트만 챗봇(2014)이나 GPT-4.5(2025) 등 현대 인공지능에도 적용되었으나, 실제로 ‘지능’이나 ‘자각’을 증명하는 직접적 척도는 아니며, 대화 시간·맥락 등 조건에 따라 결과는 달라질 수 있다.
상세(참고) 열기 접기

1. 나는 “기계가 생각할 수 있는가?”라는 질문을 제안하며, 먼저 ‘기계(machine)’와 ‘생각하다(think)’라는 단어의 의미를 정의하는 것에서 출발하고자 한다. 이 정의는 가능하다면 일상에서 이 단어들이 쓰이는 보편적인 용례를 최대한 반영할 수도 있을 것이다. 그러나 이러한 접근은 위험하다. 만약 ‘기계’와 ‘생각하다’의 의미를 사람들이 일반적으로 사용하는 방식에서 찾으려 한다면, 결국 “기계가 생각할 수 있는가?”라는 질문의 의미와 답을 갤럽 여론조사 같은 통계 조사에서 찾아야 한다는 결론에 이를 수밖에 없다. 하지만 그것은 터무니없는 일이다.그래서 나는 이런 식의 정의를 시도하는 대신, 원래 질문과 밀접하게 연관되면서도 비교적 모호함이 적은 다른 질문으로 바꾸고자 한다. 그리고 이 새로운 문제의 형태는 우리가 ‘모방 게임(imitation game)’이라고 부르는 게임으로 설명할 수 있다.(Alan M. Turing, “Computing Machinery and Intelligence,” Mind 59, no. 236 (1950), pp. 433–460.)

2. 2014년 6월 7일, 영국 런던에서 개최된 공식 행사에서 챗봇 "유진 구스트만(Eugene Goostman)"이 튜링 테스트를 통과한 것으로 발표되며 인공지능 연구사에 중대한 전환점을 제시하였다. 해당 챗봇은 13세 우크라이나 소년이라는 정체성을 기반으로 설계되었으며, 행사에서 심판 30명과 각각 5분간의 대화를 나눈 결과, 약 33%의 심판이 이를 인간으로 오인하였다. 이는 튜링 테스트의 성공 기준인 30%를 초과한 최초의 사례로, 레딩 대학교(University of Reading)의 케빈 워워크(Kevin Warwick) 교수는 이를 인간과 컴퓨터 간 지능 구분의 경계를 가늠하는 의미 있는 이정표로 평가하였다. 그러나 AI 전문가들 사이에서는 제한된 대화 시간과 의도적인 캐릭터 설정 등이 실제 인공지능의 언어 능력이나 이해 능력을 제대로 반영하지 못한다는 점에서 본 테스트의 해석에 대해 비판적 시각도 병존하였다. 유진 구스트만을 개발한 블라디미르 베스노프스키와 유진 데미센코는 인간처럼 보이는 언어적 행동의 구현에 초점을 맞추었으며, 이번 실험은 튜링이 1950년 제안한 인간-컴퓨터 간 지능 판별 실험의 현대적 적용 가능성을 재조명한 사례로 평가된다. (필자가 임의로 요약한 내용으로, 원문은 다음 기사를 참고. Rory Cellan-Jones, "Computer AI Passes Turing Test in 'World First'," BBC News, June 9, 2014, https://www.bbc.com/news/technology-27762088.)

3. 75년 전, 앨런 튜링은 기계가 지능을 가지고 있다고 말할 수 있는지를 판단하는 방법으로 '모방 게임'을 제안했다. 이 게임은 지금은 '튜링 테스트'로 널리 알려져 있다. 이 테스트에서 인간 심문자는 텍스트만을 이용한 인터페이스를 통해 두 명의 증인(한 명은 인간, 한 명은 기계)과 동시에 대화를 나눈다. 두 증인 모두 자신이 진짜 인간임을 설득하려고 한다. 만약 심문자가 인간을 확실히 구별하지 못한다면, 그 기계는 테스트를 통과한 것으로 간주되며, 이는 인간과 유사한 지능을 모방할 수 있는 능력을 나타낸다. 튜링의 논문은 “인공지능 분야에서 다른 어떤 논문보다도 확실히 더 많은 논평과 논란을 불러일으켰다”(French, 2000, p. 116). 튜링은 원래 이 테스트를 매우 일반적인 지능의 척도로 제안했는데, 이는 기계가 자연어를 통해 가능한 거의 모든 인간 활동 영역에서 인간 행동을 모방할 수 있어야 한다는 의미였다(Turing, 1950, p. 436). 그러나 어떤 이들은 이 테스트가 너무 쉬울 수도 있다고 주장해왔다. 그 이유는 인간 심판자들이 오류를 범할 수 있기 때문이며(Gunderson, 1964; Hayes and Ford, 1995), 반대로 기계는 사람을 속여야만 하는 반면 인간은 그저 정직하면 되기 때문에 너무 어려운 것일 수도 있다는 주장도 있다(French, 2000; Saygin et al., 2000). […] 참가자들은 각각 다른 인간 참가자와 이들 시스템 중 하나와 동시에 5분 동안 대화를 나눈 뒤, 어떤 대화 상대가 인간이라고 생각하는지를 판단했다. 인간과 유사한 페르소나를 취하라는 프롬프트를 받았을 때, GPT-4.5는 73%의 확률로 인간으로 판단되었으며, 이는 실제 인간 참가자가 선택된 비율보다 유의미하게 높았다. 이 결과는 어떤 인공지능 시스템이 표준적인 3자 튜링 테스트를 통과했다는 최초의 실증적 증거를 제시한다. […] AI 모델이 더 높은 품질의 응답을 제공하고 환각(hallucination)이 적을수록, 참가자들이 이를 인간으로 오인할 가능성이 높다. […] 이는 대형 언어 모델(LLM)들이 자각이 있거나 진정으로 지능적이라는 뜻은 아니다—단지 특정한 제한된 조건 하에서 그렇게 인식될 수 있다는 의미일 뿐이다.(Vishvak Kuditipudi, Jason Wei, Ishaan Bindlish, Nathan Scales, Xuezhi Wang, and Denny Zhou, Large Language Models Pass the Turing Test (Google DeepMind, March 31, 2025), https://myaidrive.com/file-Kt6oyEzi7e9jR7vQ4DMjm4.)

퍼블리시티권(Right of Publicity) 퍼블리시티권은 개인의 이름, 얼굴, 목소리 등 외적인 정체성을 상업적으로 이용할 수 있는 권리이다. 유명인의 초상이나 이름을 무단으로 광고 등에 사용하는 것을 막기 위해 만들어졌지만, 딥페이크 기술이 발전하면서 일반인에게도 중요한 권리로 떠오르고 있다. 이는 인격권과 달리 경제적 가치를 중심으로 보호하는 ‘재산권적 권리’라는 점에서 초상권과는 구별되면서도 서로 보완적인 역할을 한다.
상세(참고) 열기 접기

1. 미국에서 딥페이크 관련 퍼블리시티권 침해 사건은 ① 유명인 초상이 스마트폰앱에 사용된 사건, ② 사망한 유명인의 공연을 합성한 사건, ③ 유명인 목소리·초상 등이 소셜미디어 광고에 이용된 사건 등이 있었다. 모두 기존의 퍼블리시티권 법리로 쉽게 해결할 수 있는 유형들인데, 주목할 부분은 세 번째 사건에서 법원이 ‘인터넷 서비스 제공자’인 페이스북이 광고 ‘콘텐츠 제공자’라고 판단한 점이다.(박준우, 「인공지능(AI)·딥페이크 생성물의 퍼블리시티권 침해 연구」, 『산업재산권』 -.79 (2024), p. 329.)

2. 퍼블리시티권에 관한 논의들을 개관하면, 인격권의 한 내용으로 보호가 가능하다는 입장은 주로 독일의 영향을, 지식재산권으로 보호가 필요하다는 견해는 주로 미국의 영향을 받았음을 알 수 있다.(김수정, 「인격권으로서의 퍼블리시티권」, 『법조』 71, no. 5 (2022), p. 128.)

3. 퍼블리시티권(publicity rights)을 통해서도 그 성격을 유추할 수 있다. 퍼블리시티권은 초상권에서 파생된 경제적 권리로서, 권리 주체의 이름, 초상(likeness), 이미지, 목소리, 정체성 등 전반적인 개인의 외형적 정체성이 상업적으로 이용되는 것을 배타적으로 통제할 수 있는 권리이다. 즉, 개인의 이름이나 사진 등의 인적 속성에 관한 경제적 가치가 상업적으로 이용되는 것을 통제하는 권리이다. […] 초상권은 초상과 관련한 인격적 권리이고 퍼블리시티권은 초상과 관련한 재산권적 성격을 가지는 권리이지만, 사람의 초상과 관련한 권리라는 점에서 공통되어 해석이나 적용에서 상당 부분 공통점을 가진다. 퍼블리시티권은 초상권을 통해 보호되지 않는 경제적, 상업적 측면을 대상으로 하므로 퍼블리시티권을 통해 인격권으로서 초상권의 빈틈이 채워진다고 보인다. 요컨대 초상권과 퍼블리시티권은 각각 인격권적 성격과 재산권적 성격을 가지는 권리이면서 초상 등 정체성의 보호에 적용할 수 있는 핵심적인 권리이고 두 권리가 겹치는 영역이 있지만 동시에 상호 보완관계에 있어서 두 권리를 적용함으로써 초상과 관련하여 거의 완벽하게 보호될 수 있다.(노현숙, 「딥페이크 기술에 의한 인격권 침해 검토 – 초상권을 중심으로 –」, 『미디어와 인격권』 11, no. 1 (2025), pp. 58-59.)

4. 문체부는 ‘AI 시대 콘텐츠산업 미래 전략’을 수립하고 저작권법 개정을 추진하는 등 AI 시대에 발맞춘 대응 방안을 모색하고 있다. 퍼블리시티권과 관련해서는 과거에 「저작권법」상 ‘초상등재산권’과 「민법」상 ‘인격표지영리권’을 신설하기 위한 입법 시도가 이루어진 바 있는데, 그 보호범위가 어떻게 설정되는지에 따라 유명인 뿐 아닌 일반인의 초상, 음성의 이용에도 영향을 미칠 여지가 있다.(김·장 법률사무소, “Insights,” https://www.kimchang.com/ko/insights/detail.kc?sch_section=4&idx=31344 (2025년 7월 29일 접속).)

퍼펫 마스터(Puttet master) 퍼펫 마스터는 말 그대로 누군가를 꼭두각시처럼 조종하듯, 원하는 방식으로 얼굴을 움직이게 하는 딥페이크 기법 중 하나다. 유명 연예인, 정치인 등의 얼굴을 조작해 가짜 뉴스나 유머 영상을 만드는 데 사용되곤 한다.
상세(참고) 열기 접기

1. 퍼펫 마스터는 이른바 ‘꼭두각시(puppet)’에 다른 사람(master)의 비디오와 표정, 머리 및 눈 움직임을 포함하여 ‘꼭두각시’ 비디오를 애니메이션화 하는 데 사용된다.(Vasist P. and S. Krishnan, “Deepfakes: An Integrative Review of the Literature and an Agenda for Future Research,” Communications of the Association for Information Systems (CAIS) 51 (2022), p. 559.)

페이스 스왑(Face swap) 페이스 스왑은 한 사람의 얼굴을 다른 사람 얼굴 위에 자연스럽게 합성하는 기술이다. 이를 테면 영화에서 배우의 얼굴에 다른 사람 얼굴을 덧씌우거나, 앱에서 친구와 얼굴을 바꿔 웃긴 사진을 만드는 것도 페이스 스왑의 예다.
상세(참고) 열기 접기

1. 페이스 스왑은 소스에 대상 이미지를 덮어씌우는 것을 포함한다.(Vasist P. and S. Krishnan, “Deepfakes: An Integrative Review of the Literature and an Agenda for Future Research,” Communications of the Association for Information Systems (CAIS) 51 (2022), p. 559.)

페이스 에디팅(Face editing) 페이스 에디팅은 AI가 인간의 얼굴 이미지를 디지털 환경에서 조작하거나 재구성하여, 표정, 연령, 성별, 얼굴 구조 등 다양한 속성을 현실감 있게 변형하는 기술이다. 주로 생성적 적대 신경망(GAN) 기반의 모델이 활용되며, 2D 이미지, 3D 얼굴 모델, 얼굴 속성 벡터 등 다양한 수준의 표현을 기반으로 작동한다. 방송, 영화, 게임 산업 등에서 비용 절감과 표현의 확장성을 동시에 가능케 하는 핵심 기술로 주목받고 있다.
상세(참고) 열기 접기

1. 페이스 에디팅은 기존의 딥페이크(DeepFake) 기술을 발전시킨 AI 기술로써 이른바 진짜 같은 가짜를 생동감 있게 만들어낼 수 있다. 페이스 에디팅은 AI 모델 학습에서 생성적 적대 신경망(GAN: Generative Adversarial Network)을 사용해서 해당 영상의 각 프레임에 교체할 얼굴을 합성하는 기술이다. 이 기술은 학습 데이터 수집 - 데이터 처리 - 모델 학습(GAN) - 얼굴 교체 과정을 거친 후, 원본 얼굴과 대상 얼굴을 추출해서 분석과 시각화를 바탕으로 완성도 있는 영상을 구현한다. 페이스 에디팅은 tvN 드라마 <나빌레라>에서 최초로 활용되었다. <나빌레라>에서는 스토리 전개와 인물 관계가 '발레'를 중심으로 이뤄지기 때문에 주연 배우들의 발레 장면이 반드시 필요했다. 하지만 배우들은 전문 무용수가 아니기 때문에 발레 연기에서 기술적 동작은 실행하기가 어렵고 실행한다고 해도 어설퍼 보일 수밖에 없다. 이러한 부분을 보완하기 위해 <나빌레라>에서는 'CJ 올리브네트웍스', '스튜디오드래곤', 'CJ ENM'이 협업해서 AI 기반 페이스 에디팅 기술로 배우들이 고난도 발레 동작을 직접 연기한 것처럼 만들어냈다.(한영주, 「AI 기술로 리얼리티 그 이상을 초월하는 영상콘텐츠」, https://www.kca.kr/Media_Issue_Trend/vol56/KCA56_22_domestic.html (2025년 8월 5일 접속).)

2. 딥페이스 기술에는 AI프로그램이 이미지를 조작하여 실제처럼 보이는 가짜 이미지나 동영상을 만드는 것을 일반적으로 많이 알고 있는 딥페이크 기술이며, 외에도 GAN을 이용한 이미지 생성 기술에는 드라마나 영화의 배우가 직접 촬영하지 않고, 대역의 얼굴을 배우의 얼굴로 변환하는 ‘페이스에디팅(face-editing)’기술, 배우의 얼굴을 보정하는 ‘페이스에이징/디에이징(face-aging/ deaging)’ 기술 등이 있으며, 이뿐 아니라 딥페이크 기술을 이용해 외국 영화 더빙의 경우 영어 또는 독일어 등 외국어를 사용하는 배우가 마치 한국어를 사용하는 것처럼 상당히 사실적인 더빙을 할 수도 있다.(김희정, 「딥페이크 기술을 이용한 신종범죄에 대한 법정책적 시사점 – 외국의 법정책 대응을 중심으로 –」, 『서강법률논총』 13, no. 3 (2024), p. 100.)

3. 사람의 얼굴은 디지털 환경에서 여러 방식으로 표현될 수 있다. 예를 들면, 1) 흑백 또는 컬러(RGB) 픽셀 기반의 2D 이미지, 2) 매개변수적 또는 비매개변수적인 3D 얼굴 모델, 3) 이미지 처리 모델을 통해 추출된 저수준 특징 벡터, 4) 성별, 나이, 머리색, 얼굴형과 같은 고수준 얼굴 속성 값들 등이 있다. 페이스 에디팅은 이들 표현 수준 중 어느 단계에서도 이루어질 수 있다. 예를 들어, 얼굴을 더 나이 들어 보이게 만들고 싶다면 그래픽 프로그램에서 주름을 그리는 방식으로도 가능하고, 더 고수준의 의미 기반 속성 조작 모델에 "나이를 증가시켜라"는 명령을 내리는 방식으로도 구현할 수 있다.(Ahmad Nickabadi, Maryam Saeedi Fard, Nastaran Moradzadeh Farid, and Najmeh Mohammadbagheri, “A Comprehensive Survey on Semantic Facial Attribute Editing Using Generative Adversarial Networks,” https://ar5iv.labs.arxiv.org/html/2205.10587?utm_source=chatgpt.com (accessed August 5, 2025).)

포스트 트루스(Post-truth) 포스트 트루스는 사람들이 사실보다 자신의 감정이나 믿음을 더 우선시하는 현상이다. 예를 들어 과학적으로 백신이 안전하다는 정보가 있어도, 불안하다는 감정에 따라 가짜 뉴스 또는 음모론을 신뢰하는 경우가 이에 해당한다. 이처럼 진실보다 ‘믿고 싶은 이야기’가 더 쉽게 퍼지고 여론을 움직이는 세상이 포스트 트루스 시대다.
상세(참고) 열기 접기

1. 용어의 쓰임새 측면에서 보면 ‘포스트 트루스’의 ‘트루스’는 진실보다는 사실(fact)의 의미론에 더 가깝다. 하지만 사회과학 담론에서 ‘포스트 팩트(post-fact)’보다는 ‘포스트 트루스’라는 표현이 훨씬 더 논쟁적 소구력을 갖기에 다수의 논의에서 ‘트루스’는 사실보다 진실의 의미로 번역되고 통용된다.(김종길, 「디지털 사회의 심화와 ‘탈진실’ 시대의 진실 찾기: 가능성, 한계, 과제」, 『사회사상과 문화』 26, no. 3 (2023), p. 248.)

2. 포스트 트루스는 모든 사람들이 믿고 공유하는 공통의 신화라기보다는 특정 부류의 사람들이 추종하고 따르는 파편화된 신념 체계이자 특수하게 상상된 실재의 발명이며 이것의 편파적 전파, 유통 방식에 가깝다.(윤지영, 「포스트 트루스(post-truth)에 대한 철학적 탐구」, 『문화와 사회』 30, no. 3 (2022), p. 127.)

3. 여론을 형성하는 데 있어서 객관적 사실이 개인적 신념과 감정에 호소하는 것보다 영향력이 더 적은 환경(Oxford Languages, Oxford English Dictionary (2016).)

프레임 문제(Frame problem) 프레임 문제는 인공지능이 정보를 처리하는 데에 있어 주어진 틀 안에서만 작동하기에, 실제로 일어나는 상황에서 보다 유연한 사고를 하지 못하는 것을 뜻한다. 예를 들어, 도로 가까이에서 공을 가지고 노는 아이를 발견한 경우 인간은 공이 굴러들었을 때 아이가 뒤따를 수 있다는 위험을 예견하여 속도를 줄일 수 있다. 반면 인공지능은 당장 도로 위에 장애물이 없으므로 별다른 조치를 취하지 않는다.
상세(참고) 열기 접기

1. 인공지능은 무작위 정보 안에서 주목해야 할 정보와 그렇지 않은 정보를 인간의 개입을 통해 정리해 줘야 하는 특징이 있다. 이를 프레임 문제(frame problem)라고 한다.(설동준, 『인공지능 시대의 지식과 학습』 (서울: 커뮤니케이션북스, 2024), p. 41.)

2. 프레임 문제라는 용어는 존 매카시가 패트릭 헤이스(Patrick Hayes)와 공동으로 집필해 1969년에 발표한 ‘AI 관점에서의 몇가지 철학적 문제들(Some Philosophical Problems from the Standpoint of Artificial Intelligence)’이라는 논문에서 처음 정의됐다. 매카시와 헤이스의 고민은 어떤 명령의 수행 결과로 변화가 있는 것과 변화하지 않는 것을 일일이 논리적이고 명시적으로 기술하는 것은 아주 어려운 일이므로 AI는 제한된 범위, 즉 고려해야 할 ‘프레임’ 내에서만 정보를 처리하고 실제 발생하는 문제를 모두 처리하기는 어렵다는 것이 핵심 내용이다.(“AI의 역사 51: 추론 중 결국 멈춰서 버린 로봇 – 프레임 문제와 다니엘 데닛,” AI타임스, June 8, 2025.)

프롬프트(Prompt) 프롬프트는 인공지능에게 자연어(인간의 언어)로 지시하는 입력값이다. 사람에게 일을 시킬 때 명확하고 자세하게 설명해야 좋은 결과를 얻는 것처럼, AI의 성능을 최대한 끌어내기 위해서는 사용자의 의도를 가장 효과적으로 전달하는 질문이나 명령을 만드는 것이 중요하다. 즉 프롬프트를 어떻게 설계하느냐에 따라 AI가 이해하고 출력하는 결과의 정확도와 품질이 크게 달라지기 때문에, 요즘은 ‘프롬프트를 잘 만드는 기술’은 중요한 역량으로 여겨진다.
상세(참고) 열기 접기

1. 프롬프트(Prompt)는 연극이나 TV쇼를 진행할 때 사용하는 일종의 안내로, 시청자들이 보지 못하는 장소에서 진행자의 행동이나 대사를 지시하는 것이었다. 사전적으로는 누군가의 특정한 작업 수행을 도우려 전달하는 메시지를 의미한다. 최근 생성형 AI 모델이 발전하고 이를 활용한 서비스가 등장하면서 컴퓨터는 기존의 명령어가 아닌 자연어, 즉 인간의 언어 그대로를 입력받을 수 있게 되었다. 컴퓨터가 인간의 언어를 그대로 이해하고 명령을 수행하기 때문에 사용자는 기존 시스템보다 훨씬 자유롭고 다양한 결과물을 바랄 수 있게 되었다. 이처럼 생성형 AI에게 어떤 행동을 해야 하는지 자연어로 설명해 원하는 결과물을 출력할 수 있게 하는 입력값을 프롬프트(Prompt)라 한다. 서비스의 기반이 되는 AI 모델의 성능을 최대한 끌어올리고 원하는 결과물을 만들기 위해서는 프롬프트를 잘 만들어주는 것이 필요하다.(코드스테이츠, “프롬프트 엔지니어링,” https://www.codestates.com/blog/content/프롬프트-프롬프트엔지니어링(2025년 8월 8일 접속).)

2. 프롬프트의 역할은 단순한 입력 이상이다. 프롬프트는 질문이자 명령이고, 조건이자 기대값이며, 구조화된 대화의 시나리오다. 인간의 언어로 AI를 설계하고 작동시키는 유일한 수단이므로 프롬프트를 다룬다는 것은 AI의 행동을 설계한다는 것이고, 이는 기업에게는 곧 조직의 업무 방식을 재정의하는 것이 된다.구체적인 사례로 보면 이 변화는 분명해진다. 한 글로벌 유통기업은 고객 서비스에 AI 챗봇을 도입했지만, 수개월 동안 만족할 만한 성과를 내지 못했다. 이유는 챗봇의 기능이 아니라 프롬프트 설계의 실패였다. 프롬프트는 AI를 실행 가능한 전략으로 전환시키는 촉매 역할을 한다. 반응을 시작하게 하고, 속도를 높이며, 변화를 가능하게 한다. 제대로 된 프롬프트 없이 AI의 잠재력은 실현되지 않는다. 프롬프트는 실천으로 이끄는 트리거이자 가속기다.(전용준, 「AI 시대 비즈니스 혁신의 촉매, ‘프롬프트 엔지니어링’」, 『컴퓨터월드』 no. 502 (2025.8), p. 152.)

하이퍼리얼리티(Hyperreality) 하이퍼리얼리티란 인공적으로 복제하거나 조작한 이미지 혹은 개인이 너무 정교해서, 실제 현실과 일치하지 않는 인식을 받아들이는 상황을 뜻한다. 이는 문화이론가 장 보드리야르가 제안한 용어로, 미디어와 광고의 영향을 크게 받는 현대 문화가 이상화된 표현을 통해 욕망과 기대를 어떻게 형성하는지를 보여준다.
상세(참고) 열기 접기

1. 진정한 시각적 정보를 찾는 데 따른 도전 과제들이 개인이 사진과 움직이는 이미지에 대한 신뢰 방식에 여전히 영향을 미치고 있는 가운데, 현실을 모방하는 정보를 해석하는 행위 자체는 여전히 난해한 문제로 남아 있습니다. 문화 이론가 장 보드리야르(1981)의 《시뮬라크르와 시뮬레이션》은 이 모순을 이해하려는 시도를 담고 있습니다. 시뮬레이션과 매개된 복제를 통해 현실의 다양한 버전으로의 전환이 가속화되고 있음을 지적하며, 보드리야르는 인간이 존재하는 현실과 구분할 수 없는 하이퍼리얼리티 (hyperreality)의 순간이 도래할 가능성을 경고했습니다. 이 논의에서 보드리야르는 시뮬라크르(이미지나 개인의 복제)를 단순한 시뮬레이션과 구분합니다. 시뮬레이션은 반현실적 복제(명백히 복제물)에서 시작해 비현실적 복제(복제의 복제)로 발전합니다. 결국 이 이미지(복사본의 복사본)는 원본과 구별되지 않을 정도로 독특하게 달라져 하이퍼리얼이 됩니다. 이 하이퍼리얼 표현은 원본과 구별되지 않으면서 동시에 새로운 현실의 버전으로 존재하게 됩니다. 현실적으로 말해, 현대 매체 내에서 이 현상의 구체적인 사례를 찾기는 어렵습니다. 컴퓨터 그래픽의 사용은 실제 기록된 이미지와 명확한 차이를 가지고 있기 때문입니다.(…) 정보 전문가들이 딥페이크의 보편화에 대비하기 위해 할 수 있는 방법 중 하나는 정보가 생산되고 교환되는 과정에서 물질성이 일부임을 인정하는 것입니다. Emily Drabinski(2018)는 "도서관도 물질적이며, 도서관 직원과 이용자도 마찬가지입니다. 각 개인은 ‘실재하며, 존재하며, 중요합니다.’ 딥페이크의 하이퍼리얼리티(hyperreality)의 물질적 함의를 이해하는 것이 그 정상화를 극복하는 방법일 수 있습니다. 우리는 콘텐츠 주변에 편집증을 조장하는 것이 아니라, 대신 사용자가 미래의 기술과 상호작용할 수 있도록 준비시키는 것이 중요합니다. 우리는 기술의 산물이 고립되어 존재한다고 주장하는 것을 피해야 하며, 대신 그 산물이 우리에게 어떻게 도달했는지를 물어야 합니다.(Travis L. Wagner and Ashley Blewer, "“The Word Real Is No Longer Real”: Deepfakes, Gender, and the Challenges of AI-Altered Video," Open Information Science 3, no. 1 (2019), pp. 32-46, https://doi.org/10.1515/opis-2019-0003.)

합성 미디어(Synthetic Media) 합성 미디어란 인공지능에 의해 생성되거나 조작된 이미지, 비디오, 오디오와 같은 디지털 콘텐츠를 의미한다.
상세(참고) 열기 접기

1. 인공적으로 생성된 결과물에는 텍스트, 이미지, 비디오 또는 사람들이 소비하도록 의도된 그 외 콘텐츠들이 포함되며, 이는 대부분 생성형 AI 시스템에 의해 만들어진다. 본문에서는 이러한 형태의 인공 콘텐츠를 '합성 미디어'라고 부른다. 이 합성 미디어는 품질이 낮다고 여겨질 경우 AI '찌꺼기(slop)'라고 경멸적으로 불리기도 한다.(Aaron Martin and Bryce Clayton Newell, “Synthetic Data, Synthetic Media, and Surveillance,” Surveillance & Society22, no. 4 (2024), p. 448, https://myaidrive.com/M5usB7iZEHocjXQuguBj47?pdfPage=1.)

2. 보존(아카이벌) 시청각 미디어와 달리, 합성 시청각 미디어는 단순히 실제 사물이나 사건을 기록하는 데 그치지 않고, 제작 과정 자체에 생성적 요소를 본질적으로 포함한다. 이러한 미디어는 부분적으로 합성이 이루어진 경우와 완전히 합성된 경우로 나눌 수 있다. 부분 합성은 기록 미디어를 기반으로 왜곡, 결합, 추가, 삭제 등의 방식으로 수정하는 경우를 말한다. 이 과정에는 생성적 요소가 포함되지만, 동시에 생성된 것이 아니라 실제로 기록된 원본 자료도 함께 사용된다. 반면 완전 합성은 기존 기록 미디어를 직접 포함하지 않고, 새로운 소리·이미지·영상을 처음부터 만들어내는 경우를 말한다. 비록 그러한 결과물이 기존 기록 미디어에서 영감을 받을 수는 있지만, 그것을 직접적으로 포함하지는 않는다.(Raphaël Millière, “Deep Learning and Synthetic Media,” Synthese 200, no. 3 (2022), p. 231.)

3. 합성 미디어란 인공지능에 의해 생성되거나 조작된 이미지, 비디오, 오디오와 같은 디지털 콘텐츠를 의미하며, 종종 인간이 만든 미디어를 모방하거나 대체하기 위한 의도를 갖는다. […] 합성 미디어는 엔터테인먼트, 교육, 저널리즘, 정치 커뮤니케이션 등 다양한 영역에서 사용된다. […] 합성 미디어는 창의적인 가능성을 제공하지만, 특히 허위 정보의 확산과 관련하여 민주주의적 담론에 중대한 문제를 야기하기도 한다.(Fabio Corsi, Synthetic Media and Democracy: Risks and Responses (2024), p. 2, https://myaidrive.com/CeHzZvbvuxz1Fp9iCfe1s8?pdfPage=2.)

[관련어] 합성 데이터(synthetic data)

1. 합성 데이터는 AI 모델을 개선하고, 민감한 데이터를 보호하며, 편향을 완화하기 위해 실제 데이터를 보완하거나 대체하도록 컴퓨터에서 생성된 정보이다.(IBM Research, “What Is Synthetic Data?,” https://research.ibm.com/blog/what-is-synthetic-data?mhsrc=ibmsearch_a&mhq=synthetic media (accessed August 5, 2025).

2. 텍스트, 이미지, 수치값 또는 기타 형태의 데이터를 포함할 수 있는 합성 데이터(synthetic data)는 다른 데이터 처리 시스템의 입력값으로 사용되며, 경험적 측정을 포함하는 '실제' 또는 '원본' 데이터 소스를 보완하거나 대체하는 용도로 활용된다.(Aaron Martin and Bryce Clayton Newell, “Synthetic Data, Synthetic Media, and Surveillance,” Surveillance & Society22, no. 4 (2024), p. 448, https://myaidrive.com/M5usB7iZEHocjXQuguBj47?pdfPage=1.)

확증 편향(Confirmation bias) 확증 편향은 기존에 믿고 있는 생각이나 의견을 강화하는 정보만 취하려는 심리적 경향이다. AI와 소셜 미디어는 이러한 경향을 반영하여 사용자가 보고 싶은 것만 보게 만들고, 특정 신념에 치우치도록 할 가능성이 있다.
상세(참고) 열기 접기

1. 확증 편향은 진실이 의문시되는 가설이나 신념을 부적절하게 강화하는 행위를 의미한다.(Raymond S. Nickerson, “Confirmation Bias: A Ubiquitous Phenomenon in Many Guises,” Review of General Psychology2, no. 2 (1998), pp. 175-177.)

2. 유튜브나 다양한 소셜 미디어는 기계적 활용 기법은 동일하지만 사용자 개인별 활용과 지식·정보 습득의 경우의 수는 무한대에 가깝다. 즉 유튜브라는 매체를 보는 행위는 동일하지만 그 속에서 전달되는 지식과 정보의 객관성 문제는 담보할 수 없는 괴물이 되어가는 것이다. 최첨단 정보통신 네트워크와 AI등과 관련된 각종 기술들(챗GPT, Deepseek, 오픈AI), 그리고 이들이 융합된 소셜 미디어들이 생산 해내는 각종 확증 편향과 필터 버블이 우리의 지식과 정보를 지배하고 개별 인간의 인식을 좌우하고 있다. 이러한 현상이 초래하는 사회적 문제가 심각한 것은 마치 특정 신념에 교화되고 선전에 노출된 것처럼 개인이 가진 인지적 편향성이 모종의 사회적 정치적 세력들이 의도한 방향으로 결집되고 있다는 점이다. 그 결집된 에너지가 온라인 상의 논쟁을 넘어 실제 삶의 현장에서 반사회적 행동으로 표현되는 믿지 못할 현실이 매일 펼쳐지고 있다.(정석환, 「바람직한 미디어 리터러시를 위한 교육적 과제」, 『초등교육연구논총』 41, no. 2 (2025), p. 10.)

환각 현상(Hallucination) 인공지능이 실제로는 없는 정보를 그럴듯하게 지어내는 현상을 AI 환각 현상 또는 할루시네이션(Hallucination)이라고 한다. 예를 들어, 존재하지 않는 논문을 사실처럼 인용하는 경우가 이에 해당한다.
상세(참고) 열기 접기

1. 할루시네이션은 사실이 아닌 거짓된 정보 텍스트를 생성형 AI가 출력하는 현상을 말한다. 보통 할루시네이션에 의한 거짓 텍스트는 구조적으로 상당히 ‘그럴듯하다’는 것이 문제다. 특히 응답의 진위를 잘 모르고 판단할 능력이 없는 사용자일수록 텍스트의 그럴듯한 구조와 내용의 자연스러운 연쇄에 긍정적으로 반응하며, 전혀 사실에 부합하지 않는 생성형 AI의 응답을 ‘정답’에 가까운 것으로 인식하게 된다. (석주연, AI, 차별, 소통, 2025, 커뮤니케이션북스, p.29)