OpenAI와 챗봇 ChatGPT가 EU에서 디지털서비스법(DSA)상 ‘초대형 온라인 플랫폼’ 또는 ‘초대형 검색 엔진’에 준하는 범주로 평가될 수 있다는 관측이 나오면서, 유럽 내 법적 준수 부담이 한층 커질 수 있다는 전망이 제기됐다. 독일 일간지 한델스블라트는 소식통을 인용해 유럽 규제 당국이 이용자 규모 등 가용 데이터를 들여다보고 있으며, 분류 결과에 따라 엄격한 규제 프레임이 적용될 수 있다고 전했다. DSA는 2024년 2월부터 전면 시행돼, 플랫폼의 불법 콘텐츠 대응과 알고리즘 투명성, 시스템 리스크 관리 의무를 강화하는 것이 핵심이다. 생성형 인공지능이 검색과 유사한 방식으로 정보 접근을 좌우하는 국면에서, ‘대화형 AI’가 기존 플랫폼 규율의 틀 안으로 들어오는 장면이 펼쳐질지 주목된다.
이번 논의는 EU가 디지털 경제 전반에 적용해 온 기술 규제의 연장선에 있다. 2023년 발효돼 2024년부터 본격 적용된 디지털시장법(DMA)이 ‘게이트키퍼’의 시장지배력 남용을 겨냥했다면, DSA는 콘텐츠 유통과 추천·노출 구조가 사회에 미치는 위험을 관리 대상으로 삼는다. 실제로 유럽위원회는 2024년 이후 메타(페이스북·인스타그램)와 X(옛 트위터) 등을 상대로 DSA 관련 조사를 진행하며 집행 기조를 분명히 해왔다. 규제 대상이 소셜미디어를 넘어 검색, 마켓플레이스, 앱 생태계로 확장돼 온 흐름을 고려하면, ChatGPT가 ‘정보 탐색의 관문’이 되는 순간부터 같은 질문이 따라붙는다. 이용자 보호와 투명성은 누가, 어떤 기준으로 책임질 것인가.
EU 디지털서비스법이 겨냥하는 ‘초대형’ 기준과 OpenAI 쟁점
DSA는 서비스 규모에 따라 의무를 차등 부과하며, 가장 강한 감독을 받는 범주가 ‘초대형 온라인 플랫폼(VLOP)’과 ‘초대형 온라인 검색 엔진(VLOSE)’이다. 법 체계의 출발점은 EU 역내 월평균 활성 이용자 수가 4,500만 명을 넘는지 여부로, 지정되면 연례 시스템 리스크 평가와 외부 감사, 투명성 보고, 연구자 데이터 접근 지원 등 요구사항이 급격히 늘어난다. 위반 시에는 전 세계 매출의 최대 6% 과징금이 가능하도록 설계돼 있어, 분류 자체가 곧 리스크 비용으로 연결된다.
ChatGPT가 문제의 중심에 서는 이유는 ‘검색’의 정의가 더 이상 전통적 검색창에만 머물지 않기 때문이다. 이용자가 질문을 던지고 답을 받는 과정에서 특정 출처가 선택되고 요약되며, 그 결과가 여론과 소비, 의사결정에 영향을 미친다면 규제 논리상 검색과 유사한 사회적 기능을 수행한다고 볼 여지가 생긴다. 유럽에서 AI 정책이 안전·투명성·책임을 축으로 정렬되는 상황에서, 대화형 AI의 추천·요약 메커니즘이 DSA의 알고리즘 투명성 요구와 맞닿아 있다는 점이 핵심 쟁점으로 부상했다.

DSA 의무가 적용될 경우 달라지는 법적 준수 부담
VLOP/VLOSE로 지정되면 가장 먼저 요구되는 것은 ‘시스템적 위험’에 대한 정기 평가와 완화 조치다. 불법 콘텐츠 확산, 기본권 침해, 선거·시민 담론에 대한 영향, 미성년자 보호, 정신 건강 등 폭넓은 범주가 포함된다. 생성형 AI의 경우, 환각(hallucination)이나 허위정보 재생산, 특정 집단에 대한 편향된 서술이 이 위험 평가의 실질적 항목으로 다뤄질 수 있다.
또한 콘텐츠 조정의 투명성 강화는 플랫폼에 ‘설명 책임’을 요구한다. 이용자에게 삭제·제한 조치의 근거를 안내하고 이의제기 절차를 제공하는 흐름이 대표적이다. 이 구조가 챗봇 서비스로 확장될 경우, 답변 노출 제한이나 특정 요청 거부가 어떤 정책과 근거로 이뤄졌는지 설명하는 체계가 법적 준수의 중심으로 이동할 가능성이 있다. 결과적으로 기술 개발뿐 아니라 운영·정책·감사 역량이 경쟁 변수로 떠오른다는 점이 남는다.
유럽연합의 규제 지형: DSA DMA 그리고 ‘디지털 간소화’ 논쟁
EU의 규제는 ‘브뤼셀 효과’라는 말로 요약되곤 한다. 역내 규칙이 글로벌 기업의 제품 설계와 운영 정책에까지 영향을 미치기 때문이다. DMA는 애플·구글의 앱스토어 정책, 메타의 메시징 상호운용성, 구글 검색의 자사 우대 문제 등을 전면에 올리며 ‘시장 구조’를 흔들었다. DSA는 그 연장선에서 ‘서비스 안전’과 ‘알고리즘 책임’을 규범화했다.
다만 EU 내부에서도 규제 강도의 조정 논쟁은 이어지고 있다. 연합뉴스 등은 EU 집행위원회가 ‘디지털 간소화 방안’을 내놓으며 AI법의 일부 핵심 적용 시점을 늦추고, 쿠키 배너 등 규제 부담을 줄이겠다는 구상을 2025년 11월 공개했다고 전했다. 집행위는 이를 ‘규제 완화가 아닌 간소화’라고 강조했지만, 인권·소비자 단체는 기본권 보호 후퇴를 우려하며 반발한 것으로 보도됐다. 이런 환경에서 OpenAI를 둘러싼 DSA 분류 논의는 “규율을 강화할 것인가, 경쟁력 확보를 위해 속도를 조절할 것인가”라는 EU 내부의 긴장 위에서 진행되는 셈이다.
플랫폼 집행 사례가 남긴 신호: 메타와 X 조사 이후의 기준선
EU가 DSA 집행을 ‘선언’이 아니라 ‘실행’으로 옮겼다는 점은 이미 여러 사례로 확인됐다. 유럽위원회는 2024년 3월 메타의 페이스북·인스타그램을 대상으로 미성년자 보호 관련 DSA 위반 여부를 조사하기 시작했고, X 역시 콘텐츠 조정과 위험 완화 조치가 충분한지 들여다보는 절차에 들어갔다. 기업들은 청소년 계정 기본 설정 강화, 기능 조정, 투명성 보고 확대 등으로 대응해 왔다.
이 전례는 생성형 AI 서비스에도 실질적 기준선으로 작용한다. ‘이용자에게 미치는 영향’이 커질수록 감독과 책임이 강화된다는 흐름이 확인됐기 때문이다. 앞으로 관건은 ChatGPT 같은 서비스가 정보 유통의 핵심 관문으로 자리 잡는 속도와, EU가 그 변화를 DSA 틀로 어떻게 재단할지다. 규제의 문턱은 결국 “사회적 영향력이 어느 정도인가”라는 질문으로 수렴한다.
OpenAI와 생성형 AI 산업에 미칠 파장: 투명성 비용과 경쟁 구도
OpenAI가 DSA상 더 높은 단계의 감독을 받게 되면, 유럽 시장에서 서비스 운영 방식이 바뀔 가능성이 있다. 대표적으로 추천·요약 로직, 위험 완화 절차, 연구자 접근, 투명성 보고의 범위가 넓어지면서 운영 비용이 증가할 수 있다. 반면 규정 준수를 전제로 한 신뢰 경쟁이 열리면, 규제 대응 역량이 서비스 채택의 조건이 될 수도 있다. 이미 광고·플랫폼 업계에서는 유럽 규제 환경이 사업 구조와 타기팅 방식에 변화를 요구해 왔고, 관련 쟁점은 유럽 규제와 플랫폼 광고 시장 변화 같은 분석에서 꾸준히 다뤄져 왔다.
또 하나의 변수는 EU가 생성형 AI를 별도로 다루기 위해 마련한 AI법과 DSA의 맞물림이다. DSA가 ‘서비스 운영과 정보 유통’을 규율한다면, AI법은 ‘모델과 시스템’의 위험을 다루는 성격이 강하다. 양 규범의 경계가 분명해질수록, 기업은 규정 충돌을 피하면서도 일관된 내부 통제 체계를 만들어야 한다. 결과적으로 기술 규제는 제품 기능만이 아니라 조직 운영을 재설계하는 문제로 번지고 있다.
글로벌 확산과 아시아의 벤치마킹이 만드는 압력
EU 모델은 역외에서도 참고 대상이 되고 있다. 한국, 일본, 싱가포르 등에서 플랫폼 책임과 시장 공정성 논의가 이어지며, 유럽의 집행 사례가 사실상 참고문헌처럼 활용되는 장면이 잦아졌다. 이런 흐름은 OpenAI 같은 글로벌 사업자에게 ‘지역별 예외 운영’의 유인을 키우는 동시에, 장기적으로는 EU 기준을 기본값으로 삼는 전략을 고민하게 만든다.
한편 기업 입장에서는 규정이 늘어날수록 제품 출시 속도와 기능 실험이 위축될 수 있다는 우려도 커진다. EU 집행위가 ‘혁신 친화적 집행’을 언급해 온 배경에는 이 같은 산업계 반발이 자리한다. 결국 시장은 묻고 있다. 규칙을 지키면서도 혁신을 계속할 수 있는가, 그리고 그 비용은 누가 부담하게 될까.


