30일 국회서 '균형 잡힌 AI 생태계 조성을 위한 정책토론회' 개최
학계 "모호한 법 개념 보완하고, 사회적 영향 평가체계 정비" 요청
[서울=뉴스핌] 양태훈 기자 = 인공지능(AI) 기본법 시행을 앞두고 핵심 개념 중 하나인 '고영향 AI' 정의와 적용 범위를 두고 산업계와 학계의 우려가 이어지고 있다. 정부는 시행령과 가이드라인을 통해 규제의 예측가능성과 명확성을 높이겠다는 방침이지만, 법 적용 초기 단계에서의 혼란과 불확실성은 여전하다는 지적이 나온다.
30일 박민규 더불어민주당 의원실 주최로 국회의원회관에서 열린 '균형 잡힌 AI 생태계 조성을 위한 정책토론회'에서는 인공지능 기본법 시행을 앞두고, 관련 규제의 핵심 쟁점이 된 '고영향 AI' 개념을 중심으로 다양한 논의가 이어졌다.
이날 발제를 맡은 윤재연 한양대 사회혁신융합전공 겸임교수는 "사용자와 밀접하게 작용하는 AI 서비스는 고영향의 범주에 들어갈 수밖에 없다"며, "이 개념이 모호하거나 포괄적으로 적용될 경우, 스타트업이나 신생 기업들이 AI 서비스를 개발하고 투자받는 데 큰 제약으로 작용할 수 있다"고 지적했다.
또 "정책의 핵심은 AI 기술을 얼마나 잘 활용하느냐에 있다"며, "기술 자체보다는 그것이 미치는 사회적 영향에 대한 현실적인 기준이 마련되어야 한다"고 주장했다.
나아가 "최근 산업계에서는 AI 기술 도입을 통해 비용 절감과 매출 증가 효과를 체감하고 있지만, 자사 서비스가 고영향 AI로 분류될 수 있다는 불확실성이 투자 회피와 위축으로 이어질 수 있다"며, "도입 여부뿐 아니라 기업의 사업모델까지 영향을 받는 만큼, 법 적용 기준의 정밀성이 매우 중요하다"고 강조했다.
![]() |
30일, 박민규 더불어민주당 의원실 주최로 국회의원회관에서 열린 '균형 잡힌 AI 생태계 조성을 위한 정책토론회' 현장. [사진=양태훈 기자] |
강정한 연세대학교 사회학과 교수도 이 같은 우려에 힘을 실었다. 강 교수는 "AI 기술의 윤리성과 사회적 영향을 평가하려면 정부의 일방적 규제보다는 시장 기반의 감사 체계가 필요하다"며, "'AI 감사관(auditor)'이라는 새로운 직군을 육성해 민간 차원의 평가와 책임체계를 구축해야 한다"고 제안했다.
그는 "정부가 모든 AI 기술의 영향을 일일이 사전적으로 규제하는 데는 한계가 있다"며, "감사관이 고영향성 여부를 평가하고, 그 결과를 기반으로 보험시장 등과 연계해 사후 책임을 조정하는 시스템이 현실적"이라고 설명했다.
이어 "특히 중소기업이나 스타트업은 자체적으로 위험관리 체계를 갖추기 어렵다"며, "외부화된 시장 메커니즘을 통해 보호하는 것이 산업 진흥에도 부합한다"고 강조했다.
정부도 이러한 우려를 인식하고, 본격적인 인공지능 기본법 시행에 앞서 시행령과 가이드라인 등을 통해 제도의 실효성과 예측가능성을 높이겠다는 입장을 밝혔다.
공진호 과학기술정보통신부 인공지능기반정책과장은 "고영향 AI에 대한 정의나 기준이 모호하다는 점을 잘 알고 있다"며, "시행령과 가이드라인에서 구체적인 예시와 분류 체계를 담아 예측가능성을 높일 계획"이라고 밝혔다.
![]() |
30일, 박민규 더불어민주당 의원실 주최로 국회의원회관에서 열린 '균형 잡힌 AI 생태계 조성을 위한 정책토론회' 현장. [사진=양태훈 기자] |
공 과장은 이어 "AI 기술의 발전 속도가 워낙 빠르기 때문에 시행 초기에는 사업자들의 의무 이행을 계도 중심으로 유도하고, 벌칙보다는 지원과 컨설팅을 통해 제도 안착을 도울 것"이라며, "고위험 기술이나 사회적 영향력이 큰 영역에 대해서는 예외 없이 기준을 명확히 설정할 방침"이라고 설명했다.
또한 "고영향 AI로 분류되는 경우에도 사업자가 책임을 이해하고 대응할 수 있도록 다양한 사례 중심의 가이드라인을 제공하겠다"고 덧붙였다.
이날 토론회에서는 인공지능 기본법의 보다 근본적인 구조에 대한 검토 필요성도 제기됐다.
김태호 한국행정법학회 부회장은 "법 시행을 앞두고 벌써부터 개정이나 유예 논의가 활발한 것은 이례적"이라며, "법적 안정성과 예측가능성을 높이기 위해 정부는 시행 이후의 개선 방향과 로드맵을 명확히 공표할 필요가 있다"고 지적했다.
김 부회장은 특히 "고영향 AI 개념과 리스크 기반 규제의 적용 방식은 법 해석에 따라 달라질 수 있어 산업계에 불필요한 혼란을 줄 수 있다"며, "명확한 해석 지침을 제시하지 않을 경우, 실제 현장에서는 과잉규제 혹은 규제회피의 문제가 동시에 나타날 수 있다"고 우려했다.
![]() |
윤혜선 한양대 법학전문대학원 교수도 이날 발제를 통해 "AI 기본법이 지향하는 '신뢰 기반 조성'이라는 규제 목표가 다소 추상적이고, 이를 어떻게 달성할 것인지에 대한 평가 기준과 실천 수단이 불분명하다"며, "29조에 신뢰 기반을 조성한다고만 제시되어 있을 뿐, 이를 뒷받침할 정책적 수단은 미흡하다"고 지적했다.
또 "인공지능 시스템 정의, 고성능 AI 기준, 사업자 유형 구분 등에서 글로벌 기준과의 정합성도 부족한 측면이 있다"며, "시행령과 하위법령 단계에서의 보완이 시급하다"고 강조했다.
아울러 "현행 기본법은 시스템 중심의 규제를 택하고 있지만, 글로벌 AI 거버넌스는 파운데이션 모델(기반모델) 규제가 주류로 떠오르고 있어 이와의 정합성도 고려할 필요가 있다"며, "기술 현실과 괴리된 규제 체계는 산업계 혼란을 초래할 수 있다"고 우려했다.
dconnect@newspim.com