[기고 - 김홍민] 인공지능(AI) 시대, 국제기구보다 국제 규범이 훨씬 급하다!

[한국공공정책신문=김유리 기자] 인공지능(AI)은 더 이상 먼 미래의 기술이 아니다. 이미 공공 서비스, 의료, 사법, 안보 등 우리 사회의 다양한 영역에 깊숙이 스며들고 있다. 하지만 AI의 빠른 발전은 무한한 기회와 동시에 개인정보 침해, 편향성, 책임 소재 등 중대한 윤리적 문제도 제기하고 있다.

이러한 도전 과제에 효과적으로 대응하고 AI가 모두에게 이로운 기술이 되도록 하기 위해서는 국제적인 규범 마련과 함께, 공공 부문의 현명한 대응은 필수적이다.

이재명 대통령은 11, 청와대 영빈관에서 열린 취임 100일 기자회견에서 인공지능(AI) 3대 강국 도약 전략에 대하여 "국제적 단위에서 국제기구보다 인공지능의 윤리 등을 중심으로 국제 규범이 훨씬 급하다"고 언급하면서 대한민국이 일정한 역할을 담당할 수 있음도 밝혔다.

 

국제 규범의 필요성: 왜 우리는 함께 가야 하는가?

 

AI는 국경을 초월하는 기술이다. 따라서 특정 국가의 규제만으로는 AI가 초래할 수 있는 위험을 효과적으로 통제하기 어렵다. 만약 각국이 서로 다른 규제를 적용한다면, 윤리적 기준이 낮은 곳으로 기술 개발이 집중되는 '바닥을 향한 경쟁'이 발생할 우려도 있다.

국제 사회는 이러한 문제를 인식하고 G7, G20, 유네스코 등 다양한 국제기구를 통해 AI 윤리 규범을 논의하고 있다. 이 논의의 핵심은 공정성, 투명성, 책임성, 안전성, 인간 중심성이라는 보편적 원칙을 확립하는 것이다. 이는 AI 기술이 인권을 존중하고 인류의 복지를 증진하는 방향으로 발전하도록 유도하는 나침반 역할을 할 것이다.

 

AI 규제, 유럽연합(EU)의 선도적 역할

 

국제적인 AI 규범 논의에서 가장 주목할 만한 움직임은 유럽연합(EU)이 주도하고 있는 'AI (AI Act)' 이다. 이는 AI 시스템의 위험 수준에 따라 차등적으로 규제하는 선도적인 접근 방식을 취하고 있다. 위험 기반 접근 방식으로, EUAI 법은 AI 시스템을 크게 세 가지 위험 범주로 나누고 있다.

 

용납할 수 없는 위험: 사회적 점수제, 인간을 조작하는 AI 시스템 등 기본권을 명백히 위협하는 AI는 사용을 금지하고 있다.

고위험: 공공 서비스, 법 집행, 의료, 고용 등 사회적으로 중요한 분야에 사용되는 AI는 엄격한 요건을 충족해야 한다. 데이터 품질, 투명성, 인간의 개입, 적합성 평가 등을 의무화하고 있다.

제한적 또는 최소 위험: 대부분의 AI 시스템이 여기에 속하며, 챗봇과 같이 AI와 소통하고 있다는 사실을 명시하는 등의 가벼운 의무가 부여되고 있다.

 

브뤼셀 효과(Brussels Effect)EUAI 법은 유럽 시장에 진출하고자 하는 전 세계 기업들에게 그 기준을 준수하도록 유도함으로써 사실상 AI 윤리 규범의 국제적 표준이 될 가능성이 높다. 이는 과거 개인정보보호규정(GDPR)이 전 세계에 미친 영향과 유사한 파급력을 가지게 될 것이다.

 

공공 부문의 현명한 AI 생활을 위한 제언

 

공공기관은 국민의 신뢰를 바탕으로 운영되는 기관으로서 AI를 도입할 때 특별한 책임감을 가져야 한다. 단순히 효율성만을 좇는 것을 넘어, 공적 가치를 지키는 '현명한 AI 생활'을 실천해야 한다.

 

'' 도입하는지 명확히 한다: AI 시스템을 도입하기 전에, 이것이 어떤 문제를 해결하고 공공의 이익에 어떻게 기여할 것인지 명확히 정의해야 한다. 단순히 기술을 위한 기술이 아닌, 국민을 위한 기술이어야 한다.

 

투명성과 설명 가능성을 확보한다: 공공 서비스에 사용되는 AI는 그 의사결정 과정을 투명하게 공개하고 설명할 수 있어야 한다. 국민은 대출 승인이나 복지 혜택 자격 판단과 같은 AI 기반 결정이 어떤 논리와 데이터를 기반으로 내려졌는지 알 권리가 있다.

 

데이터의 무결성과 개인정보를 보호한다: AI는 학습 데이터의 품질에 따라 결과가 달라진다. 따라서 공공기관은 사용되는 데이터가 정확하고, 편향되지 않았으며, 국민의 개인정보를 철저히 보호하는지 확인해야 한다.

 

인간의 감독과 책임을 유지한다: AI는 인간의 의사결정을 돕는 도구일 뿐, 대체재가 아니다. 공공 부문은 AI 기반 결정에 대해 인간의 최종 감독권을 유지하고, 그 결과에 대한 궁극적인 책임을 져야 한다.

 

인간 중심의 지능적인 미래를 위하여

 

AI 시대의 윤리적 과제는 개별 기업이나 국가의 노력을 넘어선 공동의 숙제이다. EUAI 법과 같은 국제적인 노력을 참고하고, 공공 부문 스스로 윤리 원칙을 내재화하여 실천하는 것이 중요하다. 공공기관의 '현명한 AI 생활'은 단순히 첨단 기술을 활용하는 차원을 넘어, 국민의 신뢰를 구축하고 더 정의롭고 투명하며 인간적인 사회를 만들어가는 초석이 될 것이다.





 김홍민

서울벤처대학원대학교 최고경영자과정 교수




작성 2025.09.13 11:43 수정 2025.09.13 11:44

RSS피드 기사제공처 : 한국공공정책신문 / 등록기자: 김유리 무단 전재 및 재배포금지

해당기사의 문의는 기사제공처에게 문의

댓글 0개 (1/1 페이지)
댓글등록- 개인정보를 유출하는 글의 게시를 삼가주세요.
등록된 댓글이 없습니다.
2023-01-30 10:21:54 / 김종현기자