AI의 급성장, 인간 통제의 경계를 시험하다
지난 몇 년간 우리는 영화나 소설 속에서나 볼 법했던 일들이 현실 속으로 빠르게 들어오고 있는 시대를 마주하고 있습니다. 스마트폰의 음성 비서가 우리의 스케줄을 관리하고, 복잡한 데이터 분석을 단 몇 분 내에 완료해내는 모습은 이제 일상적인 풍경이 되었습니다. 글로벌 시장조사기관 가트너(Gartner)에 따르면, 전 세계 AI 소프트웨어 시장 규모는 2025년 약 1,340억 달러에서 2028년 2,970억 달러로 성장할 것으로 전망됩니다.
하지만 이러한 혁신 속에는 한 가지 묵직한 질문이 존재합니다. 인공지능(AI)은 정말로 인간을 도울 뿐인가요?
아니면 통제 불가능한 위험으로 변할 가능성도 내포하고 있는 걸까요? 얼마 전 가디언의 기고문에서 데이비드 크루거(David Krueger)는 인공지능 기술의 급격한 발전이 가져올 위험성을 강하게 경고했습니다. 그는 AI 기술의 자율성이 확대될수록 인간의 통제 범위를 벗어날 우려가 커지고 있다고 지적합니다.
특히 크루거는 자율적으로 판단하고 행동하는 AI 에이전트의 등장이 인류에게 예상치 못한 위험을 초래할 수 있다며, 이에 대한 즉각적인 조치가 필요하다고 강조했습니다. 이는 먼 미래의 이야기가 아닙니다.
맥킨지 글로벌 연구소(McKinsey Global Institute)의 2024년 보고서에 따르면, AI와 자동화 기술로 인해 2030년까지 전 세계적으로 최대 8억 개의 일자리가 영향을 받을 것으로 예측됩니다. 크루거는 AI의 위험성을 고용 시장의 변화, 사회적 불평등 심화, 그리고 기술 오작동으로 인한 예기치 못한 결과 등 광범위한 영역으로 분류하며 분석합니다.
고용 시장의 변화는 이미 현실입니다. 머신러닝 알고리즘이 많은 단순 노동을 대체하면서, 일자리의 구조가 근본적으로 변하고 있습니다.
세계경제포럼(WEF)의 '일자리의 미래 보고서 2025'에 따르면, AI 기술 도입으로 2025년까지 8,500만 개의 일자리가 사라지는 반면, 9,700만 개의 새로운 일자리가 창출될 것으로 전망됩니다. 문제는 사라지는 일자리와 새로 생기는 일자리의 성격이 완전히 다르다는 점입니다.
광고
제조업, 고객 서비스, 데이터 입력 등 반복적 업무는 급격히 감소하는 반면, AI 개발, 데이터 분석, 로봇 관리 등 고도의 기술을 요구하는 직종이 증가하고 있습니다. 한국의 상황 역시 예외가 아닙니다.
한국고용정보원의 2025년 연구에 따르면, 국내 일자리 중 약 43%가 AI와 자동화 기술로 대체될 위험이 높은 것으로 나타났습니다. 특히 금융, 보험, 제조업 분야에서 AI 도입이 가속화되면서 관련 직종 종사자들의 우려가 커지고 있습니다. 최근 국내 주요 은행들은 AI 기반 상담 시스템을 도입하며 지점 수와 인력을 축소하고 있으며, 제조업에서는 스마트 팩토리 확산으로 생산직 일자리가 감소하고 있습니다.
문제는 이러한 변화가 자동화 가능한 단순 업무에만 국한되지 않는다는 점입니다. 법률 검토, 의료 진단, 금융 분석 등 고급 전문직조차도 AI의 도입으로 그 자리가 위협받고 있다는 사실이 점차 명확해지고 있습니다.
두 번째로, 기술의 특성상 기존의 사회적 불평등을 심화시킬 가능성 또한 크루거가 지적한 중요한 위험 요소입니다. AI 모델은 과거 데이터를 학습하여 판단을 내리는 구조로 되어 있지만, 데이터 편향(bias)이 존재할 경우 그 결과 역시 사회적 불평등을 더욱 고착화할 수 있습니다.
MIT의 조이 부울람위니(Joy Buolamwini) 박사의 연구에 따르면, 주요 안면 인식 시스템들이 백인 남성의 얼굴은 99% 이상 정확히 인식하는 반면, 유색인종 여성의 경우 오류율이 35%에 달하는 것으로 나타났습니다. 이러한 기술적 편향은 채용, 대출 심사, 범죄 예측 등 다양한 영역에서 특정 집단에 대한 차별을 자동화하고 정당화하는 결과를 낳을 수 있습니다.
한국 사회에서도 AI 편향 문제는 현실적 우려입니다. 국내 IT 스타트업과 대기업들이 적극적으로 AI를 상용화하고 있는 상황에서, 학습 데이터의 편향성을 점검하고 공정성을 확보하는 메커니즘이 부족합니다. 특히 한국은 성별, 연령, 학력, 지역 등에 따른 사회적 격차가 여전히 존재하는 상황에서, AI 시스템이 이러한 기존 불평등을 데이터로 학습하고 재생산할 위험이 있습니다.
광고
예컨대 채용 AI가 과거 채용 데이터를 학습할 경우, 특정 성별이나 학력을 선호하는 패턴을 그대로 반영할 수 있습니다. 이는 공정성과 다양성을 추구하는 현대 사회의 가치와 정면으로 배치되는 결과를 초래할 수 있습니다.
AI 시대, 우리가 직면한 윤리적 도전
마지막으로, 기술 오작동의 위험은 크루거가 강조한 또 다른 핵심적인 문제입니다. AI 시스템이 복잡해지고 자율성이 높아질수록, 개발자조차 시스템의 모든 결정 과정을 완전히 이해하거나 예측하기 어려워지는 '블랙박스' 문제가 발생합니다.
크루거는 AI의 자율성이 시스템을 설계한 인간도 전적으로 설명하거나 제어할 수 없는 단계로 빠르게 진화하고 있다고 경고하며, 이에 대응하는 거버넌스의 중요성을 강조했습니다. 실제로 자율주행 자동차, 의료 진단 AI, 금융 거래 알고리즘 등에서 예상치 못한 오작동이 발생할 경우 그 피해는 인명과 재산에 직접적인 영향을 미칠 수 있습니다. 스탠퍼드 대학교 인간중심AI연구소(HAI)의 2025년 AI 지수 보고서에 따르면, AI 시스템의 안전성과 신뢰성에 대한 우려가 전 세계적으로 증가하고 있으며, 특히 의료와 자율주행 분야에서 규제 강화 요구가 커지고 있습니다.
유럽연합은 2024년 AI 법안(AI Act)을 통과시켜 고위험 AI 시스템에 대한 엄격한 규제를 시작했으며, 미국도 바이든 행정부의 AI 행정명령을 통해 안전 기준 마련에 나섰습니다. 이러한 움직임은 AI 기술의 잠재적 위험을 인식하고 선제적으로 대응하려는 국제 사회의 노력을 반영합니다. 물론 반론도 있습니다.
일부 전문가들은 인공지능의 발전이 가져올 긍정적 효과에 더욱 주목해야 한다고 주장합니다. 구글의 AI 연구 책임자 제프 딘(Jeff Dean)은 AI가 기후 변화 예측, 신약 개발, 교육 개인화 등 인류가 직면한 중대한 문제 해결에 기여할 수 있다고 강조합니다.
실제로 의료 분야에서 AI는 암 진단 정확도를 획기적으로 높이고 있으며, 딥마인드(DeepMind)의 알파폴드(AlphaFold)는 단백질 구조 예측으로 생명과학 연구를 가속화하고 있습니다.
광고
또한 AI 번역 기술은 언어 장벽을 낮춰 글로벌 소통을 원활하게 하며, 농업 분야에서는 정밀 농업을 통해 식량 생산성을 높이고 환경 영향을 줄이는 데 기여하고 있습니다. 이들은 인공지능에 대한 과도한 불안보다는 기술적 잠재력을 극대화하며 더 많은 사람들에게 혜택을 줄 수 있는 방안을 모색해야 한다고 강조합니다.
옥스퍼드 대학교의 닉 보스트롬(Nick Bostrom) 교수는 AI의 위험을 인식하면서도, 적절한 안전장치와 함께 개발을 지속하는 것이 인류의 번영에 필수적이라고 주장합니다. 그는 AI 개발을 중단하는 것이 아니라, 안전하고 윤리적인 AI 개발을 위한 연구와 투자를 확대해야 한다고 역설합니다.
하지만 이러한 논지에도 불구하고, 위험 요소에 대비해야 한다는 점은 대다수 전문가들이 동의하는 부분입니다. 크루거는 AI 기술의 개발 속도에 비해 규제 프레임워크가 지나치게 느리게 추진되고 있다고 비판하며, 국제적 협력과 협약을 통한 윤리적 가이드라인 수립이 필수적이라고 제언했습니다.
실제로 AI 거버넌스 전문가인 케이트 크라포드(Kate Crawford) 교수는 "AI 시스템은 단순한 기술이 아니라 권력 구조이며, 이를 규제하지 않으면 소수의 기술 기업이 사회 전반을 통제하게 될 것"이라고 경고합니다. 한국도 예외가 아닙니다.
현재 우리나라는 AI 기술 개발 경쟁에서 세계적인 수준의 성과를 이루고 있습니다. 과학기술정보통신부에 따르면, 한국의 AI 기술 수준은 미국 대비 약 80% 수준으로 평가되며, 특정 응용 분야에서는 세계 최고 수준의 기술력을 보유하고 있습니다.
삼성, LG, 네이버, 카카오 등 주요 기업들은 대규모 AI 연구개발에 투자하고 있으며, 정부도 2030년까지 AI 반도체 세계 1위 달성을 목표로 하고 있습니다.
기술은 멈추지 않는다, 해결책은 어디에?
그러나 이를 지원하는 법적, 제도적 뒤받침은 여전히 부족한 상황입니다. 2020년 제정된 '지능정보화 기본법'과 2023년 발표된 'AI 기본법안'이 있지만, 구체적인 윤리 기준, 책임 소재, 피해 구제 방안 등은 아직 명확하지 않습니다.
광고
특히 윤리적 측면에서의 관리 체계는 이제 막 논의가 시작된 단계에 불과합니다. 개인정보보호위원회와 과학기술정보통신부가 'AI 윤리 기준'을 마련했지만, 이는 권고 사항일 뿐 법적 구속력은 없습니다.
유럽의 AI 법안이나 미국의 규제 움직임과 비교할 때, 한국은 AI 규제에서 뒤처져 있다는 평가가 지배적입니다. 한국AI윤리협회의 2025년 조사에 따르면, 국내 AI 개발자의 67%가 "윤리적 가이드라인이 모호하거나 부족하다"고 응답했으며, 73%가 "명확한 법적 기준이 필요하다"고 답했습니다. 또한 일반 국민의 58%는 "AI 기술의 발전 속도가 너무 빠르다"고 우려하며, 62%는 "정부의 AI 규제가 불충분하다"고 평가했습니다.
이는 기술 개발과 사회적 수용성 사이의 간극이 커지고 있음을 보여줍니다. 해외 사례를 교훈 삼아 더욱 신속히 체계를 갖춰야 함을 시사합니다.
특히 주목할 점은 AI 안전성 연구에 대한 투자입니다. 오픈AI(OpenAI), 앤트로픽(Anthropic) 등 주요 AI 기업들은 전체 연구개발 예산의 20% 이상을 AI 안전성과 정렬(alignment) 연구에 투자하고 있습니다. 이는 기술 발전만큼이나 안전성 확보가 중요하다는 인식을 반영합니다.
반면 한국의 AI 연구개발 투자는 대부분 성능 향상과 상용화에 집중되어 있으며, 안전성과 윤리 연구에 대한 투자는 5% 미만에 불과한 것으로 알려져 있습니다. 앞으로 우리는 기술과 인간의 관계를 더욱 면밀히 점검해야 할 시대에 접어들고 있습니다.
AI가 제공하는 편리함과 경제적 이익을 누리는 한편, 그 이면에 존재하는 윤리적, 사회적 위험을 무시해서는 안 됩니다. 크루거가 강조했듯이, AI 개발 속도에 상응하는 거버넌스와 규제 프레임워크 마련은 선택이 아닌 필수입니다.
이는 단순히 위험을 제한하는 것이 아니라, 지속 가능하고 모두에게 이익이 되는 AI 생태계를 구축하기 위한 기반입니다. 독자 여러분은 다음 세대를 위한 기술의 역할과 한계를 어떻게 정의하시겠습니까? AI 시대를 살아가는 우리는 해결책을 논의하고 구체화해야 할 중요한 전환점에 놓여 있습니다.
광고
정부, 기업, 학계, 시민사회가 함께 참여하는 다층적 거버넌스 체계를 구축하고, 투명성과 책임성을 핵심 원칙으로 삼아야 합니다. 또한 AI 교육을 강화하여 시민들이 기술을 비판적으로 이해하고 활용할 수 있는 역량을 길러야 합니다.
기술이 인간을 위해 존재하는지, 인간이 기술에 종속되는지는 결국 우리의 선택에 달려 있습니다.
김도현 기자
광고
[참고자료]
theguardian.com