
2024년 발효된 EU AI Act가 본격 시행되면서, 고위험 AI 시스템에 대한 ‘인권 영향평가’가 의무화됐다. 이제 AI는 효율을 넘어 설명가능성과 비편향성을 갖추지 않으면 지속되기 어려운 시대에 들어섰다.
과학기술정보통신부 조사에 따르면 고령층과 저소득층의 디지털 정보화 수준은 여전히 일반 국민 대비 약 70% 수준에 머물러 있다. 특히 AI 활용 능력에서는 격차가 두 배 이상 벌어지고 있다. 생성형 AI에서도 이 차이는 그대로 드러난다.
서양인 이미지 데이터는 비교적 자연스럽게 구현되는 반면, 동양인 데이터는 부족하거나 어색하게 표현되는 경우가 적지 않다. 기술의 출발점을 고려하면 이해할 수 있는 부분도 있지만, 문제는 그 기술이 확산될수록 편향 역시 함께 커진다는 점이다. 우리는 어느새 기술 속 편향을 일상처럼 접하고 있다.
두 달 전 은행에서의 일이다. 번호표를 기다리던 중 어르신 두 분이 아무것도 하지 못한 채 서 계셨다. 안내 직원이 잠시 자리를 비운 사이였다. ‘키오스크에서 번호표를 뽑는 방법을 모르시는구나’라는 생각이 들었다. 기계는 있었지만, 설명이 없으면 그저 낯선 장치일 뿐이었다. 직접 안내를 해드리며 느꼈다. 설명되지 않는 기술은 결국 누군가를 자연스럽게 배제한다는 사실이다. 공공기관에서 교육을 진행하고 있지만, 모든 시민을 충분히 아우르기에는 여전히 부족하다.
이 문제는 디지털을 넘어 AI 영역에서도 반복된다. 우리는 단지 조금 먼저 알고, 조금 더 익숙할 뿐이다. 그러나 사회는 함께 살아가는 공간이다. 누군가의 기술 이해 부족이 방치되면, 그것은 개인의 문제가 아니라 사회 전체의 불균형으로 이어진다.
이제 AI 프롬프트를 다루는 능력조차 기본 소양이 되고 있다. 기술 격차가 계층 격차로 굳어지는 ‘디지털 카스트’를 막기 위해서는 모든 시민이 AI의 혜택을 누릴 수 있는 포용적 AX(AI Transformation) 교육이 필요하다.
동시에 교육을 하는 이들의 책임도 분명하다. 전달하는 내용이 충분히 설명 가능한지, 특정 방향으로 치우치지 않았는지 점검해야 한다. 머지않아 국가 단위에서 AI의 설명가능성과 공정성이 하나의 지표로 관리되는 시대가 올 가능성도 있다.
AI는 더 이상 효율성만으로 평가될 수 없다. 설명가능성과 비편향성이 함께 작동할 때 비로소 균형 잡힌 기술이라 할 수 있다. 그리고 그 균형을 지키는 역할은 정부나 기관만의 몫이 아니다. 우리 모두가 사용자이자 감시자로 서야 한다.
기술의 속도는 이미 제도를 앞서가고 있다. 그렇기에 누군가는 속도를 늦추고, 주변을 돌아보며 방향을 점검해야 한다. 그래야만 편향을 줄이고 설명가능성을 갖춘 기술로 나아갈 수 있다. 결국 그 출발점은 사람을 놓치지 않는 시선이다.
칼럼니스트

신진주 칼럼니스트는 AI 리터러시 교수이자 미래학자, ESG·SDGs 연구자로, 공학·정책·예술을 아우르는 다학제적 시선으로 기술과 사회의 경계를 읽어낸다. AI 소버린과 글로벌 IP 전략을 제시하며 ‘신진주 기술인권 칼럼’이라는 고유한 브랜드를 구축했으며, 연차가 아닌 경험의 밀도와 통찰의 깊이로 독보적인 시선을 보여주고 있다.