자본시장연구원 “금융기술 혁신…네거티브 규제 대응해야”
이효섭 실장 "국내 금융사, 글로벌 기업 대비 혁신성 부족"
이효섭 자본시장연구원 금융산업실장은 “인공지능(AI), 클라우드 등 금융기술 혁신이 가속화되고 있다”며 “‘포지티브(Positive)’를 ‘네거티브(Negative)’로 전환할 필요가 있다”고 주장했다.
8일 한국금융연구원은 ‘미래의 거대 트렌드가 가져올 금융의 변화’를 주제로 포럼을 개최했다. 이날 이 실장은 ‘기술 발전과 금융산업의 변화’를 주제로 발표를 했다.
그는 “기술혁신 가속화를 대응하기 위해 규제와 감독의 패러다임을 전환해야 한다”며 “포지티브 규제가 아닌 네거티브 규제로 대응해야 한다”고 말했다.
네거티브 규제란 법률이나 정책에서 금지한 행위가 아니면 모두 허용하는 규제 방식을 일컫는다. 반대로 포지티브 규제란 법률이나 정책에 허용되는 것들만 나열한 뒤, 이에 포함되지 않는 것은 허용하지 않는 규제 방식을 말한다. 용어가 주는 어감과는 달리 네거티브 규제가 더 표용적인 규제 방식이다.
현행 국내 금융업 관련 법안의 대부분은 포지티브 규제 방식을 따른다. 글로벌 금융사는 이미 첨단 기술을 앞세워 금융업 외에도 다양한 분야에 진출하고 있는 가운데 국내 금융산업은 포지티브 규제 탓에 혁신적인 신산업을 추진함에 있어 어려움을 겪고 있다.
금융권에 따르면, 최근 금융위원회는 일본 정부가 2016년부터 IT기업, 핀테크 등 ‘은행업 고도화 등 회사’ 소유를 허용한 이후 ‘은행 업고도화 등 회사의 업무범위를 확대’한 것을 토대로 규제 완화를 검토하고 있다.
자본시장연구원 이 실장은 “국내 금융산업의 많은 특수성을 글로벌 규제 수준으로 바꿀 필요가 있다”며 “규제샌드박스 활성화 등을 통해 ‘현재 제재 중심 감독’을 ‘기술 순응적 감독’으로 바꿀 필요가 있다”고 말했다.
이 실장은 “생성형 AI, 클라우드 활용에 따른 중요 금융사고 발생시 금융사에게 책임을 부과할 필요가 있다”며 “권한은 위임할 수 있되 책임은 위임할 수 없을 것”이라고 설명했다.
물론 생성형 AI와 데이터, 클라우드 기술의 경우 개인정보 노출과 거짓정보 생성, 법적 위험, 시스템 리스크 개연성, 일자리 감소 등의 위험이 존재한다. 특히 생성형 AI 활용시 성별, 인종, 나이, 직업, 소득, 금융계좌번호, 온라인 비밀번호 등 데이터 처리 과정에서 부주의 등으로 주요 개인정보가 노출될 가능성이 있다.
이 실장은 “오픈소스 기반 거대언어모델(LLM) 모형에서 악성코드 삽입을 통한 중요정보를 탈취당할 가능성이 있다”며 “LLM 등이 학습한 데이터가 사실이 아니거나 최신 정보로 업데이트하지 않는 경우, 생성형 AI 등이 사실과 다른 데이터를 생성하고 중요하지 않은 질문이나 요청 등에 대해 불필요한 데이터를 만들 수 있다”고 말했다.
생성형 AI와 빅데이터 기술은 차후 금융안정성을 훼손할 위험도 있다. 가령 2010년 5월 알고리즘 매매 오작동으로 인해 미국 다우존스 지수가 급락한 사건이 있었다. 이와 같이 생성형 AI 활용시 알고리즘 오류가 발생하면 주식, 파생상품에서 대규모로 매도 주문이 수행되어 금융시장 변동성이 확대될 수 있다.
이효섭 실장은 “금융업 규율 체계에선 위법을 수행한 행위자 또는 감독 소홀자에게 인적, 금전 제재를 수행 하는데 인격이 부여되지 않은 생성형 AI에게 제재를 수행하는 것은 한계가 존재한다”며 “부주의에 따른 알고리즘 오작동에 대한 책임을 금융사에 부과하기 어려운 실정”이라고 밝혔다.
이어 “생성형 AI와 클라우드 등이 데이터 소유자의 동의 없이 데이터를 접근하고 활용할 가능성이 있다”며 “유명 화가의 작품과 생성형 AI가 만든 작품과의 진위 구분이 어려운 것 처럼 생성형 AI 등이 산출한 텍스트와 음악, 영상에 대한 창의성 검증이 어렵다”고 설명했다.
이 실장은 “생성형 AI를 활용한 알고리즘이 지배력을 가진 상황에서, 해당 알고리즘 수요에 대한 쏠림이 발생하면 금융시장 변동성이 확대될 수 있다”며 “생성형 AI가 금융소비자의 인지 여부를 확인하지 않고, 설명의무 및 적합성 테스트 등을 수행하면 잠재적 불완전판매에 노출될 가능성도 있다”고 밝혔다.
김성웅 금융보안원 AI혁신실장은 “AI 기술의 변화는 3년 주기가 아닌 3개월 후의 성능도 예측하기 어려울 정도로 빠르게 변화하고 있다”며 “공정성, 윤리성, 투명성 등 AI 안정성을 위한 관리체계가 필요한 상황”이라고 말했다.
자본시장연구원은 금융사에 대한 망분리 규제 완화 필요성을 강조했다. 기밀정보에 한해 망분리를 적용하고 현행 망분리 규제는 폐지하거나 완화해야 한다는 것이다.
현재 금융사 개발자들은 AI가 개발을 돕는 서비스는 물론 인터넷에 무상으로 공개된 ‘소스코드’(설계도)도 쉽게 쓸 수 없는 상황이다.
이효섭 실장은 “망분리 규제를 완화하고 금융사의 자회사 소유한도를 완화해 부수업무 범위를 확대할 필요가 있다”며 “ICT 인력과 인프라 투자 역시 키워야 한다”고 제언했다..
이 실장은 “보안성 강화를 전제로 금융사 보유 데이터의 외부망 클라우드와 생성형 AI 활용을 촉진해야 한다”며 “다만 고객과 회사의 중요 정보가 인터넷 등을 통해 유출될 경우 엄중한 제재를 부여할 필요가 있다”고 말했다.
그는 “금융사가 클라우드를 활용함에 있어 금융사가 상당한 인력과 시간, 인프라 등을 투자해 리스크를 모니터링하고 정보보호 체계를 갖춘 경우 혹은 신뢰할만한 제3자에게 시스템 성능과 안정성 평가를 받은 경우 등에 대해선 책임을 면책해줄 수 있을 것”이라고 설명했다.
조영서 KB금융지주 디지털·IT부문장은 “사실 금융사 입장에서 AI, 데이터, 클라우드가 별개의 문제는 아니다”라며 “수많은 기능을 가장 편안한 인터페이스로 고객에게 제공하기 위해선 챗봇이 필수적”이라고 말했다.
조 부문장은 “지난해 KB금융 전 계열사에 생성형 AI 기술을 실험한 결과, 부문 활용이 아닌 전면 활용이 필요하다는 결론을 내렸다”며 “그룹 전체에서 공동으로 활용 가능한 혁신적 AI 플랫폼을 구축하고 있다”고 덧붙였다.
한편 자본시장연구원 실장은 “이종산업간 데이터를 결합하고 활용하는 방안을 적극 도입할 필요가 있다”며 “스몰-라이선스와 규제 샌드박스를 활성화할 필요가 있다”고 말했다.
그는 “AI와 데이터 규율체계를 수립하고 사이버보안 역량을 강화할 필요가 있다”며 “가상자산 규율체계를 견고하게 세우고 빅테크 규율체계를 마련할 필요가 있다”고 설명했다
[스트레이트뉴스 조성진 기자]