독일 뮌헨레 “한국 보험사 AI 효율적 활용 필요”

“AI 기술 개선되고 있어…오류 크게 감소할 것”

2024-06-04     조성진 기자
파비안 윈터 뮌헨레 박사.

독일 손해보험사 뮌헨레의 파비안 윈터 박사는 “한국의 보험사가 인공지능(AI)을 효율적으로 활용할 필요가 있다”고 제언했다. 일각에선 금융사의 AI 기술에 있어 할루시네이션(Hallucination, 허위정보 생성) 이슈를 우려했지만 윈터 박사는 “AI 기술이 충분히 개선되고 있다”는 입장이다.

4일 보험연구원은 뮌헨레 파비안 윈터 박사와 함께 ‘AI 기술과 트레이닝’을 주제로 세미나를 실시했다. 뮌헨레 그룹의 파비안 윈터 박사는 20년 넘게 데이터 통계 관련 업무를 한 인물이다.

이날 스트레이트뉴스는 뮌헨레 그룹의 파비안 윈터 박사에게 한국의 보험사가 AI 기술을 활용하기 위한 방안에 대해 질문했다. 윈터 박사는 “금융산업 자체가 아니라 AI가 인간의 의사결정에 개입한 경우 리스크를 우려하는 것”이라며 “AI 판단에 전부 의존한 채 사람을 차별하면 경제적으로, 도덕적으로 높은 오류가 발생할 수 있다”고 밝혔다. 

이어 “AI 기술을 사용하는 이상 100%의 안전성을 담보할 수는 없겠지만, 챗 GPT 3.5와 4를 비교하면 놀라울 정도로 오류가 줄었다”며 “이렇듯 AI 기술은 오류 데이터 수정을 통해 개선되고 있고 여러 보조도구를 함께 활용한다면 잘못된 값을 크게 줄일 수 있을 것”이라고 덧붙였다.

윈터 박사는 “유럽연합은 3년 정도에 걸쳐 AI Act에 대해 논의했다”며 “챗 GPT 같은 대규모 언어 모델이 존재하기 전부터 AI 시대를 대비해 논의했다”고 말했다. 윈터 박사는 “보험사가 AI 혼합형 비즈니스 모델과 함께 효율성과 효과성을 향상하기 위해 노력해야 한다”며 “생태계에서 협력하는 방법도 이해해야 한다”고 설명했다.

뮌헨레의 윈터 박사는 최근 유럽연합(EU) 의회를 통과한 인공지능 규제법(AI Act)에 대한 소견도 밝혔다. 그는 “내 관점에서 볼 때 EU 의회는 오래 전부터 AI가 인간에게 미치는 영향이 무엇인지, 무엇이 잘못될 수 있는지에 대해 논의했다”며 “그 결과 ‘AI를 통해 사회적 점수를 매기는 것과 사람이 인생을 살며 얻을 기회를 결정할 수 없다’고 결정한 것으로 보인다”고 설명했다.

그는 “해당 법안을 보험분야에 적용했을 때 Al 리스크가 다른 금융분야 보다 높은 게 사실”이라며 “실제 은행에서 신용점수를 얻고 이를 통해 대출을 받을 수 있는 것과 없는 것은 한 인간의 인생을 바꾸어 놓을 수 있다”고 말했다. 

이어 “대출희망자가 빈민촌에 산다는 이유로 AI가 대출을 거절한다면 이는 명백한 차별”이라며 “독일에선 이미 대출의망자의 거주에 따른 신용평가 차별이 법으로 금지됐고 앞으로도 이러한 차별은 더욱 엄격히 규제될 것”이라고 밝혔다.

윈터 박사에 따르면, 유럽의 금융사들은 EU AI Act 영향으로 AI 기술을 활용할 때 서비스 대상자의 차별을 방지하고 원활한 서비스를 제공하기 위해 데이터 출처에 대한 문서화 작업을 해야 한다.

뮌헨레의 박사는 “보험금 청구 과정에서 AI가 단지 정보를 추출할 경우 의사결정은 사람의 감독 아래 진행되지만 여전히 고위험에 속한다”며 “높은 위험에는 많은 의무사항 준수와 높은 투명성이 요구된다”고 말했다.

그는 “각 AI 모델을 통해 생산하는 활동을 하는 이들은 누구든지 상당한 의무를 지게 될 것”이라며 “현재 유럽 금융사들은 AI 기술을 활용한 서비스를 제공할 때 어디까지 사람의 의사결정을 개입시켜야 하는지, 어디까지 문서화 작업을 해야 할지를 두고 고민하고 있다”고 설명했다. 

뭰헨레 박사의 말을 놓고 봤을 때 AI를 활용하는 국내 보험사가 문서화 작업에 큰 힘을 쏟아야 하기 때문에, 회사들이 디지털 전환이라는 시대상에 걸맞지 않게 관련 서비스 제공을 기피할 가능성도 있다. 

윈터 박사는 “원수사가 각각의 다양한 서비스에 맞춘 AI 기술을 모두 개발하는 건 비현실적”이라며 “기술 제공업체와 재보험 형태로 계약을 맺은 상태에서 기술을 운영해야 할 것”이라고 밝혔다.

그는 “아직 한국에는 AI 규제가 본격적으로 시행된 건 아니지만, 나라와 나라 간의 규제 프레임워크가 유사하게 작동된다”며 “이러한 방향이 한국의 주요 보험사들이 AI 기술을 활용해 효율적인 서비스를 제공하는 최고의 전략이라고 생각한다”고 설명했다. 

픽사베이 제공.

또한 금융산업에서 AI 기술을 활용하기 위해 넘어야 할 가장 큰 이슈는 정확성이다. 가령 현재 시점에서 챗 GPT와 구글 바드 등 각 LLM 모델은 할루시네이션 이슈가 있다. 할루시네이션이란 주어진 데이터 또는 맥락에 근거하지 않은 잘못된 정보나 허위 정보를 생성하는 것을 말한다. 

AI 플랫폼 벡타라(Vectara)에 따르면, 생성형 AI가 할루시네이션으로 잘못된 산출물을 생산할 확률은 평균 2.5%~22%에 달하는 것으로 집계됐다. 질문이 복잡할수록, 기존에 많이 논의되지 않은 내용일수록 할루시네이션이 발생할 확률이 높다. 

윈터 박사는 “모든 일에는 항상 경제적 비용이 따르는 법”이라며 “AI 기술이 99% 안전하다고 해도 1%의 치명적인 리스크가 있을 수 있으니 이 비용을 잘 따져서 기술을 수용할 필요가 있다”고 말했다. 

그는 “가령 자율주행 차량이 모두에게 편리함을 제공하는 반면 사람을 사망하게 만들 수 있다”며 “잘못된 이메일을 보낸 경우 오류로 인한 손해는 인명사고가 야기한 비용보다 적을 것”이라고 덧붙였다.

한편 뮌헨레는 사람과 조직, 기술 관점에서 보험 서비스에 AI 적용시 효율성 향상을 목적으로 연구를 진행했다. 그 결과 단기간 내 LLM을 호스팅할 수 있는 최첨단 AI 기술과 능력을 갖췄다. 

윈터 박사는 AI 기술을 활용함에 있어 사람 중심의 교육을 강조했다. 특히 정확한 데이터를 요구하는 금융업에서 사용자에게 거짓된 정보를 제공하는 건 매우 치명적인 리스크가 될 수 있다. 실제 국제통화기금(IMF)은 “금융시장에 구조적인 변화나 예기치 못한 상황이 발생할 경우 환각 현상으로 생성형 AI가 잘못된 의사결정을 내려 상당한 피해를 미치고 금융기관의 신뢰가 훼손될 가능성 존재한다”고 밝히기도 했다. 

윈터 박사는 “2022년 11월 챗 GPT 3.5가 출시되며 1억명의 사용자를 모으기 까지 오랜 시간이 걸리지 않았다”며 “다만 챗 GPT의 대답은 보험 데이터와 같이 매우 정확한 소수의 인터넷 데이터와 부정확하고 일반적인 데이터를 결합했기 때문에 완전히 신뢰할 수 없다”고 설명했다.

윈터 박사는 “AI기술은 사용자가 요청하는 방식에 매우 민감하게 반응한다”며 “가령 사용자가 AI에게 클라우드 제공업체의 실제 보안 코드를 질문해 AI가 보안코드를 해킹하려고 한 사례가 있었다”고 말했다.

그는 “이러한 사례는 사람의 표현방식에 따라 AI가 얼마나 충실하게 반응하는지 알 수 있는 매우 극단적인 예시”라며 “AI가 어떻게 작동하는지 전혀 모르는 사람에게 작동방식을 알려줘야 한다”고 덧붙였다.

[스트레이트뉴스 조성진 기자]