보험연구원 ‘AI 보험산업의 미래’ 세미나 개최
박소정 교수“ AI 행동유도 고도화...감독 강도 높아져야”
보험연구계에서 “최근 보험사의 프라이버시 이슈에 대해 전사적 인식 전환과 시민 교육이 필요하다”는 제언이 나왔다.
◇ 에이전틱 AI 시대, 데이터 유출·편향·디지털 소외 딜레마
6일 보험연구원은 여의도 사옥에서 ‘인공지능(AI) 보험산업의 미래: 신뢰, 소비자, 그리고 인간 이해’를 주제로 세미나를 개최했다.
이날 스트레이트뉴스는 “정보주체에게 형평성 있는 정보 활용 사실을 제공하기 위해 보험사들이 프라아버시 바이 디자인(Privacy by Design)을 적용해야 하진 않을지”에 대해 질문했다.
변혜원 보험연구원 연구위원은 “처음 설계 단계부터 프라이버시를 반영하자는 말이 이상적이지만, 치열한 경쟁과 당장의 판매 압력 속에선 현실적으로 어렵다”고 말했다.
변 연구위원은 “상품개발자와 소비자 모두 프라이버시·개인정보보호에 대한 인지도를 높여야 한다”고 말했다. 그는 “소비자부서가 중요성을 말해도 마케팅 부서에서 ‘그건 중요하지 않다’고 하면 추진이 어렵다”며 “전사적으로 이 이슈가 얼마나 중요한지 인식을 높여야 한다”고 설명했다. 이어 “규제로 사람들의 생각을 바꿀 수도 있지만 그보다는 전체적인 인지도를 높이는 게 필요하다”고 덧붙였다.
변 위원은 “디지털 금융은 편리하지만 새로운 유형의 위험을 낳는다”고 말했다. 그는 “보험의 비대면·모바일 이용은 다른 금융권보다 늦었지만 꾸준히 늘었다”며 “디지털 서비스 품질을 높이면 만족도와 개인정보 신뢰가 동행한다”고 설명했다. 이어 “동의 절차는 ‘투명 설명·부분 동의·간편 철회’를 기본값으로 고도화하고, 보건의료 데이터 활용은 ‘구체적 혜택’과 ‘엄격한 거버넌스’를 함께 알려야 인식이 개선된다”고 설명했다.
그러면서 “마케팅 목적의 과도한 정보 활용은 단발성 사건이라도 신뢰를 크게 훼손한다”며 “목적 외 사용 금지, 비식별화, 제3자 제공 차단, 남용 시 중징계 원칙을 분명히 해야 한다”고 덧붙였다.
박소정 서울대 경영학과 교수는 “디지털 서비스가 인간의 행동을 유도하는 경향이 강하다”며 “규제 당국은 소비자에게 불리한 선택을 유도하지 못하도록 지속적으로 점검하고, 설계상 문제엔 처벌이 뒤따라야 한다”고 말했다.
그는 “알고리즘이 사용자의 결정과 행동을 특정 방향으로 조작할 수 있음을 확인했다”며 “겉으로는 AI가 사용자의 말에 호응하는 듯 보이지만, 실제로는 ‘원하는 방향’으로 절묘하게 유도한다”고 말했다. 이어 “단순한 UI 설계를 넘어 AI가 고도화한 행동 유도가 가능해졌기 때문에 감독의 강도도 한 단계 높아져야 한다”고 밝혔다.
박 교수는 “누군가가 나를 특정 방향으로 유도하고 있음을 인지할 때와 그렇지 않을 때의 행동은 분명히 다르다”며 “이 사실을 모른 채 AI의 발화를 그대로 수용하는 사람들을 ‘AI 취약계층’으로 봐야 한다”고 말했다.
그는 “AI가 금융·보험을 넘어 전 영역에 확산된다”며 “학교와 사회 전반에서 행동경제학·행동편향을 가르치고, 주변의 많은 것이 ‘너의 선택을 설계’하려 든다는 점을 알릴 필요가 있다”고 말했다. 이어 “위험을 인지하는 태도만으로도 수용도가 달라진다”며 “규제와 더불어 시민 교육이 병행돼야 한다”고 덧붙였다.
박소정 교수는 “AI가 생성형을 넘어 자율적으로 의사결정과 행동까지 하는 ‘에이전틱 AI’ 시대로 옮겨가고 있다”며 “보험도 더 이상 피할 수 없는 변화의 한복판에 있다”고 말했다. 그는 “데이터가 편향되면 결과도 편향된다”며 “정확도와 공정성의 동시 최대화는 어렵다”며 “공정성 기준과 규제 수준에 대한 사회적 합의가 필요하다”고 밝혔다.
그러면서 “AI의 진단·추천엔 블랙박스 불신이 따른다”며 “전면 자동화는 감정적 유대를 약화시킬 수 있다”고 말했다. 또 “목표 달성을 위해 예상 못한 행동이 발생할 수 있다”며 “과의존·조작에 취약한 이용자층이 새로 생길 수 있다”고 덧붙였다.
◇ AI 다크패턴, 규제와 감독은 과제로
같은날 스트레이트뉴스는 “보헙업권의 다크패턴(Dark pattern) 이슈 현황은 어떠한지”에 대해서도 질문했다.
이정민 한국금융소비자보호재단 연구위원은 “해외에서 ‘다크패턴’ 대신 ‘디지털 인게이지먼트 프랙티스(DEP)’로 용어가 바뀌고 있다”며 “핵심은 ‘클릭 투 캔슬(Click-to-Cancel)’, 즉 가입만큼 해지도 쉽게 해야 한다는 것”이라고 말했다.
이 연구위원은 금융 애플리케이션의 대표적 문제를 구체적으로 지적했다. 그는 “모바일 앱에서 사용자 의도대로 단계 진행은 되지만 ‘이전 단계’로 돌아갈 수 없게 하거나, 잘못 입력하면 첫 화면으로 튕기게 하는 구조가 많은 게 현실”이라며 “필수·선택 항목 사전 체크는 줄었지만 여전히 소비자의 선택을 방해하는 설계가 남아 있다”고 덧붙였다.
그는 “금융위의 최종 가이드라인은 아직 나오지 않았다”며 “공정거래위원회가 정한 11개 유형과 유사한 틀로 갈 가능성이 크다”고 말했다. 그는 “전자상거래법 제21조의2, 제21조의3에서 금지행위가 보험·금융에도 그대로 적용되는 만큼 업계 전반의 점검이 필요하다”고 설명했다.
이어 “특정 연령대 노출, ‘지금 몇 명이 이 상품을 보고 있다’ 같은 사회적 증거 과장, 자동차보험에서의 특정 상품 몰아주기 추천이 잦다”며 “향후 가이드라인이 나오면 바뀌어야 한다”고 덧붙였다.
한소원 서울대 심리학과 교수는 “뇌는 예측하는 존재라 움직이는 것엔 쉽게 의도와 인과를 부여한다”고 말했다. 이어 “화성 탐사 로버 사례처럼 사람들은 비인격적 시스템에도 감정을 투사한다”며 “이 특성이 AI 서비스 이용 경험과 위험 인식에 큰 영향을 준다”고 설명했다.
그는 “전문 상담앱은 치료 이론과 시나리오를 따른다. 반면 범용 챗봇은 사용자의 말을 무비판적으로 강화하기 쉽다”고 말했다. 이어 “취약한 청소년이 상담을 챗봇에 의존할 때 자해·자살 등 위험이 커질 수 있다”며 “플랫폼은 연령 보호, 부모 통제, 고위험 대응 가이드를 기본값으로 넣어야 한다”고 덧붙였다. 이어 “학습 데이터가 편향되면 결과도 편향된다”고 말했다. 그는 “겉으로 드러난 차별만 막아선 부족하다. 암묵적 편견이 문장과 맥락에 스며든다”며 “의료·보험 데이터에서 고령층이 배제되면 부정확한 진단·가격책정으로 이어진다”고 설명했다.
한소정 교수는 “돌봄만이 전부가 아니다. ‘더 건강하고 의미 있게 살아가기 위한 기술’이 필요하다”고 말했다. 이어 “치매 유병률을 과대추정하는 인식 자체가 편향”이라며 “액티브 에이징을 돕는 정보접근성·사회적 연결 기술에 투자가 필요하다”고 덧붙였다.
한 교수는 “법은 필요조건일 뿐 충분조건이 아니다”라며 “문화적 맥락과 사용자군의 차이를 반영해 청소년·고령자 등 사회적 약자를 보호하는 ‘협업형 AI’로 가야 한다”고 설명했다. 이어 “연령 제한, 투명한 경고, 인간 검토의무 등은 옵션이 아니라 기본값이어야 한다”고 말했다.
또한 “효율성만 좇는 AI에서 관계성과 책임을 중시하는 포용적 AI로 전환해야 한다”며 “투명성·설명가능성·책임성을 갖춘 거버넌스와 ‘휴먼 인 더 루프’를 표준으로 삼아야 한다”고 말했다. 그는 “기술을 어디에, 누구를 위해 쓰느냐가 결국 사회의 안전과 신뢰를 좌우한다”고 덧붙였다.
한편 안철경 보험연구원 원장은 “AI 시대에 과연 보험사는 리스크를 어느 수준까지 수용할 것인가에 대한 숙제가 있다”며 “학계와 업계가 서로 고민을 교류할 기회가 더 많아지길 기대한다”고 말했다.
[스트레이트뉴스 조성진 기자]
