LG AI연구원, AI 정상회의 3회 연속 초청...글로벌 거버넌스 주도

[디지털데일리 옥송이기자] LG AI연구원이 지난 20일(현지시간) 인도 뉴델리 바라트 만다팜에서 열린 '인도 AI 정상회의'에 참가해 책임 있는 AI 생태계 구축을 위한 글로벌 협력 방안과 실행 성과를 공유했다.
22일 LG에 따르면 LG AI연구원은 서울과 파리에 이어 올해 인도 행사까지 3차례 연속으로 AI 정상회의에 초청받았다. 이번 회의에서 김유철 LG AI연구원 전략부문장은 유네스코(UNESCO)와 유엔 인권최고대표사무소(OHCHR)가 공동 주관하는 세션에 참석해 구글, 마이크로소프트 등 글로벌 기업 및 국제기구 인사들과 기업의 책임 있는 AI 정책 내재화 방안을 논의했다.
특히 LG AI연구원은 이날 자체 개발한 '범용 AI 위험분류체계 한국판(K-AUT)'을 공개했다. K-AUT는 인류 보편적 가치, 사회 안전, 한국적 특수성, 미래 위험 등 4개 핵심 영역과 226개 세부 위험 항목으로 구성됐다. 항목별로 5가지 구체적 판별 기준을 갖춰 하나의 위반 사항만 발생해도 AI가 부적절한 응답을 한 것으로 분류하는 엄격한 체계다.
LG AI연구원은 이 체계를 단순 가이드라인이 아닌 AI 모델의 안전성 검증 도구로 활용하고 있다. 실제 자사 AI 파운데이션 모델인 엑사원(EXAONE) 검증에 이를 적용하고 결과도 투명하게 공개 중이다. 또한 한국적 특수성 항목을 타 국가나 지역의 특성에 맞춰 대체할 수 있도록 설계해 글로벌 확장성도 확보했다.
현장에 참석한 페기 힉스 유엔 인권최고대표사무소 국장은 "LG가 보편적 인권 가치를 토대로 하면서도 특정 사회와 문화의 맥락을 반영할 수 있는 접근 방식을 선보인 것은 우리가 바라는 방향과 정확히 맞닿아 있다"며 "실용적 도구를 만들고 경험을 공유하는 것이야말로 지금 시점에 반드시 필요한 일"이라고 평가했다.
교육 분야의 성과도 공유됐다. LG AI연구원은 유네스코와 공동 추진 중인 'AI 윤리 MOOC(Massive Open Online Course) 프로젝트'를 소개했다. 이 프로그램은 전 세계 전문가와 정책 입안자를 대상으로 AI 윤리 역량을 강화하기 위한 교육 과정으로 오는 5월 글로벌 공개를 앞두고 있다. LG AI연구원은 독자 개발한 윤리영향평가와 데이터 컴플라이언스 AI 에이전트 등 실전 노하우를 이 과정에 투명하게 담았다.
해당 프로젝트에는 하버드대학교, 뉴욕대학교, 모질라 재단 등 세계적 기관의 석학 15명으로 구성된 국제자문위원회가 참여한다. 총 10개 모듈로 구성된 강의는 온라인 교육 플랫폼 코세라를 통해 누구나 무료로 수강할 수 있게 될 예정이다.
한편 LG AI연구원은 2023년부터 AI 윤리 책무성 보고서를 발간하며 전 세계 기업 중 유일하게 유네스코 AI 윤리 권고 이행 현황을 공개하고 있다. 이는 컴플라이언스 경영을 기업 생존 전략의 핵심으로 삼는 그룹의 방향성과 궤를 같이한다.
구광모 LG 회장은 "컴플라이언스를 기업의 성장과 발전의 핵심 인프라로 생각하는 인식의 전환이 필요하며, 이러한 인식의 전환에 있어 LG 구성원 누구도 예외가 될 수 없다"고 말했다.
김유철 LG AI연구원 전략부문장은 "보편적 원칙만으로는 포착하기 어려운 위험에 대응하기 위해 한국 사회의 특수성과 미래 발생 가능한 위험 요소까지 포괄할 수 있도록 개발했다"고 설명했다.
김명신 LG AI연구원 정책수석은 "이번 프로젝트는 AI 윤리의 글로벌 표준 원칙을 현장의 언어로 번역하는 가교로서, 실질적인 이정표가 될 것으로 기대한다"고 말했다.