메타와 마이크로소프트, 책임 있는 인공지능 사용에 대한 프레임워크에 합류

메타와 마이크로소프트, 책임 있는 인공지능 사용에 대한 프레임워크에 합류

  • 최영호 기자
  • 승인 2023.06.19 00:00
  • 댓글 0
이 기사를 공유합니다

[ 매드타임스 최영호 기자] 생성형 AI 도구가 계속 확산됨에 따라 이러한 프로세스의 위험성과 저작권 침해, 잘못된 정보, 명예훼손 등으로부터 사람들을 보호하기 위해 어떤 규제 조치를 취할 수 있는지에 대한 질문이 증가하고 있다. 필요한 책임과 조치에 대한 다양한 접근 방식과 의견 등으로 글로벌 협력이 필요하기 때문에 정부 차원의 규제를 확립하기는 어렵다. 따라서 생성형 AI 도구와 관련된 위험을 완화하기 위한 통제 조치와 규칙을 구현하는 것은 소규모 산업 그룹과 개별 기업의 몫이 될 가능성이 높다.

메타와 마이크로소프트는 지난 14일(현지 시간) AI가 만든 미디어의 개발, 제작 및 공유에서 책임감 있는 관행을 장려하기 위한 프레임워크를 연구하는 그룹에 합류했다. 이 그룹은 AI로 생성된 작업의 기술적, 법적, 사회적 영향에 대해 연구하고 있다.

PAI(Partnership on AI)의 AI 및 미디어 무결성 책임자인 클레어 레이보위츠(Claire Leibowicz)는 "메타와 마이크로소프트는 빠르게 진화하는 창의적인 콘텐츠로 매일 수십억 명의 사람들에게 도달하고 있다."라고 말했다. "이 두 회사는 합성 미디어의 보급이 증가함에 따라 전 세계 사용자에게 다가가는 데 필요한 전문성과 접근성을 모두 갖추고 있으며, 사용자가 AI가 생성한 이미지, 비디오 및 기타 미디어를 식별하는 방법을 배울 수 있도록 지원한다. 프레임워크에 대한 이들의 지지는 잘못된 정보를 최소화하고, 사용자에게 콘텐츠에 대한 정보를 제공하며, 창의적인 표현이 활발히 이루어질 수 있도록 개입을 설계하는 데 지속적인 관심을 기울이고 있음을 보여준다."라고 덧붙였다.

PAI에 따르면, 동종 최초의 프레임워크는 2월에 PAI에 의해 출시됐다. 어도비, BBC, CBC/Radio-Canada, 범블, 오픈AI, 틱톡, 위트니스, 합성 미디어 스타트업 신시아, D-ID, 레스피처 등을 포함한 출시 파트너의 첫 코호트의 지원을 받았다. 프레임워크 파트너들은 이달 말 PAI의 2023 파트너 포럼에 모여 사례 연구를 통해 프레임워크의 구현을 논의하고 AI 및 미디어 무결성 분야에 대한 실질적인 추가 권고안을 마련할 예정이다. 이 코호트는 책임감 있는 합성 미디어 공개에 대한 지침을 더욱 구체화하고, 투명성에 관한 프레임워크의 여러 권고사항이 갖는 기술적, 법적, 사회적 의미를 다루며, 합성 미디어 기술을 배포, 제작, 개발하는 프레임워크 지지자들 사이에서 사례 연구를 공유하기 위해 노력할 것이다.

메타의 글로벌 업무 담당 사장인 닉 클레그((Nick Clegg)는 "메타는 합성 미디어에 대한 AI의 책임 있는 관행에 관한 파트너십의 지지자 집단에 합류하게 되어 기쁘게 생각하며, 이를 사람들에게 합성 미디어에 대해 교육하는 미묘한 접근 방식으로 발전시키기 위해 PAI와 협력할 것이다."라고 말했다. 그리고 "우리는 이 분야의 발전과 이 기술을 사용하여 커뮤니티에 창의적인 표현을 위한 더 많은 도구를 제공하는 것에 대해 낙관하고 있다."라고 덧붙였다.

마이크로소프트의 최고 과학 책임자 에릭 호르비츠(Eric Horvitz)는 "마이크로소프트는 합성 미디어 제작을 위한 제너레이티브 AI 사용에 대한 공동의 행동과 책임 있는 관행을 위한 파트너십 온 AI의 프레임워크를 지지합니다."라고 했다. 그는 "우리는 우리가 소비하는 디지털 정보를 조작하고 불화를 조장하며 신뢰를 약화시키려는 악의적인 행위자로부터 대중을 보호하는 데 전념하는 강력하고 협력적인 커뮤니티를 구축하려는 PAI의 이니셔티브를 지지한다."라고 강조했다.

100명이 넘는 참여자들의 의견을 수렴하여 1년여에 걸쳐 작성된 합성 미디어에 대한 인공지능의 책임 있는 관행 파트너십은 합성 미디어(AI 생성 미디어라고도 함)를 생성, 공유 및 배포하는 사람들을 위한 일련의 지침 권장 사항이다. 이 가이드라인은 진화하는 합성 미디어 환경이 창의성과 표현의 새로운 지평을 열었지만, 이를 방치할 경우 잘못된 정보와 조작이 발생할 수 있다는 업계 전문가들의 의견에 따라 마련되었다.

PAI는 합성 미디어 스타트업, 소셜 미디어 플랫폼 및 콘텐츠 플랫폼, 언론사, 옹호 및 인권 단체, 학술 기관, 정책 전문가, 경험 전문가, 대중 논평가 등 50개 이상의 조직과 협력하여 프레임워크를 개선했다. 이러한 노력의 결과는 지난 4년간 합성 및 조작 미디어에 대한 도전과 기회를 평가하기 위해 PAI가 수행한 연구를 기반으로 한다.

한편, PAI는 AI 가이드라인을 수립하기 위해 일하는 유일한 그룹이 아니다. 구글은 이미 자체적인 '책임 있는 AI 원칙'을 발표했고, 링크드인과 메타도 이를 사용하는 것에 대한 지침 규칙을 공유했다. 

그럼에도 우리가 PAI와 같은 업계 단체의 보다 광범위한 합의와 구현에 대해 희망을 갖는 것은 무엇일까? 한 회사와 단 한 명의 임원이 무엇이 허용되고 무엇이 허용되지 않는지에 대한 요구로 귀결되어서는 안 되기 때문이다.

시간이 걸리고, 우리는 아직 생성형 AI와 관련된 모든 위험을 알지도 못한다. 더 많이 사용될수록 더 많은 문제가 발생할 것이다. 우리에게는 시간이 지남에 따라 잠재적인 오용을 해결하고 이러한 시스템의 오용을 통해 발생하는 문제를 해결하는 적응형 규칙이 필요하다.



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.