OpenAI의 새로운 인공지능 텍스트-비디오 모델 Sora 발표
OpenAI의 새로운 인공지능 텍스트-비디오 모델 Sora 발표
이 글에서는 OpenAI가 최근 공개한 첫 텍스트-비디오 모델인 Sora에 대해 소개합니다. Sora는 높은 수준의 세부 사항을 가진 사람과 물체를 생성할 수 있는 능력으로 주목받고 있습니다. 이 기술이 어떻게 다른 AI 모델들과 차별화되며, 현재의 한계와 앞으로의 발전 방향에 대해 알아보겠습니다.
-목차
-Sora 소개
-생생한 콘텐츠 생성
-진행 중인 작업
-향후 계획
Sora 소개
OpenAI는 경쟁사들이 이미 비슷한 기술을 선보인 가운데, 자사의 첫 텍스트-비디오 모델인 Sora를 발표했습니다. Sora는 단일 텍스트 프롬프트로 "현실적이고 상상력 가득한 장면"을 생성할 수 있는 기술을 바탕으로 합니다.
생생한 콘텐츠 생성
OpenAI에 따르면, Sora는 사람과 물체가 "물리적 세계에서 존재하는 방식"을 이해할 수 있는 인공지능을 갖추고 있습니다. 이를 통해 다양한 사람들, 움직임의 종류, 표정, 질감 및 물체를 높은 수준의 세부 사항으로 생성할 수 있습니다. 생성된 비디오는 다른 AI 콘텐츠에서 흔히 볼 수 있는 플라스틱 같은 외형이나 악몽 같은 형태를 대부분 피할 수 있습니다.
진행 중인 작업
Sora는 완벽하지 않습니다. OpenAI는 모델이 물체의 물리학을 시뮬레이션하는 데 어려움을 겪을 수 있으며, 왼쪽과 오른쪽을 혼동하거나 원인과 결과의 인스턴스를 오해할 수 있다고 합니다. 구체적인 예시로, AI 캐릭터가 쿠키를 물어뜯었을 때 쿠키에 물린 자국이 나타나지 않을 수 있다고 합니다.
향후 계획
OpenAI는 Sora가 거짓 정보, 증오 표현 또는 편향성을 생성하지 않도록 "레드 팀"이라고 불리는 업계 전문가 그룹과 협력할 계획입니다. 또한, 성적 콘텐츠, 폭력적 비디오, 유명인의 모습 등 정책에 위배되는 프롬프트를 거부하는 텍스트 분류기를 구현할 예정입니다.
Sora의 공식 출시 날짜는 아직 발표되지 않았습니다. 추가 정보를 위해 문의했으며, 나중에 이 글을 업데이트할 예정입니다. 한편, 2024년 최고의 AI 비디오 편집기 목록도 확인해 보세요.