<aside> 💡 블로그에서 글이 많이 깨지다보니 아래 링크(노션)로 참고 부탁드립니다.

</aside>

https://imaginary-license-99e.notion.site/OpenAI-Sora-924077b99db642f8bca9a14d9da8e22d

Disclaimer: The following analysis and opinions are based on my personal effort to understand and discuss OpenAI's new text-to-video model, Sora, as presented in their technical report. While I strive for accuracy and fairness in my review, it is important to note that I do not possess a technical background in artificial intelligence or related fields. Consequently, some interpretations or conclusions drawn might not fully capture the complexities or the current state of AI technology and its business implications. Readers are encouraged to consult the original technical materials and seek diverse perspectives for a more rounded understanding.

2024년 2월 15일 OpenAI는 State-of-the-Art (SoTA) 텍스트-비디오 모델인 Sora를 공개했습니다. 온라인 커뮤니티에서 Sora에 대한 뜨거운 반응은 2022년 11월 ChatGPT 모먼트를 연상케 합니다.

OpenAI Does it Again

https://packaged-media.redd.it/6d1e9ohb6dqa1/pb/m2-res_240p.mp4?m=DASHPlaylist.mpd&v=1&e=1708272000&s=5cab0afb702e52547bc6040f3e51feca7ba91e19#t=0

https://cdn.openai.com/tmp/s/title_0.mp4

위 기괴한 영상은 “chaindrop”이란 Reddit 사용자가 2023년 3월 업로드한 AI 비디오입니다. 2초 분량의 세그먼트 10개를 이어 붙어 20초 짜리 영상을 만들었으며 크게 바이럴이 되었습니다.

1년 채 지나지 않아 OpenAI는 Text-to-Video 모델 Sora와 생성된 비디오 예시 몇 개를 공개합니다. “All videos on this page were generated directly by Sora without modification.

Sora 개요

Sora에 대한 소개는 아래와 같이 시작합니다:

We’re teaching AI to understand and simulate the physical world in motion, with the goal of training models that help people solve problems that require real-world interaction.

https://player.vimeo.com/video/913132375?h=61932cc24d

https://player.vimeo.com/video/913130791?h=756109176e

Untitled

Untitled

주요 Capabilities