AI놀이터
안녕하세요. AI 놀이터입니다!오늘은 RUNWAY 에서 GEN-3 Alpha의 새로운 도구인 Act-One 을 출시했다고 해서 짧게 알려드릴까 합니다.기존의 GEN3 의 Video to Video 기능에서 더욱 업그레이드가 된 것 같은데요,레퍼런스 영상에 나오는 인물의 표정과, 말하는 뉘앙스를 디지털 캐릭터로 변환하는데 주력한 모델이라고 합니다.레퍼런스 영상과, 원하는 캐릭터의 참조 이미지만 있으면 캐릭터에 애니메이션을 적용시킬 수 있다고 합니다.시선, 표정, 말하는 속도, 전달 방식 등이 모두 완벽하게 표현된다고 하는데요.모션 캡처 장비, 여러 참조 영상, 얼굴 리깅 등 기존의 복잡한 워크플로우를 한번에 단축시킬 수 있는 굉장한 기술인 것 같습니다.한명의 배우만 있어도 이제는 집에서 혼자서 드라마나 애니메이션을 만들 수 있을 것 같습니다..아직 Act-One을 사용은 할 수 없고, 안전성 예방 조치가 끝나면 출시 예정이라고 합니다. 앞으로 이 Act-One을 통해 또 어떤 수많은 콘텐츠들이 나올지 정말 기대가 됩니다:)출처 : runwayml.com/research/introducing-act-one
1 year ago (edited) | [YT] | 16
AI놀이터
안녕하세요. AI 놀이터입니다!
오늘은 RUNWAY 에서 GEN-3 Alpha의 새로운 도구인 Act-One 을 출시했다고 해서 짧게 알려드릴까 합니다.
기존의 GEN3 의 Video to Video 기능에서 더욱 업그레이드가 된 것 같은데요,
레퍼런스 영상에 나오는 인물의 표정과, 말하는 뉘앙스를 디지털 캐릭터로 변환하는데 주력한 모델이라고 합니다.
레퍼런스 영상과, 원하는 캐릭터의 참조 이미지만 있으면 캐릭터에 애니메이션을 적용시킬 수 있다고 합니다.
시선, 표정, 말하는 속도, 전달 방식 등이 모두 완벽하게 표현된다고 하는데요.
모션 캡처 장비, 여러 참조 영상, 얼굴 리깅 등 기존의 복잡한 워크플로우를 한번에 단축시킬 수 있는 굉장한 기술인 것 같습니다.
한명의 배우만 있어도 이제는 집에서 혼자서 드라마나 애니메이션을 만들 수 있을 것 같습니다..
아직 Act-One을 사용은 할 수 없고, 안전성 예방 조치가 끝나면 출시 예정이라고 합니다.
앞으로 이 Act-One을 통해 또 어떤 수많은 콘텐츠들이 나올지 정말 기대가 됩니다:)
출처 : runwayml.com/research/introducing-act-one
1 year ago (edited) | [YT] | 16