Video: Diễn viên đóng thế có thể được thay thế bởi A.I. Công nghệ sớm một ngày

$config[ads_kvadrat] not found

Black Eyed Peas, Nicky Jam, Tyga - VIDA LOCA (Official Music Video)

Black Eyed Peas, Nicky Jam, Tyga - VIDA LOCA (Official Music Video)
Anonim

Một hệ thống trí tuệ nhân tạo mới đã phát triển các diễn viên đóng thế hoạt hình máy tính có thể làm cho các bộ phim hành động trở nên mát mẻ hơn bao giờ hết. Các nhà nghiên cứu tại Đại học California, Berkeley đã phát triển một hệ thống có khả năng tái tạo một số động tác lắt léo nhất trong võ thuật, với tiềm năng thay thế các diễn viên người thật.

Sinh viên tốt nghiệp UC Berkeley Xue Bin ‘Jason xông Peng nói rằng công nghệ dẫn đến các phong trào rất khó tách khỏi con người.

Đây thực sự là một bước nhảy vọt lớn so với những gì đã được thực hiện với học tập sâu và hoạt hình, ông Bành nói trong một tuyên bố được đưa ra với nghiên cứu của ông đã được trình bày tại hội nghị SIGGRAPH 2018 vào tháng 8 ở Vancouver, Canada vào tháng 8. Trước đây, rất nhiều công việc đã đi vào mô phỏng các chuyển động tự nhiên, nhưng các phương pháp dựa trên vật lý này có xu hướng rất chuyên biệt; Họ không phải là phương pháp chung có thể xử lý nhiều kỹ năng.

Nếu bạn so sánh kết quả của chúng tôi với ghi lại chuyển động được ghi lại từ con người, chúng ta đang đi đến điểm khá khó để phân biệt hai thứ này, để cho biết đâu là mô phỏng và đâu là thực. Chúng tôi di chuyển về phía một diễn viên đóng thế ảo.

Một bài báo về dự án, được đặt tên là DeepMimic, đã được xuất bản trên tạp chí ACM Trans. Đồ thị vào tháng Tám. Vào tháng 9, nhóm đã cung cấp dữ liệu chụp mã và chuyển động trên GitHub để những người khác thử.

Nhóm đã sử dụng các kỹ thuật học tập củng cố sâu để dạy hệ thống cách di chuyển. Nó lấy dữ liệu bắt chuyển động từ các màn trình diễn ngoài đời thực, đưa chúng vào hệ thống và thiết lập nó để thực hành các động tác trong một mô phỏng tương đương với cả tháng, luyện tập 24 giờ mỗi ngày. DeepMimic đã học được 25 động tác khác nhau như đá và nhảy lùi, so sánh kết quả của nó mỗi lần để xem mức độ gần với dữ liệu mocap ban đầu.

Không giống như các hệ thống khác có thể đã thử và thất bại nhiều lần, DeepMimic đã chia nhỏ bước thành một bước để nếu nó thất bại tại một thời điểm, nó có thể phân tích hiệu suất và điều chỉnh đúng lúc.

Khi các kỹ thuật này phát triển, tôi nghĩ chúng sẽ bắt đầu đóng một vai trò lớn hơn và lớn hơn trong các bộ phim. Nghịch đảo. Tuy nhiên, vì phim thường không tương tác, các kỹ thuật mô phỏng này có thể có tác động ngay lập tức hơn đến các trò chơi và VR.

Trên thực tế, nhân vật mô phỏng được đào tạo sử dụng học tăng cường đang tìm đường đến với các trò chơi. Các trò chơi Indie có thể là nơi thử nghiệm rất tốt cho những ý tưởng này. Nhưng có thể sẽ mất nhiều thời gian hơn trước khi chúng sẵn sàng cho các tựa game AAA, vì làm việc với các nhân vật mô phỏng đòi hỏi một sự thay đổi khá lớn từ các đường ống phát triển truyền thống.

Các nhà phát triển trò chơi đang bắt đầu thử nghiệm với các công cụ này. Một nhà phát triển đã quản lý để sử dụng DeepMimic trong công cụ trò chơi Unity:

Thưa quý vị, chúng tôi đã hoàn thành Backflip! Xin chúc mừng Ringo, còn gọi là StyleTransfer002.144 - sử dụng # unity3d + #MLAgents & #MarathonEnvs. StyleTransfer huấn luyện #ActiveRagoll từ dữ liệu MoCap hay còn gọi là Deepmimic http://t.co/gAGtYYeawE phiên #madewithunity pic.twitter.com/3iIoDsfdLe

- Gian hàng Joe (@iAmVidyaGamer) ngày 1 tháng 11 năm 2018

Bành hy vọng rằng việc phát hành mã sẽ tăng tốc độ áp dụng. Anh ấy cũng lưu ý rằng nhóm đã nói chuyện với một số nhà phát triển trò chơi và hãng phim hoạt hình về các ứng dụng có thể có của công việc này, mặc dù tôi có thể đi sâu vào quá nhiều chi tiết về điều đó.

Máy móc thường xuyên phải vật lộn với những động tác phức tạp, như đã được chứng minh bởi các robot chơi bóng đá nhẹ nhàng lăn trên cỏ thay vì hoàn thành bất kỳ động tác có chỉ số octan cao nào. Có dấu hiệu tiến bộ, như A.I. nắm bắt được sự phức tạp của các phong trào trong thế giới thực và bắt đầu sửa mình giống con người hơn.

Có lẽ một ngày nào đó DeepMimic có thể học được một động tác mới trong vài giây, tương tự như cách Neo học kung fu trong Ma trận.

Đọc tóm tắt dưới đây.

Mục tiêu lâu dài trong hoạt hình nhân vật là kết hợp đặc tả hành vi dựa trên dữ liệu với một hệ thống có thể thực hiện một hành vi tương tự trong một mô phỏng vật lý, do đó cho phép phản ứng thực tế với nhiễu loạn và biến đổi môi trường. Chúng tôi cho thấy các phương pháp học tăng cường (RL) nổi tiếng có thể được điều chỉnh để học các chính sách kiểm soát mạnh mẽ có khả năng bắt chước một loạt các clip chuyển động ví dụ, đồng thời học các phục hồi phức tạp, thích ứng với các thay đổi về hình thái và hoàn thành các mục tiêu do người dùng chỉ định. Phương pháp của chúng tôi xử lý các chuyển động có khung, các hành động rất năng động như lật và xoay chuyển động, và chuyển động được nhắm mục tiêu lại. Bằng cách kết hợp mục tiêu bắt chước chuyển động với mục tiêu nhiệm vụ, chúng ta có thể huấn luyện các nhân vật phản ứng thông minh trong cài đặt tương tác, ví dụ: bằng cách đi theo hướng mong muốn hoặc ném bóng vào mục tiêu do người dùng chỉ định. Cách tiếp cận này do đó kết hợp sự thuận tiện và chất lượng chuyển động của việc sử dụng các clip chuyển động để xác định kiểu dáng và diện mạo mong muốn, với tính linh hoạt và tổng quát có được của các phương pháp RL và hoạt hình dựa trên vật lý. Chúng tôi tiếp tục khám phá một số phương pháp để tích hợp nhiều clip vào quá trình học tập để phát triển các tác nhân đa kỹ năng có khả năng thực hiện một tiết mục phong phú gồm nhiều kỹ năng đa dạng. Chúng tôi chứng minh kết quả bằng cách sử dụng nhiều nhân vật (người, robot Atlas, khủng long hai chân, rồng) và rất nhiều kỹ năng, bao gồm vận động, nhào lộn và võ thuật.

$config[ads_kvadrat] not found