你的見解非常特別,keep up with the great work! 我是不知道這邊平常有多少人在接觸AI的技術,我算是有。 Sora有多可怕,就是大家都知道AI能生成影片,也在努力讓AI生成影片,但大家都是幼稚園小學生程度左右的時候,突然冒出了一個大學畢業生... 最可怕的不是Sora算出來的影片有多強,而是生成式AI才多久的時間已經能達到這樣的程度,甚至動畫生成也就是去年才開始有人做的,今天就出來一個完成度到這個程度的東西。 我早前用AI生成些影片,有空請看看及指教🙏 ruclips.net/video/roMGtyq_alw/видео.htmlsi=gWxfbD_E8MC8o7C4
用 ai 傾計,或者video ,對經濟供獻不大,甚至導至失業,反而用係產品設計,就唔同,譬如,我用文字寫,想要一個櫃,三層高,用掩門,白色,每層擺20公斤書本,共150高......,然後,電腦做出構圖,和所需零件,客人在去製造商釘造,諗下會多幾多製造工,所以,唔係乜都抖,要有定位。 講咗咁多,都係想中國好,但係而家香港就真係唔係好,23條可以未審,先冇限期拘留,國安又係咁,啲人坐幾年監,都未定罪,又閉門審,外面又唔知,直情嚇走晒外國人。嗰個局長,真係唔得㗎,抄佢啦
看需求是什麼,如果是加一些「特效」的話說不定短時間內這就能派上用場(這也是為什麼openAI會先邀請電影工作者來試用),尤其不是每個導演都像諾蘭要追求完全真實嘛,用 sora 來生特效我相信很大部分的電影都可能夠用了。至於除了特效之外,能不能配合劇情做生成,這個就要看這模型之後能支持多彈性的操作了,感覺還需要點時間去發展。
看了很多 Sora 的介紹,只有這邊提到技術原理,很讚。
謝謝!畢竟本身研究方向和這個高度相關,就加減來分享一下
Sora是個 悲劇 只是花俏 美國的電力 網路建設 遠遠不夠
Sora引起的AI戰爭中國美國誰會贏 電力和算力這兩個自己挖的坑填不上
ruclips.net/video/BK1hzVkc7uI/видео.html
這個核武器ai出現,不是只有影視虛構世界的生成,也將是真實3D世界的生成,建築、工業設計、商品設計、軍武…超越人類想像的產品將可以利用ai創造出來。
總算有比較深度說明原理的影片了,感謝🥹
謝謝捧場!
搭配圖片跟影片對門外漢來說就更好懂了,超讚的,推推!
謝謝捧場!
有時間去做這類替代人類本身可以完成的工作人工智能,不如去創造些福祉類,人類真正需要的人工智能。
很喜歡這個講解 期待更多分享👍🏻
謝謝捧場!
謝謝分享。聽到 OpenAI 產品不開源,認為應改為 ClosedAI 才適當。Google 更早也有發表 VideoPoet 的相似影片生成技術,兩家競爭,使用者更能受惠。
對啊,但目前他們品質的領先太過巨大,看看其他巨頭們能多快弭平這個差距了
话虽如此,但没人告诉你,Sora 到底经过多少遍的失误率才完成一个视频。
只要是Diffusion技术, 一张文生图也不会一次性生成完美的图片,更不用说是有由多侦副形成的动画了。
完全同意
目前使用生成式AI產出的使用者
絕對不會如此樂觀看待
殊不知生成一段完整無失誤的影片
需要多久試誤的時間
現行的文生圖已經可以利用後台的運作來篩選掉許多明顯異常的圖片,這一切只會是算力與優化的問題,時間站在AI那邊,除非人類自己先打起核戰
說的沒錯,但一來這個比較像是一個新的開端,技術方面的事總是能解決的,二來對使用者來說,只要他們能拿到好的結果,背後的各種處理和篩選都無所謂,這其實就給了平台方很大的處理空間,三來其實影片生成的難度不能想成的圖片的T倍,尤其是以transformer而言。總之反正在真的開放大家使用前,我們就看看熱鬧吧哈哈
最大的問題是database,這些檔案就不知道要幾台儲存裝置了
它是 transformer 不是 diffusion…
眼見為真,眼見為憑~走入歷史😂
和我的分析基本上一致,但用虚幻5生成训练数据我是没有想到的…这星期就开始学虚幻
真的,這也很有意思,用人工的東西來幫助模型學習世界,然後模型可能可以再反過來幫助人工的東西
很好的讲解,谢谢!
请问Sora是否有开放普通用户测试的时间表?或者说OpenAI是否有公布Sora大众应用的粗估的未来时间表?
據我所知截止目前還沒,只說還在評估。
有深度的解說, 值得訂閱!
謝謝!
stable diffusion已經很震驚了 現在還有個高品質的文字生成影片 好期待呀 🥵🥵
但這個對社群來說訓練門檻很高,不知道能不能有人或機構訓練出類似的品質開源QQ
@@ikura_AI sd已经很高了,估计这个pc想部署几乎不可能
0:23 國王的踏板
0:59 窗上反射的身影瞬間變型
1:03 狗狗前腳長到別隻身上
3:32 影像重疊後直接船頭變了船尾
杯理有這種浪更是不自然到誇張
11:09 這道路邏輯...
11:13 常常不知道要畫後腳還是背景
畫質乍看不錯, 但仔細看槽點不斷
跟 SD 一樣仍需大量後期處裡才能做出一定水準的作品
你的見解非常特別,keep up with the great work!
我是不知道這邊平常有多少人在接觸AI的技術,我算是有。
Sora有多可怕,就是大家都知道AI能生成影片,也在努力讓AI生成影片,但大家都是幼稚園小學生程度左右的時候,突然冒出了一個大學畢業生...
最可怕的不是Sora算出來的影片有多強,而是生成式AI才多久的時間已經能達到這樣的程度,甚至動畫生成也就是去年才開始有人做的,今天就出來一個完成度到這個程度的東西。
我早前用AI生成些影片,有空請看看及指教🙏
ruclips.net/video/roMGtyq_alw/видео.htmlsi=gWxfbD_E8MC8o7C4
謝謝! 嚴格來說算是厚積薄發啦,我自己在2016開始做圖片生成的研究,2017時也做過影片生成,但那時我們在生的東西都是像這樣的哈哈 --> www.cs.columbia.edu/~vondrick/tinyvideo/。然後這兩三年在資本的大力投入和研究社群的全力集火之下,進展速度快到跟鬼一樣
想問一下,你覺得有那些行業會被取代,現在需要去改變
付費素材庫是首當其衝,說書型RUclipsr不必再買現成影片,延伸現有影片的生成功能對於影視創作反而是很好用的工具。
以後也不必拍婚紗,新人的臉作為prompt放一下就生成美照很省事,而且還能照片轉影片。
覺得是插畫師、演員
@@myumi3628 技術成熟確實可行,prompt套用角色外型設定
講品質而不是質量就推
哈哈我有在注意
我覺得應該要有法律規範,必須在這種生成式影片加入資訊,能辨別是真實的還是生成的,不然未來世界會一團亂,眼見不能為憑。
沒錯,但麻煩的點在於,只要那些資訊是明確規範的,反方就會想辦法去規避掉那麼資訊,然後就必須再更新規範。其實就跟早期假鈔還有密碼學的發展類似,兩方會互相競爭和進步
接下来会不会影响midjourney的存在?
以后的游戏可能只需要在云端放个类sora模型,客户端只需要往终端输入参数然后等着返回画面就行
你可以想象一下 以后你想看成人影片的时候 哈哈哈 太疯狂了
專業解析,感謝分享!
謝謝🙏
不知道是我没听懂,还是你没讲明白,原理并没有搞清楚,我的感觉他是靠图形元素替换和视频叠加产生的,类似于抖音里的变脸,比如那个蹦跑的卡车,就是把卡车的3D模型,叠加到公路无人机拍摄的视角视频里,过渡场景也是如此,还有樱花和雪,就是雪叠加樱花树,樱花树本身也是3D,原图很可能只是电线杆
作者做了很多功课,谢谢你!
哈哈因為是本業倒是不太花時間
如果要我估,openai 的目的是把影像創作應用在文章理解上,即是可以比較不同文章,甚至做產品設計。可想像把網上資源化成影像來學習,會幾有威力。中國呢? 實在令人有點擔sam。
用 ai 傾計,或者video ,對經濟供獻不大,甚至導至失業,反而用係產品設計,就唔同,譬如,我用文字寫,想要一個櫃,三層高,用掩門,白色,每層擺20公斤書本,共150高......,然後,電腦做出構圖,和所需零件,客人在去製造商釘造,諗下會多幾多製造工,所以,唔係乜都抖,要有定位。
講咗咁多,都係想中國好,但係而家香港就真係唔係好,23條可以未審,先冇限期拘留,國安又係咁,啲人坐幾年監,都未定罪,又閉門審,外面又唔知,直情嚇走晒外國人。嗰個局長,真係唔得㗎,抄佢啦
後面有一句話講錯了,Open AI 其實本來是開源而且非營利的,某種層面來說就是做慈善的。後來才改變策略,變營利最大化,而且超級不開源。
對阿,我們學術小圈圈內幾年前就常開玩笑說它是 close AI。但話又說回來,假設他們是真心有以安全/倫理為主要考慮而不開源的話,那大家也沒話說,畢竟這東西(和一開始的dall-e)的殺傷力就擺在那。
所以stable diffusion 開源了,世界毀滅了嗎?社會禮崩樂壞了嗎?大方承認自己就是想寡佔盈利沒什麼好羞恥的,可恥的是邊盈利邊道貌岸然的在那表示這技術太危險只有我們 openAI 有資格掌握。
@@jerryjcw 不開源有什麼問題?
那怕他一開始就是為了搶走所以基層勞工工作都沒問題,他研究又沒向你要錢!
如果可以出現政治人物的拳擊擂台賽或是馬戲團表演的影片就好了
謝謝分享,辛苦了!❤
謝謝捧場
請問你的聲音也是AI生成的嗎
有使用 AI 去噪、讓音量均勻
比起一張張AI圖疊起來 這個靠譜不只一點 才一年多時間..
感覺可以拿這個技術做V皮了
沒錯,完全不用再考慮幀和幀之前的一致性了
How to add time into space patch ?
比較期待圖片轉影片,這樣瑟瑟不求人,只是在於兩體之間的互動會不會有問題,但是看到這個Sora對於漢堡等等的互動,看起來應該是不會有太大的問題😂
至於如果禎數不夠,則可以用原本就有的補禎技術進行修補,影片不夠清晰也是同理。
然後每次看到AI相關,一定會有酸民在留言嘴什麼AI好爛,一看就知道AI,AI沒有那麼厲害之類的無知屁話,先想想圖片AI什麼時候才出現的? 你以為很久嗎? 才一年欸,再者是影片AI,這類生成AI又是更短的時間就進步到如此程度,現在就是人類已知用火,正在讓火快速燃燒的更旺,在圖片AI出來之前,誰能想的到未來的某天AI繪圖已經可以到一個很強的水準了? 這些東西用的好不好在於使用者,之前看過FB大神的作品,確實非常厲害,而且是一位已經用AI再接案子的大神,我自己也有碰,但我真的菜太多了,還需多學習。
我非常期待今後生成影片AI的進步,或許未來的某天,就可以自己生成動畫作品,配音方面則可以利用AI訓練聲音再讓他配音,雖然需要有個原音源讓他轉成需要的聲音,所以需要有人配音,但換個方法,也可以利用那些厲害的文字轉聲音的工具,轉完聲音後再讓它聲音轉聲音即可。
現在生成式圖片AI可以訓練模型讓AI去對特定的物體做訓練來實際應用,相信未來若影片AI發布,我相信也會有人能做出這樣給人訓練模型讓大模型理解並輸出,不然現在只能先用靜態圖片轉影片的方式才能實現這點了。
感謝你的留言!
-- 互動方面的確還有待驗證,他們的報告中也提到還是會有不少物理上不對的情況,像是咬了漢堡,過幾秒它又長回來。但我相信這總能解決的
-- 圖片和影片AI其實沒那麼新啦哈哈,我自己從2016就開始做圖像生成的研究,也是一路上一直被問「所以這種東西能幹麻」,一直到 dall-e和 stable diffusion 的出現,所以也算是一個厚積薄發。大家看到新東西本來就會帶有批判性,由其是這個威脅到人類本身能力的。但這些就交給時間來證明一切囉
-- 動畫一條龍確實有可能,至少在這個原畫師畫力通膨,一堆畫師都跟鬼一樣但$$拿很少的時代,如果能一定程度上,不一定要取代,而是幫助到創作流程,我覺得就很不錯了
@@ikura_AI 我知道圖片和影片沒那麼新,我指的是一個門檻的跨越,現在的圖片和影片對我來說才是真正的開始實現AI起飛的時刻,就好比以前就有的圖片自動上色AI,但那時就只是玩玩的東西,完全和現在不能相比,現在是只要夠厲害的人,就能拿來利用輔助、賺錢。
影片這方面我是真的非常期待,我也相信未來的某天,我說的事情是會實現了,就是時間的問題而已,到那時就又能變成大家相互交流,看誰產出的影片更有質感更能吸引人,不一定要把這些東西當成賺錢的工具,拿來實現自己的夢想也是非常好的! 就像現在的圖片一樣,我也有自己的原創角色,我也拿去訓練模型,相較之下,真的會輕鬆很多,不是拿來營利,而是拿來滿足自己的喜好。
所以 做VR的公司都白干了? 比如, vision pro?
我個人覺得相反欸,因為之前要訓練 3D/4D 的一個很大的問題在於 data,而現在 sora 的品質看起來是非常有機會以某種型式當做 3D/4D 的訓練資料的,所以各種 AR/VR 反而會受惠。
@@ikura_AI sora 本身没有data, 只是一个算法。但是比现在所有的AR/VR 的算法都好, 这不是抢了生意?
昨晚我遇到了一位漂亮的紅衣女鬼,sora可以幫我生成影片嗎?
以前工业化革命的时候,农民的感觉有多沮丧。现在我们就是这些农民,体会被AI技术淘汰的feel……
哈哈完全理解。我的意思只是說,理解大家會想批評和挑毛病這種改革性的新科技,但假設大家同意它很可能會是歷史性的發明的話,不妨採取一個更泰然的欣賞角度
在還沒自己實測之前.我覺得保留一些評估比較好.常見業者過份誇大產品效果.
完全沒錯。但主要是跟之前差別太過巨大,就算結果是千挑萬選的也還是很驚人。我們就等著看他們什麼時候給大家玩囉
latent space是不是可以理解成像word2vec產生的詞向量?然後他加躁加到這個向量上?
我覺得這個類比理解問題不大,小小的不一樣是word2vec的每個字獨立encode,這邊則是整個HxWxT 去encode 後再拆成patch。但以latent 來說精神是一樣的,就是以一個更compact的低維空間來表示原來的資料
這個應用會再推高 NVIDIA 的股價 !
哈哈,但目前因為不開源一般人和單位使用不到,短期內應該不會像LLM初期那樣引起一波大漲。nv快發財報了,等著看老黃會說什麼!
國際要是再不規範強制這些生成軟體,出來的圖、影片必須有辨別標籤,這些東西一定會有負面生成影響社會的有心人,新科技是好事但也可能變成武器。
完全正確,而且影片的殺傷力又會比圖片高很多,所以說不定現在不開源真的是正確的選擇(就算不考慮商業利益)
感謝介紹!
謝謝!
已開放可以使用sora了嗎, 該如何入門?
還不行哦,目前只能在Twitter上和作者們互動。他們說目前還在做各種安全性的評估,第一階段只有給一設計師和影視工作者試用來獲取回饋。之後看看會以什麼樣的形式面向大眾
@@ikura_AI 謝謝, 很期待!
Good vid. Subscribed.
謝謝!
讲解非常详细
謝謝🙏
其實說真的AI的未來絕對不是這種純AI自身創作的形式
AI真正有用的地方是如何利用一個可信的物理引擎或者任何工具來達成目的
這個在很多業界都早就已經完美執行在很多特定地方
未來這種圖像生成AI的未來絕對在於如何自動的使用更加高效的圖片生成工具,而不是自己生成
OPENAI如今使用這種土炮方式生成影片真正的目的不是畫圖或者影片
真正的目的是讓他們的AI理解真實世界人類認為的運作方式
而最快檢驗的方式不是用AI來理解AI
而是讓AI來理解人類的需求
沒錯,更重要的是之後的協作方式,以及這個模型多大程度的理解這個世界並可能反過來幫助其他東西的訓練。
@@ikura_AI
等到ai真的能夠以人類的需求認識事物的時候
真的可以做到ai單純用學習來使用其他工具
而不是像現在是用目的導向的訓練
謝謝分享!
謝謝!
怎样用他们做电影🎬?
我確信這些日新月異的技術在未來最大的受惠群是資本家以及政府與政客,訊息真假也將完全失去界線
總有一天 人們的手機也許也可以隨時製作起一部電影也不為過
這是我當年phd初期的目標,沒想到竟然已經快有機會達到了
让我想到了盗梦空间的造梦师,哈哈哈哈哈
受教!谢谢分享
感謝分享
謝謝🙏
把整本小說丟去給ai讀 叫他生成一部兩小時的電影
不知道會長怎樣~~XD
会惨不忍睹
目前還不行.但看起來進步速度很快.應該很快能做到.
這是我當年開始做這方面研究的最終目標。當初覺得這輩子大概看不到,沒想到現在看起來是如此有機會
放心,肯定是昙花一现罢了,这辈子也还是看不到@@ikura_AI
Hollywood or Bollywood 可以執笠,少男少女少發明星夢丿
已有人提到黑人市集小孩的手指不對(AI畫常見錯誤),另外東京女子走路時左右腳互換、貓在床上摸主人多了一隻腳等等技術問題,不知在AI影片會不會變常態
這種錯誤在圖片生成端已經被解決到一定程度了,我相信影片端也是遲早,由其是在人體上面說不定會有特化的模型出現,畢竟人對人體的不對勁太敏感了
指正一个错误。
OpenAI是非盈利性组织,创立的时候就明确有义务开源的。
之所以现在不开源,是背弃了自己的承诺。
首先,就算是完全非營利,也不存在什麼「義務」。他們的宗旨在於「以有利於社會的方式推動AI,不以金錢為導向」,所以如果他們認定開源有害社會,嚴格說來也不違初衷。再來當他們2019 設立上限利潤的OpenAI LP之後,應該就沒人把他當非營利了,你都能投資拿回報了對吧
那以后电影特效都用sora了?
不可能,电影细节太重要了,这种生成式几乎不可能有正确的细节,还是在炼丹,估计作用就是用来给创作者灵感的,就是,想要做一个A到B的剧情,不知道怎么做好,于是用AI无数遍模拟,然后找到喜欢的,再人工解决。
看需求是什麼,如果是加一些「特效」的話說不定短時間內這就能派上用場(這也是為什麼openAI會先邀請電影工作者來試用),尤其不是每個導演都像諾蘭要追求完全真實嘛,用 sora 來生特效我相信很大部分的電影都可能夠用了。至於除了特效之外,能不能配合劇情做生成,這個就要看這模型之後能支持多彈性的操作了,感覺還需要點時間去發展。
當工具效率可以飛躍式成長
AI合成照片影片大幅氾濫的結果,是加深了人類對AI的抵制與人類彼此不信任的加深。很可能是AI資料影片的自尋死路。
新的革命性東西一出來短期內一定是這樣的,就看長期會發展成怎樣囉
這些影片或是圖片生成的學習資料庫一定都是未經授權的網路資源....也就是這些公司全都是無恥的擅自利用別人的影片來養成自己的生成AI....這最後一定會有人提起訴訟的,只是生成影片你從結果來看很難看出她到底盜取了多少人的心血結晶罷了,但最後我相信一定會有內部員工出來爆料他們的東西之所以這麼神,就是因為可以無止境的盜取網路上創作者的資源加以利用的關係~這世界上不會有無中生有這件事情.......他一定會有一些基本構成元素是從人類的創作來的,或取越多元素,它進步的速度自然越快
stable diffusion 確實是。但現在大公司自己的新模型都是使用授權資料了,這也是過去這兩年各大團隊以及法務在做的事情。因為出事的成本太高,只要資料中有一點有問題,所有有使用該資料訓練的模型以及相關的服務都會被影響,所以不論像是 Nvidia、Google、Meta 等等都很早就不再使用也不准研究團隊使用公開的或甚至只是「可能」有問題的網路資源了。
我就搞不懂了,既然sora这么厉害,那么dall e怎么弱爆了的感觉
我覺得dall-e 3非常厲害阿
人才
以后假新聞只會越來越多吧。再怎麼強也是影片而己啦又不會跳出來找你玩不用大驚小怪啦。只是創意性工作又被AI取代了。所以咱從國小到大學畢要花16年還領低薪? 基至没工作可做了?就學即失業?那還讀書幹嘛?教育養成時間應再改革吧這應是政府要規畫的事了。再看看咱們立法院那些還活在20世紀爭權奪利的各黨大老們。你覺得他們懂這些新科技嗎?所以青年朋友們還是想辦法靠自己吧。天助自助者老天爺也會保佑自助者的。
是不是可以用patches來模擬文字生成模型的token??
沒錯哦,這就是把圖像和transformer結合的典型方法。最早由 an image is worth 16x16 words 這篇提出的ViT
今后要明星上三级片再无难度了!不是简单的贴头就可以了!
沒錯,對一些不到大電影品質要求的影片,搭配上現有的個人化技術,已經非常有機會做到了。這也是如果開源了之後一定會遇到的惡意運用
为了分析而分析
为了流量而分析
为了资金而分析
三个维度分析同一段行情会得出三种结论,而观众本身怎么也处于三个维度之中,那里外里,九种维度。
那著作權呢~要打官司嗎!?
這個就是麻煩的地方,而且各國的法律都不一樣,每個月可能也都不一樣所以大公司們的法務們這一兩年都大崩潰
就是訓練ChatGPT去使用Unreal engine
如果整套流程能利用chatGPT完全自動化將會非常驚人
掺杂了CGI、XML和JavaScript的概念及技术。
發芬...
哪尼
看看最火的视频有哪个是生成的?
難怪三上要退休了
原諒我是個偽善的人~讓SORA打倒AV市場才是對那些拍AV的大部份人(不是最top的)一個好的結果,
當然若她們還是要跑去賣身那也沒有辦法。
下一個nvda果然還是nvda
$$$$$$$$$
這個根本不是AI。連圖靈測試都不會過
這個是實用性的議題,扯圖靈測試做啥
这样的话,av女优就真的是夕阳行业了吧
摄影师失业了?
你说你的,我肯定是懂不了了。
up有點東西,趁人少訂閱了
謝謝捧場!
av女優很快也要失業了
這部也很openai
講了什麼 但其實食麼也沒講
其實講了不少唷!他把 OpenAI 的技術報告言簡意賅介紹出來,當然像作者說的「需要具備一些前置知識」才知道精華在哪
@@YWCTech 所以頻道ta是誰 門外漢還是門道人?來這就是要聽乾貨啊
@@YWCTech講了不能直接使用講再多等於沒講
哈哈,對圈內人來說的確沒講什麼。頻道TA嘛… 大部分影片主要是對對這些有興趣、可能具有初步了解但又不直接是圈內人,這樣的一群模糊不清的TA哈哈。我們一直有在考慮要講一些真的技術細節、面向專業受眾的內容,而且專業技術的影片對我來說反而是好做的… 如果需求夠大我們也許會考慮出一些比較深度的來試試水溫。
就炒作,這有什麼鳥用跟商業價值?
我們就一兩年後再回過頭看你這個留言囉
蠢不是問題 蠢還要讓大家知道就有點好笑了
廣告業 跟 影視業會用
卡個第一排坐等笑料
拜託千萬不要刪掉🥹 光是這個出來,就想到一堆商機跟可能取代基礎人力了
人類要天馬行空想法
天网来啦,人类要完蛋啦,哈哈哈哈哈哈哈哈
生成的都是不吸引人的,
ADOBE公司要縮水了。
这一分钟成本多少?
這就要看他們會不會公布運算細節了。我比較好奇整個project的訓練和試錯過程中到底燒掉了多少$$.....我們自己有在做 video foundation model 的完全可以想像要嘗試的變數和不同的實作方法有多少種