世界模型 World Models部分翻譯

本文對論文《world Models》的前半部分進行了翻譯,看過前半部分基本就了解結構了,我個人認為Schmidhuber還是一如既往地喜歡把小東西往宏大了說,當然也多虧了他起的題目,很多人對世界模型產生了濃厚的興趣。但本文的確不能說在世界模型方面有了飛躍的進步,只是將隱變量配合LSTM當作了世界模型,所以我不打算翻譯后半部分了。雖然現在大家對于時序問題還沒有太好的辦法,很多時候不得不靠LSTM,但LSTM絕對不是未來。

世界模型 World Models
David Ha, Jurgen Schmidhuber

摘要

我們研究在流行的強化學習環境中構建生成神經網絡。以監督的方式可以快速訓練我們的世界模型學會環境的壓縮空間和時間表征。將從世界模型中抽取的特征作為智能體的輸入,我們能訓練出一個非常緊湊簡單的指定任務解決策略。我們也能訓練智能體完全沉浸在自己的幻覺中基于它的世界模型做夢,并將策略遷移回實際環境中。

Read more

生成查詢網絡(GQN)的論文翻譯——場景的神經表征與渲染 Neural scene representation and rendering

本文對Deepmind最新成果GQN論文的主要部分進行了翻譯

場景的神經表征與渲染 Neural scene representation and rendering

S. M. Ali Eslami, Danilo Jimenez Rezende, Frederic Besse, Fabio Viola,
Ari S. Morcos, Marta Garnelo, Avraham Ruderman, Andrei A. Rusu, Ivo Danihelka,
Karol Gregor, David P. Reichert, Lars Buesing, Theophane Weber, Oriol Vinyals,
Dan Rosenbaum, Neil Rabinowitz, Helen King, Chloe Hillier, Matt Botvinick,
Daan Wierstra, Koray Kavukcuoglu, Demis Hassabis

 

摘要

場景表征——將視覺感受數據轉換成簡要描述的過程——是智能行為的一個基礎。近來的研究表明,當提供足夠大的標簽數據時,神經網絡在此方面表現優越。然而如何避免對標簽的依賴依然是個開放性問題。鑒于此,我們開發了產生式查詢網絡(Generative Query Network, GQN),在該框架內機器可以只依賴自己的感受器來學習表征。GQN接受從不同視角拍攝的場景圖片作為輸入,構建內部表征并使用該表征來預測從未觀察過的視角的場景圖像。GQN做到了不依賴標簽或領域知識的表征學習,向機器自動學習理解世界又邁進了一步。

Read more

香港最快报码开奖结果