中大機構典藏-NCU Institutional Repository-提供博碩士論文、考古題、期刊論文、研究計畫等下載:Item 987654321/86132
English  |  正體中文  |  简体中文  |  全文筆數/總筆數 : 80990/80990 (100%)
造訪人次 : 42455795      線上人數 : 909
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜尋範圍 查詢小技巧:
  • 您可在西文檢索詞彙前後加上"雙引號",以獲取較精準的檢索結果
  • 若欲以作者姓名搜尋,建議至進階搜尋限定作者欄位,可獲得較完整資料
  • 進階搜尋


    請使用永久網址來引用或連結此文件: http://ir.lib.ncu.edu.tw/handle/987654321/86132


    題名: AdS/CFT Correspondence with Machine Learning
    作者: 黃建隆;Huang, Chien-Lung
    貢獻者: 物理學系
    關鍵詞: 反德西特/共形場論對偶;機器學習;強化學習;AdS/CFT Correspondence;Machine Learning;Reinforcement Learning
    日期: 2021-07-27
    上傳時間: 2021-12-07 12:06:34 (UTC+8)
    出版者: 國立中央大學
    摘要: 在2018年的時候,Koji Hashimoto教授發表了一篇期刊[1],在期刊中他們用深度神經網絡(DNN)的結構來建構一個模型與AdS/CFT對偶性質做連結。在這篇論文中我們將以重建他們的模型為出發點,並討論在原模型下產生的諸多問題;接著在第三章節中,為了解決這些問題我們嘗試利用其他機械學習的模型來建構新的學習架構,在這個架構下我們期望能擺脫使用負面資料(negative data;因為我們發現這些資料並不能在實際面上被使用),因此使用強化學習(RL)的方式並以其他近似函數來作配合(深度神經網絡(DNN)、神經微分方程(Neural ODE)、或其他近似函數)。然而從一直以來的結果中我們發現:在這個問題框架下會有複數對應解的問題,也因此我們在後記中在不同的兩個層面上討論對未來發展上的改進。;In 2018 [1], Koji Hashimoto had presented a deep-neural-like model to connect with AdS/CFT correspondence. We tried to reconstruct his model, and found some problems about uncertainty. Therefore, we attempted to use other learning models to solve these problems. The alternate models consist of using the concepts from reinforcement learning, Neural ODE, and Deep Neural Network. For our goal, we expect to keep from using the negative data in learning because the acquisition will come across problems in experimental. However, the result shows that the problem is actually about the uniqueness of solution, and we provide further discussion and improvement.
    顯示於類別:[物理研究所] 博碩士論文

    文件中的檔案:

    檔案 描述 大小格式瀏覽次數
    index.html0KbHTML111檢視/開啟


    在NCUIR中所有的資料項目都受到原著作權保護.

    社群 sharing

    ::: Copyright National Central University. | 國立中央大學圖書館版權所有 | 收藏本站 | 設為首頁 | 最佳瀏覽畫面: 1024*768 | 建站日期:8-24-2009 :::
    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 隱私權政策聲明