中大機構典藏-NCU Institutional Repository-提供博碩士論文、考古題、期刊論文、研究計畫等下載:Item 987654321/86132
English  |  正體中文  |  简体中文  |  全文笔数/总笔数 : 80990/80990 (100%)
造访人次 : 42148140      在线人数 : 842
RC Version 7.0 © Powered By DSPACE, MIT. Enhanced by NTU Library IR team.
搜寻范围 查询小技巧:
  • 您可在西文检索词汇前后加上"双引号",以获取较精准的检索结果
  • 若欲以作者姓名搜寻,建议至进阶搜寻限定作者字段,可获得较完整数据
  • 进阶搜寻


    jsp.display-item.identifier=請使用永久網址來引用或連結此文件: http://ir.lib.ncu.edu.tw/handle/987654321/86132


    题名: AdS/CFT Correspondence with Machine Learning
    作者: 黃建隆;Huang, Chien-Lung
    贡献者: 物理學系
    关键词: 反德西特/共形場論對偶;機器學習;強化學習;AdS/CFT Correspondence;Machine Learning;Reinforcement Learning
    日期: 2021-07-27
    上传时间: 2021-12-07 12:06:34 (UTC+8)
    出版者: 國立中央大學
    摘要: 在2018年的時候,Koji Hashimoto教授發表了一篇期刊[1],在期刊中他們用深度神經網絡(DNN)的結構來建構一個模型與AdS/CFT對偶性質做連結。在這篇論文中我們將以重建他們的模型為出發點,並討論在原模型下產生的諸多問題;接著在第三章節中,為了解決這些問題我們嘗試利用其他機械學習的模型來建構新的學習架構,在這個架構下我們期望能擺脫使用負面資料(negative data;因為我們發現這些資料並不能在實際面上被使用),因此使用強化學習(RL)的方式並以其他近似函數來作配合(深度神經網絡(DNN)、神經微分方程(Neural ODE)、或其他近似函數)。然而從一直以來的結果中我們發現:在這個問題框架下會有複數對應解的問題,也因此我們在後記中在不同的兩個層面上討論對未來發展上的改進。;In 2018 [1], Koji Hashimoto had presented a deep-neural-like model to connect with AdS/CFT correspondence. We tried to reconstruct his model, and found some problems about uncertainty. Therefore, we attempted to use other learning models to solve these problems. The alternate models consist of using the concepts from reinforcement learning, Neural ODE, and Deep Neural Network. For our goal, we expect to keep from using the negative data in learning because the acquisition will come across problems in experimental. However, the result shows that the problem is actually about the uniqueness of solution, and we provide further discussion and improvement.
    显示于类别:[物理研究所] 博碩士論文

    文件中的档案:

    档案 描述 大小格式浏览次数
    index.html0KbHTML108检视/开启


    在NCUIR中所有的数据项都受到原著作权保护.

    社群 sharing

    ::: Copyright National Central University. | 國立中央大學圖書館版權所有 | 收藏本站 | 設為首頁 | 最佳瀏覽畫面: 1024*768 | 建站日期:8-24-2009 :::
    DSpace Software Copyright © 2002-2004  MIT &  Hewlett-Packard  /   Enhanced by   NTU Library IR team Copyright ©   - 隱私權政策聲明