网上赌场给红利-网上赌场在线平台_百家乐平注常赢玩法更_全讯网香港赛马资讯 (中国)·官方网站

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

時間:2024-04-24 10:01    來源:     閱讀:

光華講壇——社會名流與企業家論壇第6504

Optimization and Generalization of Gradient Methods for Shallow Neural Networks淺層神經網絡的梯度方法優化與泛化

主講人香港大學 雷云文博士

主持人統計學院 林華珍教授

時間:4月26日 10:30-11:30

直播平臺及會議ID騰訊會議,670-601-110

主辦單位:統計研究中心和統計學院 科研處

主講人簡介:

雷云文是香港大學數學系的助理教授。他的主要研究興趣包括學習理論和優化,主要集中在算法穩定性分析、深度學習以及隨機優化等主題。

內容簡介

Neural networks have achieved impressive performance in various applications. In this talk, we discuss the optimization and generalization of shallow neural networks (SNNs). We consider both gradient descent (GD) and stochastic gradient descent (SGD) to train SNNs. We show how the optimization and generalization should be balanced to obtain consistent error bounds under a relaxed overparameterization setting. We improve the existing estimates on the weak-convexity parameter of SNNs along the trajectories of optimization process.

神經網絡在各種應用中已經取得了令人印象深刻的性能。在本次演講中,我們討論了淺層神經網絡(SNNs)的優化與泛化。我們考慮使用梯度下降(GD)和隨機梯度下降(SGD)來訓練SNNs。我們展示了如何在放松的超參數設置下平衡優化與泛化,以獲得一致的誤差界。我們改進了關于SNNs弱凸性參數在優化過程軌跡上的現有估計。

西南財經大學  版權所有 webmaster@swufe.edu.cn     蜀ICP備 05006386-1號      川公網安備51010502010087號
百家乐如何骗人| 院子围墙砌18还是24| 潜山县| 百家乐神仙道礼包| bet365提款限制| 免费百家乐官网过滤| 伟易博| 哪里有百家乐投注网| A8百家乐官网现金网| 喜力百家乐的玩法技巧和规则| 电脑版百家乐官网下注技巧| 太阳城77娱乐城| 模拟百家乐官网下载| 大发888casino下载| 百家乐稳赢玩法| 任你博百家乐官网现金网| 金城百家乐玩法平台| bet365 备用网址| 太阳城百家乐的破解| 百家乐官网双面数字筹码| 上海德州扑克俱乐部| 新加坡百家乐的玩法技巧和规则 | 百家乐赌场规则| 百家乐官网开户送彩金28| 德州扑克大赛视频| 百家乐桌布尼布材质| 百家乐官网白茫茫| 宝龙线上娱乐城| 百家乐赌场| 同花顺百家乐官网娱乐城| 百家乐官网有哪些注| 德州扑克哪个平台好| 基础百家乐规则| 百家乐娱乐人物| 总统百家乐官网的玩法技巧和规则 | 百家乐官网玩法及技巧| 桐庐棋牌世界| 百家乐的庄闲概率| 中华百家乐官网娱乐城| 百家乐官网娱乐城棋牌| 新皇冠娱乐城|