39233| 176
|
[『編程語言』] 深度學習與PyTorch入門實戰(zhàn)教程 |
深度學習與PyTorch入門實戰(zhàn)教程
完整版價值 399 本課程適合于深度學習和人工智能方向新手,需要零基礎、快速、深入學習人工智能的朋友。 課程概述 前新加坡國立大學(亞洲排名第一)的助理研究員龍龍老師主講,幫助人工智能、深度學習初學者快速、深刻理解深度學習算法原理與實踐。 【莫煩老師】權威推薦:在教學中,龍龍老師以簡短高效的方式,從深度學習的多個角度向我們展開了論述,非常適合想對深度學習有全方位了解的朋友。 【PyTorch中文網(wǎng)】:講解簡單易懂、由淺入深,是一門值得推薦的課程。 課程特色: 1. 通俗易懂,快速入門 對深度學習算法追本溯源、循序漸進式講解,學員不需要任何機器學習基礎,只需要寫過代碼即可輕松上手。 2. 實用主導,簡單高效 使用新手最容易掌握的深度學習框架PyTorch實戰(zhàn),比起使用TensorFlow的課程難度降低了約50%,而且PyTorch是業(yè)界最靈活,最受好評的框架。 3. 案例為師,實戰(zhàn)護航 基于計算機視覺和NLP領域的經(jīng)典數(shù)據(jù)集,從零開始結合PyTorch與深度學習算法完成多個案例實戰(zhàn)。 目錄 章節(jié)1:深度學習初見 課時1深度學習框架簡介09:07 課時2PyTorch功能演示11:09 章節(jié)2:開發(fā)環(huán)境安裝 課時3開發(fā)環(huán)境安裝(簡介)12:40 章節(jié)3:回歸問題 課時4簡單回歸問題-109:09 課時5簡單回歸問題-214:44 課時6回歸問題實戰(zhàn)08:43 課時7分類問題引入-107:16 課時8分類問題引入-209:19 課時9手寫數(shù)字識別初體驗-106:09 課時10手寫數(shù)字識別初體驗-206:35 課時11手寫數(shù)字識別初體驗-307:02 課時12手寫數(shù)字識別初體驗-408:05 課時13手寫數(shù)字識別初體驗-508:16 章節(jié)4yTorch基礎教程 課時14張量數(shù)據(jù)類型-109:56 課時15張量數(shù)據(jù)類型-214:07 課時16創(chuàng)建Tensor-110:46 課時17創(chuàng)建Tensor-212:59 課時18索引與切片-112:10 課時19索引與切片-211:30 課時20維度變換-107:37 課時21維度變換-210:01 課時22維度變換-307:52 課時23維度變換-410:23 章節(jié)5yTorch進階教程 課時24Broadcasting-108:46 課時25Broadcasting-211:35 課時26Broadcasting-306:11 課時27合并與分割-110:43 課時28合并與分割-206:36 課時29數(shù)學運算-107:39 課時30數(shù)學運算-208:54 課時31屬性統(tǒng)計-110:41 課時32屬性統(tǒng)計-211:34 課時33高階操作16:05 章節(jié)6:隨機梯度下降 課時34什么是梯度-110:19 課時35什么是梯度-214:16 課時36常見函數(shù)的梯度07:18 課時37激活函數(shù)與Loss的梯度-113:52 課時38激活函數(shù)與Loss的梯度-208:52 課時39激活函數(shù)與Loss的梯度-306:46 課時40激活函數(shù)與Loss的梯度-411:57 課時41感知機的梯度推導-113:35 課時42感知機的梯度推導-213:16 課時43鏈式法則11:31 課時44反向傳播算法-112:44 課時45反向傳播算法-207:01 課時46優(yōu)化問題實戰(zhàn)08:54 章節(jié)7:神經(jīng)網(wǎng)絡與全連接層 課時47Logistic Regression14:12 課時48交叉熵-106:42 課時49交叉熵-209:08 課時50交叉熵-304:51 課時51多分類問題實戰(zhàn)08:26 課時52全連接層13:59 課時53激活函數(shù)與GPU加速11:37 課時54MNIST測試實戰(zhàn)12:01 課時55Visdom可視化13:08 章節(jié)8:過擬合 課時56過擬合與欠擬合14:24 課時57交叉驗證-111:46 課時58交叉驗證-207:38 課時59Regularization11:21 課時60動量與學習率衰減13:57 課時61Early stopping, dropout等14:20 章節(jié)9:卷積神經(jīng)網(wǎng)絡CNN 課時62什么是卷積-112:58 課時63什么是卷積-208:47 課時64卷積神經(jīng)網(wǎng)絡-111:19 課時65卷積神經(jīng)網(wǎng)絡-211:11 課時66卷積神經(jīng)網(wǎng)絡-308:43 課時67池化層與采樣10:53 課時68BatchNorm-105:40 課時69BatchNorm-212:32 課時70BatchNorm-307:33 課時71經(jīng)典卷積網(wǎng)絡 LeNet5,AlexNet, VGG, GoogLeNet-109:18 課時72經(jīng)典卷積網(wǎng)絡 LeNet5,AlexNet, VGG, GoogLeNet-209:43 課時73ResNet與DenseNet-112:03 課時74ResNet與DenseNet-210:21 課時75nn.Module模塊-110:17 課時76nn.Module模塊-208:56 課時77數(shù)據(jù)增強12:53 章節(jié)10:CIFAR10與ResNet實戰(zhàn) 課時78CIFAR10數(shù)據(jù)集介紹10:07 課時79卷積神經(jīng)網(wǎng)絡實戰(zhàn)-110:07 課時80卷積神經(jīng)網(wǎng)絡實戰(zhàn)-210:04 課時81卷積神經(jīng)網(wǎng)絡訓練10:04 課時82ResNet實戰(zhàn)-110:11 課時83ResNet實戰(zhàn)-210:11 課時84ResNet實戰(zhàn)-307:31 課時85ResNet實戰(zhàn)-410:07 課時86實戰(zhàn)小結12:49 章節(jié)11:循環(huán)神經(jīng)網(wǎng)絡RNN&LSTM 課時87時間序列表示方法14:57 課時88RNN原理-109:55 課時89RNN原理-209:39 課時90RNN Layer使用-109:42 課時91RNN Layer使用-209:01 課時92時間序列預測實戰(zhàn)13:27 課時93梯度彌散與梯度爆炸12:50 課時94LSTM原理-109:01 課時95LSTM原理-210:53 課時96LSTM Layer使用08:44 課時97情感分類問題實戰(zhàn)15:15 章節(jié)12:遷移學習-實戰(zhàn)寶可夢精靈 課時98Pokemon數(shù)據(jù)集12:30 課時99數(shù)據(jù)預處理12:20 課時100自定義數(shù)據(jù)集實戰(zhàn)-106:49 課時101自定義數(shù)據(jù)集實戰(zhàn)-208:42 課時102自定義數(shù)據(jù)集實戰(zhàn)-311:04 課時103自定義數(shù)據(jù)集實戰(zhàn)-409:58 課時104自定義數(shù)據(jù)集實戰(zhàn)-511:28 課時105自定義網(wǎng)絡09:45 課時106自定義網(wǎng)絡訓練與測試07:37 課時107自定義網(wǎng)絡實戰(zhàn)07:39 課時108遷移學習05:35 課時109遷移學習實戰(zhàn)10:09 章節(jié)13:自編碼器Auto-Encoders 課時110無監(jiān)督學習10:02 課時111Auto-Encoder原理10:12 課時112Auto-Encoder變種09:59 課時113Adversarial Auto-Encoder10:08 課時114變分Auto-Encoder引入10:12 課時115Reparameterization trick10:05 課時116變分自編碼器VAE11:03 課時117Auto-Encoder實戰(zhàn)-110:01 課時118Auto-Encoder實戰(zhàn)-210:10 課時119變分Auto-Encoder實戰(zhàn)-105:55 課時120變分Auto-Encoder實戰(zhàn)-206:37 章節(jié)14:對抗生成網(wǎng)絡GAN 課時121數(shù)據(jù)的分布09:11 課時122畫家的成長歷程13:04 課時123GAN原理10:01 課時124納什均衡-D09:57 課時125納什均衡-G13:42 課時126JS散度的缺陷16:36 課時127EM距離09:57 課時128WGAN與WGAN-GP15:43 課時129GAN實戰(zhàn)-GD實現(xiàn)09:58 課時130GAN實戰(zhàn)-網(wǎng)絡訓練17:24 課時131GAN實戰(zhàn)-網(wǎng)絡訓練魯棒性09:46 課時132WGAN-GP實戰(zhàn)16:17 章節(jié)15:選看:Ubuntu開發(fā)環(huán)境安裝 課時133Ubuntu系統(tǒng)安裝10:01 課時134Anaconda安裝10:10 課時135CUDA 10安裝10:10 課時136環(huán)境變量配置10:05 課時137cudnn安裝10:14 課時138PyCharm安裝與配置10:59 章節(jié)16:選看:人工智能發(fā)展簡史 課時139生物神經(jīng)元結構04:06 課時140感知機的提出10:07 課時141BP神經(jīng)網(wǎng)絡10:07 課時142CNN和LSTM的發(fā)明10:19 課時143人工智能的低潮10:07 課時144深度學習的誕生10:13 課時145深度學習的繁榮12:13 章節(jié)17:選看:Numpy實戰(zhàn)BP神經(jīng)網(wǎng)絡 課時146權值的表示10:05 課時147多層感知機的實現(xiàn)10:18 課時148多層感知機前向傳播10:06 課時149多層感知機反向傳播10:10 課時150多層感知機反向傳播-210:06 課時151多層感知機反向傳播-310:18 課時152多層感知機的訓練10:24 課時153多層感知機的測試12:06 課時154實戰(zhàn)小結
購買主題
本主題需向作者支付 666 資源幣 才能瀏覽
| |
相關帖子
|
|
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
小黑屋|資源共享吧 ( 瓊ICP備2023000410號-1 )
GMT+8, 2024-12-23 17:39 , Processed in 0.084314 second(s), 26 queries , MemCached On.