14727| 66
|
[『編程語言』] 小象學(xué)院《深度學(xué)習(xí)》第五期 |
小象學(xué)院《深度學(xué)習(xí)》第五期 主講老師: 戎雪健, 美國紐約城市大學(xué)博士 研究領(lǐng)域包括深度學(xué)習(xí),計(jì)算機(jī)視覺,與圖像處理等,尤其是自然場景文字檢測與識別方向。在CVPR,ECCV等頂級會議上發(fā)表了多篇學(xué)術(shù)論文,同時(shí)他還是CVPR,ICCV,BMVC,WACV等重要視覺會議以及TMM,TIP,CVIU,JVCI等期刊的審稿人。 課程簡介: 本次的深度學(xué)習(xí)課程主要包括三大部分: 1) 深度學(xué)習(xí)核心原理。了解深度學(xué)習(xí)運(yùn)行的最核心數(shù)學(xué)原理,從而對后續(xù)的知識點(diǎn)擴(kuò)展,模型設(shè)計(jì),與優(yōu)化技能打下基礎(chǔ)。 2) 深度學(xué)習(xí)知識點(diǎn)連接。會涵蓋主流的深度學(xué)習(xí)研究工程應(yīng)用中碰到的大部分知識點(diǎn),與大部分學(xué)習(xí)資料孤立進(jìn)行知識點(diǎn)介紹不同,會結(jié)合主講人自身總結(jié)找到主要知識點(diǎn)之間的聯(lián)系,便于系統(tǒng)掌握與后續(xù)學(xué)習(xí)。 3) 介紹不同知識點(diǎn)的代表應(yīng)用。結(jié)合所學(xué)的原理以及實(shí)例,講解近期較為重要的圖像與語言領(lǐng)域的應(yīng)用,如增強(qiáng)學(xué)習(xí)(Reinforcement Learning),遷移學(xué)習(xí)(Transfer Learning),無監(jiān)督式學(xué)習(xí)(Unsupervised Learning)下的生成式對抗網(wǎng)絡(luò)(Generative Adverserial Networks, GANs),注意力機(jī)制模型(Attention Model)等, 方便學(xué)員針對自身興趣的目標(biāo)進(jìn)行強(qiáng)化訓(xùn)練提升。 面向人群: 1. 想了解和學(xué)習(xí)深度學(xué)習(xí)的學(xué)習(xí)者 2. 想學(xué)習(xí)了解深度學(xué)習(xí)的相關(guān)從業(yè)者 3. 未來想從事深度學(xué)習(xí)工作的求職者 學(xué)習(xí)收益: 通過本課程的學(xué)習(xí),學(xué)員將會收獲: 1. 幫助學(xué)員系統(tǒng)性的掌握深度學(xué)習(xí)的基本原理,結(jié)合近期研究成果,學(xué)習(xí)從基本概念到各個(gè)先進(jìn)模型的轉(zhuǎn)化思路 2. 了解研究過程中定義問題設(shè)計(jì)模型的思路 3. 實(shí)踐與理論結(jié)合,培養(yǎng)學(xué)員面對工程及學(xué)術(shù)問題的思考解決能力 4. 結(jié)合深度學(xué)習(xí)框架TensorFlow進(jìn)行實(shí)例訓(xùn)練,快速積累深度學(xué)習(xí)工程項(xiàng)目經(jīng)驗(yàn) 5. 對有興趣與科研需求的學(xué)員,提供輕量級深度學(xué)習(xí)框架PyTorch的講解與指導(dǎo) 開課時(shí)間: 2017年9月9日 學(xué)習(xí)方式: 在線直播,共10次課,每次2小時(shí) 每周2次(周六、日,晚上20:00 - 22:00) 直播后提供錄制回放視頻,可在線反復(fù)觀看,有效期1年 課程大綱: 第一課 深度學(xué)習(xí)總體介紹 1. 神經(jīng)網(wǎng)絡(luò):從傳統(tǒng)到現(xiàn)代 2. 深度學(xué)習(xí)應(yīng)用特點(diǎn) 3. 深度學(xué)習(xí)發(fā)展方向 4. 深度學(xué)習(xí)流行框架比較 (Caffe/Caffe2, MXNet, Theano, Keras, TensorFlow, Torch/PyTorch):用TensorFlow進(jìn)行課程實(shí)例學(xué)習(xí)與工程部署(對有興趣與科研需要的學(xué)員,額外講解用PyTorch進(jìn)行快速原型開發(fā)) 5. 實(shí)例:深度學(xué)習(xí)環(huán)境配置,TensorFlow基礎(chǔ)/進(jìn)階/示例,PyTorch基礎(chǔ) 第二課 傳統(tǒng)神經(jīng)網(wǎng)絡(luò) 1. 神經(jīng)網(wǎng)絡(luò)起源:線性回歸 2. 從線性到非線性:非線性激勵(lì) 3. 神經(jīng)網(wǎng)絡(luò)的構(gòu)建:深度廣度復(fù)雜度擴(kuò)展 4. 神經(jīng)網(wǎng)絡(luò)的“配件”:損失函數(shù),學(xué)習(xí)率,動量,過擬合等 5. 多層感知器(Multi-layer Perceptron) 6. 實(shí)例: 線性回歸與邏輯回歸模型 (TensorFlow, PyTorch) 第三課 卷積神經(jīng)網(wǎng)絡(luò) (Convolutional Neural Networks, CNNs) :基礎(chǔ)篇 1. 鏈?zhǔn)椒聪蛱荻葌鲗?dǎo) (Back Propagation) 2. 卷積神經(jīng)網(wǎng)絡(luò)-卷積層:正向反向推導(dǎo) 3. 卷積神經(jīng)網(wǎng)絡(luò)-功能層:激活函數(shù),降維,歸一化,池化,區(qū)域分割 4. 實(shí)例:簡單卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練與運(yùn)行 (TensorFlow, PyTorch) 第四課 卷積神經(jīng)網(wǎng)絡(luò) (Convolutional Neural Networks, CNNs) :高級篇 1. AlexNet:最早的現(xiàn)代神經(jīng)網(wǎng)絡(luò) 2. VGG,GoogleNet,ResNet,DenseNet: 近期的高級卷積網(wǎng)絡(luò)模型 3. U-Net:深度圖片生成網(wǎng)絡(luò) 4. 實(shí)例:利用預(yù)訓(xùn)練模型進(jìn)行物體分類/特征提取 (TensorFlow, PyTorch) 第五課 卷積神經(jīng)網(wǎng)絡(luò):目標(biāo)分類與識別 (Object Classification and Object Recognition) 1. 目標(biāo)分類與識別任務(wù)介紹 2. 傳統(tǒng)分類識別方法總結(jié) 3. ImageNet與PASCAL VOC數(shù)據(jù)庫 3. 遷移學(xué)習(xí)(Transfer Learning) 4. 個(gè)人研究分享:如何設(shè)計(jì)新的的網(wǎng)絡(luò) 5. 實(shí)例訓(xùn)練:物體識別/場景識別/文字識別 (TensorFlow) 第六課 卷積神經(jīng)網(wǎng)絡(luò):目標(biāo)檢測與追蹤 (Object Detection and Object Tracking) 1. 目標(biāo)檢測與追蹤任務(wù)介紹 2. 基于手動設(shè)計(jì)特征的傳統(tǒng)目標(biāo)檢測追蹤方法總結(jié) 3. 目標(biāo)檢測:RCNN,F(xiàn)ast-RCNN,F(xiàn)aster-RCNN, FPN系列 4. 目標(biāo)檢測:YOLO,SSD,YOLO9000系列 5. 目標(biāo)追蹤:Hierarchical Features, Tracking with FCNs系列 6. TensorFlow官方目標(biāo)檢測接口:Object Detection API 7. 個(gè)人研究分享:自然場景文本檢測識別領(lǐng)域的最新方法與動向 8. 實(shí)例:目標(biāo)檢測模型訓(xùn)練/部署 (TensorFlow) 第七課 卷積神經(jīng)網(wǎng)絡(luò):目標(biāo)分割 (Object Segmentation) 1. 目標(biāo)分割任務(wù)介紹 2. 傳統(tǒng)圖片分割方法總結(jié) 3. 全卷積網(wǎng)絡(luò) (Fully Convolutional Networks, FCNs) 4. 圖像語義分割(Image Semantic Segmentation) 5. 圖像實(shí)例分割(Image Instance Segmentation) 6. 目標(biāo)分割:FCIS, Mask-RCNN系列 7. 業(yè)界應(yīng)用:目標(biāo)分類/檢測/分割模型在自動駕駛與無人車中的應(yīng)用 8. 實(shí)例:目標(biāo)分割模型訓(xùn)練/部署 (TensorFlow) 第八課 循環(huán)神經(jīng)網(wǎng)絡(luò):(Recurrent Neural Network, RNN) 1. RNN基本原理 2. 改進(jìn)版RNN:門限循環(huán)單元(Gated Recurrent Unit, GRU) 3. 改進(jìn)版RNN:長短期記憶單元(Long Short Term Memory,LSTM) 4. 語言特征提。篧ord2Vec 5. 編碼器 + 解碼器結(jié)構(gòu):Encoder + Decoder 6. 注意力機(jī)制模型:Attention Model 7. 圖片標(biāo)注(Image Captioning):學(xué)會看圖說話,show and tell 8. 圖片問答(Visual Question Answering, VQA):學(xué)會看圖推理 9. 業(yè)界應(yīng)用:Language and Vision,語言文字與圖像的結(jié)合應(yīng)用 10. 實(shí)例:圖片標(biāo)注與圖片問答實(shí)例 (TensorFlow, PyTorch) 第九課 無監(jiān)督式學(xué)習(xí):(Unsupervised Learning) 1. 無監(jiān)督式學(xué)習(xí):以生成式模型(Generative Models)為例 2. 生成式對抗網(wǎng)絡(luò):(Generative Adversarial Networks, GANs) 3. DCGAN:GAN +深度學(xué)習(xí) 4. Conditional GAN: 生成圖片由我控制 5. InfoGAN: 無監(jiān)督找特征 6. Wasserstein GAN: 理論創(chuàng)新 7. 實(shí)例:Pix2Pix/CycleGAN 自定義圖片生成 (TensorFlow, PyTorch) 第十課 增強(qiáng)學(xué)習(xí):(Reinforcement Learning) 1. 增強(qiáng)學(xué)習(xí)基礎(chǔ) 2. DQN 深度增強(qiáng)學(xué)習(xí) 3. DQN 改進(jìn)模型 4. A3C模型: 高效游戲機(jī)器人 5. ELF模型:簡化版《星際爭霸》,人工智能游戲測試平臺 6. 實(shí)例: DQN用于Atari游戲?qū)W習(xí) (TensorFlow)
購買主題
本主題需向作者支付 666 資源幣 才能瀏覽
| |
相關(guān)帖子
|
|
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
小黑屋|資源共享吧 ( 瓊ICP備2023000410號-1 )
GMT+8, 2024-12-23 23:17 , Processed in 0.069071 second(s), 20 queries , MemCached On.