5918| 20
|
傳智播客Hadoop7天培訓(價值2000元)(非吳超7天) |
傳智播客Hadoop7天培訓(價值2000元)(非吳超7天)
hadoop版本2.2.0,在黑馬教室講課,老師親自錄屏,畫質清晰,聲音清楚。請注意:不是吳超7天課程 特別說明:VIP免幣下載,普通會員用金幣下載 課程介紹: 課程中會貫穿一個電信項目的例子講個各個知識點。最后會用黑馬論壇日志作為項目講述。本次課程不加入特別綜合的大型的hadoop項目。 適用人群:hadoop零基礎,或者轉行做hadoop的人士。 預期目標:通過該課程的學習,我期望達到以下三個目標: 1、對hadoop、zookeeper、hbase、hive、sqoop、flume、pig的理論體系有個系統(tǒng)掌握,對核心知識能夠掌握;閱讀市面上的各種圖書和各種文章不再有困難; 2、能夠在linux環(huán)境搭建hadoop、hbase等的偽分布和分布模式,進入公司后可以自己搭建環(huán)境; 3、能夠使用java語言、shell命令行兩種方式操作hadoop、zookeeper、hbase、hive、sqoop等,進入公司可以直接上手工作,不需要二次培訓。 課程時長:初級班414分鐘,中級班408分鐘,高級版322分鐘,項目實戰(zhàn)221分鐘?傉n時1365分鐘,是全國hadoop網絡培訓課時最長的。 培訓效果:本課程已經非常適合零基礎入門和提高,能夠讓僅具有java基礎的大學畢業(yè)生可以上手工作。 課程安排: 01) Linux基礎操作 本節(jié)講解linux基礎操作,主要是在命令行下進行文件系統(tǒng)的操作,這是hadoop學習的基礎,后面的所有視頻都是基于linux操作的。鑒于很多學員沒有l(wèi)inux基礎,特增加該內容。 02) 搭建偽分布實驗環(huán)境 本節(jié)是最基本的課程,屬于入門級別,主要講述在linux單機上面安裝hadoop的偽分布模式,在linux集群上面安裝hadoop集群。對于不熟悉linux的同學, 課程中會簡單的講解常用的linux命令。這兩種是必須要掌握的。通過現(xiàn)在的教學發(fā)現(xiàn),很多同學并不能正確的配置集群環(huán)境。 知識點簡單羅列: Hadoop概念、版本、歷史 Hadoop和核心組成介紹及hdfs、mapreduce體系結構 Hadoop的集群結構 Hadoop偽分布的詳細安裝步驟 如何通過命令行和瀏覽器觀察hadoop 03) 介紹HDFS體系結構及shell、java操作方式 本節(jié)是對hadoop核心之一——hdfs的講解。hdfs是所有hadoop操作的基礎,屬于基本的內容。對本節(jié)內容的理解直接影響以后所有課程的學習。在本節(jié)學習中,我們會講述hdfs的體系結構,以及使用shell、java不同方式對hdfs的操作。在工作中,這兩種方式都非常常用。學會了本節(jié)內容,就可以自己開發(fā)網盤應用了。在本節(jié)學習中,我們不僅對理論和操作進行講解,也會講解hdfs的源代碼,方便部分學員以后對hadoop源碼進行修改。最后,還要講解hadoop的RPC機制,這是hadoop運行的基礎,通過該節(jié)學習,我們就可以明白hadoop是怎么明白的了,就不必糊涂了,本節(jié)內容特別重要。 知識點簡單羅列: Hdfs體系結構詳述 NameNode、DataNode、SecondaryNameNode體系結構 如果保證namenode的高可靠 Datanode中block的劃分原理和存儲方式 如何修改namenode、datanode數據存儲位置 如何使用命令行操縱hdfs 如何使用java操作hdfs 介紹rpc機制 通過查看源碼,知曉hadoop是建構在rpc之上的 通過查看hdfs源碼,知曉客戶端是如何與Namenode通過rpc通信的 04) 介紹MapReduce體系結構及各種算法(1) 本節(jié)開始對hadoop核心之一——mapreduce的講解。mapreduce是hadoop的核心,是以后各種框架運行的基礎,這是必須掌握的。在本次講解中,掌握mapreduce執(zhí)行的詳細過程,以單詞計數為例,講解mapreduce的詳細執(zhí)行過程。還講解hadoop的序列化機制和數據類型,并使用自定義類型實現(xiàn)電信日志信息的統(tǒng)計。 知識點簡單羅列: Mapreduce原理 Mapreduce執(zhí)行的八大步驟 詳細講述如何使用mapreduce實現(xiàn)單詞計數功能 詳細講述如何覆蓋Mapper功能、如何覆蓋Reducer功能。在各種hadoop認證中,這是考察重點 詳細講述hadoop的自定義類型Writable接口 通過電信上網日志實例講述如何自定義hadoop類型 通過源碼講述hadoop是如何讀取hdfs文件,并且轉化為鍵值對,供map方法調用的 05) 介紹MapReduce體系結構及各種算法(2) 本節(jié)繼續(xù)講解mapreduce,會把舊api的用法、計數器、combiner、partitioner、排序算法、分組算法等全部講解完畢。通過這兩次課程學習,學員可以把整個mapreduce的執(zhí)行細節(jié)搞清楚,把各個可擴展點都搞明白。本節(jié)內容在目前市面可見的圖書、視頻中還沒有發(fā)現(xiàn)如此全面的哪。 知識點簡單羅列: 講解新舊api的區(qū)別,如何使用舊api完成操作 介紹如何打包成jar,在命令行運行hadoop程序 介紹hadoop的內置計數器,以及自定義計數器 介紹了合并(combiner)概念、為什么使用、如何使用、使用時有什么限制條件 介紹了hadoop內置的分區(qū)(partitioner)概念、為什么使用、如何使用 介紹了hadoop內置的排序算法,以及如何自定義排序規(guī)則 介紹了hadoop內置的分組算法,以及如何自定義分組規(guī)則 介紹了mapreduce的常見應用場景,以及如何實現(xiàn)mapreduce算法 06) 介紹Hadoop集群 hadoop就業(yè)主要是兩個方向:hadoop工程師和hadoop集群管理員。我們課程主要培養(yǎng)工程師。本節(jié)內容是面向集群管理員的,主要講述集群管理的知識。 知識點簡單羅列: 如何搭建hadoop集群 如何動態(tài)增加hadoop從節(jié)點 如何動態(tài)修改hdfs的副本數 如何使用一些常用管理命令 如何理解安全模式 如何查看日志等 07) 介紹zookeeper操作 本節(jié)內容與hadoop關系不大,只是在hbase集群安裝時才用到。但是,zookeeper在分布式項目中應用較多。 知識點簡單羅列: Zookeeper是什么 搭建zookeeper集群環(huán)境 如何使用命令行操作zookeeper 如何使用java操作zookeeper 08) 介紹HBase體系結構及基本操作 hbase是個好東西,在以后工作中會經常遇到,特別是電信、銀行、保險等行業(yè)。本節(jié)講解hbase的偽分布和集群的安裝,講解基本理論和各種操作。我們通過對hbase原理的講解,讓大家明白為什么hbase會這么適合大數據的實時查詢。最后講解hbase如何設計表結構,這是hbase優(yōu)化的重點。 知識點簡單羅列: Hbase是什么 Hbase數據模型 Hbase存儲模型 Hbase的命令行操作 Hbase的java操作 如何使用mapreduce向hbase批量導入數據 09) 介紹pig操作 Pig是另一套hadoop處理大數據的方法,底層調用的是mapreduce,但是入門的門檻低,書寫自由靈活,書寫效率與java代碼相比非常高,在企業(yè)中有較多應用。本節(jié)hadoop講解pig的理論、操作。 知識點簡單羅列: Pig是什么 Pig的數據類型、操作 使用pig完成前面的電信上網日志的統(tǒng)計工作 10) 介紹Hive體系結構及基本操作 Hive作為hadoop領域的數據倉庫,支持sql功能,類似于mysql操作,非常好用,在企業(yè)中應用非常廣泛。 知識點簡單羅列: Hive是什么 Hive的體系結構,hive中的表在hdfs中是如何存儲的 講解如何在linux安裝mysql,如何使用mysql作為hive的metastore 通過實例詳細講述hive的內部表、分區(qū)表、外部表、桶表 介紹視圖 介紹hive的自定義函數 11) 介紹Sqoop操作 sqoop適用于在關系數據庫與hdfs之間進行雙向數據轉換的,在企業(yè)中,非常常用。 知識點簡單羅列: Sqoop是什么 通過實例講解Sqoop如何把mysql中的數據導入到hdfs中 通過實例講解Sqoop如何把hdfs中的數據導出到mysql中 Sqoop如何做成job,方便以后快速執(zhí)行 12) Flume操作 Flume是cloudera公布的分布式日志收集系統(tǒng),是用來把各個的服務器中數據收集,統(tǒng)一提交到hdfs或者其他目的地,是hadoop存儲數據的來源,企業(yè)中非常流行。 知識點簡單羅列: Flume是什么 詳細Flume的體系結構 講述如何書寫flume的agent配置信息 講述flume如何動態(tài)監(jiān)控文件夾中文件變化 講述flume如何把數據導入到hdfs中 通過實例講解如何通過flume動態(tài)監(jiān)控日志文件變化,然后導入到hdfs中 13) 論壇日志分析項目 該項目的數據來自于黑馬([url=]http://edu.csdn.net/[/url])論壇的日志,該項目是為本課程量身定做的,非常適合我們hadoop課程學習。有的同學覺得應該介紹更多項目,其實做過幾個項目后,就會發(fā)現(xiàn)項目的思路是相同的,只是業(yè)務不同而已。大家寫過這個項目后,就對hadoop的各個框架在項目中是如何使用的,有個比較清晰的認識,對hadoop與javaEE結合有個比較清晰的認識了。 課程目錄索引 ├─day1 │ 01hadoop介紹1 │ 02hadoop介紹2 │ 03hadoop介紹3 │ 04Linux環(huán)境配置1 │ 05安裝JDK │ 06Hadoop安裝配置 │ 07hadoop初始化和測試 │ 08配置ssh免密碼登陸配置和ssh原理 │ ├─day2 │ 01HDFS原理 │ 02HDFS的shell操作 │ 03HDFS原理 │ 04HDFS原理2 │ 05HDFS的java接口 │ 06Hadoop RPC │ 07HDFS讀取數據過程 │ ├─day3 │ 01MR介紹 │ 02WordCount執(zhí)行流程 │ 03WordCount代碼編寫 │ 04hadoop序列化機制 │ 05MR例子 │ 06MR提交過程 │ 07hadoop遠程debug │ ├─day4 │ 01Partitioner編程 1 │ 02Partitioner編程2 │ 03使用Maven開發(fā)MR │ 04MR排序 │ 05Combiner編程 │ 06shuffle過程 │ 07MR例子-倒排索引 │ 08決定mapper的數量因素 │ ├─day5 │ 01ZooKeeper介紹 │ 02ZooKeeper集群搭建 │ 03hadoop集群搭建 │ 04Hadoop集群測試 │ 05數據遷移工具sqoop │ 06shell入門 │ ├─day6 │ 01HBASE入門 │ 02hbase單節(jié)點安裝和hbase shell │ 03hbase集群搭建 │ 04HBASE理論知識 │ 05HBASE的java接口1 │ 06HBASE的java接口2 │ 07HBASE理論 │ ├─day7 │ 01hive入門 │ 02hive安裝mysql metastore │ 03hive分區(qū)表 │ 04hive練習 │ 05hive的UDF │ 06A數據收集工具flume │ 07黑馬論壇日志項目 │ ├筆記和代碼
購買主題
本主題需向作者支付 666 資源幣 才能瀏覽
| |
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
| ||
小黑屋|資源共享吧 ( 瓊ICP備2023000410號-1 )
GMT+8, 2025-1-27 13:07 , Processed in 0.074083 second(s), 16 queries , MemCached On.