班級規模及環境--熱線:4008699035 手機:15921673576( 微信同號) |
每期人數限3到5人。 |
上課時間和地點 |
上課地點:【上海】:同濟大學(滬西)/新城金郡商務樓(11號線白銀路站) 【深圳分部】:電影大廈(地鐵一號線大劇院站)/深圳大學成教院 【北京分部】:北京中山學院/福鑫大樓 【南京分部】:金港大廈(和燕路) 【武漢分部】:佳源大廈(高新二路) 【成都分部】:領館區1號(中和大道) 【沈陽分部】:沈陽理工大學/六宅臻品 【鄭州分部】:鄭州大學/錦華大廈 【石家莊分部】:河北科技大學/瑞景大廈 【廣州分部】:廣糧大廈 【西安分部】:協同大廈
最近開課時間(周末班/連續班/晚班):2020年3月16日 |
實驗設備 |
☆資深工程師授課
☆注重質量
☆邊講邊練
☆合格學員免費推薦工作
★實驗設備請點擊這兒查看★ |
質量保障 |
1、培訓過程中,如有部分內容理解不透或消化不好,可免費在以后培訓班中重聽;
2、培訓結束后,授課老師留給學員聯系方式,保障培訓效果,免費提供課后技術支持。
3、培訓合格學員可享受免費推薦就業機會。 |
課程大綱 |
|
第1章:文本挖掘概述
第2章:磨刀不誤砍柴工
第3章:分詞
第4章:詞云展示
第5章:文檔信息的向量化
第6章:關鍵詞提取
第7章:抽取文本主題
第8章:文本相似度
第9章:文檔分類
第10章:情感分析
第10章:自動摘要
第11章:自動寫作
第1章文本挖掘概述
1-1什么是文本挖掘
1-2文本挖掘的基本流程和任務
1-3文本挖掘的基本思路
1-4語料數據化時需要考慮的工作
第2章磨刀不誤砍柴工
2-1Python常用IDE簡介
2-2Anaconda的安裝與配置
2-3Jupyter Notebook的基本操作
2-4NLTK的安裝與配置
2-5什么是語料庫
2-6準備《射雕》語料庫
第3章分詞
3-1分詞原理簡介
3-2結巴分詞的基本用法
3-3使用自定義詞典和搜狗細胞詞庫
3-4去除停用詞
3-5詞性標注及其他
第4章詞云展示
4-1詞頻統計
4-2詞云概述
4-3wordcloud包的安裝
4-4繪制詞云
4-5設置詞云背景模板
4-6修改詞云顏色
第5章文本信息的向量化
5-1詞袋模型
5-2詞袋模型的gensim實現
5-3用Pandas生成文檔詞條矩陣
5-4用sklearns生成文檔-詞條矩陣
5-5從詞袋模型到N-gram模型
5-6文本信息的分布式表示
5-7共現矩陣
5-8NNLM模型的突破
5-9word2vec一出,滿座皆驚
第6章關鍵詞提取
6-1關鍵詞提取的基本思路
6-2TF-IDF 算法
6-3TF-IDF算法的jieba實現
6-4TF-IDF算法的sklearn實現
6-5TF-IDF算法的gensim實現
6-6TextRank算法
第7章抽取文檔主題
7-1主題模型概述
7-2主題模型的sklearn實現
7-3主題模型的gensim實現
第8章文檔相似度
8-1基本概念
8-2詞條相似度:word2vec訓練
8-3詞條相似度:word2vec應用
8-4文檔相似度的詞袋模型實現
8-5doc2vec
8-6文檔聚類
第9章文本分類
9-1文本分類概述
9-2樸素貝葉斯算法
9-3算法的sklearn實現
9-4算法的NLTK實現
第10章情感分析
10-1情感分析概述
10-2情感分析的詞袋模型實現
10-3情感分析的分布式表達實現
第11章自動摘要
11-1自動摘要的基本原理
11-2自動摘要的效果評價
11-3自動摘要的python實現
第12章文本自動寫作
12-1RNN的基本原理
12-2LSTM的基本原理
12-3Keras+TensorFlow組合的優勢
12-4Keras+TensorFlow組合的安裝
12-5案例1:數據準備
12-6案例1:模型擬合
12-7案例2:數據準備
|