**尚硅谷《AI大模型NLP教程》**是一套面向当前大模型时代的系统化自然语言处理(NLP)实战课程,主打“从基础到大模型应用”的完整学习路径,适合希望进入AI、数据科学或大模型开发领域的学习者。
下面给你做一个比较全面、实用的介绍:
一、课程定位与特点
这套课程核心围绕 NLP + 大语言模型(LLM)应用开发,相比传统NLP课程,它更强调:
- ✅ 从传统NLP过渡到大模型(如Transformer架构)
- ✅ 强调实战(而不是纯理论)
- ✅ 结合当前热门技术(提示工程、微调、RAG等)
- ✅ 面向就业与项目落地
一句话总结:偏“工程实战型”的大模型NLP课程。
二、核心内容模块
1. NLP基础知识
- 文本预处理(分词、去停用词、词形还原)
- 词向量(Word2Vec、GloVe)
- 传统模型(朴素贝叶斯、SVM等)
👉 这一部分帮助建立基础,但不会过度深入数学推导。
2. 深度学习与序列模型
- RNN / LSTM / GRU
- Seq2Seq模型
- Attention机制
重点是理解为什么后来会发展到Transformer。
3. Transformer与大模型基础
- Transformer结构详解(编码器/解码器)
- 自注意力机制(Self-Attention)
- 位置编码(Positional Encoding)
这部分是整个课程的“核心枢纽”。
4. 预训练语言模型(PLM)
- BERT原理与应用
- GPT系列模型(生成式模型思想)
- 模型微调(Fine-tuning)
👉 帮你理解现在主流AI产品背后的核心技术。
5. 大模型应用开发(重点)
这一块是课程最有价值的部分:
- Prompt Engineering(提示词工程)
- 基于API调用大模型(如OpenAI接口)
- RAG(检索增强生成)
- Agent简单实现逻辑
👉 偏向“如何用大模型做产品/项目”。
6. 项目实战
常见项目类型包括:
- 智能问答系统
- 文本分类系统
- 对话机器人
- 知识库问答(RAG)
👉 项目导向,适合写进简历。
三、适合人群
这套课更适合以下几类人:
✔ 初学AI但有编程基础
- 有Python基础即可入门
✔ 想转行AI / 数据方向
- NLP是门槛相对较低的AI方向
✔ 想做大模型应用开发的人
- 比如做AI产品、工具、SaaS
✔ 在校学生 / 自学者
- 用来打基础 + 做项目非常合适
四、课程优势
1. 实战导向强
- 不只是讲理论,会带你做项目
2. 紧跟大模型趋势
- 涉及Prompt、RAG等当前热门技术
3. 体系完整
- 从传统NLP → 深度学习 → Transformer → 大模型
4. 入门门槛相对友好
- 不要求特别强的数学背景
五、可能的不足(客观看)
- ❗ 理论深度有限(更偏应用,不适合做科研)
- ❗ 前沿更新速度可能不如一线论文/社区
- ❗ 高级内容(如分布式训练、模型压缩)涉及较少
六、学习建议
如果你打算学这套课,可以这样搭配:
- 边学边做项目
- 补充基础(Python + PyTorch)
- 结合真实API实践(如GPT类模型)
- 整理自己的项目作品集
总结一句话
这套《尚硅谷AI大模型NLP教程》属于:
“从入门到能做项目”的大模型应用型课程,非常适合想快速进入AI应用开发领域的人。

课程目录:
├── 001-NLP-课程简介.mp4
├── 002-NLP-课程概述 .mp4
├── 003-NLP-导论-常见任务.mp4
├── 004-NLP-导论-技术演进历史 .mp4
├── 005-NLP-环境准备.mp4
├── 006-NLP-文本表示-概述 .mp4
├── 007-NLP-文本表示-分词-英文分词 .mp4
├── 008-NLP-文本表示-分词-英文分词-BPE算法.mp4
├── 009-NLP-文本表示-分词-中文分词.mp4
├── 010-NLP-文本表示-分词-分词工具-概述 .mp4
├── 011-NLP-文本表示-分词-分词工具-jieba-分词模式.mp4
├── 012-NLP-文本表示-分词-分词工具-jieba-分词模式-API.mp4
├── 013-NLP-文本表示-分词-分词工具-jieba-自定义词典 .mp4
├── 014-NLP-文本表示-词表示-one-hot&语义化词向量-概述.mp4
├── 015-NLP-文本表示-词表示-语义化词向量-Word2Vec-概述.mp4
├── 016-NLP-文本表示-词表示-语义化词向量-Word2Vec-原理-Skip-Gram.mp4
├── 017-NLP-文本表示-词表示-语义化词向量-Word2Vec-原理-CBOW.mp4
├── 018-NLP-文本表示-词表示-语义化词向量-Word2Vec-获取-公开词向量-说明 .mp4
├── 019-NLP-文本表示-词表示-语义化词向量-Word2Vec-获取-公开词向量-编码 .mp4
├── 020-NLP-文本表示-词表示-语义化词向量-训练词向量-概述.mp4
├── 021-NLP-文本表示-词表示-语义化词向量-训练词向量-实操 .mp4
├── 022-NLP-文本表示-词表示-语义化词向量-应用-概述 .mp4
├── 023-NLP-文本表示-词表示-语义化词向量-应用-编码 .mp4
├── 024-NLP-文本表示-词表示-语义化词向量-应用-OOV问题 .mp4
├── 025-NLP-文本表示-词表示-上下文相关词向量.mp4
├── 026-NLP-传统序列模型-RNN-概述 .mp4
├── 027-NLP-传统序列模型-RNN-基础结构 .mp4
├── 028-NLP-传统序列模型-RNN-示意图.mp4
├── 029-NLP-传统序列模型-RNN-多层结构.mp4
├── 030-NLP-传统序列模型-RNN-双向结构 .mp4
├── 031-NLP-传统序列模型-RNN-多层+双向结构.mp4
├── 032-NLP-传统序列模型-RNN-API-构造参数.mp4
├── 033-NLP-传统序列模型-RNN-API-输入输出-概述 .mp4
├── 034-NLP-传统序列模型-RNN-API-输入输出-含义.mp4
├── 035-NLP-传统序列模型-RNN-API-输入输出-形状分析.mp4
├── 036-NLP-传统序列模型-RNN-API-小练习 .mp4
├── 037-NLP-传统序列模型-案例-概述 .mp4
├── 038-NLP-传统序列模型-案例-思路分析-数据集说明.mp4
├── 039-NLP-传统序列模型-案例-思路分析-模型结构和训练思路 .mp4
├── 040-NLP-传统序列模型-RNN-案例-项目结构.mp4
├── 041-NLP-传统序列模型-RNN-案例-数据预处理-思路分析.mp4
├── 042-NLP-传统序列模型-RNN-案例-数据预处理-读取json文件 .mp4
├── 043-NLP-传统序列模型-RNN-案例-数据预处理-文件路径说明.mp4
├── 044-NLP-传统序列模型-RNN-案例-数据预处理-文件路径处理 .mp4
├── 045-NLP-传统序列模型-RNN-案例-数据预处理-构建并保存词表.mp4
├── 046-NLP-传统序列模型-RNN-案例-数据预处理-构建训练集 .mp4
├── 047-NLP-传统序列模型-RNN-案例-数据预处理-保存训练集&测试集 .mp4
├── 048-NLP-传统序列模型-RNN-案例-数据集-说明.mp4
├── 049-NLP-传统序列模型-RNN-案例-数据集-编码 .mp4
├── 050-NLP-传统序列模型-RNN-案例-模型定义-初始化方法 .mp4
├── 051-NLP-传统序列模型-RNN-案例-模型定义-前向传播 .mp4
├── 052-NLP-传统序列模型-RNN-案例-训练脚本-环境准备 .mp4
├── 053-NLP-传统序列模型-RNN-案例-训练脚本-训练循环.mp4
├── 054-NLP-传统序列模型-RNN-案例-训练脚本-单个轮次的训练逻辑 .mp4
├── 055-NLP-传统序列模型-RNN-案例-训练脚本-Tensorboard使用说明 .mp4
├── 056-NLP-传统序列模型-RNN-案例-训练脚本-保存模型 .mp4
├── 057-NLP-传统序列模型-RNN-案例-预测脚本-说明 .mp4
├── 058-NLP-传统序列模型-RNN-案例-预测脚本-编码-上.mp4
├── 059-NLP-传统序列模型-RNN-案例-预测脚本-编码-下 .mp4
├── 060-NLP-传统序列模型-RNN-案例-评估脚本-说明.mp4
├── 061-NLP-传统序列模型-RNN-案例-评估脚本-编码.mp4
├── 062-NLP-传统序列模型-RNN-案例-代码改造说明.mp4
├── 063-NLP-传统序列模型-RNN-案例-Tokenizer-说明.mp4
├── 064-NLP-传统序列模型-RNN-案例-Tokenizer-编码 .mp4
├── 065-NLP-传统序列模型-RNN-存在问题-概述.mp4
├── 066-NLP-传统序列模型-RNN-存在问题-分析 .mp4
├── 067-NLP-传统序列模型-LSTM-概述 .mp4
├── 068-NLP-传统序列模型-LSTM-基础结构-说明.mp4
├── 069-NLP-传统序列模型-LSTM-缓解梯度消失和爆炸 .mp4
├── 070-NLP-传统序列模型-LSTM-复杂结构.mp4
├── 071-NLP-传统序列模型-LSTM-API-构造参数 .mp4
├── 072-NLP-传统序列模型-LSTM-API-输入输出 .mp4
├── 073-NLP-传统序列模型-LSTM-案例-概述&思路分析 .mp4
├── 074-NLP-传统序列模型-LSTM-案例-数据处理-说明 .mp4
├── 075-NLP-传统序列模型-LSTM-案例-数据处理-编码-上.mp4
├── 076-NLP-传统序列模型-LSTM-案例-数据处理-编码-下 .mp4
├── 077-NLP-传统序列模型-LSTM-案例-数据集.mp4
├── 078-NLP-传统序列模型-LSTM-案例-模型定义 .mp4
├── 079-NLP-传统序列模型-LSTM-案例-模型训练.mp4
├── 080-NLP-传统序列模型-LSTM-案例-模型预测.mp4
├── 081-NLP-传统序列模型-LSTM-案例-模型评估 .mp4
├── 082-NLP-传统序列模型-LSTM-存在问题.mp4
├── 083-NLP-传统序列模型-GRU-基础结构.mp4
├── 084-NLP-传统序列模型-GRU-复杂结构&API使用说明 .mp4
├── 085-NLP-传统序列模型-GRU-案例实操 .mp4
├── 086-NLP-传统序列模型-LSTM_GRU_RNN横向对比.mp4
├── 087-NLP-Seq2Seq-概述.mp4
├── 088-NLP-Seq2Seq-模型结构-编码器 .mp4
├── 089-NLP-Seq2Seq-模型结构-解码器 .mp4
├── 090-NLP-Seq2Seq-模型结构-训练机制 .mp4
├── 091-NLP-Seq2Seq-模型结构-推理机制 .mp4
├── 092-NLP-Seq2Seq-模型结构-案例实操-概述 .mp4
├── 093-NLP-Seq2Seq-模型结构-案例实操-需求分析.mp4
├── 094-NLP-Seq2Seq-模型结构-案例实操-数据预处理-读取文件.mp4
├── 095-NLP-Seq2Seq-模型结构-案例实操-数据预处理-改造Tokenizer .mp4
├── 096-NLP-Seq2Seq-模型结构-案例实操-数据预处理-词表构建.mp4
├── 097-NLP-Seq2Seq-模型结构-案例实操-数据预处理-构建数据集.mp4
├── 098-NLP-Seq2Seq-模型结构-案例实操-Dataloader .mp4
├── 099-NLP-Seq2Seq-模型结构-案例实操-模型定义-编码器.mp4
├── 100-NLP-Seq2Seq-模型结构-案例实操-模型定义-解码器 .mp4
├── 101-NLP-Seq2Seq-模型结构-案例实操-模型定义-完整模型 .mp4
├── 102-NLP-Seq2Seq-模型结构-案例实操-训练脚本-核心代码 .mp4
├── 103-NLP-Seq2Seq-模型结构-案例实操-训练脚本-pad_token处理逻辑 .mp4
├── 104-NLP-Seq2Seq-案例-预测脚本.mp4
├── 105-NLP-Seq2Seq-案例-评估脚本-bleu说明 .mp4
├── 106-NLP-Seq2Seq-案例-评估脚本-编码.mp4
├── 107-NLP-Seq2Seq-总结.mp4
├── 108-NLP-Attention机制-概述 .mp4
├── 109-NLP-Attention机制-工作原理-概述 .mp4
├── 110-NLP-Attention机制-工作原理-具体步骤.mp4
├── 111-NLP-Attention机制-注意力评分函数.mp4
├── 112-NLP-Attention机制-案例-代码升级改造思路 .mp4
├── 113-NLP-Attention机制-案例-注意力机制-实现思路 .mp4
├── 114-NLP-Attention机制-案例-注意力机制-编码.mp4
├── 115-NLP-Attention机制-案例-注意力机制-训练和预测逻辑修改.mp4
├── 116-NLP-Transformer-概述.mp4
├── 117-NLP-Transformer-核心思想.mp4
├── 118-NLP-Transformer-模型结构-整体结构 .mp4
├── 119-NLP-Transformer-模型结构-编码器-概述 .mp4
├── 120-NLP-Transformer-模型结构-编码器-自注意力子层-生成QKV向量 .mp4
├── 121-NLP-Transformer-模型结构-编码器-自注意力子层-完整计算过程.mp4
├── 122-NLP-Transformer-模型结构-编码器-自注意力子层-多头注意力.mp4
├── 123-NLP-Transformer-模型结构-编码器-前馈神经网络层 .mp4
├── 124-NLP-Transformer-模型结构-编码器-残差连接&层归一化-概述.mp4
├── 125-NLP-Transformer-模型结构-编码器-残差连接-说明 .mp4
├── 126-NLP-Transformer-模型结构-编码器-层归一化 .mp4
├── 127-NLP-Transformer-模型结构-编码器-位置编码.mp4
├── 128-NLP-Transformer-模型结构-编码器-说明.mp4
├── 129-NLP-Transformer-模型结构-编码器-小结.mp4
├── 130-NLP-Transformer-模型结构-解码器-概述 .mp4
├── 131-NLP-Transformer-模型结构-解码器-Mask-Attention.mp4
├── 132-NLP-Transformer-模型结构-解码器-Cross-Attention.mp4
├── 133-NLP-Transformer-模型结构-解码器-小结 .mp4
├── 134-NLP-Transformer-实现细节-注意力为什么需要缩放.mp4
├── 135-NLP-Transformer-实现细节-注意力如何感知相对位置 .mp4
├── 136-NLP-Transformer-模型训练和推理机制 .mp4
├── 137-NLP-Transformer-API-概述 .mp4
├── 138-NLP-Transformer-API-nn.Transformer-构造参数.mp4
├── 139-NLP-Transformer-API-nn.Transformer-forward方法-概述.mp4
├── 140-NLP-Transformer-API-nn.Transformer-forward方法-输入输出.mp4
├── 141-NLP-Transformer-API-nn.Transformer-encoder&decoder.mp4
├── 142-NLP-Transformer-案例-代码改造思路.mp4
├── 143-NLP-Transformer-案例-模型定义-基础结构 .mp4
├── 144-NLP-Transformer-案例-模型定义-位置编码-简易实现 .mp4
├── 145-NLP-Transformer-案例-模型定义-位置编码-哈弗实现.mp4
├── 146-NLP-Transformer-案例-模型定义-前向传播 .mp4
├── 147-NLP-Transformer-案例-训练脚本.mp4
├── 148-NLP-Transformer-案例-预测&评估脚本.mp4
├── 149-NLP-Transformer-哈佛版本-核心源码解读.mp4
├── 150-NLP-预训练模型-概述 .mp4
├── 151-NLP-预训练模型-分类 .mp4
├── 152-NLP-预训练模型-主流模型-GPT-概述 .mp4
├── 153-NLP-预训练模型-主流模型-GPT-模型结构.mp4
├── 154-NLP-预训练模型-主流模型-GPT-预训练 .mp4
├── 155-NLP-预训练模型-主流模型-GPT-微调 .mp4
├── 156-NLP-预训练模型-主流模型-BERT-概述 .mp4
├── 157-NLP-预训练模型-主流模型-BERT-模型结构.mp4
├── 158-NLP-预训练模型-主流模型-BERT-微调 .mp4
├── 159-NLP-预训练模型-主流模型-BERT-预训练 .mp4
├── 160-NLP-预训练模型-主流模型-T5-概述&模型结构 .mp4
├── 161-NLP-预训练模型-主流模型-T5-预训练&微调 .mp4
├── 162-NLP-预训练模型-HF-概述.mp4
├── 163-NLP-预训练模型-HF-模型加载-AutoModel .mp4
├── 164-NLP-预训练模型-HF-模型加载-AutoModelForXXX.mp4
├── 165-NLP-预训练模型-HF-模型使用 .mp4
├── 166-NLP-预训练模型-HF-Tokenizer-加载 .mp4
├── 167-NLP-预训练模型-HF-Tokenizer-使用.mp4
├── 168-NLP-预训练模型-HF-Tokenizer-模型配合使用 .mp4
├── 169-NLP-预训练模型-HF-Datasets-概述 .mp4
├── 170-NLP-预训练模型-HF-Datasets-加载数据集 .mp4
├── 171-NLP-预训练模型-HF-Datasets-查看数据集 .mp4
├── 172-NLP-预训练模型-HF-Datasets-加载在线数据集.mp4
├── 173-NLP-预训练模型-HF-Datasets-预处理数据集-过滤数据 .mp4
├── 174-NLP-预训练模型-HF-Datasets-预处理数据集-划分数据集 .mp4
├── 175-NLP-预训练模型-HF-Datasets-预处理数据集-map-上.mp4
├── 176-NLP-预训练模型-HF-Datasets-预处理数据集-map-下 .mp4
├── 177-NLP-预训练模型-HF-Datasets-保存数据集 .mp4
├── 178-NLP-预训练模型-HF-Datasets-集成Dataloader .mp4
├── 179-NLP-预训练模型-案例-数据预处理-上.mp4
├── 180-NLP-预训练模型-案例-数据预处理-下 .mp4
├── 181-NLP-预训练模型-案例-Dataloader .mp4
├── 182-NLP-预训练模型-案例-模型定义 .mp4
├── 183-NLP-预训练模型-案例-模型训练 .mp4
├── 184-NLP-预训练模型-案例-模型推理.mp4
├── 185-NLP-预训练模型-案例-模型评估.mp4
├── 186-NLP-预训练模型-案例-测试.mp4
└── 187-NLP-预训练模型-案例-带任务头的预训练模型.mp4
├── 笔记
│ └── 尚硅谷大模型技术之NLP1.0.3.docx
├── 代码
│ ├── hugging-face
│ │ ├── .idea
│ │ │ ├── inspectionProfiles
│ │ │ ├── .gitignore
│ │ │ ├── hugging-face.iml
│ │ │ ├── misc.xml
│ │ │ ├── modules.xml
│ │ │ └── workspace.xml
│ │ ├── data
│ │ │ ├── processed
│ │ │ └── raw
│ │ ├── pretrained
│ │ │ └── bert-base-chinese
│ │ └── hf.ipynb
│ ├── input-method-rnn
│ │ ├── .idea
│ │ │ ├── inspectionProfiles
│ │ │ ├── .gitignore
│ │ │ ├── input-method-rnn.iml
│ │ │ ├── misc.xml
│ │ │ ├── modules.xml
│ │ │ └── workspace.xml
│ │ ├── data
│ │ │ ├── processed
│ │ │ └── raw
│ │ ├── logs
│ │ │ ├── 2025-08-11_15-50-44
│ │ │ ├── 2025-08-11_15-52-38
│ │ │ └── 2025-08-12_14-32-32
│ │ ├── models
│ │ │ ├── best.pth
│ │ │ └── vocab.txt
│ │ ├── src
│ │ │ ├── __pycache__
│ │ │ ├── config.py
│ │ │ ├── dataset.py
│ │ │ ├── evaluate.py
│ │ │ ├── model.py
│ │ │ ├── predict.py
│ │ │ ├── process.py
│ │ │ ├── tokenizer.py
│ │ │ └── train.py
│ │ └── test
│ │ ├── logs
│ │ ├── df.json
│ │ ├── test-json.py
│ │ ├── test-rnn.py
│ │ └── test-tensorboard.py
│ ├── review-analyze-bert
│ │ ├── .idea
│ │ │ ├── inspectionProfiles
│ │ │ ├── .gitignore
│ │ │ ├── misc.xml
│ │ │ ├── modules.xml
│ │ │ ├── review-analyze-bert.iml
│ │ │ └── workspace.xml
│ │ ├── data
│ │ │ ├── processed
│ │ │ └── raw
│ │ ├── logs
│ │ │ ├── 2025-08-13_14-29-42
│ │ │ ├── 2025-08-13_15-01-45
│ │ │ ├── 2025-08-13_15-02-07
│ │ │ ├── 2025-08-13_15-39-21
│ │ │ ├── 2025-08-13_15-39-39
│ │ │ ├── 2025-08-22_15-41-21
│ │ │ ├── 2025-08-22_15-42-28
│ │ │ └── 2025-08-22_15-47-14
│ │ ├── models
│ │ │ ├── best.pt
│ │ │ └── vocab.txt
│ │ ├── pretrained
│ │ │ └── bert-base-chinese
│ │ └── src
│ │ ├── __pycache__
│ │ ├── config.py
│ │ ├── dataset.py
│ │ ├── evaluate.py
│ │ ├── model.py
│ │ ├── predict.py
│ │ ├── process.py
│ │ ├── tokenizer.py
│ │ └── train.py
│ ├── review-analyze-gru
│ │ ├── .idea
│ │ │ ├── inspectionProfiles
│ │ │ ├── .gitignore
│ │ │ ├── misc.xml
│ │ │ ├── modules.xml
│ │ │ ├── review-analyze-gru.iml
│ │ │ └── workspace.xml
│ │ ├── data
│ │ │ ├── processed
│ │ │ └── raw
│ │ ├── logs
│ │ │ ├── 2025-08-13_14-29-42
│ │ │ ├── 2025-08-13_15-01-45
│ │ │ ├── 2025-08-13_15-02-07
│ │ │ ├── 2025-08-13_15-39-21
│ │ │ └── 2025-08-13_15-39-39
│ │ ├── models
│ │ │ ├── best.pt
│ │ │ └── vocab.txt
│ │ └── src
│ │ ├── __pycache__
│ │ ├── config.py
│ │ ├── dataset.py
│ │ ├── evaluate.py
│ │ ├── model.py
│ │ ├── predict.py
│ │ ├── process.py
│ │ ├── tokenizer.py
│ │ └── train.py
│ ├── review-analyze-lstm
│ │ ├── .idea
│ │ │ ├── inspectionProfiles
│ │ │ ├── .gitignore
│ │ │ ├── misc.xml
│ │ │ ├── modules.xml
│ │ │ ├── review-analyze-lstm.iml
│ │ │ └── workspace.xml
│ │ ├── data
│ │ │ ├── processed
│ │ │ └── raw
│ │ ├── logs
│ │ │ ├── 2025-08-13_14-29-42
│ │ │ ├── 2025-08-13_15-01-45
│ │ │ └── 2025-08-13_15-02-07
│ │ ├── models
│ │ │ ├── best.pt
│ │ │ └── vocab.txt
│ │ └── src
│ │ ├── __pycache__
│ │ ├── config.py
│ │ ├── dataset.py
│ │ ├── evaluate.py
│ │ ├── model.py
│ │ ├── predict.py
│ │ ├── process.py
│ │ ├── tokenizer.py
│ │ └── train.py
│ ├── review-analyze-rnn
│ │ ├── .idea
│ │ │ ├── inspectionProfiles
│ │ │ ├── .gitignore
│ │ │ ├── misc.xml
│ │ │ ├── modules.xml
│ │ │ ├── review-analyze-rnn.iml
│ │ │ └── workspace.xml
│ │ ├── data
│ │ │ ├── processed
│ │ │ └── raw
│ │ ├── logs
│ │ │ ├── 2025-08-13_15-02-07
│ │ │ ├── 2025-08-13_15-39-39
│ │ │ └── 2025-08-13_15-59-15
│ │ ├── models
│ │ │ ├── best.pt
│ │ │ └── vocab.txt
│ │ └── src
│ │ ├── __pycache__
│ │ ├── config.py
│ │ ├── dataset.py
│ │ ├── evaluate.py
│ │ ├── model.py
│ │ ├── predict.py
│ │ ├── process.py
│ │ ├── tokenizer.py
│ │ └── train.py
│ ├── test-scaled-attention
│ │ ├── .idea
│ │ │ ├── inspectionProfiles
│ │ │ ├── .gitignore
│ │ │ ├── misc.xml
│ │ │ ├── modules.xml
│ │ │ ├── test-scaled-attention.iml
│ │ │ └── workspace.xml
│ │ └── test-attention.py
│ ├── text_rep
│ │ ├── .idea
│ │ │ ├── inspectionProfiles
│ │ │ ├── .gitignore
│ │ │ ├── deployment.xml
│ │ │ ├── misc.xml
│ │ │ ├── modules.xml
│ │ │ ├── text_rep.iml
│ │ │ └── workspace.xml
│ │ ├── data
│ │ │ ├── online_shopping_10_cats.csv
│ │ │ ├── sgns.weibo.word.bz2
│ │ │ ├── user_dict.txt
│ │ │ └── word2vec.txt
│ │ ├── 01-tokenize-jieba.ipynb
│ │ └── 02-word-representation.ipynb
│ ├── transformer
│ │ └── [空目录]
│ ├── translation-attention
│ │ ├── .idea
│ │ │ ├── inspectionProfiles
│ │ │ ├── .gitignore
│ │ │ ├── misc.xml
│ │ │ ├── modules.xml
│ │ │ ├── translation-attention.iml
│ │ │ └── workspace.xml
│ │ ├── data
│ │ │ ├── processed
│ │ │ └── raw
│ │ ├── logs
│ │ │ ├── 2025-08-15_15-57-21
│ │ │ ├── 2025-08-16_09-33-16
│ │ │ ├── 2025-08-16_15-12-53
│ │ │ ├── 2025-08-16_15-15-46
│ │ │ └── 2025-08-16_15-22-02
│ │ ├── models
│ │ │ ├── best.pt
│ │ │ ├── en_vocab.txt
│ │ │ └── zh_vocab.txt
│ │ ├── src
│ │ │ ├── __pycache__
│ │ │ ├── config.py
│ │ │ ├── dataset.py
│ │ │ ├── evaluate.py
│ │ │ ├── model.py
│ │ │ ├── predict.py
│ │ │ ├── process.py
│ │ │ ├── tokenizer.py
│ │ │ └── train.py
│ │ └── test
│ │ └── test-bleu.py
│ ├── translation-seq2seq
│ │ ├── .idea
│ │ │ ├── inspectionProfiles
│ │ │ ├── .gitignore
│ │ │ ├── misc.xml
│ │ │ ├── modules.xml
│ │ │ ├── translation-seq2seq.iml
│ │ │ └── workspace.xml
│ │ ├── data
│ │ │ ├── processed
│ │ │ └── raw
│ │ ├── logs
│ │ │ ├── 2025-08-15_15-57-21
│ │ │ └── 2025-08-16_09-33-16
│ │ ├── models
│ │ │ ├── best.pt
│ │ │ ├── en_vocab.txt
│ │ │ └── zh_vocab.txt
│ │ ├── src
│ │ │ ├── __pycache__
│ │ │ ├── config.py
│ │ │ ├── dataset.py
│ │ │ ├── evaluate.py
│ │ │ ├── model.py
│ │ │ ├── predict.py
│ │ │ ├── process.py
│ │ │ ├── tokenizer.py
│ │ │ └── train.py
│ │ └── test
│ │ └── test-bleu.py
│ └── translation-transformer
│ ├── .idea
│ │ ├── inspectionProfiles
│ │ ├── .gitignore
│ │ ├── misc.xml
│ │ ├── modules.xml
│ │ ├── translation-transformer.iml
│ │ └── workspace.xml
│ ├── data
│ │ ├── processed
│ │ └── raw
│ ├── logs
│ │ ├── 2025-08-15_15-57-21
│ │ ├── 2025-08-16_09-33-16
│ │ ├── 2025-08-16_15-12-53
│ │ ├── 2025-08-16_15-15-46
│ │ ├── 2025-08-16_15-22-02
│ │ ├── 2025-08-19_16-20-19
│ │ ├── 2025-08-19_16-22-46
│ │ └── 2025-08-19_16-26-03
│ ├── models
│ │ ├── best.pt
│ │ ├── en_vocab.txt
│ │ └── zh_vocab.txt
│ ├── src
│ │ ├── __pycache__
│ │ ├── config.py
│ │ ├── dataset.py
│ │ ├── evaluate.py
│ │ ├── model.py
│ │ ├── predict.py
│ │ ├── process.py
│ │ ├── tokenizer.py
│ │ └── train.py
│ └── test
│ └── test-bleu.py
├── 资料
│ ├── 1.词向量
│ │ └── sgns.weibo.word.bz2
│ ├── 2.数据集
│ │ ├── 1.评论数据集
│ │ │ └── online_shopping_10_cats.csv
│ │ ├── 2.对话数据集
│ │ │ └── synthesized_.jsonl
│ │ └── 3.中英短句数据集
│ │ └── cmn.txt
│ └── 3.预训练模型
│ └── bert-base-chinese
│ ├── config.json
│ ├── model.safetensors
│ ├── tokenizer.json
│ ├── tokenizer_config.json
│ └── vocab.txt
