第5章 - 循环神经网络 (RNN) 客观题: 什么类型的数据最适合使用循环神经网络(RNN)处理? A. 图像数据 B. 文本数据 C. 结构化数据 D. 无监督数据 答案: B 长短时记忆网络(LSTM)主要解决什么问题? A. 梯度消失问题 B. 梯度爆炸问题 C. 过拟合问题 D. A和B都对 答案: A 什么是门控循环单元(GRU)? A. 一种优化算法 B. 一种损失函数 C. LSTM的一种简化版本 D. CNN的一种特殊类型 答案: C RNN 主要用于什么类型的任务? A. 图像分类 B. 序列生成 C. 聚类 D. 强化学习 答案: B 在 PyTorch 中,哪个类用于创建基础的 RNN 层? A. nn.RNN B. nn.LSTM C. nn.GRU D. nn.Conv2d 答案: A 在文本生成任务中,哪个组件通常用于生成下一个词? A. 卷积层 B. 全连接层 C. 池化层 D. 正则化层 答案: B 什么是 teacher forcing? A. 一种训练算法 B. 在训练阶段,使用真实标签作为下一个时间步的输入 C. 在推理阶段,使用模型预测作为下一个时间步的输入 D. 一种正则化技术 答案: B 什么是序列到序列(Seq2Seq)模型? A. 用于图像分类的模型 B. 用于文本分类的模型 C. 用于将一个序列映射到另一个序列的模型 D. 用于时间序列分析的模型 答案: C RNN 通常用于处理哪种数据? A. 定长数据 B. 变长数据 C. 无监督数据 D. 三维数据 答案: B 什么是时间步(Timestep)? A. RNN 模型的层数 B. 序列中的一个元素 C. 学习率 D. 梯度 答案: B 哪种类型的 RNN 主要用于处理长序列? A. Vanilla RNN B. LSTM C. GRU D. CNN 答案: B 什么是隐藏状态(Hidden State)? A. RNN 的输入 B. RNN 的输出 C. RNN 内部的临时记忆 D. RNN 的权重 答案: C 在文本生成中,什么是“贪婪解码”(Greedy Decoding)? A. 每次都选择概率最高的词 B. 每次都选择概率最低的词 C. 使用蒙特卡洛方法选择词 D. 使用动态规划选择词 答案: A 哪种损失函数通常用于文本生成任务? A. 均方误差(MSE) B. 交叉熵损失(Cross-Entropy Loss) C. Hinge Loss D. Huber Loss 答案: B 在处理序列数据时,哪个维度通常用于表示时间步? A. 第一维 B. 第二维 C. 第三维 D. 第四维 答案: B 什么是编码器-解码器(Encoder-Decoder)架构? A. 用于图像分类的模型 B. 用于文本生成的模型 C. 用于序列到序列任务的模型 D. 用于聚类的模型 答案: C 在RNN中,哪种梯度问题比较常见? A. 梯度消失 B. 梯度爆炸 C. 梯度偏移 D. 梯度下降 答案: A 哪种机制允许RNN记住长期依赖? A. 池化 B. 卷积 C. 门控机制(如在LSTM和GRU) D. 正则化 答案: C RNN通常不擅长处理哪种类型的序列? A. 短序列 B. 长序列 C. 定长序列 D. 无序序列 答案: B 什么是“一对多”(One-to-Many)的RNN架构? A. 一个输入,多个输出(如图像描述) B. 多个输入,一个输出(如文本分类) C. 多个输入,多个输出(如机器翻译) D. 一个输入,一个输出(如图像分类) 答案: A 简答题: 请简要解释RNN和传统的前馈神经网络有何不同。 答案: RNN具有循环结构,能处理序列数据,而传统的前馈神经网络一般处理固定大小的输入。 长短时记忆网络(LSTM)如何解决梯度消失问题? 答案: LSTM通过其门控机制(遗忘门、输入门、输出门)保持长期依赖,从而缓解梯度消失问题。 请解释一下文本生成中的teacher forcing技术。 答案: 在训练阶段,teacher forcing是一种策略,其中模型是用实际的输出标签(而不是自己的预测)作为下一个时间步的输入。 |
说点什么...