TensorFlow 文本处理教程提供了解决常见文本和自然语言处理 (NLP) 问题的分步说明。
TensorFlow 提供了两种文本和自然语言处理解决方案:KerasNLP 和 TensorFlow Text。KerasNLP 是一个高级 NLP 库,它包含所有最新的基于 Transformer 的模型以及更低级别的标记化实用程序。对于大多数 NLP 用例,它是推荐的解决方案。
如果您需要访问更低级别的文本处理工具,可以使用 TensorFlow Text。TensorFlow Text 提供了一组操作和库,可帮助您处理文本形式的输入,例如原始文本字符串或文档。
KerasNLP
- KerasNLP 入门: 通过在不断提高的复杂度级别上执行情感分析来学习 KerasNLP,从使用预训练模型到从头开始构建自己的 Transformer。
文本生成
- 使用 RNN 生成文本: 使用基于字符的 RNN 和莎士比亚作品数据集生成文本。
- 带有注意力的神经机器翻译: 训练一个序列到序列 (seq2seq) 模型用于西班牙语到英语的翻译。
- 使用 Transformer 和 Keras 进行神经机器翻译: 创建和训练一个序列到序列 Transformer 模型,将葡萄牙语翻译成英语。
- 带有视觉注意力的图像字幕: 使用带有注意力层的 Transformer 解码器模型生成图像字幕。
文本分类
- 使用 BERT 对文本进行分类: 微调 BERT 以对纯文本 IMDb 电影评论数据集执行情感分析。
- 使用 RNN 进行文本分类: 训练一个 RNN 以对 IMDb 电影评论执行情感分析。
- TF.Text 指标: 了解 TensorFlow Text 提供的指标。该库包含文本相似度指标的实现,例如 ROUGE-L,可用于自动评估文本生成模型。
使用 BERT 进行 NLP
- 使用 BERT 在 TPU 上解决 GLUE 任务: 学习如何微调 BERT 以完成来自 GLUE 基准 的任务。
- 微调 BERT 模型: 使用 TensorFlow 模型花园 微调 BERT 模型。
- 使用 BERT-SNGP 进行不确定性感知深度语言学习: 将 SNGP 应用于自然语言理解 (NLU) 任务。在 BERT 编码器的基础上,您将提高 NLU 模型检测超出范围查询的能力。