Glossaryarrow
标记化
标记化

Tokenization(分词)是将文本切分为词元的过程,不同模型与语言的分词方式影响提示的理解与长度。

在 AI 生成中,分词影响提示如何被编码;过长或生僻词可能被截断或误解。

Can't find what you are looking for?
Contact us and let us know.
bg