展示
定价
企业版
资源
登录
开始创作
Glossary
标记化
标记化
Tokenization(分词)是将文本切分为词元的过程,不同模型与语言的分词方式影响提示的理解与长度。
在 AI 生成中,分词影响提示如何被编码;过长或生僻词可能被截断或误解。
Can't find what you are looking for?
Contact us and let us know.
Contact Us