文章目录
隐藏
本文主要介绍通过python实现tokens统计,避免重复调用openai等官方api,开源节流。
一、设计思路
- 初始化tokenizer
- 使用tokenizer将文本转换为tokens
- 计算token的数量
二、业务场景
2.1 首次加载依赖

2.2 执行业务逻辑

三、核心代码
from transformers import AutoTokenizer
import time
from datetime import datetime
# 获取开始时间,并格式化为"年-月-日 时:分:秒"
start_time = time.time()
start_datetime = datetime.
文章来源于互联网:「AIGC」Python实现tokens算法
5bei.cn大模型教程网










