About 57,500,000 results
Open links in new tab
  1. 为什么大模型输入输出往往只有2K, 4K token? - 知乎

    NLP和大模型中的Token(文本单元) 在NLP和大模型的背景下,"token"则指的是文本数据的基本处理单元。 Token化是将原始文本分割成一系列tokens的过程,这些tokens可以是单词、字符、子词或其他 …

  2. 大模型训练的性能指标:吞吐率 Throughput 是指什么? - 知乎

    每秒处理的Token数: Throughput_ {tokens} = Throughput_ {samples} * seq\_len \\ 假设GLM10B网络模型使用DGX A100(8x 80GB)训练的吞吐量为25 samples/s,max seq_len为1024,那么按 …

  3. ChatGPT如何计算token数? - 知乎

    终于有人意识到这个问题了。 首先 OpenAI token 的计算包含两部分。输入给 GPT 模型的 token 数和 GPT 模型生成文本的 token 数。 例如,你提问耗费了 100 token,GPT 根据你的输入,生成文本(也 …

  4. vllm内部怎么根据max_model_len自动计算max_num_batched_tokens?

    4. 内存使用效率:模型需要在保证性能的同时,尽量减少内存的使用。 max_num_batched_tokens 的计算可能不是简单的数学公式,而是模型内部通过一系列测试和评估来确定的最佳值。 这个值可能会 …

  5. NLP领域中的token和tokenization到底指的是什么? - 知乎

    Tokenizer是将文本切分成多个tokens的工具或算法。 它负责将原始文本分割成tokens 序列。 在NLP中,有多种不同类型的tokenizer,每种tokenizer都有其特定的应用场景和适用范围。 基于字符 …

  6. 使用deepseek v3 的api接口,除了在cline用来写代码外,还能用在哪些 …

    刘琦:小红书英文评论太多看不懂了? 推荐你试试沉浸式翻译 12 赞同 · 4 评论 文章 然后,既然用ai写代码可以,用ai调用api当然也可以。 有了足够的tokens,跟分析或者聊天相关的小应用都可以玩了。

  7. 求问deepseek出现这种情况怎么办啊? ? - 知乎

    Jan 31, 2025 · DeepSeek 不是告诉你原因和解法了嘛。 原因:当前对话已超出深度思考的最大长度限制 解法:开启一个新对话继续思考吧 至于具体解释,得看这几个参数,DeepSeek R1 的 上下文长度 …

  8. deepseek本地部署满血复活版到底需要多少块h100才能达到类似豆包的 …

    Feb 8, 2025 · 相较于llama.cpp在双路配置下的4.51 tokens/s,KTransfermor实现了最高3.03倍的速度提升。 Intel AMX指令集加速: 针对Intel CPU的AMX指令集进行了深度优化,使计算效率远超现有 …

  9. 大模型的token究竟是什么? - 知乎

    1. 什么是 Token(词元)? Token 是 LLM 处理文本时的最小单元,也被称为 “词元”。 但 token 并不总是等同于一个词。根据不同的分词方式,一个 token 可以是: 一个字符 一个子词(subword,指单词 …

  10. 华为和硅基流动发布CloudMatrix384超节点部署DeepSeek的报告,对行 …

    3)展示了在CloudMatrix384上取得的卓越性能:单位算力下的Prefill和Decode吞吐(tokens/s per TFLOPS)超越 SGLang 和 DeepSeek 在NV H100和H800上实现的性能; 4)探讨未来AI Infra 的 …