在国产大模型价格战里,DeepSeek 是最难绕开的名字。V3.2 标准输入 2 元、缓存命中 0.2 元、输出 3 元每百万 Token——这个定价在 Hacker News 和 Reddit 上已经被反复讨论了半年,结论也基本一致:同等智商水平的模型里,DeepSeek 是全球最便宜的。 更关键的是,DeepSeek ...
他还假设了一个情况,那就是 DeepSeek 新模型在华为平台上首发,黄仁勋表示这一天对美国来说将是一个可怕的结果,因为这意味着 AI 模型被优化为在中国 AI 硬件上表现最佳,而这些模型扩散到全球之后,就会推动中国技术成为世界标准。
外界对DeepSeek的期待正在变得更加具体而复杂:它能否重新证明自己的技术领导力?能否将技术势能转化为可持续的营收?甚至,在能否用有限算力训练出足够强的“中国模型”?文|《财经》研究员 吴俊宇编辑|谢丽容4月初,The Information报道称,DeepSeek V4将在4月下旬发布,且会率先支持华为新一代AI芯片昇腾950PR。4月18日,The Information称DeepSeek正 ...
2026 年 4 月 24 日,国产 AI 大模型领军者深度求索(DeepSeek)正式发布DeepSeek-V4预览版并同步开源,以原生 100 万 Token 上下文、混合专家 MoE 架构、全栈国产算力适配三大技术突破,彻底改写全球大模型产业格局。据斯坦福 HAI 最新《2026 人工智能指数报告》显示,全球 AI 产业已从单一模型能力比拼,转向模型、算力、应用、生态的系统化竞争,长文本处理 ...
DeepSeek-V4预览版本,终于发布了。 今日,DeepSeek官方宣布:拥有百万字超长上下文的deepseek-v4-pro和deepseek-v4-flash两款模型发布并开源,即日起登录官网或官方App即可与最新的DeepSeek-V4对话,探索1M(百万)超长上下文记忆的全新体验,API服务已同步更新。 据官方 ...
五一前两日大模型进入发布潮,DeepSeek V4发布,标配1M超长上下文,开源模型权重和技术报告,在能力、成本、开源等方面有突破。 就在刚刚,被期待已久的 DeepSeek V4 预览版正式登场。两个版本——V4-Pro 和 V4-Flash,全系标配 1M(百万字)超长上下文,同步开源 ...
AI 圈的头条被 DeepSeek 承包了十几天,昨天,OpenAI 终于坐不住了,推出了全新推理模型系列 o3-mini。不仅首次向免费用户开放了推理模型,而且相比之前的 o1 系列,成本更是降低了 15 倍之多。 OpenAI 也称这是其推理模型系列中最新、最具成本效益的模型: 刚刚 ...
百万Token价格低至2毛钱。 DeepSeek离下一代架构,又近了一步! 智东西9月30日报道,昨日,DeepSeek宣布开源DeepSeek-V3.2-Exp实验版模型。该模型首次引入了DeepSeek Sparse Attention稀疏注意力机制,并在几乎不影响模型输出效果的前提下,大幅度提升了长文本训练和推理 ...
PChome 4月22日消息,今日,有大量用户反馈称,DeepSeek官方API已经更新到了与客户端及网页版相同的1M tokens上下文版本(似乎是此前曝光的DeepSeek V4 Lite),同时,比之前的128k 上下文更长。 PChome 4月22日消息,今日,有大量用户反馈称,DeepSeek官方API已经更新到了与 ...
华南理工大学DeepSeek部署的最大特点是凭借满血版DeepSeek-R1跨校共享的功能,向省内其他院校提供DeepSeek后端共享服务,快速实现全省60多所高校DeepSeek本地化部署。 1月20日,DeepSeek-R1模型发布,引发全球关注。因其性能接近OpenAI-o1,且成本仅为同类模型的3%~10% ...
这是英伟达CEO黄仁勋近期在一档播客节目中发出的警告。让他发出警告的对象,是即将发布新模型的中国AI公司DeepSeek。 让黄仁勋警惕的,并不是某个具体的模型能力,而是另一件事——综合多家权威媒体报道: DeepSeek-V4 模型在设计之初便优先围绕华为昇腾AI体系进行适配。
当前正在显示可能无法访问的结果。
隐藏无法访问的结果