芯片资讯
你的位置:DRAM半导体存储器芯片 > 芯片资讯 > AI人工智能内测;GPT
AI人工智能内测;GPT
- 发布日期:2024-02-11 09:12 点击次数:201
Andrejej,前特斯拉AI总监,现回归OpenAI的AI大神 8月3日,Karpathy转发了一篇广为流传的博客文章。本文讨论了英伟达GPU的短缺,认为小型和大型云供应商的大型H100集群正在耗尽;培训大型语言模型的初创企业、云服务提供商和其他大公司需要超过1000个H100或A100,对大型开源模型进行重大微调的初创公司需要超过100张H100或A100;预测H100短缺可能持续到2024年。
本文预测GPT-4可能在1万到2.5万张A100上训练,Meta有2.1万张A100张左右,特斯拉有7万张A100张左右,半导体存Stability AI拥有大约5000张A100张,Falcon-40B在384张A100上训练。Inflection在其GPT-3.5等效模型中使用了3500张H100。GPT-H100张可能需要30000-50000张。H100,GCP约25000张。H1000-40000张微软Azure可能有类似的Oracle。约35000-40000张H100张CoreWeave预订。
在H100的需求方面,OpenAI可能需要5万张,Inflection可能需要2.2万张,Meta可能需要2.5万张(有人说Meta实际上想要10万张甚至更多)。每个大型云可能需要30000张(Azure、谷歌、AWS、Oracle)。Lambda、CoreWeave等私有云可能需要10万张。Anthropic、Helsing、Mistral、Character,每个家庭可能需要1万张。
相关资讯
- 英伟达GPU缺货风暴:缺5万张H1002024-02-10
- 苹果每生产一片架构芯片需要支付ARM不到30美分专利费2024-02-09
- 碳化硅(SiC)半导体2024-02-06
- 安森美与博格华纳扩大碳化硅战略合作2024-02-06
- 半导体芯片公司(MCU解决方案供应商)2024-02-04
- 追光四十年,“铁三角”全景光刻助力ASML微观世界技术变革2024-02-04