登录注册
中国首批微软Azure OpenAI服务落地!巨头们慌不慌
黑芝麻22
躺平
2023-02-21 08:14:33

微软Azure OpenAI独家云服务提供商,依托微软Azure云平台强大的算力支持,以及Azure OpenAI宇宙最强的自然语言处理能力,帮助企业更好地实现数据管理,切实提升生产力。

微软Azure这么强大原因是因为背后还有其黑科技UDC的支持,OpenAI 的ChatGPT选择在微软的Azure 云平台Azure平台运用的就是UDC解决方案来优化工作负载并降低成本进行托管!

UDC技术最早来源于微软,2014年,微软启动水下数据中心项目,由加拿大公司Oceanwork设计,该公司具备50年全球海洋工程经验。

2018年,微软在苏格兰奥克尼群岛海底部署装载满服务器的水下数据舱“Project Natick”。


2020年夏季,微软将数据舱打捞上岸,水中数据中心故障率仅为陆上数据中心的1/8。


2017年,海兰信定增收购加拿大Oceanwork,原班底引入中国,同时公司自己工程师完成技术消化;目前公司完全具备相关施工作业能力,自主掌握相关技术储备,并已开始商用。

 

AI计算对电力有巨大需求。AI 应用程序要在经济上可行,就必须降低电力成本来降低 AI 计算价格。目前,通过云或直接从数据中心访问所需算力的巨大成本普遍令人望而却步。ChatGPT 的运营亏损严重,每天仅在计算上就花费超过 10 万美元。


AI训练需要大量的计算能力,但几乎不需要与最终用户或其他设施进行闪电般快速连接,这将推动低电力成本和可再生能源市场的需求。人工智能主要考虑因素是提供尽可能低的计算成本。虽然这主要意味着廉价的电力,但也可以通过建造无冗余的传统任务关键型数据中心,并将它们放置在需要使用较少电力进行冷却的寒冷地区,从而降低成本


海底数据中心(UDC)完美契合AI的需求


OpenAI 的ChatGPT选择在微软的Azure 云平台(Azure平台运用的就是UDC解决方案来优化工作负载并降低成本)进行托管,这样 OpenAI 就不必投资物理服务器机房。考虑到微软目前的费率,单个 A100 GPU 每小时运行费用为3 美元,在ChatGPT 上生成的每个单词的费用为 0.0003 美元。至少有八个 GPU 用于在单个ChatGPT 上运行。因此,当 ChatGPT 生成平均 30 个单词的响应时,公司将花费近 1 美分。通过这样的估算,OpenAI 可能每天至少花费 10 万美元或每月 300 万美元用于运行成本。


UDC是将服务器等IT设施安装在海底密封的压力容器中,用海底复合缆供电、并将数据回传至互联网的数据中心。UDC位于海平面之下、利用海水作为自然冷源,可将产生的热量通过冷却系统散入海水中,相比传统的陆上数据中心(IDC),UDC具有省电、省地、省水、绿色,有明显的成本优势。



一句话总结:UDC特别适用于为ChatGPT提供最佳算力解决方案,而绑定微软Azure OpenAI皇牌算力团队A股UDC独苗海兰信值得积极关注。让我们拭目以待

S微软公司(MSFT)S S海兰信(sz300065)S 




作者在2023-02-21 08:37:53修改文章
声明:文章观点来自网友,仅为作者个人研究意见,不代表韭研公社观点及立场,站内所有文章均不构成投资建议,请投资者注意风险,独立审慎决策。
S
微软公司
S
海兰信
工分
3.81
转发
收藏
投诉
复制链接
分享到微信
有用 11
打赏作者
无用
真知无价,用钱说话
0个人打赏
同时转发
评论(4)
只看楼主
热度排序
最新发布
最新互动
  • 1
前往