(資料圖片)
4月24日 消息:根據研究公司 SemiAnalysis 的數據,ChatGPT 的巨大知名度和強大功能使其維護成本高得驚人,The Information報道稱,維護OpenAI的ChatGPT等對話式人工智能引擎每天的開銷高達70萬美元。
該公司首席分析師迪倫·帕特爾 (Dylan Patel) 表示:“大部分成本都基于他們所需的昂貴服務器。”Patel透露,現在的成本可能更高,因為這些估算是基于 GPT-3,OpenAI 的最新模型 GPT-4的運行成本更高。
這不是 ChatGPT 才有的問題,OpenAI維護ChatGPT等對話式人工智能引擎每天需要支出高達70萬美元,其中大部分開銷來自于對昂貴服務器的需求。
這正是已向OpenAI投資數十億美元的微軟正在準備自己的專有 AI 芯片的原因。微軟準備推出自有Athena芯片,有望將每顆芯片的成本降低三分之一。
“Athena”自2019年以來一直在開發中,現在可供少數微軟和 OpenAI 員工使用。
在部署該芯片時,微軟希望取代目前使用的 Nvidia 的GPU,轉而使用更高效、運行成本更低的東西。“與 Nvidia 的產品相比,Athena 具有競爭力,可以將每個芯片的成本降低三分之一,”Patel 告訴The Information。
盡管這將標志著微軟首次涉足 AI 硬件,但該公司可能并不打算全面取代 Nvidia 的 AI 芯片,因為兩者各方最近同意進行為期數年的 AI 合作。
上周,OpenAI 首席執行官 Sam Altman表示,“我們正處于“巨型 AI 模型時代”的尾巴,因為像 ChatGPT 這樣的大型語言模型似乎正在接近其龐大規模的收益遞減點。根據OpenAI 自己的分析,OpenAI 最新的 GPT-4模型報告的參數大小超過一萬億,可能已經接近實際可擴展性的極限。
雖然更大的參數通常意味著人工智能的能力更強,但也會推高成本。
【來源:站長之家】
關鍵詞: