自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

對 AI 產(chǎn)品定價模式的新思考:基于人數(shù) or 工作量? 原創(chuàng) 精華

發(fā)布于 2024-9-26 10:15
瀏覽
0收藏

編者按:傳統(tǒng)的基于用戶數(shù)量的定價模式是否還適用于AI產(chǎn)品?我們今天為大家?guī)淼倪@篇文章中,作者提出:AI 產(chǎn)品應(yīng)該采用基于工作量的定價模式,而非傳統(tǒng)的基于用戶數(shù)量的定價方式。

傳統(tǒng)的基于用戶數(shù)量的定價模式在 AI 產(chǎn)品中往往會導致資源浪費和成本分配不均。一些員工可能每天都在大量使用 AI 工具,而另一些人可能幾乎不碰。這不僅會增加企業(yè)的不必要開支,還可能阻礙 AI 工具在整個組織中的廣泛應(yīng)用和創(chuàng)新。

作者分享了他們在 AI 產(chǎn)品定價方面的思考和初步嘗試。文章探討了基于工作量定價的優(yōu)勢,同時也坦誠地指出了這種模式可能面臨的挑戰(zhàn),如如何界定"已完成的工作",以及企業(yè)預算管理的復雜性等。如果你正在思考 AI 產(chǎn)品的定價問題,期望這篇文章會給你帶來新的啟發(fā)。

作者 | Vikram Sreekanti & Joseph E. Gonzalez

編譯 | 岳揚

給產(chǎn)品定價歷來是個難題,我們并不自詡為定價專家。目前,我們還在初步嘗試為 RunLLM(??runllm.com??) 找到一個合適的定價模式,這個問題最近一直縈繞在我們的心頭。我們覺得,將我們隨著與客戶互動的深入而逐漸成熟的思考過程分享出來,以及探討人工智能產(chǎn)品的特性如何影響定價規(guī)則,或許對大家有所啟發(fā)。

簡單來說,我們得到的啟示是,基于用戶人數(shù)的定價方式并不理想,人工智能工具更應(yīng)按照完成的工作量來設(shè)定價格。 這個觀點或許對某些人來說是顯而易見的真理,對另一些人來說則是激進的新觀點,但這絕非什么新奇的想法,甚至算不上是一個新概念。

對 AI 產(chǎn)品定價模式的新思考:基于人數(shù) or 工作量?-AI.x社區(qū)

Source: DALL-E 3.

從以往來看,大多數(shù)辦公效率工具的價值在于能夠與整個公司緊密結(jié)合。像 Slack、Linear、Notion 這樣的團隊協(xié)作工具,團隊規(guī)模越大,其使用頻率就越高。雖然每個新成員帶來的使用頻率增長可能不是絕對線性的,但團隊規(guī)模和產(chǎn)品使用量之間確實存在正相關(guān)。即便沒有創(chuàng)建更多的新任務(wù)或撰寫更多的文檔,讓每個團隊成員都能使用這些工具,其益處也是顯而易見的。

然而,基于人工智能的效率工具打破了這一傳統(tǒng)模式。以電子郵件為例,我在 RunLLM 擔任 CEO 和在加州大學伯克利分校擔任教授時,每天收到的郵件量與 RunLLM 的工程師或普通研究生收到的郵件量有著天壤之別。因此,如果一款基于人工智能的郵件回復工具按照人數(shù)來收費,那就顯得不太合理了 —— 畢竟,每天撰寫 100 封郵件所需完成的工作量遠遠超過了僅寫 2 封郵件。

這正是 Notion AI 等工具讓人感到不平的地方。當團隊中某些成員因工作需求而需要投入大量時間寫作時,為每個人每月支付 10 美元開通 Notion AI 就顯得有些不合理。(再加上我們還覺得 Notion AI 的實際效用并不大…)Notion AI 與 Notion 的常規(guī)定價模式需要有所區(qū)別,因為在后者這種情況下,即便用戶不常寫作,能接觸到公司文檔本身就具有價值。 而人工智能的價值在于其提供的自動化服務(wù)(它所完成的工作)。因此,我們更希望按照這一服務(wù)量來付費。

這就是基于工作量的定價原則,我們發(fā)現(xiàn)越來越多的 AI 產(chǎn)品開始采用這種定價模式。RunLLM的計費方式是依據(jù)所回答問題的數(shù)量來確定的?;?AI 的 SDRs(Sales Development Representatives) 則是根據(jù)安排的會議數(shù)量來收費。而模型提供商,自然是根據(jù)所生成的 token 數(shù)量來設(shè)定價格的。

01 基于服務(wù)使用量的定價模式并非新事物

我們所說的基于工作量的定價,實際上就是一種基于服務(wù)使用量的定價模式,這種模式自云計算軟件興起之初便已存在(其歷史甚至可以追溯至公元前 3000 年,美索不達米亞地區(qū)對灌溉用水的計價)。 如今,從AWS、GCP等云服務(wù)提供商那里使用的絕大多數(shù)服務(wù),其計費都是基于租用的計算資源時間(以秒或小時計)和數(shù)據(jù)存儲量。隨著 serverless 架構(gòu)的流行,計費模式變得更加精細:用戶只需為自己實際使用的資源付費,而不是為租用的資源付費。

然而,企業(yè)歷來對于完全基于服務(wù)使用量的定價模式持保留態(tài)度,因為這種模式下的費用難以預測,預算編制也相對困難。實際上,當云函數(shù)(cloud functions)開始流行時,一家主流云服務(wù)提供商透露,他們面臨的最大挑戰(zhàn)是企業(yè)客戶們尚未準備好接受云函數(shù)的固定使用量合同 —— 因為他們采用的是純粹的基于服務(wù)量的計費模式,企業(yè)客戶對此類基礎(chǔ)設(shè)施的采用意愿不高。

在基礎(chǔ)設(shè)施層面實施基于服務(wù)使用量的定價模式,歷來也很難實施。雖然計算某個函數(shù)運行時間相對簡單,但現(xiàn)在需要在成千上萬的服務(wù)器和數(shù)百個數(shù)據(jù)中心中可靠地跟蹤這些數(shù)據(jù)(即使在發(fā)生故障的情況下)。此外,服務(wù)的啟動和關(guān)閉也產(chǎn)生了成本,而且隨著在不同工作負載之間頻繁切換,這些成本的產(chǎn)生頻率也會更高。因此,直到最近,基于服務(wù)使用量的定價模式主要還是應(yīng)用于基礎(chǔ)設(shè)施層面(這一領(lǐng)域的團隊擁有解決相關(guān)問題的專業(yè)能力),而其他領(lǐng)域則普遍采用了基于使用人數(shù)的定價模式。

02 基于服務(wù)使用量的定價模式更適合 AI 產(chǎn)品

AI 產(chǎn)品理應(yīng)得到特殊對待。我們在上文做了簡要總結(jié),解釋了為何基于工作量的定價模式對 AI 產(chǎn)品而言具有重要價值,但這一話題值得深入挖掘。

精心打造的 AI 產(chǎn)品能夠大幅提升企業(yè)生產(chǎn)力,以低于傳統(tǒng)方式的時間消耗和成本產(chǎn)出高質(zhì)量、堪比人類的工作成果。這意味著,那些人們通常不愿意做的枯燥任務(wù) —— 例如,回復成百上千次相同的客戶咨詢、處理重復的電子郵件、挖掘潛在的銷售線索 —— 將交由人工智能來完成。自動化處理越多這樣的繁瑣任務(wù),人們就能有更多時間投入到更有價值的工作中。

這一變化帶來了兩個重要成果。首先,企業(yè)的付費模式將從按人頭計費轉(zhuǎn)變?yōu)榘磳嶋H完成的工作量計費。團隊成員能夠了解 AI SDR 的工作情況,提高了透明度,但并不會改變產(chǎn)品的產(chǎn)出。其次,在定價模式中,可以實際考慮到工作的完成質(zhì)量。就像人類一樣,AI Agents 有時也會犯錯,這一點可以在評估產(chǎn)品增加的價值時予以考慮。

舉個我們很熟悉的例子,客戶支持團隊通常根據(jù)他們處理的工單數(shù)量和處理速度來衡量其工作效率;RunLLM 能夠以更低的成本和更高的準確性完成這項工作,所以我們根據(jù)回答的問題數(shù)量來向客戶收費。但如果收到一個不相關(guān)的問題,比如“誰贏得了拿破侖戰(zhàn)爭?”或者如果找不到數(shù)據(jù)來回答一個相關(guān)的問題,我們就沒有為客戶創(chuàng)造任何價值,所以我們不會向客戶收費。

隨著討論的深入,這種做法聽起來越來越像是咨詢公司的工作方式。一般來說,這是件好事。與傳統(tǒng)軟件不同,AI 能夠生成連貫的端到端工作(end-to-end work),這正是咨詢公司期望能夠提供的服務(wù)。如果你相信這股 AI Agents 熱潮,那么你可能會認為這意味著你將擁有一支 AI Agents 團隊,為你處理所有繁瑣的工作。是否每個領(lǐng)域都會出現(xiàn)這種情況還有待觀察,但對于那些 AI 已經(jīng)展現(xiàn)出良好工作能力的領(lǐng)域 —— 如客戶支持、銷售、文檔編寫等,這已經(jīng)成為現(xiàn)實。

03 按工作量定價面臨的挑戰(zhàn)

當然,切換到基于工作量的定價模式并不是萬能的解決方案。根據(jù)產(chǎn)品完成的工作量向客戶收費會引發(fā)一些邊緣情況,這些問題是直接采用基于人數(shù)的定價模式可以避免的。

最明顯的一個問題在于如何界定“已完成的工作”。 以基于 AI 的 SDR 服務(wù)為例,你是根據(jù)預訂的會議、實際舉辦的會議還是轉(zhuǎn)換成功的會議來收費?有些咨詢公司會根據(jù)這三種不同的方式收費,收費越高意味著每項服務(wù)的成本越高。這里沒有標準答案,但主要挑戰(zhàn)在于現(xiàn)在的客戶對 AI 更加持懷疑態(tài)度。人類犯的錯誤可以輕易彌補:“對不起,我們會確保不再發(fā)生!”而 AI 犯的錯誤則會被更加仔細地審查,我們必須不遺余力地讓大家相信,人工智能可以像人類一樣學習(有時甚至更快?。?。在產(chǎn)品的大規(guī)模應(yīng)用時,這些 AI Agents 必須能夠自主運行,因此您需要贏得客戶的信任,讓他們相信您的產(chǎn)品會按其應(yīng)有的方式運行。

正如我們上文所討論的內(nèi)容,對于基于服務(wù)使用量的定價模式,企業(yè)預算的管理也很棘手,但這是一個相對比較容易解決的問題。我們觀察到的普遍原則 —— 同時也是我們在 RunLLM 所采用的方法,是一個分層的、基于服務(wù)使用量的定價模式??蛻粜枰獮轭A期的服務(wù)使用量預付一定金額,然后對于超出部分按計費單位付費。 這種計費模式在以往也是相當標準的做法,所以并沒有什么特別的秘訣可言。

最有趣,也是最具挑戰(zhàn)性的問題在于理解所做的工作對用戶的價值。我們之前分享的云基礎(chǔ)設(shè)施例子,屬于低利潤但高工作量的業(yè)務(wù)。GPU 服務(wù)的價格不僅僅取決于你使用了多少秒,還取決于你使用的資源(GPU)的成本。另一方面,交付工作(Delivering work)則是一個高利潤但低工作量的業(yè)務(wù)。這意味著每單位工作量的價格會更高,甚至可能會讓一些企業(yè)感到意外。盡管如此,我們認為基于工作價值(大致等同于你需要支付給人類來完成這項工作的費用)的定價模式是正確的方向。

再次強調(diào),這一問題沒有絕對正確的答案。 但我們已經(jīng)看到,隨著客戶逐漸理解他們不是在為計算資源付費,而是在為高質(zhì)量的工作成果付費,他們的想法正在發(fā)生變化。盡管如此,我們還有很長的路要走,才能將這一信息有效傳達給市場。

04 凡事總有例外

凡事總有例外。在這種情況下,最明顯的例外就是引發(fā)了 GenAI 革命的兩款工具:ChatGPT 和 GitHub Copilot。這兩款產(chǎn)品都采用固定的基于人數(shù)的定價模式,而不是根據(jù)服務(wù)使用量來定價。

這種定價方式之所以可行,主要有兩個原因。首先,預測這兩款工具的使用量非常困難,因此基于像使用的 tokens 數(shù)量這樣的指標來定價可能會產(chǎn)生負面激勵 —— 你不知道自己要付多少錢,所以可能會擔心如果不小心可能會增加使用成本。更重要的是,在這種情況下,量化“工作量”的難度甚至比前文描述的案例還要大。ChatGPT 如何判斷它是否完成了任務(wù),或者 GitHub Copilot 如何確定其代碼自動補全是否具有價值?在這兩種情況下,都需要依賴于用戶的反饋,而用戶的反饋可能是不準確的,并且可以被控制。

從這兩個例子中可以看出,由于任務(wù)成本相對較低且任務(wù)性質(zhì)相對通用,基于人數(shù)的定價模式在短期內(nèi)可能會繼續(xù)有效。我們可能會在其他通用產(chǎn)品中看到同樣的趨勢,但隨著市場的成熟,我們希望看到像 Copilot 這樣的產(chǎn)品能朝著更全面地完成任務(wù),并根據(jù)完成的工作量收取相應(yīng)的費用的方向發(fā)展。

盡管 AI 市場在過去 18 個月里發(fā)生了巨大變化,但我們?nèi)匀惶幱诜浅T缙诘碾A段。每一家真正的 AI 原生企業(yè)都在學習理解客戶行為,這意味著從定價策略(pricing)到利潤率(margins),再到基于數(shù)量的折扣(volume-based discounts),一切都在不斷地探索和調(diào)整之中。我們和其他人一樣,都在這個探索的過程中,我們并不認為自己已經(jīng)找到了答案,但最近幾周我們一直在思考這個問題,因為我們正在重新設(shè)計 RunLLM 的定價策略。

這里還有一個關(guān)于“如何實施基于服務(wù)使用量的計費模式”的子話題,以及是否值得為許多為實現(xiàn)這一過程自動化而出現(xiàn)的服務(wù)付費。我們還沒有形成自己的觀點 —— 而且這也并沒有特別針對人工智能產(chǎn)品,所以我們暫時不深入討論這個問題。

無論最終的具體機制如何,我們堅信基于工作量的定價模式是 AI 的發(fā)展方向,當然對于企業(yè)而言也希望如此(譯者注:這種模式更加符合他們對于效率和成本控制的需求),也許對于面向普通消費者的技術(shù)產(chǎn)品也同樣適用。也許 AI 正是我們需要的突破口,讓互聯(lián)網(wǎng)上無處不在的微交易(micro-transactions)成為可能?

Thanks for reading!

Hope you have enjoyed and learned new things from this blog!

About the authors

Vikram Sreekanti

Co-founder & CEO of RunLLM

??https://substack.com/@vsreekanti??

Joseph E. Gonzalez

Professor at UC Berkeley and Co-Founder at Run LLM

??https://substack.com/@generatingconversation??

END

本期互動內(nèi)容 ??

?如何更準確地衡量AI完成工作的價值?您認為應(yīng)該考慮哪些因素?

本文經(jīng)原作者授權(quán),由 Baihai IDP 編譯。如需轉(zhuǎn)載譯文,請聯(lián)系獲取授權(quán)。

原文鏈接:
???https://frontierai.substack.com/p/the-future-of-ai-pricing??

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關(guān)推薦