譯者 | 晶顏
審校 | 重樓
“AWS re:Invent 2023”于11月27日至12月1日在拉斯維加斯舉行,展示了亞馬遜保持其領(lǐng)先云提供商地位的承諾。通過一系列戰(zhàn)略公告,該公司展示了其在行業(yè)中樹立新標(biāo)準(zhǔn)的不懈追求。以下是今年活動的十大亮點:
Amazon Q:革命性的人工智能互動
AWS首席執(zhí)行官亞當(dāng)?塞利普斯基(Adam Selipsky)在主題演講中宣布了一款人工智能聊天機(jī)器人Amazon Q,它代表了客戶互動的重大飛躍。經(jīng)過17年的AWS知識培訓(xùn),Amazon Q超越了傳統(tǒng)的問答功能,使用戶能夠參與對話、生成內(nèi)容并執(zhí)行各種操作,改變了開發(fā)者和 IT 人員在亞馬遜云科技上構(gòu)建、部署和運維應(yīng)用程序和工作負(fù)載的方式。
客戶可以通過亞馬遜云科技管理控制臺、文檔頁面、IDE、Slack或其他第三方對話應(yīng)用程序的聊天界面訪問Amazon Q。據(jù)悉,Amazon Q可以被企業(yè)用于各種功能,包括開發(fā)應(yīng)用程序、轉(zhuǎn)換代碼、生成商業(yè)智能、充當(dāng)商業(yè)應(yīng)用程序的生成式人工智能助手,以及通過Amazon Connect產(chǎn)品幫助客戶服務(wù)代理。
Amazon Bedrock全新功能
添加到Bedrock的更新模型包括Anthropic的Claude 2.1和Meta Llama 270b,兩者都已普遍可用。亞馬遜還將其專有的Titan Text Lite和Titan Text Express基礎(chǔ)模型添加到Bedrock。
此外,這家云服務(wù)提供商還在AI應(yīng)用程序構(gòu)建服務(wù)中添加了一個預(yù)覽模型——亞馬遜Titan圖像生成器(Amazon Titan Image Generator)。Titan利用AI根據(jù)文本描述或自定義現(xiàn)有圖像生成逼真的工作室質(zhì)量圖像。該服務(wù)內(nèi)置了防止惡意和偏見的護(hù)欄,滿足了對負(fù)責(zé)任的人工智能日益增長的需求。
AWS還在Bedrock中發(fā)布了一項新功能,允許企業(yè)評估、比較和選擇最適合其用例和業(yè)務(wù)需求的基礎(chǔ)模型。該功能被稱為模型評估(Model Evaluation),目前處于預(yù)覽階段,該功能旨在簡化幾項任務(wù),如確定基準(zhǔn)、設(shè)置評估工具和運行評估,從而實現(xiàn)時間和成本節(jié)約。
SageMaker HyperPod:大型語言模型(LLMs)的優(yōu)化訓(xùn)練
為了幫助企業(yè)有效地培訓(xùn)和部署大型語言模型,AWS在其亞馬遜SageMaker人工智能和機(jī)器學(xué)習(xí)服務(wù)中引入了兩項新產(chǎn)品——SageMaker HyperPod和SageMaker Inference。
該公司表示,與手動模型訓(xùn)練過程(容易出現(xiàn)延遲、不必要的支出和其他并發(fā)癥)相比,HyperPod消除了為訓(xùn)練模型構(gòu)建和優(yōu)化機(jī)器學(xué)習(xí)基礎(chǔ)設(shè)施的繁重工作,將訓(xùn)練時間減少了40%。
另一方面,SageMaker Inference旨在幫助企業(yè)降低模型部署成本并減少模型響應(yīng)中的延遲。為了做到這一點,Inference允許企業(yè)將多個模型部署到同一個云實例中,以便更好地利用底層加速器。
AWS還更新了針對業(yè)務(wù)分析師的低代碼機(jī)器學(xué)習(xí)平臺SageMaker Canvas。AWS數(shù)據(jù)庫、分析和機(jī)器學(xué)習(xí)服務(wù)主管Swami Sivasubramanian表示,分析師可以使用自然語言在Canvas中準(zhǔn)備數(shù)據(jù),以生成機(jī)器學(xué)習(xí)模型。該無代碼平臺支持來自Anthropic、Cohere和AI21 Labs的LLM。
值得一提的是,SageMaker現(xiàn)在還具有模型評估功能,現(xiàn)在稱為SageMaker Clarify,可以從SageMaker Studio中訪問。
Guardrails for Bedrock:微調(diào)語言模型
亞馬遜云科技始終致力于以負(fù)責(zé)任的方式開發(fā)AI,此次針對生成式AI的安全性,AWS全新發(fā)布了Guardrails for Amazon Bedrock預(yù)覽版,允許公司定義和限制模型使用的語言。該特性支持對模型可以處理的主題進(jìn)行精確控制,從而防止模型響應(yīng)不相關(guān)的查詢。通過確保語言模型與特定的公司指導(dǎo)方針和目標(biāo)保持一致,Guardrails for Bedrock增強(qiáng)了語言模型的實用性。
Clean Rooms ML:保護(hù)隱私的人工智能協(xié)作
AWS Clean Rooms ML是Amazon推出的一個隱私保護(hù)服務(wù),允許AWS客戶部署專為一次性公司合作訓(xùn)練的“相似”人工智能模型,該服務(wù)是AWS現(xiàn)有的Clean Rooms產(chǎn)品的分支。
在現(xiàn)有AWS Clean Rooms服務(wù)的基礎(chǔ)上,這一新穎的產(chǎn)品消除了AWS客戶在人工智能模型的開發(fā)、培訓(xùn)和部署階段與外部合作伙伴共享專有數(shù)據(jù)的必要性。通過促進(jìn)安全和保護(hù)隱私的協(xié)作,Clean Rooms ML加速創(chuàng)新并確保敏感數(shù)據(jù)的機(jī)密性,標(biāo)志著負(fù)責(zé)任和協(xié)作的人工智能開發(fā)邁出了重要一步。
Amazon Braket:提供訪問量子計算機(jī)機(jī)會
亞馬遜科技公布量子計算芯片進(jìn)展(Logical Qubit),宣布推出一項名為Amazo Braket Direct的新計劃,為研究人員提供直接地、私人地訪問量子計算機(jī)的機(jī)會。
該項目是AWS管理的量子計算服務(wù)的一部分,該服務(wù)于2020年推出,名為Amazon rack。
AWS表示,Amazon Bracket Direct允許企業(yè)的研究人員在沒有任何等待時間的情況下私人訪問各種量子處理單元(QPU)的全部容量,并且還提供了從AWS量子計算專家團(tuán)隊那里獲得工作負(fù)載專家指導(dǎo)的選項。
目前,Direct計劃支持IonQ Aria、QuEra Aquila和Rigetti Aspen-M-3量子計算機(jī)的預(yù)訂。
IonQ的售價為每小時7000美元,QuEra Aquila的售價為每小時2500美元,Rigetti Aspen-M-3的價格略高,為每小時3000美元。
成本優(yōu)化中心(Cost Optimization Hub):幫助企業(yè)減少開支
re:Invent宣布的更新包括一個新的AWS計費和成本管理功能,稱為AWS成本優(yōu)化中心(Cost Optimization Hub),它使企業(yè)可以輕松地識別、過濾、匯總和量化AWS成本優(yōu)化建議的節(jié)省。
根據(jù)AWS的說法,新的成本優(yōu)化中心將跨AWS云財務(wù)管理(CFM)服務(wù)(包括AWS成本管理器和AWS計算優(yōu)化器)的所有成本優(yōu)化建議操作集中在一個地方。此外,它還將客戶特定的定價和折扣納入這些建議中,從而提供企業(yè)成本優(yōu)化機(jī)會的綜合視圖。
該功能可能有助于FinOps或基礎(chǔ)設(shè)施管理團(tuán)隊了解成本優(yōu)化機(jī)會。
S3 Express One-Zone:提升S3對象存儲性能
在本次大會中,AWS還正式發(fā)布了高性能、低延遲的對象存儲服務(wù)Amazon S3 Express One Zone,對其S3對象存儲服務(wù)進(jìn)行了重大更新。該服務(wù)旨在為延遲敏感的應(yīng)用提供個位數(shù)毫秒級延遲的高性能,以支持每分鐘數(shù)百萬請求、每秒數(shù)十萬次的數(shù)據(jù)訪問。Amazon S3 Express One Zone的數(shù)據(jù)訪問速度比Amazon S3標(biāo)準(zhǔn)版快10倍,請求成本降低50%,計算成本降低60%。
這種S3的高性能和低延遲層保證了性能的大幅提高,特別有利于數(shù)據(jù)密集型應(yīng)用程序,如AI/ML訓(xùn)練、財務(wù)建模和高性能計算(HPC)。S3 Express One Zone為希望在存儲解決方案中提高速度和效率的用戶提供了一個絕佳的選擇。
Zero-ETL:釋放更大數(shù)據(jù)價值
進(jìn)入生成式AI時代,為釋放數(shù)據(jù)更大價值,Amazon宣布了4項新的Zero-ETL集成功能:Amazon Aurora PostgreSQL、Amazon DynamoDB、Amazon RDS for MySQL 與Amazon Redshift,使客戶能夠快速、輕松地連接和分析數(shù)據(jù),而無需構(gòu)建和管理復(fù)雜的提取、轉(zhuǎn)換和加載(ETL) 數(shù)據(jù)管道。
根據(jù)該公司的說法,新的Zero-ETL集成消除了在Aurora PostgreSQL、DynamoDB、RDS for MySQL和RedShift之間執(zhí)行ETL的需要,因為這些數(shù)據(jù)庫中的事務(wù)數(shù)據(jù)幾乎可以立即復(fù)制到RedShift中,并準(zhǔn)備好進(jìn)行運行分析。如此一來,用戶將能獲得跨多個應(yīng)用的整體洞察力,在提高運營效率的同時降低成本,并生成更好的數(shù)據(jù)驅(qū)動決策。
AWS Trainium2和Graviton4:強(qiáng)化生成式AI的基礎(chǔ)設(shè)施
自去年以來,這家云服務(wù)提供商一直在強(qiáng)化其基礎(chǔ)設(shè)施功能和芯片,以支持具有更高能效的高性能計算。此次大會上,AWS宣布了用于人工智能模型訓(xùn)練和推理的芯片技術(shù)的最新進(jìn)展。專為模型訓(xùn)練而設(shè)計的AWS Trainium2,承諾比其前身提高4倍的性能和2倍的能源效率。
在推理方面,AWS發(fā)布了全新一代Graviton處理器——Amazon Graviton4。相比Graviton3,它的核心多出50%,內(nèi)存帶寬提升75%,Graviton4芯片速度較Graviton3提升30%,對于數(shù)據(jù)庫和Java應(yīng)用等關(guān)鍵工作負(fù)載方面實現(xiàn)了更顯著的性能提升,分別提升40%和45%。
此外,在re:Invent大會上,AWS還擴(kuò)展了與英偉達(dá)的合作伙伴關(guān)系,包括對DGX Cloud的支持、名為Ceiba的新GPU項目,以及支持生成式AI工作負(fù)載的新實例。
英偉達(dá)也分享了將NeMo retriver微服務(wù)集成到AWS的計劃,以幫助用戶開發(fā)聊天機(jī)器人等生成式AI工具。NeMo retriver是一種生成式AI微服務(wù),使企業(yè)能夠?qū)⒆远x大型語言模型(LLM)連接到企業(yè)數(shù)據(jù),以便公司可以根據(jù)自己的數(shù)據(jù)生成適當(dāng)?shù)腁I響應(yīng)。
AWS還表示,它將成為首家將英偉達(dá)GH200 Grace Hopper超級芯片帶入云端的云提供商。
結(jié)語
AWS re:Invent 2023展示了亞馬遜與關(guān)鍵行業(yè)趨勢的戰(zhàn)略一致性,特別是人工智能在塑造云計算未來方面的關(guān)鍵作用。最新的服務(wù)和功能反映了AWS為滿足不斷變化的業(yè)務(wù)需求而做出的一致努力,強(qiáng)調(diào)無縫交互、增強(qiáng)的性能和創(chuàng)造性的人工智能應(yīng)用程序。
亞馬遜對創(chuàng)新的不懈追求,以及對人工智能驅(qū)動解決方案的關(guān)注,突顯了其保持市場領(lǐng)導(dǎo)地位的承諾。通過解決云計算的各個方面——從先進(jìn)的芯片技術(shù)到交互式聊天機(jī)器人和隱私保護(hù)服務(wù)——AWS正在鞏固其作為一個多功能和前瞻性的云提供商的聲譽,并準(zhǔn)備好駕馭行業(yè)的動態(tài)格局。
原文標(biāo)題:AWS re:Invent 2023: 7 takeaways from the big annual event,作者:Anirban Ghoshal
原文標(biāo)題:7 Big Takeaways From AWS re:Invent 2023