自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

最新Claude2.1、Llama 2隨便用!亞馬遜把生成式AI開發(fā)門檻打下去了

人工智能 新聞
能夠將如此眾多大模型“打包”起來的集大成者,便是亞馬遜云科技的AI大模型服務Amazon Bedrock。

好消息,搞生成式AI應用的門檻,被狠狠地打下去了!

就在剛剛,亞馬遜云科技在年度盛會re:Invent中正式宣布:

在我這搞生成式AI應用,主流、最新大模型隨便用~

例如Meta家的Llama 2 70B、Antropic家的Claude 2.1等等:

圖片

能夠將如此眾多大模型“打包”起來的集大成者,便是亞馬遜云科技的AI大模型服務Amazon Bedrock。

當然,其中也包含了自家最新升級的大模型Titan

  • Titan Text Embeddings:將文本轉變?yōu)閿?shù)字表征;
  • Titan Text Lite:可執(zhí)行對文本的總結、文案生成和微調;
  • Titan Text Express:開放式文本生成、會話聊天,并支持RAG;
  • Titan Multimodel Embeddings:支持搜索、推薦和個性化定制;
  • Titan Image Generator:可生成超現(xiàn)實、影棚級質量的圖片。

圖片

亞馬遜云科技AI副總裁Swami Sivasubramanian,還在現(xiàn)場演示了Titan Iamge Generator的能力。

例如只需一句話就可以將一只綠色蜥蜴,毫無PS痕跡地變成橘色:

圖片

再如把圖片掉轉個方向,也是只是一句話的事兒了:

圖片

方便,著實是方便。

不過縱觀整場發(fā)布會,這些個功能和升級也還僅是亞馬遜云科技把門檻打下去的動作一隅。

還有更多新功能的發(fā)布,讓搞生成式AI應用變得簡單了不少。

SageMaker上新

SageMaker是亞馬遜云科技長期押注的一個項目,它的主要作用便是構建、訓練和部署機器學習模型。

Swami在今天的大會中宣布了它的諸多新功能,讓客戶可以更輕松地去構建、訓練和部署生成式AI模型。

首先,便是SageMaker HyperPod功能。

我們都知道,以往基礎模型通常過于復雜,無法使用單個 AI 芯片進行訓練;因此,它們必須拆分到多個處理器上,這是一項技術上復雜的工作。

而SageMaker HyperPod可以提供對按需AI訓練集群的訪問,開發(fā)人員可以通過點擊式命令和相對簡單的腳本組合來配置集群,這比手動配置基礎架構要快得多。

Swami在現(xiàn)場表示:

SageMaker HyperPod將訓練基礎模型所需的時間減少了40%。

圖片

SageMaker HyperPod不僅可以自動執(zhí)行設置AI訓練集群的過程,它還可以自動執(zhí)行其維護。

當客戶集群中的某個實例脫機時,內置的自動化軟件會自動嘗試修復它;如果故障排除嘗試不成功,SageMaker HyperPod 會將出現(xiàn)故障的節(jié)點換成新節(jié)點。

在某些情況下,基礎模型需要數(shù)周或數(shù)月的時間來訓練。如果中斷使底層 AI 基礎設施脫機,開發(fā)人員必須從頭開始重新開始訓練,這可能會導致嚴重的項目延遲。

為避免此類情況,SageMaker HyperPod 會在訓練期間定期保存AI模型,并提供從最新快照恢復訓練的功能。

圖片

不僅如此,每個SageMaker HyperPod集群都預配置了一組亞馬遜云科技開發(fā)的分布式訓練庫。

這些庫會自動將開發(fā)人員的模型分散到集群中的芯片上,而且還可以將訓練該模型的數(shù)據(jù)拆分為更小,更易于管理的部分。

其次,在推理方面,亞馬遜云科技推出了SageMaker Inference功能。

它的出現(xiàn)將有助于降低模型的部署成本和延遲;新的推理功能可以讓客戶單個端點上部署一個或多個基礎模型,并控制分配給它們的內存和加速器數(shù)量。

具體降本增效的成果,亞馬遜云科技在現(xiàn)場也有介紹:

這項新功能可以幫助將部署成本降低50%,并將延遲減少20%。

在構建機器學習模型的無代碼界面上的SageMaker Canvas也有所更新。

我們現(xiàn)在可以直接用自然語言去處理了!

在聊天界面中,SageMaker Canvas提供了許多與您正在使用的數(shù)據(jù)庫相關的引導提示,或者你可以提出自己的提示。

例如,你可以通過說“準備數(shù)據(jù)質量報告”、“根據(jù)特定條件刪除行”等等,讓它來執(zhí)行你的需求。

……

總而言之,SageMaker今天的眾多能力更新,著實是讓模型的構建、訓練和部署簡單了不少。

對數(shù)據(jù)也“下手”了

擁有強大的數(shù)據(jù)基礎,對于充分利用生成式AI可以說是至關重要。

Swami在現(xiàn)場表示,強大的數(shù)據(jù)基礎需要滿足三點:全面(comprehensive)、集成(integrated)和治理(governed)。

圍繞這些特性,亞馬遜云科技在今天的大會中也做了相應新功能的發(fā)布。

首先便是針對向量引擎的OpenSearch Serverless,它能夠帶來更高效的搜索和流程。。

圖片

其次,DocumentDBDynamoDB也加入到了向量功能,可以允許用戶將多種數(shù)據(jù)存儲在一起。

圖片

除此之外,MemoryDB for Redis也有了相應更新,它也可以支持向量搜索,響應時間變得更快,每秒可以處理數(shù)萬個查詢。

圖片

在分析數(shù)據(jù)庫方面,亞馬遜云科技則是推出了Amazon Neptune Analytics,可以讓開發(fā)人員在幾秒鐘內檢查海量的圖形數(shù)據(jù),也支持更快的向量搜索。

圖片

在數(shù)據(jù)的“集成”特性方面,亞馬遜云科技依舊堅持的是“zero-ETL”之道——Amazon S3加持下的OpenSearch Service zero-ETL integration,僅使用一個工具,便可以分析S3中的所有操作數(shù)據(jù)。

最后,在“治理”方面,亞馬遜云科技上新的功能便是Clean Rooms ML。

圖片

它可以允許用戶在不共享底層數(shù)據(jù)的情況下與客戶應用機器學習模型。

One More Thing

在推動大模型發(fā)展的這件事上,亞馬遜云科技可以說是有著自己獨到的“玩法”——

不僅發(fā)展自家的大模型,更是給其它大模型提供AI基礎設施和AI工具,讓它們也能更好地發(fā)展。

那么二者之間是否會存在沖突和競爭呢?

在量子位與亞馬遜云科技數(shù)據(jù)庫和遷移服務副總裁Jeff Carter的交流過程中,他發(fā)表了如下看法:

我希望我們生活在一個合作的世界里,每個LLM都擅長于不同的方面,我認為這種情況會持續(xù)下去,這種專業(yè)化水平也會持續(xù)一段時間。

我喜歡Bedrock的一個原因是它可以無縫地從一個LLM轉換到另一個LLM。很明顯,亞馬遜將持續(xù)在LLM方面推進最先進的技術。

但對于每個LLM,或許下個月所呈現(xiàn)出來的能力會截然不同,這也就是為什么我們認為給客戶提供選擇的能力和同時使用多個功能的能力是如此重要的原因之一。

責任編輯:張燕妮 來源: 量子位
相關推薦

2014-09-28 10:09:28

2024-05-13 07:14:03

GPT-4生成式AIAI模型

2025-03-06 11:31:10

2023-03-30 14:22:41

2011-09-15 09:05:11

java

2016-10-24 14:03:51

戴爾

2014-07-21 15:39:47

2018-07-21 14:32:58

無限流量套餐網(wǎng)絡

2023-11-14 08:15:49

OptionalJava

2015-11-11 10:10:03

雙十一阿里

2015-05-08 07:36:36

Google App 云割據(jù)

2020-12-25 08:10:52

5G4G網(wǎng)速

2021-03-19 08:50:11

數(shù)據(jù)中臺業(yè)務中臺架構

2021-07-31 07:09:22

谷歌安卓App

2023-07-19 07:48:21

Llama 2 模型Azure AI

2024-08-12 09:47:00

模型數(shù)據(jù)

2023-11-24 17:04:02

GPT-4模型

2025-02-03 00:00:10

2021-12-21 08:12:01

Web JavaScriptCSS

2024-04-10 09:36:05

亞馬遜云科技Claude3Anthropic
點贊
收藏

51CTO技術棧公眾號