自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Llamaindex推出workflow應(yīng)對(duì)復(fù)雜LLM應(yīng)用構(gòu)建,以及技術(shù)實(shí)現(xiàn)從圖(Graph)轉(zhuǎn)向事件驅(qū)動(dòng)(EDA)原因解析

發(fā)布于 2024-8-6 10:15
瀏覽
0收藏

同一天,LLM應(yīng)用開發(fā)另一個(gè)代表產(chǎn)品Llamaindex也發(fā)布了其在此領(lǐng)域的新功能——workflow,進(jìn)一步提升應(yīng)用編排的能力。早在去年,Llamaindex在這方面已經(jīng)有了動(dòng)作,推出了Query Pipeline(詳見:???應(yīng)用編排的未來是Pipeline,LlamaIndex開發(fā)預(yù)覽版推出Query Pipeline,提升應(yīng)用開發(fā)的靈活性???),它是一個(gè)聲明式設(shè)計(jì),可以自定義整個(gè)查詢流程為一個(gè)DAG(有向無環(huán)圖)流程,支持從簡(jiǎn)單到復(fù)雜的不同服務(wù)流程。

對(duì)于一般的RAG類的流程來講,DAG是可以應(yīng)付的,并且簡(jiǎn)單直觀,這也是大量LLM workflow設(shè)計(jì)的一致選擇,然而對(duì)于Agent流程來講,標(biāo)準(zhǔn)的DAG的結(jié)構(gòu)有一定的缺陷,比如無法處理循環(huán)邏輯(有環(huán)),然而經(jīng)典的ReAct的流程就是一個(gè)循環(huán)迭代的過程。除此之外,Llamaindex官方還提出了這一結(jié)構(gòu)的一些其他問題:

1)不易排錯(cuò)

2)模糊了組件和模塊執(zhí)行邏輯

3)Pipeline執(zhí)行器實(shí)現(xiàn)越來越復(fù)雜,必須處理大量不同的邊(edge)情況

4) 復(fù)雜的Pipeline,難以閱讀。

一旦我們?cè)诓樵働ipeline中添加了環(huán),這些圍繞圖的開發(fā)應(yīng)用的用戶體驗(yàn)問題就會(huì)被放大。以下是一些常見麻煩:

1)很多核心編排邏輯(如 if-else 語句和 while 循環(huán))都被定義到圖的邊(edge)上。定義這些邊(edge)會(huì)變得繁瑣冗長。

2)處理可選值和默認(rèn)值的邊的情況變得很困難。作為一個(gè)框架,很難確定參數(shù)是否會(huì)從上游節(jié)點(diǎn)傳遞。

3)對(duì)于構(gòu)建Agent的開發(fā)人員來說,用有環(huán)的圖來定義并不總那么自然。Agent封裝了一個(gè)由 LLM 驅(qū)動(dòng)的通用實(shí)體,它可以接收觀察結(jié)果并生成響應(yīng)。在這里,圖的形式強(qiáng)制要求 "Agent"節(jié)點(diǎn)明確定義傳入邊和傳出邊,迫使用戶定義與其他節(jié)點(diǎn)的冗長通信模式。

這一些問題,迫使Llamaindex官方團(tuán)隊(duì)重新審視這種設(shè)計(jì)的合理性。實(shí)際上,筆者在設(shè)計(jì)Flowengine時(shí)也遇到這樣的問題,順著dag圖來設(shè)計(jì)編排執(zhí)行器雖然很直覺,但是并不是最佳做法,理由兩點(diǎn):

一,它迫使開發(fā)者需要從宏觀解析圖中邊(edge)和節(jié)點(diǎn)(node)的關(guān)系,整個(gè)邏輯非常復(fù)雜,特別是對(duì)于復(fù)雜的流程節(jié)點(diǎn)的處理以及失敗情況恢復(fù)來講,都涉及到大量的狀態(tài)管理,這都使得圖很復(fù)雜,特別是對(duì)邊的處理,進(jìn)而導(dǎo)致編排器實(shí)現(xiàn)復(fù)雜。

二,違反依賴倒置原則,選擇應(yīng)用編排的方式,很大程度上是希望圖上的組件是可以復(fù)用,可插拔的,不應(yīng)該考慮它到底處于一個(gè)什么樣的圖中,畢竟先有組件,再有具體的業(yè)務(wù)流程Pipeline。而前面的做法,就使得組件節(jié)點(diǎn)需要適配圖的結(jié)構(gòu),這顯然不利于組件沉淀復(fù)用,也導(dǎo)致了組件開發(fā)的復(fù)雜性。

對(duì)于此,Llamaindex推出了新的實(shí)現(xiàn)方法——事件驅(qū)動(dòng)的模式來協(xié)調(diào)組件流程執(zhí)行。顯然事件驅(qū)動(dòng)的模式,將圖流程的調(diào)度變成了組件如何訂閱和處理事件上來。這樣很多原來邊上的處理邏輯就變成了組件自己的行為,極大的降低了復(fù)雜度和依賴,并且這樣的設(shè)計(jì)可以很容易的實(shí)現(xiàn)重試,失敗,超時(shí),循環(huán),甚至是human-in-loop等原本直接解析圖而產(chǎn)生的復(fù)雜邏輯。對(duì)于pipeline執(zhí)行器來講,提供消息分發(fā)和Context維持,以及根據(jù)訂閱情況喚醒執(zhí)行相關(guān)組件即可,也簡(jiǎn)化了整個(gè)實(shí)現(xiàn)的復(fù)雜度。

我們來看看Llamaindex的workflow是如何編寫的:

from llama_index.core.workflow import (
    StartEvent,
    StopEvent,
    Workflow,
    step,
)


from llama_index.llms.openai import OpenAI


class OpenAIGenerator(Workflow):
    @step()
    async def generate(self, ev: StartEvent) -> StopEvent:
        query = ev.get("query")
        llm = OpenAI()
        response = await llm.acomplete(query)
        return StopEvent(result=str(response))


w = OpenAIGenerator(timeout=10, verbose=False)
result = await w.run(query="What's LlamaIndex?")
print(result)

上面例子定義了一個(gè)workflow類OpenAIGenerator,其中g(shù)enerate函數(shù)使用@step裝飾器標(biāo)記為這是一個(gè)workflow步驟,方法簽名定義了其接收什么樣的事件消息以及返回值定義該步驟執(zhí)行后發(fā)布什么樣的消息。

Llamaindex同時(shí)給出了這種方式下循環(huán)的實(shí)現(xiàn)方法:

class ExtractionDone(Event):
    output: str
    passage: str




class ValidationErrorEvent(Event):
    error: str
    wrong_output: str
    passage: str
    
    
class ReflectionWorkflow(Workflow):
    @step()
    async def extract(
        self, ev: StartEvent | ValidationErrorEvent
    ) -> StopEvent | ExtractionDone:
        if isinstance(ev, StartEvent):
            passage = ev.get("passage")
            if not passage:
                return StopEvent(result="Please provide some text in input")
            reflection_prompt = ""
        elif isinstance(ev, ValidationErrorEvent):
            passage = ev.passage
            reflection_prompt = REFLECTION_PROMPT.format(
                wrong_answer=ev.wrong_output, error=ev.error
            )


        llm = Ollama(model="llama3", request_timeout=30)
        prompt = EXTRACTION_PROMPT.format(
            passage=passage, schema=CarCollection.schema_json()
        )
        if reflection_prompt:
            prompt += reflection_prompt


        output = await llm.acomplete(prompt)


        return ExtractionDone(output=str(output), passage=passage)


    @step()
    async def validate(
        self, ev: ExtractionDone
    ) -> StopEvent | ValidationErrorEvent:
        try:
            json.loads(ev.output)
        except Exception as e:
            print("Validation failed, retrying...")
            return ValidationErrorEvent(
                error=str(e), wrong_output=ev.output, passage=ev.passage
            )


        return StopEvent(result=ev.output)


w = ReflectionWorkflow(timeout=60, verbose=True)
result = await w.run(
    passage="There are two cars available: a Fiat Panda with 45Hp and a Honda Civic with 330Hp."
)
print(result)

在這個(gè)例子中,validate步驟接收試驗(yàn)性模式提取的結(jié)果作為事件,并且它可以通過返回ValidationErrorEvent來決定再次嘗試,該ValidationErrorEvent最終將被傳遞到extract步驟,該extract步驟將執(zhí)行下一次嘗試。這樣就實(shí)現(xiàn)了循環(huán)迭代的邏輯。

由于編程本身的問題,復(fù)雜的業(yè)務(wù)流程讀代碼是件痛苦的事情,Llamaindex提供了類似LangGraph Studio的能力,對(duì)執(zhí)行流程可視化,方便開發(fā)者進(jìn)行調(diào)試。

Llamaindex推出workflow應(yīng)對(duì)復(fù)雜LLM應(yīng)用構(gòu)建,以及技術(shù)實(shí)現(xiàn)從圖(Graph)轉(zhuǎn)向事件驅(qū)動(dòng)(EDA)原因解析-AI.x社區(qū)

可以看出,Llamaindex在應(yīng)對(duì)復(fù)雜的LLM應(yīng)用時(shí),采用了與Langchain相似的策略,即高代碼+可視化輔助調(diào)試的思路。這其中,事件驅(qū)動(dòng)的流程編排是一個(gè)獨(dú)特的設(shè)計(jì)。但筆者認(rèn)為,事件驅(qū)動(dòng)本身是可以和聲明式、低代碼Pipeline開發(fā)相融合的,用戶可以采用直觀的拖拉拽編排整個(gè)流程,而編排器實(shí)現(xiàn)可以采用事件驅(qū)動(dòng)的方式而非解析圖的方式,這樣豈不是更好?甚至可以提供兩種模式編程和低代碼可視化,兩者還可以實(shí)現(xiàn)互操作,更大層面覆蓋了不同背景的開發(fā)者。事實(shí)上,F(xiàn)lowEngine便是采用了這樣的設(shè)計(jì),更多細(xì)節(jié)可以加入群了解。

更多l(xiāng)lamaxindex的workflow細(xì)節(jié)可以參看官方博文:??https://www.llamaindex.ai/blog/introducing-workflows-beta-a-new-way-to-create-complex-ai-applications-with-llamaindex??

本文轉(zhuǎn)載自 ??AI工程化??,作者: ully ????

標(biāo)簽
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦