微軟開源可解釋機器學習工具包lnterpretML
【 圖片來源:Microsoft Research Blog 所有者:Microsoft Research Blog 】
人類創(chuàng)造出人工智能,并且被人工智能影響著自己的生活。如果人工智能的行為具有可理解性,那么人類可以更進一步地利用人工智能。近期,微軟研究院就機器學習的可理解性發(fā)表了相關(guān)文章,雷鋒網(wǎng)全文編譯如下。
當人工智能系統(tǒng)能夠影響人類生活時,人們對它的行為理解是非常重要的。通過理解人工智能系統(tǒng)的行為,數(shù)據(jù)科學家能夠適當?shù)卣{(diào)試它們的模型。如果能夠解釋模型的行為原理,設計師們就能夠向最終用戶傳遞這些信息。如果醫(yī)生、法官或者其它決策制定者相信這個強化智能系統(tǒng)的模型,那他們就可以作出更好的決策。更廣泛的講,隨著模型的理解更加全面,最終用戶可能會更快接受由人工智能驅(qū)動的產(chǎn)品和解決方案,同時,也可能更容易滿足監(jiān)管機構(gòu)日益增長的需求。
事實上,要實現(xiàn)可理解性是復雜的,它高度依賴許多變量和人為因素,排除了任何“一刀切”的方法??衫斫庑允且粋€前沿的、跨學科的研究領域,它建立在機器學習、心理、人機交互以及設計的思想上。
微軟研究院這些年一直致力于研究如何創(chuàng)造出具有可理解性的人工智能,如今,如今微軟在MIT開源協(xié)議下開源了lnterpretML軟件工具包,開源地址是 https://github.com/Microsoft/interpret,它將使開發(fā)人員能夠嘗試各種方法去解釋模型和系統(tǒng)。InterpretML能夠執(zhí)行許多可理解的模型,包括可解釋的Boosting Machine(相對于一般的加性模型做了改進),以及為黑箱模型的行為或者它們的個別預測生成解釋的幾種方法。
通過一些簡單的方式去評估可理解性方法,開發(fā)人員就能夠比較不同方法產(chǎn)生的解釋,從而去選擇那些***他們需求的方法。例如,通過檢查方法之間的一致性,這樣一來,比較法就能夠幫助數(shù)據(jù)科學家去了解在多大程度上相信那些解釋。
微軟正期待與開源社區(qū)合作,繼續(xù)開發(fā)InterpretML,開源地址是https://github.com/Microsoft/interpret
本文轉(zhuǎn)自雷鋒網(wǎng),如需轉(zhuǎn)載請至雷鋒網(wǎng)官網(wǎng)申請授權(quán)。