我們需要重新定義人工智能倫理嗎?
?人工智能(AI)有兩個明確的目標,目前它們并不相互排斥,但只有一個目標對人類長期有利。這些目標是要么提高人們的工作效率,要么取代人們。最近有兩件事表明我們可能需要調(diào)整道德行為,以恰當?shù)乩萌斯ぶ悄堋?/p>
第一個是關(guān)于一名藝術(shù)家使用人工智能創(chuàng)作藝術(shù),在藝術(shù)比賽中贏得了不公平的勝利;而另一個則是關(guān)于使用人工智能讓學生花很少的精力更快地寫出更好的論文。
圍繞事件的爭論同以往一樣,許多人認為學校應該禁止使用計算器和個人電腦,因為這降低了學生們學習乘法表的需要,也逃避了許多初級研究,從而轉(zhuǎn)到線上搜索和百科上。盡管隨著時間的推移,使用計算器和個人電腦的技能對走上工作崗位的學生來說,工作方法更有價值(效率)。
簡而言之,我們最終必須思考的是,使用人工智能更快地創(chuàng)造出更好的產(chǎn)品是否被認為是欺騙,還是理所應當?
關(guān)于人工智能有一種新觀點:創(chuàng)造取代人類的人工智能可能要比創(chuàng)造增強人類的人工智能更容易。第一種方法只需要專注于復制這個人所做的事情,創(chuàng)建一個他們的數(shù)字孿生,現(xiàn)在已經(jīng)有公司在做這個了。比如制造業(yè)的智能自動化。不需要與人類接觸,而人類缺乏共同的語言、共同的技能、共同的興趣。
這意味著AI最有效的使用路徑不是增強路徑,而是替代路徑,因為AI在其參數(shù)范圍內(nèi)單獨運行并不會令人反感,但AI被用于顯著增強用戶,特別是在競爭中,會被視為作弊。
例如在自動駕駛汽車上尤為明顯。對于自動駕駛汽車,目前默認的技術(shù)是增強駕駛員的能力,豐田稱之為“守護天使”(Guardian Angel)。但在測試中,英特爾發(fā)現(xiàn),在自動駕駛汽車中為人類駕駛員提供控制選項會增加駕駛員的壓力,因為他們不知道自己是否會突然被要求駕駛汽車。如果汽車不提供人類駕駛選項,未經(jīng)訓練的駕駛員會感到更舒服。這表明,從長遠來看,不允許人類駕駛員控制的自動駕駛汽車將比那些提供人類駕駛員控制功能的自動駕駛汽車更受歡迎和成功。
對于藝術(shù)家或作家來說,與比他們更有能力的人合作創(chuàng)作一件藝術(shù)品、一篇論文甚至一本書是很正常的。而且,有人在得到其他作者許可的情況下,利用其他作者的名義來創(chuàng)作一本書,這種情況也并不少見。如果使用AI而不是老師/導師/合作者/合作伙伴/代筆,情況會更糟嗎?
公司只是想要高質(zhì)量的工作,如果他們能從機器那里獲得比人力更高的質(zhì)量,他們就會做出并已經(jīng)做出了這樣的選擇。想想過去幾十年制造業(yè)和倉庫自動化的過程就知道了。
我們需要了解如何使用人工智能,如何接受最有效利用人工智能資源的工作產(chǎn)品,同時確保我們能夠防止知識產(chǎn)權(quán)盜竊和剽竊。如果我們不這樣做,人工智能的發(fā)展趨勢將繼續(xù)從關(guān)注人類的輔助轉(zhuǎn)向替代人類,這將不利于行業(yè)或越來越多的職業(yè)更好地利用人工智能。?