人工智能(AI)預(yù)測犯罪的倫理與法理危機
想象一下,你走在街上,突然一輛警車停在身邊,幾個警察跳下來,抓住你的胳膊,說你被捕了。你驚恐地問為什么,他們說:根據(jù)AI預(yù)測犯罪系統(tǒng)的結(jié)論,你將在未來的某個時間犯罪。你無法相信這是真的,你從來沒有想過要犯罪。雖然你進行了辯解,但他們?yōu)榱朔乐鼓銓嵤┓缸铮荒馨涯汴P(guān)起來。
像不像是一部科幻電影的情節(jié)?但它也許會成為現(xiàn)實。
近日,有報道稱:美國在公共安全的AI方面的支出預(yù)計將從 2022 年的 93 億美元增加到 2030 年的 710 億美元。用于預(yù)防犯罪、自然災(zāi)害等方面。
AI預(yù)測犯罪是指利用大數(shù)據(jù)算法分析過去的犯罪模式、風(fēng)險因素等數(shù)據(jù),預(yù)測未來可能發(fā)生的犯罪事件和人員。其目的想要提高犯罪防控的效率和效果。
然而,這也會引發(fā)了一系列的爭議,因為它會侵犯人們的基本權(quán)利,加劇社會不平等,損害法治原則。
首先,AI預(yù)測犯罪可能會侵犯個人意志和隱私。根據(jù)一些歷史數(shù)據(jù)、算法來判斷人們是否有犯罪傾向,從而進一步去影響他的生活和權(quán)利。比如,如果A被預(yù)測為有可能犯罪,那么是否應(yīng)該對他進行監(jiān)視和限制行動?A如何證明自己的清白?A是否有權(quán)知道自己被預(yù)測的理由和依據(jù)?這些問題技術(shù)無法給出答案,反而會造成心理恐懼。
其次,AI預(yù)測犯罪可能會加劇社會不公、歧視。歷史數(shù)據(jù)會傾向于將某些地區(qū)、或少數(shù)人群視為高風(fēng)險,而有可能導(dǎo)致過度執(zhí)法。比如,某一個地區(qū)的歷史犯罪率較高,那么它是否就應(yīng)該加強監(jiān)控、分配更多的警力?這是否對該地區(qū)居民造成困擾?會不會讓一些人感到被優(yōu)待和特權(quán),而讓另一些人感到被壓迫和邊緣化。
第三,AI預(yù)測犯罪對現(xiàn)代的法理有挑戰(zhàn),可能損害法治和正義。現(xiàn)代法律以證據(jù)為基礎(chǔ),只憑借歷史數(shù)據(jù)推測,在沒有證據(jù)來證明的情況下將一些無辜的人視為嫌疑人或受害人,影響他們的生活和權(quán)利??赡軙?dǎo)致一些冤假錯案的發(fā)生。
AI預(yù)測犯罪可能是一種潛在風(fēng)險很大的應(yīng)用研究,即便有更多的監(jiān)督和規(guī)范,也較難確保其符合社會倫理和價值。也許應(yīng)該更多地關(guān)注犯罪的根本原因,如貧困、教育、社會服務(wù)等,而不是僅僅依賴于技術(shù)的解決方案。