自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

人工智能如何消除互聯(lián)網(wǎng)上的假新聞和偏見

人工智能
人們聽到或讀到的信息總是有可能不準(zhǔn)確,無論是來自報紙、雜志、網(wǎng)絡(luò)資源還是廣播。虛假信息自人類文化誕生以來就一直存在,但人們從相互關(guān)聯(lián)的網(wǎng)絡(luò)世界接收到的大量信息,使我們特別容易在不經(jīng)意間攝入被扭曲或偽造的材料。人們需要了解分享了人工智能如何幫助解決假新聞問題和偏見的復(fù)雜性。

人們聽到或讀到的信息總是有可能不準(zhǔn)確,無論是來自報紙、雜志、網(wǎng)絡(luò)資源還是廣播。虛假信息自人類文化誕生以來就一直存在,但人們從相互關(guān)聯(lián)的網(wǎng)絡(luò)世界接收到的大量信息,使我們特別容易在不經(jīng)意間攝入被扭曲或偽造的材料。人們需要了解分享了人工智能如何幫助解決假新聞問題和偏見的復(fù)雜性。

消費(fèi)者習(xí)慣了自己的觀點(diǎn)受到他們在網(wǎng)上讀到、看到和聽到的東西的影響,比如通過網(wǎng)紅營銷或名人代言。無論事實(shí)是否支持,觀點(diǎn)都有很大的力量,許多虛假新聞依賴于激起強(qiáng)烈的情緒。當(dāng)涉及到人們的注意力和感覺時,經(jīng)常需要停下來思考我們所聽到或讀到的是否準(zhǔn)確。

根據(jù)麻省理工學(xué)院的研究人員打開一個新窗口,真實(shí)新聞在推特上傳播到1500人所需的時間是假新聞的六倍。此外,準(zhǔn)確新聞和假新聞的鏈條長度(分享社交媒體帖子的人數(shù))是高度不成比例的。可證實(shí)的新聞從未超過10條,但虛假新聞增加到19條。這部分是由于惡意行為者使用機(jī)器人群來傳播不正確的信息。

虛假信息現(xiàn)在在全球范圍內(nèi)影響著人們、政府和企業(yè)。在當(dāng)今不斷擴(kuò)張的數(shù)字信息經(jīng)濟(jì)中,發(fā)現(xiàn)并分離所謂的“假新聞”是一項(xiàng)重大任務(wù)。然而,人工智能(AI)的改進(jìn)可能會使在線信息用戶更容易區(qū)分現(xiàn)實(shí)和虛構(gòu)。

以下來探討一下如何利用人工智能來阻止錯誤信息的傳播,并使互聯(lián)網(wǎng)成為一個更平衡的新聞來源。

人工智能在文章評估中的地位如何?

通過使用先進(jìn)的算法來發(fā)現(xiàn)和接觸可能容易吸收信息的人群,合法公司利用人工智能來定位和瞄準(zhǔn)一條信息或觀點(diǎn)最可能的消費(fèi)者。例如,谷歌公司已經(jīng)實(shí)現(xiàn)了它的RankBrain算法,在2015年打開了一個新的窗口,以改進(jìn)其識別權(quán)威結(jié)果的能力。

為了區(qū)分計算機(jī)生成的材料和人工生成的文章,基于人工智能的技術(shù)可以對文本內(nèi)容進(jìn)行語言分析,并找到詞語模式、句法結(jié)構(gòu)和可讀性等線索。這些算法可以分析任何文本,通過查看單詞向量、單詞位置和內(nèi)涵來找到仇恨言論的實(shí)例。

新應(yīng)用及項(xiàng)目

假新聞來源通常在信息擴(kuò)散之前來自一個非法來源。Fandango項(xiàng)目在使用人工事實(shí)核查人員認(rèn)定為虛假的文章后,尋找具有相同術(shù)語或主張的社交媒體帖子或互聯(lián)網(wǎng)網(wǎng)站。這使得記者和專家能夠追蹤虛假信息的來源,并在他們有機(jī)會失控之前消除任何危險。

Politifact、Snopes和FactCheck使用人工編輯進(jìn)行必要的主要調(diào)查,以確認(rèn)報道或圖像的真實(shí)性。一旦識別出假貨,人工智能系統(tǒng)就會在網(wǎng)上搜索可能引發(fā)社會動蕩的類似信息。此外,如果確定該材料是真實(shí)的,應(yīng)用程序可以為網(wǎng)站文章分配聲譽(yù)評分。

一些人工智能引擎目前在其評估評分中使用以下措施:

?情緒分析:記者對新聞總體或他們所寫的特定主題的態(tài)度。

?觀點(diǎn)分析:對記者的作品進(jìn)行個人感受、觀點(diǎn)、信念或評估

?修訂分析:研究新聞故事如何隨著時間的推移而變化,以及它如何操縱公眾的看法和情緒。

?宣傳分析:使用宣傳分析檢測多達(dá)18種不同的說服策略,可以幫助您發(fā)現(xiàn)潛在的虛假信息。

所有這四個結(jié)合起來可以全面了解一篇文章的可信度,以及我們面臨的問題。

人工智能的挑戰(zhàn)以及如何克服它們

像GPT-3這樣的語言模型已經(jīng)可以基于一行提示創(chuàng)建文章、詩歌和散文。人工智能已經(jīng)接近完美地制造出與人相似的材料。人工智能使得操縱各種信息變得如此容易,以至于FaceSwap和DeepFaceLab等開源程序可能會讓缺乏經(jīng)驗(yàn)的新用戶成為潛在的社會動蕩中心。

這些問題變得更糟,因?yàn)檫@些語義分析算法無法破譯仇恨言論圖片的實(shí)質(zhì),這些圖片沒有被修改,而是在有害或不準(zhǔn)確的背景下傳播。

一旦發(fā)現(xiàn)欺詐內(nèi)容,刪除它比看起來更具挑戰(zhàn)性。一些組織可能被指控進(jìn)行審查,并試圖隱藏某一組織或另一組織認(rèn)為不真實(shí)的信息。在言論自由權(quán)利和打擊虛假信息和假新聞之間找到平衡是很困難的。

人工智能通常也缺乏識別幽默和惡搞的能力。因此,如果以輕松或開玩笑的方式使用假新聞或虛假信息,則可以將其歸類為惡意虛假信息。但不可否認(rèn)的是,人工智能可以成為打擊假新聞的巨大資產(chǎn)。在打擊虛假互聯(lián)網(wǎng)新聞的戰(zhàn)斗中,技術(shù)至關(guān)重要,因?yàn)樗梢蕴幚泶罅康牟牧稀?/p>

假新聞不是一個僅靠算法就能解決的問題——我們需要在如何獲取知識的過程中改變心態(tài)。雖然專業(yè)團(tuán)體之間協(xié)作知識的眾包對評估原始數(shù)據(jù)至關(guān)重要,但知識淵博的用戶社區(qū)也可以支持道德監(jiān)測行動。

缺乏各方參與的積極行動可能加速公眾對機(jī)構(gòu)和媒體失去信心,這是無政府狀態(tài)的前奏。在人類能夠發(fā)展出客觀分析在線內(nèi)容的能力之前,基于人工智能的技術(shù)必須成為打擊互聯(lián)網(wǎng)錯誤信息的合作伙伴。

責(zé)任編輯:龐桂玉 來源: 機(jī)房360
相關(guān)推薦

2022-07-18 10:40:29

人工智能AI

2017-08-24 10:43:22

2020-09-29 10:33:03

智能

2020-03-22 16:11:48

人工智能數(shù)據(jù)科學(xué)機(jī)器學(xué)習(xí)

2017-03-23 13:02:26

人工智能互聯(lián)網(wǎng)設(shè)備

2023-08-15 11:25:46

人工智能物聯(lián)網(wǎng)

2017-01-11 09:09:29

2016-06-08 14:41:14

互聯(lián)網(wǎng)+

2021-08-19 17:25:30

人工智能機(jī)器學(xué)習(xí)自動化

2022-06-22 11:11:48

人工智能AI

2021-03-19 10:22:03

人工智能

2019-07-25 10:40:41

人工智能技術(shù)平臺

2021-08-13 16:59:01

人工智能AI

2015-03-06 11:33:33

2023-09-04 10:20:16

人工智能物聯(lián)網(wǎng)

2021-10-18 10:59:27

人工智能機(jī)器學(xué)習(xí)技術(shù)

2018-05-31 09:00:00

2017-04-25 16:00:23

2024-05-10 14:10:24

2023-09-27 10:23:06

人工智能語言模型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號