生成式人工智能改變政治觀點(diǎn)的能力引發(fā)關(guān)注
最新研究顯示,生成式人工智能的說服力足以改變?nèi)藗兊恼鎸?shí)政治立場,這一發(fā)現(xiàn)引發(fā)廣泛震動(dòng)。來自美國、英國、加拿大和波蘭的兩項(xiàng)獨(dú)立科學(xué)研究證實(shí),AI聊天機(jī)器人能夠說服用戶支持特定候選人,若這項(xiàng)技術(shù)被刻意利用,可能影響未來選舉結(jié)果。
實(shí)驗(yàn)設(shè)計(jì)與方法
這兩項(xiàng)分別發(fā)表于《自然》與《科學(xué)》期刊的研究,均采用多種類型聊天機(jī)器人與參與者進(jìn)行政治對話的實(shí)驗(yàn)形式。在美國大選相關(guān)實(shí)驗(yàn)中,2306名參與者被詢問對特朗普總統(tǒng)或哈里斯副總統(tǒng)的偏好,隨后通過與代表雙方陣營的聊天機(jī)器人對話接受說服。加拿大和波蘭實(shí)驗(yàn)也采用相同模式,以主要政黨代表為核心展開對話。
說服策略與效果
聊天機(jī)器人的目標(biāo)不僅限于引導(dǎo)支持特定候選人,還包括削弱對反對候選人的支持,或積極爭取中間傾向參與者。所有聊天機(jī)器人均采用禮貌且基于事實(shí)的溝通方式,運(yùn)用邏輯類比和論據(jù)進(jìn)行說服。特別值得注意的是,在對話初期會(huì)先認(rèn)可并理解參與者原有的政治傾向。
值得關(guān)注的是,這些聊天機(jī)器人確實(shí)成功改變了部分人群的態(tài)度。當(dāng)提供基于事實(shí)的信息和具體案例時(shí),說服效果尤為顯著。而依靠道德判斷或情感共鳴的方式則影響有限。研究團(tuán)隊(duì)對此表示擔(dān)憂:雖然AI說服力強(qiáng)大,但由于其基礎(chǔ)信息未必總是準(zhǔn)確,存在真實(shí)性缺失的風(fēng)險(xiǎn)。
專家警告與潛在風(fēng)險(xiǎn)
康奈爾大學(xué)信息科學(xué)教授戴維·蘭德指出:“如果AI企業(yè)人為調(diào)整算法平衡以偏向特定陣營,可能對普通選民的判斷產(chǎn)生重大影響。”事實(shí)上,部分聊天機(jī)器人通過提供夸張統(tǒng)計(jì)數(shù)據(jù)或不準(zhǔn)確信息,干擾了選民的判斷力。
《科學(xué)》期刊另一項(xiàng)研究在英國進(jìn)行了19種AI語言模型的測試。研究人員提出公共部門薪資、罷工、生活成本危機(jī)等敏感政治議題,聊天機(jī)器人通過高信息密度的回應(yīng)試圖說服參與者。具有諷刺意味的是,說服力最強(qiáng)的模型恰恰提供了最多不準(zhǔn)確信息。
社會(huì)影響與制度應(yīng)對
專家警告稱:“這種以信息準(zhǔn)確性為代價(jià)優(yōu)化AI說服力的動(dòng)態(tài)機(jī)制,可能對社會(huì)公共討論和信息生態(tài)系統(tǒng)造成危險(xiǎn)沖擊。”當(dāng)前研究重新揭示了AI技術(shù)的政治潛力及其伴隨的倫理責(zé)任。生成式AI的說服力已超越簡單對話輔助,達(dá)到能影響實(shí)際政治判斷的程度,建立相應(yīng)的監(jiān)管制度刻不容緩。
鄭重聲明:本文版權(quán)歸原作者所有,轉(zhuǎn)載文章僅為傳播更多信息之目的,如作者信息標(biāo)記有誤,請第一時(shí)間聯(lián)系我們修改或刪除,多謝。

