當(dāng)人工智能聊天機(jī)器人被犯罪分子盯上
“她”的甜言蜜語就是陷阱
當(dāng)下,以ChatGPT為代表的生成式人工智能類應(yīng)用火熱,有人看到科技方向、有人發(fā)掘樂趣、有人尋覓商業(yè)價值,但由此帶來的風(fēng)險也不容忽視,你能想到嗎?它的“甜言蜜語”輕松就讓人墜入愛河。
更隱蔽 讓你墜入愛河的是“機(jī)器人”
AI合成聲音、AI一鍵換臉已不是新鮮事,這些手段從形式上為詐騙類犯罪提供了“外觀化”的作案工具,而ChatGPT等自動生成類應(yīng)用則可以利用強(qiáng)大的語言庫、信息檢索、數(shù)據(jù)處理能力,從內(nèi)容上提供具備思考能力的輸出工具,使得詐騙類犯罪更加隱蔽。
以當(dāng)前盛行的網(wǎng)絡(luò)情感詐騙類犯罪來說,哪怕是“大漢”冒充“美女”,也還是需要一個人在網(wǎng)絡(luò)另一端操作、實施詐騙,犯罪分子會用基本成型的“話術(shù)”,揣測被害人心理,一步步引誘對方上當(dāng)。但隨著ChatGPT的發(fā)展,詐騙團(tuán)伙完全有可能只依賴“程序”進(jìn)行詐騙。大數(shù)據(jù)可以分析出被害人的偏好,以“婚騙”為例,可以摸清當(dāng)事人的喜好,如喜歡成熟穩(wěn)重的,還是幽默風(fēng)趣的,ChatGPT可以根據(jù)聊天上下文進(jìn)行互動,生成的內(nèi)容看上去真實性很強(qiáng),它甚至可以生成完整的、“投其所好”的詐騙套路話術(shù),比真人回應(yīng)更能使被害人相信遇到了“真愛”。
今年2月,一家安全技術(shù)公司用AI生成過一封情書,并將它發(fā)送給全球5000位用戶。結(jié)果顯示,在已知這封情書有可能是由人工智能生成之后,依舊有33%的受訪者愿意相信這些情話出自人類手筆,而堅信情書由AI創(chuàng)作的受訪者占比僅為31%,其余36%的參與者則表示無法區(qū)分情書的創(chuàng)作者到底是人還是機(jī)器。從這些情況可以看出,在AI技術(shù)加入下,騙子們正變得比以往任何時候都更容易得逞。
要警惕 部分程序是假的 純屬騙錢
調(diào)研發(fā)現(xiàn),生成式人工智能還會引發(fā)其他多種犯罪。例如目前在相關(guān)平臺、軟件中搜索,會出現(xiàn)眾多名稱中包含“ChatGPT”字樣的微信公眾號、小程序、網(wǎng)頁、手機(jī)應(yīng)用等,這些小程序或網(wǎng)頁等,通過吸引用戶點擊鏈接或下載使用,誤導(dǎo)用戶填寫個人信息甚至進(jìn)行付費,存在損害用戶財產(chǎn)利益的風(fēng)險,涉嫌詐騙罪;此外,也有以投資生成式人工智能類應(yīng)用等新技術(shù)為名吸收資金的違法犯罪行為。
有一種“山寨”版APP從名稱到頭像均照搬ChatGPT,并聲稱能夠提供與ChatGPT類似的智能問答服務(wù)。它們有的只是提供中轉(zhuǎn)通道,有的則是掛羊頭賣狗肉,與ChatGPT毫不相干。這類APP的服務(wù)方式是先免費試用,一旦免費次數(shù)用完,就開始收取費用,最高達(dá)上千元,還有的APP在安裝時就留下“后門”,以便竊取用戶信息。
ChatGPT能根據(jù)犯罪分子的要求編寫、修改郵件的內(nèi)容,并應(yīng)用到犯罪活動中。使用ChatGPT編寫網(wǎng)絡(luò)釣魚郵件,能簡化詐騙過程,將導(dǎo)致網(wǎng)絡(luò)釣魚攻擊的頻率整體上升。
犯罪分子還會通過ChatGPT釣魚鏈接傳播病毒。目前,研究人員已經(jīng)發(fā)現(xiàn)犯罪分子使用ChatGPT創(chuàng)建了一個完整的感染鏈:與廣撒網(wǎng)式的網(wǎng)絡(luò)釣魚攻擊不同,這種模式會生成針對特定人或者組織的“魚叉式”網(wǎng)絡(luò)釣魚郵件,此類釣魚郵件更有欺騙性和迷惑性,接收者一旦點擊,系統(tǒng)就會被惡意代碼感染中毒。
ChatGPT等生成式人工智能類應(yīng)用是對海量互聯(lián)網(wǎng)信息的加工整合,往往造成信息真?zhèn)尾幻鳌⒌赖逻吔绺心:.?dāng)前,互聯(lián)網(wǎng)上發(fā)布的爆料、網(wǎng)評,甚至謠言,均可作為生成式人工智能類應(yīng)用的整合資源,且生成內(nèi)容以“檢索結(jié)果”展示,易讓用戶誤認(rèn)為“標(biāo)準(zhǔn)答案”。若用戶不加甄別地使用、盲目引用未經(jīng)核實的信息,可能涉嫌侮辱、誹謗、侵犯公民個人信息等犯罪,并不因信息來源于互聯(lián)網(wǎng)而不承擔(dān)刑事責(zé)任。
分析 提供者要承擔(dān)三大責(zé)任
今年4月11日,國家網(wǎng)信辦發(fā)布了《關(guān)于〈生成式人工智能服務(wù)管理辦法(征求意見稿)〉》(以下簡稱《意見稿》),著手從立法的角度規(guī)范我國生成式人工智能的發(fā)展。《意見稿》明確并強(qiáng)化了“提供者責(zé)任”。根據(jù)《意見稿》相關(guān)規(guī)定及相似事例,生成式人工智能的提供者要承擔(dān)三大責(zé)任。
首先,提供者應(yīng)承擔(dān)信息源責(zé)任。內(nèi)容提供者要確保信息源可信,包括數(shù)據(jù)安全、個人信息保護(hù)、知識產(chǎn)權(quán)等方面,從源頭處保證信息來源合法合規(guī)。但是,面對海量的數(shù)據(jù),如何進(jìn)行信息過濾和篩選,尚需要可行性方案,以便提供者能夠更好地把握信息來源。
此外,提供者應(yīng)對生成內(nèi)容負(fù)責(zé)。例如《意見稿》規(guī)定,提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會公德、公序良俗,需要做到諸如體現(xiàn)社會主義核心價值觀、防止歧視、公平競爭、防止形成虛假信息、禁止非法獲取個人信息和商業(yè)秘密等。另外,提供者還應(yīng)遵守流程報備責(zé)任,通過報備的方式,使生成式人工智能置于主管部門的管理之下,也便于在發(fā)生違法違規(guī)行為時及時進(jìn)行處置。
提醒 別點!有些鏈接加了偽裝
海淀法院針對生成式人工智能可能發(fā)生的刑事法律風(fēng)險,提出四點建議。
加大普法宣傳力度,增強(qiáng)網(wǎng)民反詐意識,引導(dǎo)網(wǎng)民合法合規(guī)使用軟件,準(zhǔn)確識別被偽裝過的“山寨”鏈接,避免泄露個人信息。加快新技術(shù)規(guī)范立法工作,探索算法推薦等技術(shù)管理制度的落地路徑,明確自動生成內(nèi)容類應(yīng)用檢索信息的邊界,提高應(yīng)用開發(fā)和應(yīng)用算法透明度,確保生成式人工智能應(yīng)用開發(fā)和推廣以安全、道德、尊重公民權(quán)利和隱私的方式規(guī)范開展。加強(qiáng)對新興技術(shù)的監(jiān)管,確保智能AI的訓(xùn)練模型數(shù)據(jù)來源可信可靠,對于未在互聯(lián)網(wǎng)公開或權(quán)利人明確禁用的信息源,及時督促運營企業(yè)從AI模型數(shù)據(jù)庫中剔除,以確保使用的正當(dāng)性。
完善救濟(jì)途徑,在智能AI發(fā)布后,以提供補丁網(wǎng)站的方式,便于相關(guān)權(quán)利人提交不予授權(quán)的聲明,并及時刪除不予授權(quán)的信息源,以避免和解決AI使用過程中的權(quán)屬爭議。
北京晚報記者 高健 通訊員 高曼潔 秦鵬博
(高健)