
AI代寫愈加火熱,人工智能潛在隱患又該如何防范?
編輯:2024-01-05 11:39:28
時值年末,又到了一年一度寫年終總結的時候,*近,武漢的一家公司在朋友圈發布的招聘啟事引發關注。內容說:“今(jin)年在AI的協助下,大(da)致(zhi)會(hui)撰(zhuan)寫35萬份(fen)以(yi)上(shang)報告(去(qu)年是(shi)26萬份(fen)),年底來臨,有不少(shao)總結性報告要寫,招多個(ge)兼職報告撰(zhuan)寫人員。”據了解,有了AI加持,這家公司在精簡10%-20%人力的基礎上,單量卻比去年同期增加20%-30%。
此外,據報道,在某線上購物平臺,輸入“年終總結AI”“代寫”等關鍵詞,立刻蹦出許多相關產品。商家在產品介紹中寫下宣傳語:“AI智能原創、寫作必備(bei)”“懶(lan)人辦公”“三分鐘急速交稿”等。產品銷量一般在幾千單左右,有的店鋪月銷量達6萬單以上。
隨(sui)著科技快速發展,人工智能(AI)應用越來越廣泛(fan),它(ta)深入(ru)到(dao)醫療、教育、娛樂等各(ge)個(ge)領(ling)域。如今,伴隨各(ge)類年度總(zong)結任務(wu)的(de)集(ji)中涌來,AI代寫業務(wu)火(huo)了,然而(er),這看似*輕(qing)松的(de)背后,卻(que)隱藏(zang)著巨大(da)的(de)風險!
那么
人工(gong)智能應(ying)用(yong)使用(yong)過程中
隱(yin)藏哪(na)些風險呢(ni)?
下(xia)面跟著小密一起(qi)來看!
人(ren)工智能(neng)在促進(jin)社會(hui)發展進(jin)步的同時,也伴隨著一些風(feng)險(xian)隱患,以今年爆火(huo)的ChatGPT為例,若被不當使(shi)用或(huo)濫(lan)用很有可(ke)能(neng)影(ying)響到國家安全、社會穩定、企業利益和(he)個人(ren)用戶權(quan)益等諸多方面。
而ChatGPT類大模(mo)型加速了數字世(shi)界和(he)物理(li)世(shi)界的(de)深(shen)度(du)融合,引(yin)領人(ren)(ren)工(gong)智能(neng)(neng)進(jin)入新的(de)發(fa)展階(jie)段。與此(ci)同時,人(ren)(ren)工(gong)智能(neng)(neng)固有的(de)不(bu)確定性、不(bu)透明(ming)性、難以解(jie)釋、事實(shi)性錯誤等(deng)能(neng)(neng)力(li)局(ju)限(xian),對(dui)經濟(ji)發(fa)展、國際政治(zhi)(zhi)和(he)全(quan)(quan)球(qiu)治(zhi)(zhi)理(li)等(deng)方(fang)面帶來深(shen)遠影響,引(yin)發(fa)了全(quan)(quan)球(qiu)對(dui)大模(mo)型廣泛(fan)應用安全(quan)(quan)風(feng)險的(de)熱議(yi)。如何應對(dui)人(ren)(ren)工(gong)智能(neng)(neng)風(feng)險并把(ba)握人(ren)(ren)工(gong)智能(neng)(neng)發(fa)展的(de)戰略主動,有效保障國家(jia)安全(quan)(quan),已成為(wei)我國國家(jia)安全(quan)(quan)治(zhi)(zhi)理(li)的(de)重要議(yi)題。
大(da)模型技術引(yin)發新(xin)的(de)(de)安全風險和治理挑戰。隨著技術的(de)(de)更(geng)新(xin)迭代,人工智(zhi)能(neng)的(de)(de)應用(yong)門檻持(chi)續降低,伴隨著誤(wu)用(yong)濫(lan)用(yong)情況的(de)(de)增加(jia)(jia),經濟社會(hui)領(ling)域的(de)(de)多重(zhong)安全風險也在(zai)交(jiao)織(zhi)疊加(jia)(jia)。
根據(ju)相關報道,ChatGPT的(de)訓練使用了(le)45TB的(de)數據(ju)、近1萬億個單詞(ci)(ci)(大概(gai)是1351萬本牛(niu)津詞(ci)(ci)典(dian)的(de)單詞(ci)(ci)量(liang))。其中(zhong)很(hen)有可能就包括未經同意獲(huo)取(qu)的(de)個人信息(xi)。除前述海量(liang)數據(ju)外,ChatGPT還能夠在與用戶(hu)一對(dui)一的(de)對(dui)話互動(dong)中(zhong)獲(huo)取(qu)信息(xi)。 在該軟件(jian)隱私(si)政策不明了(le)的(de)情況下(xia),個(ge)人(ren)信息是否會被(bei)存儲、泄(xie)露(lu),甚(shen)至被(bei)惡(e)意(yi)使用都不得而(er)知。 ChatGPT龐大的(de)網絡語(yu)料庫中或(huo)許包含著他人(ren)擁有(you)著作權的(de)作品,故其(qi)生成的(de)文本也存(cun)在嫁接他人(ren)作品的(de)(de)可(ke)能(neng)性。但(dan)它(ta)在(zai)輸出內容(rong)時卻(que)未必(bi)能(neng)夠(gou)識別,也不一定會(hui)對用戶進行(xing)提示。在(zai)沒有得到原作者授權的(de)(de)情況下,ChatGPT產(chan)生的(de)(de)文本如果被使用,那么則很(hen)有可(ke)能(neng)是使用者承(cheng)擔知識產(chan)權侵權的(de)(de)法律風險。 盡管ChatGPT被視為(wei)有史以(yi)來(lai)*智能(neng)(neng)的(de)(de)AI,但它畢竟(jing)也不是(shi)全知(zhi)全能(neng)(neng)。比如在一段涉及《紅樓夢(meng)》的(de)(de)對話當中,ChatGPT就言之(zhi)鑿(zao)鑿(zao)地宣稱,賈寶(bao)玉是(shi)賈元(yuan)春的(de)(de)兒(er)子。 盡管它在文(wen)字組(zu)織上的(de)(de)確能夠做到語(yu)句(ju)通暢,有條有理(li),但(dan)是并不(bu)(bu)能保(bao)障(zhang)內(nei)容(rong)的(de)(de)真實準確。當用戶(hu)在自己不(bu)(bu)熟(shu)悉的(de)(de)領域(yu)向ChatGPT咨詢問題(ti)時(shi),就(jiu)很有可能因為(wei)這些看(kan)似“高(gao)大上”的(de)(de)回(hui)復(fu),錯信(xin)了(le)有誤甚至是虛假的(de)(de)信(xin)息(xi),從而產生決(jue)策(ce)失(shi)誤、傳播虛假信(xin)息(xi)等(deng)諸多法律風險。 在高度智能化(hua)(hua)、自動(dong)化(hua)(hua)的應(ying)用(yong)場(chang)景中,ChatGPT在數(shu)據獲取、處(chu)理、結果展示等環節都存在重大的數(shu)據安全風險。 一(yi)是數據獲取階段。用戶(hu)在使(shi)用ChatGPT時,可能會(hui)輸入自己或(huo)他人的信(xin)息(xi)數據,從而導致(zhi)隱私泄(xie)露(lu)。如果員工使(shi)用ChatGPT輸入各(ge)類工作數據,就可能導致(zhi)公司(si)敏感(gan)信(xin)息(xi)泄(xie)露(lu)。而一旦輸入涉及(ji)國家秘(mi)密或(huo)敏感(gan)內容的信(xin)息(xi),則無疑會(hui)導致(zhi)泄(xie)密。 二(er)是數據處理階段。ChatGPT會將用戶(hu)輸入、交互的(de)數據(ju)用于后(hou)續持續的(de)迭(die)代訓練,這(zhe)就導致這(zhe)些信息很(hen)可能被其(qi)他用戶(hu)獲取,從而構成(cheng)數據(ju)非授權共(gong)享,進而出現數據(ju)泄密問題。
隨著人工智能的不(bu)斷深入(ru)
我們在(zai)面對AI帶來的種種風險時(shi)
又該如(ru)何(he)應對呢?
且聽小(xiao)密為你(ni)一一道來~
第一,建立行業監管制度并開展合規性評估審查。建立健全(quan)AI服務行業監督管理相關制度(du)與標準。包括算(suan)法分級(ji)分類管理、算(suan)法推薦服務安全管理、AI 濫(lan)用舉報等(deng),并開展AI應用安全合規性(xing)評估(gu)審查(cha)與處置,實現行業監(jian)管閉環。 第二,創新研究應用人工智能賦能網絡安全技術。一方面,利(li)用(yong)AI技術賦能(neng)針對復(fu)雜(za)網(wang)絡攻擊的防御能(neng)力,使用(yong) AI 技術應對其帶來的網(wang)絡安全風險;另一(yi)方面(mian),研究利(li)用AI技術提升企業組織(zhi)在網絡安全攻擊檢測(ce)、數據資(zi)產識別(bie)與風險監(jian)測(ce)、業務安全風控、不良信息識別(bie)、電信反詐、安全威脅分析、深度偽造識別(bie)等(deng)方面(mian)的能力。 第三,做好元宇宙等AI融合場景的安全風險梳理與防護技術儲備。對于(yu)元宇宙和AI融合關鍵場景,要抓緊開展安(an)(an)全技術(shu)研究儲備(bei),提早防范大規(gui)模(mo)人(ren)工(gong)智能(neng)安(an)(an)全事件發生。
對(dui)于個人而(er)言,除(chu)了避免陷入虛假宣傳,更重要的是面對(dui)花(hua)樣翻新的AI詐(zha)騙,必須保持防(fang)范意識。 保護信息,提高警惕。公眾要謹慎提(ti)交個人信息及(ji)企業數據,防范(fan)AI應用個人隱私竊取(qu)、有害言論誤導(dao)誘導(dao)等風險,防范(fan)利用ChatGPT熱點或(huo)者仿(fang)冒知名AI應用收集敏感(gan)信息實施詐騙等行為。 多重驗證,確認身份。如果有人自稱"熟人""領導"等通過(guo)社交(jiao)(jiao)軟件(jian)、短信以各種理由誘導匯(hui)款(kuan),或涉及網絡(luo)轉賬(zhang)交(jiao)(jiao)易(yi)行(xing)為時,務必通過(guo)電話(hua)、見面(mian)等多途徑核驗對方身份(fen),不(bu)要(yao)未經(jing)核實隨意轉賬(zhang)匯(hui)款(kuan)。 如不慎(shen)被騙或遇可疑情形,請注(zhu)意(yi)保護(hu)證據,并(bing)立即撥打96110報(bao)警(jing)。 隨著AI產品(pin)的不(bu)斷更新,不(bu)少AI軟件推(tui)出(chu)了公文寫作(zuo)板塊,人工(gong)智能(neng)開始悄然影響公文寫作(zuo)等日常政務工(gong)作(zuo),作(zuo)為機關、單(dan)位干部職工(gong),如果偷(tou)懶用(yong)AI代寫,各種文件和數據泄露(lu)的后(hou)果將不(bu)堪設(she)想! 不僅如此,由于AI寫作內容相對比較籠統,語言僵硬,不貼合實際情況,使用過程中(zhong)還可能涉及信息泄露(lu)風險、侵(qin)犯知識(shi)產權等法律問題,所以小密建議大(da)家,在工作中盡(jin)量(liang)不要使(shi)用AI寫(xie)作,多(duo)積累(lei)理論知識(shi)和實踐案例,才能成為(wei)真正的(de)“筆(bi)桿子”!
來源:成(cheng)華密(mi)語(yu)


咨詢熱線:0351-4073466?
地址:(北區(qu))山西(xi)省太(tai)原市迎澤區(qu)新(xin)建南(nan)路文源巷24號(hao)文源公務中(zhong)心5層(ceng)
? ? ? ? ? ?(南區(qu))太原市小店(dian)區(qu)南中環街529 號清控創新基(ji)地A座(zuo)4層
