掃碼下載APP
及時接收考試資訊及
備考信息
本文編譯自GARP風(fēng)險智庫Disruptive Technologies主題博客“Risk Management and Generative AI: A Matter of Urgency”一文。作者為Jim Wetekamp, 他是 Riskonnect 公司的首席執(zhí)行官,該公司是綜合風(fēng)險管理軟件的領(lǐng)先供應(yīng)商。他是公認(rèn)的企業(yè)風(fēng)險、供應(yīng)鏈和第三方風(fēng)險管理專家。
只有 9% 的公司認(rèn)為他們已經(jīng)為管理生成式人工智能風(fēng)險做好了充分準(zhǔn)備。
各機構(gòu)仍在摸索需要哪些生成式人工智能的保障措施。事實上,只有 17% 的機構(gòu)已經(jīng)正式對整個公司進行了關(guān)于生成式人工智能風(fēng)險的培訓(xùn)或介紹。但是,盡快掌控人工智能治理和風(fēng)險管理符合機構(gòu)的最佳利益。
目前在工作中使用人工智能的員工之中,有一半以上是在未經(jīng)雇主批準(zhǔn)的情況下使用的。員工渴望這些工具帶來的效率。在許多情況下,員工在雇主弄清楚政策之前就開始在工作中使用這些工具,這會給機構(gòu)帶來風(fēng)險。另有 32% 的員工預(yù)計很快會將生成式人工智能納入他們的工作流程,這表明無論公司如何監(jiān)督,員工都會繼續(xù)采用這些工具。
現(xiàn)在是時候制定一些規(guī)則,以確保您的機構(gòu)能夠?qū)⑦@種新興技術(shù)看作價值和效率的驅(qū)動力,而不是將其視為風(fēng)險的源泉。
機構(gòu)可以采取幾項措施,讓員工可在應(yīng)用生成式人工智能的同時保護機構(gòu)免受潛在威脅。
65%的公司表示,數(shù)據(jù)隱私和網(wǎng)絡(luò)安全問題是生成式人工智能工具的首要問題。這些工具通常會收集 IP 地址和瀏覽活動等敏感信息,從而導(dǎo)致個人身份被識別。如果數(shù)據(jù)處理不當(dāng)或被列入數(shù)據(jù)泄露事件,就會造成巨大損失。
深度偽造技術(shù)的興起引發(fā)了更多擔(dān)憂,因為它可以在未經(jīng)本人同意的情況下創(chuàng)造出逼真的圖像和聲音。
人工智能工具還使犯罪分子能夠創(chuàng)建更復(fù)雜的網(wǎng)絡(luò)釣魚電子郵件和惡意軟件,并加速網(wǎng)絡(luò)攻擊。定期評估您的網(wǎng)絡(luò)安全戰(zhàn)略,確保其與人工智能的發(fā)展同步,并優(yōu)先考慮強大的數(shù)據(jù)隱私措施,如數(shù)據(jù)匿名化和加密。
即使沒有足夠的信息或內(nèi)容來提供準(zhǔn)確的答案,一些生成式人工智能工具也會對提示做出回復(fù)。在這種情況下,人工智能算法會編造出一個答案,但仍會以肯定的口吻作出回應(yīng),這意味著你不能對所看到的內(nèi)容信以為真。
如果使用工具的用戶沒有牢記這一點并主動檢查回復(fù)的有效性,他們最終可能會根據(jù)不準(zhǔn)確的信息做出決策,而 60% 的公司表示這是生成式人工智能的首要問題。這可能會導(dǎo)致聲譽問題和其他后果。
人工智能算法的開發(fā)者可以設(shè)定有多少答案是編造的,或者是否有答案是編造的。了解機構(gòu)正在使用的工具是如何開發(fā)的,并決定機構(gòu)愿意接受的誤差范圍。通常最好將誤差范圍設(shè)置為零,這樣模型就不會編造答案。沒有信息總比誤導(dǎo)性信息要好。
此外,優(yōu)先考慮引用信息來源的生成式人工智能工具,這樣用戶就能輕松驗證所提供信息的準(zhǔn)確性和可靠性。確保您的人工智能政策設(shè)定了這樣的預(yù)期:用戶在傳遞信息或根據(jù)信息做出決策之前,一定要對人工智能生成的任何回復(fù)進行事實核查。
人工智能模型可能存在固有的偏見,或者對其服務(wù)對象的群體不夠包容。這些算法利用歷史數(shù)據(jù)為決策提供依據(jù),并生成答案和內(nèi)容。這可能會帶來問題,因為在1970 年、1990 年、2010 年或 2018 年可以接受的事物與今天可以接受的事物是不同的。例如,如果人工智能模型使用幾十年前的歷史數(shù)據(jù)來做出當(dāng)代決策,比如誰有資格獲得貸款,那么它可能會無意中反映出不公平的做法。
徹底評估您正在使用的人工智能模型。了解模型的編程方式和校準(zhǔn)機制。主動質(zhì)疑和理解底層的訓(xùn)練數(shù)據(jù)集。確保數(shù)據(jù)是最新的,并且反映了當(dāng)今的社會標(biāo)準(zhǔn)。
重要的是,要持續(xù)監(jiān)控生成式人工智能的輸出,并確保從倫理和道德的角度來看,應(yīng)對措施仍然具有相關(guān)性,并且符合機構(gòu)的政策和文化。
34%的公司對生成式人工智能相關(guān)的版權(quán)和知識產(chǎn)權(quán)(IP)風(fēng)險表示關(guān)注。這些模型可能是在受法律保護的資料基礎(chǔ)上進行訓(xùn)練,并生成類似于現(xiàn)有作品的內(nèi)容,如果用戶不給予適當(dāng)?shù)氖跈?quán),就會導(dǎo)致潛在的版權(quán)、商標(biāo)或?qū)@謾?quán)問題。法院正在探討如何將知識產(chǎn)權(quán)法應(yīng)用于人工智能生成的內(nèi)容,但仍需要一段時間來解決這個問題。
保護您的知識產(chǎn)權(quán)。對員工進行培訓(xùn),讓他們對輸入人工智能工具的信息進行批判性思考。了解哪些員工和合作伙伴可以訪問您的知識產(chǎn)權(quán)和敏感信息,并制定明確的指導(dǎo)方針,規(guī)定哪些資料和數(shù)據(jù)不得輸入人工智能模型。
確保員工也注意如何將人工智能生成的內(nèi)容用于商業(yè)用途,以避免侵犯版權(quán)。及時了解并告知員工有關(guān)使用人工智能生成內(nèi)容的任何法律動態(tài)。
生成式人工智能的出現(xiàn)帶來了新的挑戰(zhàn)和機遇。生成式人工智能所帶來的效率使員工能夠?qū)W⒂趧?chuàng)造高價值的工作。
預(yù)計這項技術(shù)每年將為全球經(jīng)濟增加 4.4 萬億美元的價值。要獲得這些好處,公司需要更有效地掌握人工智能的風(fēng)險,并有效地管理其使用方式?,F(xiàn)在就開始保護和升級您的業(yè)務(wù)。
以上內(nèi)容來源于GARP,如有侵權(quán)請聯(lián)系刪除。
安卓版本:8.7.60 蘋果版本:8.7.60
開發(fā)者:北京正保會計科技有限公司
應(yīng)用涉及權(quán)限:查看權(quán)限>
APP隱私政策:查看政策>
HD版本上線:點擊下載>
官方公眾號
微信掃一掃
官方視頻號
微信掃一掃
官方抖音號
抖音掃一掃
Copyright © 2000 - m.jnjuyue.cn All Rights Reserved. 北京正保會計科技有限公司 版權(quán)所有
京B2-20200959 京ICP備20012371號-7 出版物經(jīng)營許可證 京公網(wǎng)安備 11010802044457號