24周年

財稅實務(wù) 高薪就業(yè) 學(xué)歷教育
APP下載
APP下載新用戶掃碼下載
立享專屬優(yōu)惠

安卓版本:8.7.60 蘋果版本:8.7.60

開發(fā)者:北京正保會計科技有限公司

應(yīng)用涉及權(quán)限:查看權(quán)限>

APP隱私政策:查看政策>

HD版本上線:點擊下載>

生成式人工智能的風(fēng)險管理:刻不容緩

來源: 正保會計網(wǎng)校 編輯:咕嘟 2024/06/04 10:18:39  字體:

選課中心

多樣班次滿足需求

選課中心

資料專區(qū)

干貨資料助力備考

資料專區(qū)

報考指南

報考條件一鍵了解

報考指南

本文編譯自GARP風(fēng)險智庫Disruptive Technologies主題博客“Risk Management and Generative AI: A Matter of Urgency”一文。作者為Jim Wetekamp, 他是 Riskonnect 公司的首席執(zhí)行官,該公司是綜合風(fēng)險管理軟件的領(lǐng)先供應(yīng)商。他是公認(rèn)的企業(yè)風(fēng)險、供應(yīng)鏈和第三方風(fēng)險管理專家。

有 9% 的公司認(rèn)為他們已經(jīng)為管理生成式人工智能風(fēng)險做好了充分準(zhǔn)備。

各機構(gòu)仍在摸索需要哪些生成式人工智能的保障措施。事實上,只有 17% 的機構(gòu)已經(jīng)正式對整個公司進行了關(guān)于生成式人工智能風(fēng)險的培訓(xùn)或介紹。但是,盡快掌控人工智能治理和風(fēng)險管理符合機構(gòu)的最佳利益。

目前在工作中使用人工智能的員工之中,有一半以上是在未經(jīng)雇主批準(zhǔn)的情況下使用的。員工渴望這些工具帶來的效率。在許多情況下,員工在雇主弄清楚政策之前就開始在工作中使用這些工具,這會給機構(gòu)帶來風(fēng)險。另有 32% 的員工預(yù)計很快會將生成式人工智能納入他們的工作流程,這表明無論公司如何監(jiān)督,員工都會繼續(xù)采用這些工具。

現(xiàn)在是時候制定一些規(guī)則,以確保您的機構(gòu)能夠?qū)⑦@種新興技術(shù)看作價值和效率的驅(qū)動力,而不是將其視為風(fēng)險的源泉。

機構(gòu)可以采取幾項措施,讓員工可在應(yīng)用生成式人工智能的同時保護機構(gòu)免受潛在威脅。

數(shù)據(jù)隱私與安全

65%的公司表示,數(shù)據(jù)隱私和網(wǎng)絡(luò)安全問題是生成式人工智能工具的首要問題。這些工具通常會收集 IP 地址和瀏覽活動等敏感信息,從而導(dǎo)致個人身份被識別。如果數(shù)據(jù)處理不當(dāng)或被列入數(shù)據(jù)泄露事件,就會造成巨大損失。

深度偽造技術(shù)的興起引發(fā)了更多擔(dān)憂,因為它可以在未經(jīng)本人同意的情況下創(chuàng)造出逼真的圖像和聲音。

人工智能工具還使犯罪分子能夠創(chuàng)建更復(fù)雜的網(wǎng)絡(luò)釣魚電子郵件和惡意軟件,并加速網(wǎng)絡(luò)攻擊。定期評估您的網(wǎng)絡(luò)安全戰(zhàn)略,確保其與人工智能的發(fā)展同步,并優(yōu)先考慮強大的數(shù)據(jù)隱私措施,如數(shù)據(jù)匿名化和加密。

不準(zhǔn)確和錯誤的信息

即使沒有足夠的信息或內(nèi)容來提供準(zhǔn)確的答案,一些生成式人工智能工具也會對提示做出回復(fù)。在這種情況下,人工智能算法會編造出一個答案,但仍會以肯定的口吻作出回應(yīng),這意味著你不能對所看到的內(nèi)容信以為真。

如果使用工具的用戶沒有牢記這一點并主動檢查回復(fù)的有效性,他們最終可能會根據(jù)不準(zhǔn)確的信息做出決策,而 60% 的公司表示這是生成式人工智能的首要問題。這可能會導(dǎo)致聲譽問題和其他后果。

人工智能算法的開發(fā)者可以設(shè)定有多少答案是編造的,或者是否有答案是編造的。了解機構(gòu)正在使用的工具是如何開發(fā)的,并決定機構(gòu)愿意接受的誤差范圍。通常最好將誤差范圍設(shè)置為零,這樣模型就不會編造答案。沒有信息總比誤導(dǎo)性信息要好。

此外,優(yōu)先考慮引用信息來源的生成式人工智能工具,這樣用戶就能輕松驗證所提供信息的準(zhǔn)確性和可靠性。確保您的人工智能政策設(shè)定了這樣的預(yù)期:用戶在傳遞信息或根據(jù)信息做出決策之前,一定要對人工智能生成的任何回復(fù)進行事實核查。

偏見和道德

人工智能模型可能存在固有的偏見,或者對其服務(wù)對象的群體不夠包容。這些算法利用歷史數(shù)據(jù)為決策提供依據(jù),并生成答案和內(nèi)容。這可能會帶來問題,因為在1970 年、1990 年、2010 年或 2018 年可以接受的事物與今天可以接受的事物是不同的。例如,如果人工智能模型使用幾十年前的歷史數(shù)據(jù)來做出當(dāng)代決策,比如誰有資格獲得貸款,那么它可能會無意中反映出不公平的做法。

徹底評估您正在使用的人工智能模型。了解模型的編程方式和校準(zhǔn)機制。主動質(zhì)疑和理解底層的訓(xùn)練數(shù)據(jù)集。確保數(shù)據(jù)是最新的,并且反映了當(dāng)今的社會標(biāo)準(zhǔn)。

重要的是,要持續(xù)監(jiān)控生成式人工智能的輸出,并確保從倫理和道德的角度來看,應(yīng)對措施仍然具有相關(guān)性,并且符合機構(gòu)的政策和文化。

版權(quán)和知識產(chǎn)權(quán)

34%的公司對生成式人工智能相關(guān)的版權(quán)和知識產(chǎn)權(quán)(IP)風(fēng)險表示關(guān)注。這些模型可能是在受法律保護的資料基礎(chǔ)上進行訓(xùn)練,并生成類似于現(xiàn)有作品的內(nèi)容,如果用戶不給予適當(dāng)?shù)氖跈?quán),就會導(dǎo)致潛在的版權(quán)、商標(biāo)或?qū)@謾?quán)問題。法院正在探討如何將知識產(chǎn)權(quán)法應(yīng)用于人工智能生成的內(nèi)容,但仍需要一段時間來解決這個問題。

保護您的知識產(chǎn)權(quán)。對員工進行培訓(xùn),讓他們對輸入人工智能工具的信息進行批判性思考。了解哪些員工和合作伙伴可以訪問您的知識產(chǎn)權(quán)和敏感信息,并制定明確的指導(dǎo)方針,規(guī)定哪些資料和數(shù)據(jù)不得輸入人工智能模型。

確保員工也注意如何將人工智能生成的內(nèi)容用于商業(yè)用途,以避免侵犯版權(quán)。及時了解并告知員工有關(guān)使用人工智能生成內(nèi)容的任何法律動態(tài)。

風(fēng)險新時代

生成式人工智能的出現(xiàn)帶來了新的挑戰(zhàn)和機遇。生成式人工智能所帶來的效率使員工能夠?qū)W⒂趧?chuàng)造高價值的工作。

預(yù)計這項技術(shù)每年將為全球經(jīng)濟增加 4.4 萬億美元的價值。要獲得這些好處,公司需要更有效地掌握人工智能的風(fēng)險,并有效地管理其使用方式?,F(xiàn)在就開始保護和升級您的業(yè)務(wù)。

以上內(nèi)容來源于GARP,如有侵權(quán)請聯(lián)系刪除。

學(xué)員討論(0

免費試聽

  • Dyson講課清晰、有激情

    Dyson主講:講課清晰、有激情免費聽

  • Derek邏輯清晰,細致到位

    Derek主講:邏輯清晰,細致到位免費聽

  • Lu Lu活潑生動、思路清晰

    Lu Lu主講:活潑生動、思路清晰免費聽

  • Alex幽默和諧

    Alex主講:幽默和諧免費聽

回到頂部
折疊
網(wǎng)站地圖

Copyright © 2000 - m.jnjuyue.cn All Rights Reserved. 北京正保會計科技有限公司 版權(quán)所有

京B2-20200959 京ICP備20012371號-7 出版物經(jīng)營許可證 京公網(wǎng)安備 11010802044457號