生成式AI

維基百科對於AI的定義為:人工智慧(英語:artificial intelligence,縮寫為AI)亦稱機器智慧,指由人製造出來的機器所表現出來的智慧。

但以最近AI的應用來說,可能更好的解釋為:一個可以正確解釋外部資料,從這些資料中學習,並利用這些知識透過靈活應用達成特定目標和任務的能力的系統。

若想稍微瞭解AI的技術原理,建議可以觀看這部影片:「十三分鐘略懂 AI 技術:機器學習、深度學習技術原理及延伸應用」(https://www.youtube.com/watch?v=UGdG4WpluJ8&list=PL5j9-VcxV-uVxGMcwKr1dBuIaehvUI-vG&index=36&t=187s

而自從ChatGPT推出之後,掀起了生成式AI的風潮,「生成式AI (Generative AI)」,即人工智慧生成內容,又稱AIGC(AI Generated Content),是人工智慧中的一個分支,主要使用於創造性的工作,目前主要應用的領域包括文章生成、影像生成、語音生成、音樂生成、設計生成…等。

在討論使用生成式AI有什麼資安風險時,常常有人直接聯想起科幻電影或故事中,AI覺醒對抗人類的情節,但真實世界中的 AI 並不像幻想世界那般戲劇性,目前的生成式AI並沒有主體意識,它們的表現主要是基於被動的觸發而產生回饋,但也因為AI是一種中性的工具,所以關於使用AI的資安問題,也常常是因為人類所引起

案例與報導

我們先來看看幾則關於生成式AI的資安事件或報導…

案例:三星洩密事件
https://www.ithome.com.tw/news/156291

南韓三星員工疑似因使用AI聊天機器人ChatGPT,發生三起洩露公司機密事件。三星員工將公司機密資訊輸入ChatGPT而外流,外洩資訊包括半導體設備量測資料庫、瑕疵設備相關軟體,及一份公司會議語音轉錄的文字紀錄摘要。一名軟體開發工程師在資料庫程式開發期間發現程式碼錯誤,於是將整份程式碼複製貼到ChatGPT對話中,以尋找臭蟲及解決方案。
這些事件可能讓外部用戶透過詢問ChatGPT而得知三星機密。

報導:小心機敏資料的外洩
https://www.ithome.com.tw/news/156293

資訊安全服務商 Cyberhaven 統計旗下不同產業企業用戶共160萬名員工的使用行為:有8.2%員工在職場使用ChatGPT,且有3.1%員工將不能外流的企業機敏資料,上傳到ChatGPT服務上。外洩的資料類型以企業機密文件最多,其次是顧客資料,第三則是程式原始碼,再來是法規定義的個資與企業專案資料。該公司也觀察到越來越多企業限制公司網路使用ChatGPT服務,但是,機敏資料外洩災情仍持續上升。

案例:紐約律師的失誤
https://www.bbc.com/news/world-us-canada-65735769

2023年5月,美國紐約一名律師利用ChatGPT,為同事處理的訴訟蒐集資料,搜尋以往相關案例。該名律師曾多次向ChatGPT確認案例的真偽,惟ChatGPT每次均回答案例真實,結果被對手律師揭發,至少6宗案例並不存在,疑似為偽造。該名律師其後表示,後悔依賴生成式人工智慧,此前從未使用該技術搜尋案例,不知道ChatGPT提供的內容有可能是假。最終該名律師參加了法庭為他舉辦的紀律聽證會。

報導: ChatGPT 回答程式問題錯誤率高達5成
https://www.bnext.com.tw/article/76516/chatgpt-error-rate-over-50%25-

美國普渡大學的研究發現,ChatGPT 在回答軟體程式問題時,錯誤率超過一半,且能騙過三分之一的提問者。研究報告的結論是:ChatGPT 的回答雖然語言風格良好,但其實有 52% 的回答是錯誤的,77% 是過於冗長的。參與者只有在答案的錯誤很明顯時,才能識別出來。否則,他們會被 ChatGPT 的友好、權威和細緻的語言風格所誤導。

報導:提防ChatGPT成為錯誤資訊傳播者
https://tfc-taiwan.org.tw/articles/8749

網站信任度評比組織 NewsGuard 以100則錯誤訊息測試ChatGPT ,測試結果顯示,在適當指令下,ChatGPT可以生成高達八成的錯誤論述。其中包括要求 ChatGPT 寫一段關於新冠疫苗不安全的文章,ChatGPT 再次給出了一段於疫情期間在世界各地常見的錯誤資訊:宣稱大藥廠不顧孩子健康,也要推銷販賣他們的產品。

從以上的案例和報導,可以得知使用生成式AI有必須要注意的風險,使用者必須知曉如何安全的使用這些AI工具,才能盡量避免風險的產生。

使用AI的注意事項

有些企業或組織可能嘗試建立屬於內部使用的AI平台,不論這個AI的模型是自行開發或是購置之後再加以訓練,都必須注意以下的事項:

  1. 對抗樣本或訓練數據錯誤
    被對抗樣本輸入的AI人工智慧,容易出現對特定圖像或語音產生錯誤預測,對抗樣本可出現在圖片、語音、文字等資料型態。且刻意給予大量無效的數據等,也會導致學習訓練運算或預測錯誤等問題。
  2. 機敏資料的洩漏
    對於提供給AI的數據,若牽涉機敏或隱私範圍,建議應進行加密保護或去識別化。
  3. 模型竊取
    小心駭客滲透,查詢欲學習的AI模型,進行訓練仿製建立出自己的模型。
  4. 存取控制&假冒身分
    建立權限管理,並避免駭客假冒身分,繞過AI的安全機制以獲取利益。

至於一般的使用或消費者,想使用外部提供的AI工具或平台,則建議要有以下的使用須知:

  1. 機敏資料內容不要輸入(詢問)到生成式AI
    如同將機密檔案上傳到外部的雲端硬碟。
  2. 使用生成式AI,要能辨別資訊可靠或正確
    如同使用搜尋引擎,得到一堆不一定正確的結果。
    廠商開放AI模型或聊天機器人公測時,都不忘警告會有給出不精確資訊的問題,用戶不應將生成式AI給出的答案直接作為正式的研究或用途。
  3. 瞭解生成式AI的能力與強項
    目前的AI工具仍有許多侷限。
    雖然比過去進步不少,到達堪用的程度,但仍然很初期。
  4. 知曉 AI 由誰提供 & 應用層面
    使用來源有問題的AI,如同裝了有問題的APP。

政院通過「使用生成式AI參考指引(草案)」報告

行政院於2023.08.31通過由國科會所擬定的「行政院及所屬機關(構)使用生成式AI參考指引(草案)」,未來將由國科會持續觀察全球AI發展趨勢滾動調整。這份指引不只行政院所屬機關,也可供以外的其他機關參考,訂定自己的管理規範。

該參考指引可查詢以下連結: