視角洞察

The Perspective Insight

職場中負責任地使用生成式人工智能(Generative AI)
人工智能(AI)可透過協助撰寫文件、摘要整理及資料研究來提升辦公效率。然而,過度依賴 Generative AI 可能導致錯誤資訊以及資料安全風險。未經核實的 AI 輸出、虛構的引用來源,以及不慎分享敏感資訊,已經在現實中導致法律處罰及聲譽損害。因此,專業人士在職場及法律相關情境中使用 Generative AI 時,必須保持審慎態度,核實事實,並維持必要的人為監督。

職場中負責任地使用人工智能(Generative AI)



近年來,人工智能(AI)已逐漸成為提升現代辦公環境效率的重要工具。許多過去需要耗費大量時間與精力完成的例行工作,如今可以在 Generative AI 系統的協助下迅速完成。例如,撰寫文件、摘要長篇資料、準備報告、搜尋資訊,以及生成圖表或數據視覺化,往往只需數秒即可完成。這些功能使專業人員能夠簡化工作流程、提高生產力,並將更多精力投入到更高層次的分析或策略性工作中。


然而,過度依賴 Generative AI 工具亦可能帶來顯著風險。當使用者習慣於在未經充分核實的情況下信任 Generative AI 生成的內容時,錯誤便可能發生。在某些情況下,這些不準確資訊可能影響不大,但在其他情況下,其後果可能十分嚴重,尤其是在專業、法律或技術領域中使用 Generative AI 生成內容時更是如此。


生成式人工智能系統 Generative AI 的一個根本限制在於,它們是基於概率演算法生成回應,而非基於已被驗證的事實。AI 模型會分析大型數據庫中的模式,並生成看似合理且連貫的回應,但這些資訊並不一定經過事實查核或驗證。因此,生成式 AI 的輸出可能包含偏見、過時資訊、不相關內容,甚至完全虛構的參考資料或引用來源。此外,由於生成式 AI 系統也可能從使用者互動與先前提交的內容中學習,不準確或誤導性的資訊亦可能在不經意間成為未來生成回應時所使用的知識來源之一。


鑑於這些風險,監管機構與法律機關已開始發布有關負責任使用生成式 AI 的指引。在澳洲,新南威爾士州最高法院發布了 《Practice Note SC GEN 23 – Use of Generative Artificial Intelligence》,為法律從業人員提供相關指導。該實務指引明確指出,不得使用生成式 AI 來撰寫或生成關鍵證據文件,例如宣誓書(affidavits)、證人陳述(witness statements)、品格證明(character references)或證人證據與意見。此外,該指引亦強調,一旦證人的證據已以書面形式表達,生成式 AI 不得用於修改、強化或重新措辭其內容。這些限制反映出維護法律證據完整性與真實性的必要性。


不慎使用 AI 亦可能帶來嚴重的資料安全風險。由於 AI 工具快速、便利,且看似能簡化複雜任務,許多使用者可能會將敏感資訊上傳至 AI 平台。然而,使用者往往錯誤地假設其提供的資訊是私密或暫時性的。2023 年 4 月,一名大型半導體製造公司的工程師在使用公開 AI 工具協助除錯複雜程式碼時,不慎上傳了公司的專有原始碼、測試流程以及機密工程筆記。由於該平台的預設設定允許將使用者輸入納入訓練數據庫中,這些資訊因此成為 AI 系統服務商內部資料庫的一部分,且難以取回或刪除。儘管並無惡意行為者參與,但實際上寶貴的智慧財產仍因這位工程師缺乏謹慎而間接被暴露。


現實世界中的法律後果亦已開始出現。2025 年底,澳洲一宗仲裁案件涉及一名承包商向地方議會提交的開發及規劃申請幾乎完全由 AI 生成,且未經適當事實核查。該申請文件包含不準確資訊與缺乏依據的主張,最終該承包商因此受到處罰。同年,一名澳洲律師亦因向法院提交含有 AI 生成之引用與引述的文件而面臨紀律處分,後來證實其中部分引用實際上並不存在。除了需要面臨經濟處罰外,此類事件亦可對專業聲譽造成長期損害。


這些案例突顯了一個重要教訓:雖然 AI 能夠顯著提升職場中的效率與能力,但其使用必須保持負責任的態度。人為的監督、事實核查以及專業判斷仍然不可或缺,唯有如此,才能確保資訊的準確性、維護資料的保密性,並保護組織的誠信與專業聲譽。