如果我自掏腰包支付ChatGPT Plus的費用,並用它來協助撰寫這篇文章,我的上司會知道或者在意嗎?

這正是“陰影AI”(Shadow AI)引發的問題,這指的是在工作中使用未經公司正式批准的AI工具。

由於需要加快工作速度以及生成性AI工具的普及,越來越多的編輯人員開始使用AI來完成任務。雖然使用生成性AI處理一些小任務—例如語法檢查、重寫文案或測試不同標題—似乎無傷大雅,但若不加以監控,其他用途可能會導致更大的問題。

此類做法可能導致編輯標準不一致、安全漏洞和倫理失誤,法律專家指出。

陰影AI是什麼?

陰影AI指在工作中使用未經公司正式批准或授權的AI工具。這是IT部門問題的一個痛點,因為在工作中無意識地使用生成性AI工具可能會增加企業遭遇數據泄露的風險。

但它在新聞編輯部的應用又帶來了一系列獨特的考量。若將敏感數據(如敏感來源資料、專有研究、禁止披露的新聞和版權資訊)輸入大型語言模型,未經出版商監督的情況下,不僅可能危及資訊保護和記者的聲譽及工作準確性,甚至可能涉及法律違規。

例如,如果有人將我的作品放到系統中,結果該系統的所有者擁有了其副本,那麼他們可能會用這些資料來進行AI訓練,這是我從未想過或允許的方式之一,”Husch Blackwell律師事務所的AI諮詢高級總監Michael Yang表示,“你可能會不經意間造成違反合同的情況。”

新聞人員如果將版權數據輸入一個會用於訓練目的的LLM中,可能會在未來引發法律問題。

存在的風險

法律專家向Digiday提到的三大考量因素包括:AI模型的潛在偏見、保密性及準確性問題。

AI模型的偏見已被充分報導。如果用于訓練AI模型的數據是偏見的或單方面的(如傾向於某些種族或性別),而記者依賴這些模型構建的工具來工作,則可能會加劇這些刻板印象

LLM抓取發行商的在線內容並用於訓練其模型正是像The New York Times對OpenAI提起的版權侵權訴訟等案件的核心爭議。這也是為何記者將版權數據或其他敏感資訊(如機密來源資訊)輸入連接到網際網路的AI模型中而非本地承載的風險所在,根據在牛津大學研究AI對新聞業的影響的研究員Felix Simon所說。

敏感數據可能被投入這些未經核准的系統并用于訓練AI模型,甚至可能在輸出中顯示,Simon提到。而如果這些系統不安全,可能會被AI技術公司、負責系統更新的人或第三方看到。他補充道。

以這種方式與AI系統共享版權數據可能因AI公司如何吸收輸入並用作訓練數據所致的侵犯版權而涉嫌違法,Yang強調。根據負責媒體和廣告客戶的律師事務所Davis+ Gilbert的合夥人Gary Kibel說明,出版商可能被追究是否侵犯版權或生成侵權內容的責任。

與此同時,使用尚未經驗證的工具可能會導致準確性的問題。“如果你輸入到一個AI平台上,如‘如果CEO Jane Doe做了以下事情,那會意味著什麼?’然後該AI平台將其收錄到訓練數據中,結果在其他人的輸出中得出Jane Doe做了以下事情........那麼他們可能會來找你,問,‘這是怎麼回事?我只告訴了你。’” Kibel說。

許多大出版社已經為新聞編輯部制定了正式的政策、原則和保護措施。

Gannett有其“倫理指南和政策”,其中涉及AI生成或輔助內容的規範。其他如衛報紐約時報華盛頓郵報等出版商也制定了這些政策。

而出版商們也建立了內部小組專門負責這些原則和指導方針的制定和執行。

例如,Gannett有一個名為“AI Council”的小組,由跨職能經理構成,他們的任務是審查新的AI工具和用例,以進行評估和批准。類似的工作小組在像BuzzFeed和Forbes這樣的公司2023年涌現。

如何監控陰影AI?

你可以確保員工知道他們和公司對於如何在工作中使用AI工具的立場。

例如,有一個出版業CEO提到,他們的公司每年會有幾次培訓來討論AI政策和指導方針,例如不將機密來源資訊、財務數據和個人資訊上傳到未經公司批准的LLM中。

“我傾向於相信人們會做出正確的判斷,根據他們所做的工作和知道對他們有利的東西,”該CEO表示。

Gannett發言人表示,公司內有“穩健的流程”來審核和實行技術於新聞編輯部。公司有特定技術政策,指出被認可的軟件和在線服務,以及若需要如何請求获取和支付這些服務。

這一政策幫助我們確保系統和數據的安全性和完整性,該發言人說。

根據最近的報告顯示,由AI軟件公司Trint提供的調查中,64%的機構計劃今年增強員工教育,57%將引入新的AI使用政策。

但公司應該問自己一個問題:記者為什麼要這樣做?

“可能他們這樣做是因為公司所提供的工具不夠” Yang說。“你可以進一步研究這些工具,更多地審核工具、對工具進行技術保護......並制订並教育政策,以確保你理解何為可以何為不可以,還如何最好地使用它以防止這些問題的發生。”