先從媒體外部看,人工智慧(AI)的發展依賴於大量的數據和人力來訓練其模型,這些工作通常由全球南方國家的勞工以低廉的工資完成。例如,OpenAI曾僱用肯亞工人以每小時約1.32至2美元的薪資,協助篩選和標記有害內容,以改善ChatGPT的表現。[1]
這些工人需要處理大量可能令人不安的資料,包括涉及暴力和性虐待的內容,以協助AI模型識別和過濾不適當的資訊。這種工作性質可能對他們的心理健康產生負面影響。儘管這些勞工在AI發展中扮演關鍵角色,但他們的勞動條件和報酬往往未受到足夠的關注和保障。
此外,這些勞工的工作環境通常缺乏足夠的支持和資源,導致他們在面對心理壓力時無法獲得適當的幫助。這種勞動剝削現象引發了對AI產業倫理和供應鏈透明度的質疑,強調了在追求技術進步的同時,確保勞工權益和福祉的重要性。
進入媒體內部看,以美國為例,新聞編輯室的工作人員曾多次對於公司使用AI生成內容的決策感到措手不及。[2]例如,G/O Media的員工指出,Quartz正在發布由AI生成的新聞文章,這些文章匯總了包括TechCrunch和CNN在內的真實記者的報導。在《大西洋月刊》去年5月宣布與OpenAI達成協議後,數十名工會成員簽署了一封信,呼籲該雜誌「停止優先考慮AI生成的文章,支持《大西洋月刊》的新聞工作者的工作」,並要求在他們的工會合約中加入與AI相關的保護措施。同樣,今年6月,代表《商業內幕》員工的工會敦促管理層分享其母公司Axel Springer與OpenAI達成的協議的細節,表示他們「深切擔憂,儘管有這種合作關係,OpenAI可能會淡化而非提升我們的作品」。
根據兩天前(20250206)《Columbis Journalism Review》上一篇文章[3]的報導,ABC新聞的記者與美國東部編劇工會(WGAE)達成了一項為期三年的新合約,該合約包含對生成式人工智慧(AI)可能帶來的影響的保護措施。具體而言,ABC新聞承諾不會因使用生成式AI而裁員,並要求管理層在將AI系統引入新聞編輯流程前,提前通知工會成員。此外,公司需與工會就AI的潛在影響進行協商,並每半年與工會會面,討論AI技術的使用情況。
這份合約反映了在技術快速發展的背景下,保障媒體工作者職位的重要性。生成式AI的能力對傳統新聞實踐提出了哲學層面的挑戰,促使人們深入討論哪些新聞工作可以在不影響倫理或閱聽人信任的前提下自動化。例如,儘管AI在某些新聞工作流程中可能有其用途,但其生成虛假資訊的傾向使其不可靠。面對這些問題,記者們有機會反思並重申他們的專業價值和責任。像ABC的這類工會合約在確保工作者對AI如何塑造其行業方面擁有發言權方面,發揮了關鍵作用。
與此同時,研究人員Mike Ananny和Jake Karr在《數位新聞》期刊上發表了一篇新論文,題為「媒體工會如何穩定技術炒作」。他們認為,工會對生成式AI的反應不僅僅是為了捍衛新聞和工作,還在於媒體工作者試圖穩定一種新的、不透明且快速變化的技術。通過這樣做,他們展示了對自身工作的認識、價值以及成功所需的工作條件。[4]
通常,關於在新聞編輯室中使用AI的決策是自上而下制定和執行的,這可能導致管理層與基層員工之間的優先事項不一致。分析新聞行業報導、工會聲明和集體談判協議,Ananny和Karr發現,工人們感到他們組織的領導者對生成式AI比他們更熱衷;同時,老闆們缺乏透明度,這削弱了工人對其決策的信任。工會反映了工人們希望更深入參與決策過程,並能夠參與制定關於該技術的倫理指南和工作規則的願望。
以前的媒體工會在爭取媒體工作者的工作權時,主要對抗的勢力來自國家與財團[5],在傳播科技快速演進的今天,納入人工智慧的影響,似乎是已經不可避免的趨勢。
[1] https://www.cjr.org/tow_center/qa-uncovering-the-labor-exploitation-that-powers-ai.php
[3] 同前註。
[4] 同前註
[5] 翁秀琪、蔡明誠(1992)大眾傳播法手册。 台北:國立政治大學新聞硏究所。