難分語氣用詞 ChatGPT恐造成無心冒犯
Published by Commercial Times, June 26; https://www.ctee.com.tw/news/20230627700775-431307 近期人工智慧生成機器人ChatGPT爆紅,許多人以此來協助撰寫稿件,但須注意的是,在演講、新聞、外交信函中,ChatGPT恐怕會產生掩蓋作者的語調、風格、用字遣詞等問題。 心理學中有「鄧寧-克魯格效應」(Dunning-Kruger effect),亦即過度高估自身能力。在使用生成式AI進行英語溝通時,尤其對台灣英語能力中高級、低中級的專業人士,這是日益嚴重的風險。 需注意的是,儘管生成式AI對語言能力較弱的使用者來說,確實帶來了改善,但也可能誤導使用者對語言的能力感,恐會掩蓋掉作者本身語調、風格和詞彙選擇。 對於風險較高的英語溝通,例如演講、新聞發布、外交信函等,語調、風格和詞彙選擇對維護專業品牌形象至關重要。然而由於生成式AI的局限性,讓使用者無法了解這些問題,而相關議題處理的失敗,恐將導致聲譽受損,甚至冒犯到目標受眾。 生成式AI無疑能夠提高使用者的生產力和技能,但是對於英語能力中等和低中級使用者而言,情況將較為不穩定,這些人在國際組織的銷售、市場營銷、公關部門中,成為AI輔助「鄧寧-克魯格效應」的受害者。他們對於AI的依賴,可能導致不適當、不專業的溝通,同時又處於感覺自己語言流暢與準確的錯覺之下。 因此,大家必須對語言能力和溝通能力,進行重要區分。生成式AI能幫助使用者達到高度準確性,卻無法保證同樣的溝通品質,即使提供生成式AI完美的文本,但上下文、語氣、正式程度、特定性等關鍵領域不適合,也可能會造成錯誤。 尤其是經過生成式AI修訂的文本,用於高風險溝通時,問題就會升級。 筆者作為一家台灣大型非語言組織的語言編輯,親眼目睹裡生成式AI對寫作質量所帶來的各種影響。 使用生成式AI製作的正式信函,可能會因為用句過長或內容不明確,而讓讀者困惑。或者是產生的演講和信函,語意顯得過於自大,甚至傲慢。相關情況,筆者在3個星期內就注意到了,顯示出生成式AI造成的語言正確性與有效溝通之間,有明顯的斷層,而這些微妙的失誤可能被寫作者所忽視,但接收者肯定會注意到。 為了防止生成式AI帶來的虛假安全感,應該留意兩項重點:第一、認識並防範「鄧寧-克魯格效應」,使用者必須了解生成式AI的局限性。第二、確保專業人員參與和審核AI產出的內容,尤其是高風險溝通。否則長期建立的信譽,會在僅僅一次的無心冒犯中,就被摧毀。
難分語氣用詞 ChatGPT恐造成無心冒犯 Read More »