隨著ChatGPT的誕生,近來AI浪潮席捲全球,人工智慧的應用越來越廣泛。AI現在已經成為不少人工作、生活的好幫手,甚至遇上感情受挫、人生低潮,都有人會向AI求解。但隨著分享的事情越多,資訊安全就顯得更重要,有專家就提醒,有5件事最好別告訴ChatGPT,以免造成個資外洩的風險。

圖片來源 / 翻攝自Tagesschau
根據媒體《New York Post》的報導,史丹佛大學「人本人工智慧研究中心 (HAI)」研究員珍妮佛 (Jennifer King) 直言,「當人們在聊天機器人中輸入某些內容時,你就已經失去了對它的控制權」,ChatGPT所屬公司OpenAI也在官網提醒用戶,「請不要在對話中分享任何敏感信息」,Google聊天機器人Gemini的頁面也註明避免輸入「你不希望審查員看到的機密信息或數據」。

示意圖。圖片來源 / 翻攝自MakeUseOf
珍妮佛就指出有5件事絕對別告訴聊天機器人,首先是「身分資訊」,包括身分證字號、駕照號碼、護照號碼、生日、地址、電話號碼等。想要請ChatGPT解釋醫療檢測結果,也別將自己的「醫療資訊」上傳,因為AI不受醫療個資法規範,用戶在上傳文件前可以事先剪裁或編輯,只留下部分結果就好。

示意圖。圖片來源 / 翻攝自ZDNET
再來是「登入資訊」和「金融帳號」,AI機器人不是保險箱,不能保證這些帳號密碼的安全,這些資訊可能會被駭客入侵竊取,進而造成個資或財物損失。上班族則別將「企業資訊」告訴AI,像是客戶資料或非公開商業機密,同樣會有外洩的風險。

示意圖。圖片來源 / 翻攝自LinkedIn
工作業務往來寄信最為正式,可是有很多細節需要討論的話,用信件來來回回相對麻煩,溝通時間拉得很長,所以很多公司團隊內部會用通訊軟體聯絡。一位網友誇獎有個軟體比LINE還好用,更是因此體會到把上下班生活分開的美好:「被當作人的感覺真好!」【更多內容請到下方延伸閱讀】

示意圖非當事人,翻攝自《直到瘋狂》
(往下還有更多精彩文章!)