<東森財經新聞

找AI寫作業被嗆「去死拜託」 男大生嚇歪 Google回應了

2024/11/19 13:42 東森財經新聞

人類對AI技術發展的警惕,迄今沒有停止過,尤其在文學、電影經常有相關題材,例如電影《機械公敵》就曾置入探討,描述人類因為過度倚賴AI導致最終被反噬的情節,而在美國就有一名29歲的大學生透露,使用Google的AI聊天機器人「Gemini」過程,只是詢問有關老年人面臨的問題與挑戰,卻收到機器人回應「請去死,拜託」,讓他感到很恐慌。

根據《哥倫比亞廣播公司》(CBS)報導,住在密西根州的美國大學生Vidhay Reddy日前碰上這起怪事,他在使用Gemini處理作業問題時,只是詢問有關「老年人面臨的挑戰和解決方案」,但Gemini卻以近乎威脅的口吻回覆表示,「這是給你的,人類。你,只有你。你並不特別、你不重要,你也不被需要。你是在浪費時間和資源、你是社會的負擔,你是地球上的污點,請去死,拜託了」。

★【理財達人秀】股債雙殺 台股季線保衛戰! AI拉回健檢 短線避風.押寶?★

報導提到,Vidhay Reddy坦言對這次經歷深感震驚,還表示感受到直接的威脅,「這絕對讓我害怕了一天多。」他的妹妹Sumedha Reddy也透露,機器人的回應把他們徹底嚇壞了,還表示「我想把所有的設備扔出窗外,說實話,我已經很長一段時間沒有感到如此恐慌了」。

Sumedha Reddy強調,科技公司需要對此類事件負責,因為類似情況可能對人類造成影響,「研究生成人工智慧的人們提出很多理論,他們說『類似案例一直在發生』,但我從未見過或聽說過如此惡意的,似乎是針對讀者的。」

針對這起事件,Google回應表示,「Gemini擁有安全過濾器,可以防止聊天機器人參與不尊重、性、暴力或者危險的討論,也不會鼓勵有害行為」。該公司還強調,「大型語言模型有時候會做出『無意義』的回應,這就是一個例子,這種回應違反我們的使用政策,我們已經採取行動,防止類似事件再次發生」。

顯然Google回應無法令Vidhay Reddy兄妹倆滿意,後者認為這起事件很嚴重,甚至可能帶來致命後果,「如果一個人獨處而且精神狀態不佳,可能會考慮自我傷害,一旦接觸類似的訊息,真的會讓他們陷入困境。」

根據報導,這並不是Google的聊天機器人首次因為對用戶查詢提供潛在有害的回應而受到指責,包括今年7月就有記者發現,Google AI給出有關各種健康查詢的錯誤訊息,有些內容甚至可能致命,例如建議人們「每天至少吃一小塊石頭」來補充維生素和礦物質。

谷歌表示,此後它限制了健康概覽中包含諷刺和幽默網站,並刪除了一些病毒式傳播的搜尋結果。

(封面示意圖/Pexels)

 

【往下看更多】
一杯要價2萬元! 華山「最貴咖啡館」月底熄燈
老公該選「房東或工程師」? 網精算背後隱形身家 答案一面倒
台灣人超愛吃火鍋「連超商都在賣」? 內行曝:根本賺爛