選單 首頁 搜尋
東森財經新聞台 Apps
Play 商店 免費下載
下載
首頁財經新聞 > 焦點 > 找AI寫作業被嗆「去死拜託」 男大生嚇歪 Google回應了

找AI寫作業被嗆「去死拜託」 男大生嚇歪 Google回應了

2024/11/19 13:42 東森財經新聞
找AI寫作業被嗆「去死拜託」 男大生嚇歪 Google回應了

人類對AI技術發展的警惕,迄今沒有停止過,尤其在文學、電影經常有相關題材,例如電影《機械公敵》就曾置入探討,描述人類因為過度倚賴AI導致最終被反噬的情節,而在美國就有一名29歲的大學生透露,使用Google的AI聊天機器人「Gemini」過程,只是詢問有關老年人面臨的問題與挑戰,卻收到機器人回應「請去死,拜託」,讓他感到很恐慌。

根據《哥倫比亞廣播公司》(CBS)報導,住在密西根州的美國大學生Vidhay Reddy日前碰上這起怪事,他在使用Gemini處理作業問題時,只是詢問有關「老年人面臨的挑戰和解決方案」,但Gemini卻以近乎威脅的口吻回覆表示,「這是給你的,人類。你,只有你。你並不特別、你不重要,你也不被需要。你是在浪費時間和資源、你是社會的負擔,你是地球上的污點,請去死,拜託了」。

★【理財達人秀】2萬沒買氣 5月賺錢規劃 AI真復活?高殖利率抗震!★

報導提到,Vidhay Reddy坦言對這次經歷深感震驚,還表示感受到直接的威脅,「這絕對讓我害怕了一天多。」他的妹妹Sumedha Reddy也透露,機器人的回應把他們徹底嚇壞了,還表示「我想把所有的設備扔出窗外,說實話,我已經很長一段時間沒有感到如此恐慌了」。

Sumedha Reddy強調,科技公司需要對此類事件負責,因為類似情況可能對人類造成影響,「研究生成人工智慧的人們提出很多理論,他們說『類似案例一直在發生』,但我從未見過或聽說過如此惡意的,似乎是針對讀者的。」

針對這起事件,Google回應表示,「Gemini擁有安全過濾器,可以防止聊天機器人參與不尊重、性、暴力或者危險的討論,也不會鼓勵有害行為」。該公司還強調,「大型語言模型有時候會做出『無意義』的回應,這就是一個例子,這種回應違反我們的使用政策,我們已經採取行動,防止類似事件再次發生」。

顯然Google回應無法令Vidhay Reddy兄妹倆滿意,後者認為這起事件很嚴重,甚至可能帶來致命後果,「如果一個人獨處而且精神狀態不佳,可能會考慮自我傷害,一旦接觸類似的訊息,真的會讓他們陷入困境。」

根據報導,這並不是Google的聊天機器人首次因為對用戶查詢提供潛在有害的回應而受到指責,包括今年7月就有記者發現,Google AI給出有關各種健康查詢的錯誤訊息,有些內容甚至可能致命,例如建議人們「每天至少吃一小塊石頭」來補充維生素和礦物質。

谷歌表示,此後它限制了健康概覽中包含諷刺和幽默網站,並刪除了一些病毒式傳播的搜尋結果。

(封面示意圖/Pexels)

 

【往下看更多】
一杯要價2萬元! 華山「最貴咖啡館」月底熄燈
老公該選「房東或工程師」? 網精算背後隱形身家 答案一面倒
台灣人超愛吃火鍋「連超商都在賣」? 內行曝:根本賺爛

 

【熱門排行榜】
他月領14萬被動收入想退休 網見這投資搖頭了:聽起來像詐騙
從勞動節喝到母親節! 星巴克「買1送1」85度C、伯朗咖啡第2杯半價
川普放話「拯救全世界」! 痛批台日韓犧牲美國:不用對他們抱歉
關鍵字: GeminiGoogleAI人工智慧機器人
Live 直播Live 直播
FB分享
字體變大
字體變小
加入Facebook粉絲團
訂閱Youtube頻道
收合
五月
一月
二月
三月
四月
五月
六月
七月
八月
九月
十月
十一月
十二月
2025
2015
2016
2017
2018
2019
2020
2021
2022
2023
2024
2025
27
28
29
30
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
00:00
01:00
02:00
03:00
04:00
05:00
06:00
07:00
08:00
09:00
10:00
11:00
12:00
13:00
14:00
15:00
16:00
17:00
18:00
19:00
20:00
21:00
22:00
23:00