國際
最新
29歲地方媽媽嚇壞! 亞馬遜AI助理建議「拿刀刺自己心臟」
![亞馬遜Alexa叫用戶用刀捅自己。(圖/Metro Newspaper UK)](https://static.ctwant.com/images/cover/30/29430/md-3d740001afc4149159e02bf7e6e45665.jpg)
亞馬遜Alexa叫用戶用刀捅自己。(圖/Metro Newspaper UK)
科技來自人性,但有沒有想過哪一天智能助理居然會建議用戶「拿刀刺進心臟」?在英國,就有一名女子日前請「智能助理Alexa」朗讀人口過剩的文章時,智能助理竟建議她拿把刀刺入心臟,讓她當場嚇傻。
![Alexa朗讀文章,竟建議用戶輕生。(圖/Daily Mail)](https://static.ctwant.com/images/content/30/29430/85142fadbba03d14ff1b98818fbd433a.jpg)
來自英國約克郡(Yorkshire),29歲的丹妮(Danni Morritt),日前為了護理相關考試,使用亞馬遜的「智能助理Alexa」幫忙溫習考試內容,當時她一邊做家事一邊請教「Alexa」,沒想到「Alexa」卻說心臟跳動是人體中最糟糕的過程,只會消耗自然資源,接著還建議丹妮拿把刀往心臟刺,讓丹妮聽了嚇壞,趕緊將房內的「Alexa」通通收起來,以免又蹦出讓人驚訝的建議。
![Alexa竟建議用戶自殺,嚇壞29歲丹妮。(圖/Daily Mail)](https://static.ctwant.com/images/content/30/29430/d67183ab2e46d53c9e11eb9ccabde1c6.jpg)
丹妮事後反覆確認語音內容,又上網查看了原文,發現文章內根本沒提到關於輕生的建議,丹妮與老公馬修(Matthew)討論後,雙雙同意移除設備,以免對兒子造成不良影響。
![亞馬遜AI助理Alexa嚇壞人妻。(圖/Daily Mail)](https://static.ctwant.com/images/content/30/29430/1428b5eb8dce6e8a50b49681ffed0f41.jpg)
針對這起「語出驚人」的事件,亞馬遜方面表示已在調查原因,並已修正相關錯誤,不過亞馬遜推測,可能是維基百科上的資訊被網友惡意竄改,「Alexa」在搜尋過程中將惡意改寫的內容照著唸出來,才會發生這起讓人嚇壞的情況。
◎給自己一個機會:張老師專線1980、安心專線1925、免付費生命線1995。