在 Google I/O 大會上,Google 為搜尋引擎加入 AI 總結功能,能夠不必一個個查看網頁,就自動整理出搜尋內容的主要結論,但這項功能上線之後,網友卻發現這個 AI 的整合能力似乎有待加強,甚至會將不正確、具危險性的敘述參雜在其中。
網友試著詢問:「起司為何不會黏在披薩上」,Google AI 總結出可能是因為醬料太多、起司太多或是醬料太厚。
然而提供解決方式就相當離譜,Google AI 給出的其中一個方法居然是將 1/8 匙的無毒膠水混進醬料裡來增添黏性!而這個答案的出處實際是源自 11 年前 Reddit 上網友惡搞的回答。
Google AI overview suggests adding glue to get cheese to stick to pizza, and it turns out the source is an 11 year old Reddit comment from user F*cksmith 😂 pic.twitter.com/uDPAbsAKeO
— Peter Yang (@petergyang) May 23, 2024
但這並非最誇張,有網友搜尋「感到憂鬱怎麼辦?」,Google AI 又把 Reddit 論壇的內容做為建議,且居然向用戶推薦可以從金門大橋(Golden Gate Bridge)上跳下去!
Have you heard?
— Vensy (@vensykrishna) May 24, 2024
Google's AI missteps are turning its cash cow into a laughing stock.
Dive into the 13 most embarrassing AI fails that are wrecking Google AI overviews: pic.twitter.com/y2GvJJwUcK
除了一些可能潛在危險性的答案外,Google AI 似乎也很擅長一本正經的胡說八道,像是 3 年相當於幾個月,得到的答案卻 36.025 個月。或是告知網友使用汽油來煮義大利麵不會比較快,但可以用來製作辣味義大利麵,等前後文邏輯不通的內容。
this genuinely had me questioning if I actually know how many months are in a year lmao pic.twitter.com/n5gLpDJcRQ
— alice lahoda 🇵🇸 (@angryangryalice) May 19, 2024
— John D. Cook (@JohnDCook) May 24, 2024
外媒 The Verge 將相關的結果向 Google 官方進行詢問,發言人 Meghann Farnsworth 表示這些離譜的答案通常是因為「問題不夠嚴謹」所致,不能代表多數人的使用狀況,公司目前已經正在處理與改善此部分問題,並會利用網友們搜尋出的結果來做為調整參考。
這並非第一次 Google AI 出現離譜瑕疵,在先前 Gemini 1.5 加入 AI 圖片生成功能時,曾發生強制「多元」事件,造成生成的圖片即便是歷史真實存在的人物,也會胡亂替換人種,被質疑是歧視,讓 Google 一度出面致歉並暫時將圖片生成功能進行下架調整。
Our AI image generation feature got it wrong. Here's more on what happened and how we're working to fix it. https://t.co/CUrCHimu1s
— Google Public Policy (@googlepubpolicy) February 23, 2024
關於 Google AI 總結胡亂回答的情況已經在網路社群上成為了迷因,有一部分網友覺得這可能跟 Google 因為市場競爭的關係,逼不得已趕鴨子上架才導致整體的正確性與品質欠缺,就現階段的表現而言, AI 總結功能只能算是輔助參考,還是需要進一步地進行求證,千萬不可照單全收。