IT之家 1 月 25 日消息,哥本哈根大學(xué)的研究人員在世界上首次用數(shù)學(xué)方法證明,在各種基礎(chǔ)問題之上,不可能開發(fā)出始終穩(wěn)定的人工智能算法。
以 ChatGPT 為代表的 AI 浪潮下,機(jī)器能比醫(yī)生更準(zhǔn)確解讀醫(yī)學(xué)掃描圖像、能比人類更安全地駕駛汽車,但再優(yōu)秀的算法也存在弱點(diǎn)。
以自動(dòng)駕駛汽車讀取路標(biāo)為例,如果有人在路標(biāo)上貼有標(biāo)簽,人類駕駛員的注意力通常不會(huì)被分散,而機(jī)器由于和接受訓(xùn)練的路標(biāo)存在差異,很容易出現(xiàn)分心。
該小組負(fù)責(zé)人阿米爾?耶胡達(dá)約夫(Amir Yehudayoff)教授說:“現(xiàn)實(shí)生活中存在著各種各樣的噪音,人類習(xí)慣于忽略這些噪音,而機(jī)器卻會(huì)感到困惑”。
IT之家附上報(bào)告原文地址,感興趣的用戶可以深入閱讀。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。