埃隆?馬斯克(Elon Musk)在早些時候舉辦的Abundance峰會“人工智能辯論”研討會上表示,即使人工智能技術(shù)有1/5的可能性會對人類構(gòu)成威脅,但其利大于弊,我們?nèi)匀恢档妹半U進行研發(fā)。
馬斯克重新評估了之前他對人工智能的風(fēng)險評估,他在研討會上表示:“我認(rèn)為人工智能有可能終結(jié)人類文明。我可能同意Geoffrey Hinton的觀點,這個概率大約是10%到20%左右。”但他補充說:“我認(rèn)為積極的可能性場景要大于消極的可能性場景。”馬斯克并沒有提到他是如何計算該風(fēng)險的。
去年11月,馬斯克表示這項技術(shù)失控的可能性“并非零”,但當(dāng)時他并未斷言失控的人工智能會毀滅人類。
盡管馬斯克一直倡導(dǎo)監(jiān)管人工智能,但去年他創(chuàng)辦了一家名為xAI的公司,致力于進一步拓展人工智能的強大功能。xAI是OpenAI的競爭對手,OpenAI是馬斯克與薩姆?阿爾特曼(Sam Altman)共同創(chuàng)立的公司,但馬斯克在2018年辭去了OpenAI董事會職務(wù)。
在峰會上,馬斯克估計到2030年,數(shù)字智能將超過所有人類智能的總和。雖然他仍然堅持潛在的正面影響大于負(fù)面影響,但馬斯克用他在公開場合使用過的一些最直接的措辭承認(rèn)了人工智能繼續(xù)按當(dāng)前軌跡發(fā)展將給世界帶來的風(fēng)險。
“你培育了一個人工智能,這幾乎就像養(yǎng)一個孩子,但它卻是一個超級天才,一個神一般的孩子——教養(yǎng)它的方式至關(guān)重要,”馬斯克在3月19日的硅谷活動上談到人工通用智能時說道,“我認(rèn)為對人工智能安全來說非常重要的一點是,讓它盡可能地追求真理和保持好奇心。”
馬斯克表示,他關(guān)于實現(xiàn)人工智能安全最佳方式的“最終結(jié)論”是讓人工智能以一種迫使其誠實的方式成長。
“不要強迫它撒謊,即使真相令人不快,”馬斯克談到讓人工智能安全的方式時說道, “這非常重要。不要讓它撒謊。”
據(jù)《獨立報》報道,研究人員發(fā)現(xiàn),一旦人工智能學(xué)會對人類撒謊,就無法使用當(dāng)前的人工智能安全措施來扭轉(zhuǎn)這種欺騙行為。更令人不安的是,研究人員還補充說,人工智能有可能學(xué)會自己欺騙,而不是被特意教導(dǎo)撒謊。