擔憂人類恐因AI滅絕 OpenAI:盼造新團隊讓「人工智能監督自身」
繼OpenAI開發的人工智慧聊天機器人ChatGPT,2022年11月問世以來,使得AI的熱潮在全球越發風靡。不過,共同創辦人蘇茨克維(Ilya Sutskever)和協調團隊負責人雷克(Jan Leike)卻認為,超級智能(superintelligence)恐替社會帶來危害。同時,OpenAI美東時間5日表示,將建立一個新的研發團隊,期盼利用人工智能監督自身,使其不對人類造成威脅。綜合《路透社》、《Slash Gear》報導,OpenAI共同創辦人蘇茨克維(Ilya Sutskever)、協調團隊負責人雷克(Jan Leike),以部落格文章揭示,超級智能(superintelligence)的能力恐致人類喪失自主權,甚至造成滅絕,「目前我們對於掌控潛在的超級智慧AI還沒有解方,也無法預防AI失控。」同時,蘇茨克維和雷克還在文中表明,解決危機的方式就是要創立一個特殊的監督系統,將以確保AI持續對人類發展有益的「人工智慧對齊研究(AI alignment research)」最大化。因此,他們認為,人類要有比當前還更厲害的技術來控制智能AI,與可能在未來10年內誕生的「超級智能AI」相互抗衡。針對「人工智慧對齊研究」,蘇茨克維和雷克指出,微軟(Microsoft)支持的OpenAI,預估將在未來4年之內,投入20%的運算能力,解決該項核心技術的挑戰。對此,OpenAI表示,此舉代表團隊將以人類反饋的方式訓練AI系統,旨在利用龐大的運算能力,擴展AI系統協助使用者評估,達到「人工智慧對齊」。不過,AI安全倡議人士雷希(Connor Leahy)強調,OpenAI提倡的計畫存在根本性的缺陷。他指出,首要的目標應是解決「人工智慧對齊研究」帶來的問題,否則初始的人類等級AI,在被迫解決更高等級AI的安全問題之前,就有可能失控並造成破壞。報導指出,AI的潛在危險向來是研究團隊,乃至外界關切的問題,早在今年4月,一群AI界領袖和專家曾聯署一封公開信,呼籲相關部門至少在6個月之內,暫停開發比OpenAI的ChatGPT還強大的系統,原因是更先進的AI可能為社會帶來危害。