圖靈獎
」2024諾貝爾物理獎揭曉!為「生成式AI」奠定重要原理 美加2學者共享殊榮
資訊工程的祖師爺成了2024年諾貝爾物理學獎的得主!開發人工神經網路進行機器學習之技術的美加學者,加拿大多倫多大學榮譽教授辛頓(Geoffrey Hinton)、美國科學家霍普菲爾德(John Hopfield),諾貝爾獎物理學委員會認為,兩位的學術研究為當紅炸子雞「生成式AI 」奠定了重要基礎,把統計物理學的模型發展出方法,讓人工神經網路能夠用於機器學習,帶來突破性的研究與應用,特此頒發今年的大獎。加拿大多倫多大學榮譽教授辛頓(Geoffrey Hinton)(右),美國科學家霍普菲爾德(John Hopfield)(左)共同獲得2024年諾貝爾物理學獎。(圖/諾貝爾獎官網)人工神經網路在學術界的名字有多次的改變,及至2012年開始在學界和應用上站穩腳步,流傳的名稱改為「深度學習」,因此更多的研究,辛頓他的研究夥伴約書亞.班吉歐(Yoshua Bengio)與楊立昆(Yann LeCun),共同在2018年拿到電腦科學領域的諾貝爾獎「圖靈獎」, 並列「深度學習三巨頭」。辛頓等人也因此被譽稱為資工學界的祖師爺。為讓國人更為了解諾貝爾物理獎得主及其研究,台灣科技媒體中心8日晚間,邀請清華大學物理學系特聘教授林秀豪和東海大學應用物理學系教授施奇廷,在線上為媒體說明。中興大學資訊工程學系主任吳俊霖則向台灣科技媒體中心表示,近幾年人工智慧在電腦視覺與自然語言處理,包含大家所熟悉的YOLO模型與ChatGPT的成功,都源自於這兩位得獎的學者傑出的研究。吳俊霖認為,目前人工智慧在醫學,農業工業與運動科學上都正蓬勃發展著,這兩位學者的基礎研究帶來了現今與未來的AI時代。林秀豪說明,這次得獎的看似屬於電腦科學領域,但得獎者之一的霍普菲爾是物理學家,他參考統計物理學的理論,模擬人腦中的神經細胞連結,提出原始的人工神經網路,藉由神經元間的連結變強或變弱,達到學習與記憶的功能。而同時得獎的辛頓,工作上是將霍普菲爾的神經網路進一步發展,結合統計物理與資訊科學的技術,建構出能夠處理複雜資訊的人工神經網路,是現在人工智慧技術的基石。施奇廷則表示,辛頓十分關心人工智慧造成的爭議,近期也提醒人工智慧領域的研究必須謹慎發展,避免造成傷害。施奇廷說明,這次得獎的研究初衷是向人腦學習,如同人類腦細胞互相連結,且學習和記憶的過程會重塑腦細胞之間的連結強度,兩位得獎者根據人腦細胞對外界刺激有不同反應的概念,做出了人工智慧的模型。
求學逆襲王!高職生在學階段「突覺醒」 花11年考上麻省理工博士
大陸浙江一名男子因求學時期家境貧困,因此國中畢業後就出去打工,但他仍認為多讀書有助於未來,於是他就決定考取一所高職,接著再考取大專、插大念大學、碩士,最後還成功申請到美國麻省理工學院。博士畢業後,他也成為大陸各級院校開學典禮的模範,藉自己的讀書翻轉人生經驗鼓舞年輕人。根據陸媒報導,周信靜是國內最有名的「求學逆襲王」,因為他的求學過程堪稱是典範,他一路從職校、大專、插大念大學、考研究所,再讀到博士畢業,再成為大陸各級效院開學典禮的模範,受邀去演講鼓勵年輕人。周信靜2015年時考上杭州電子科技大學後,再以最佳成績從600多人的計算機(電腦工程)學院中脫穎而出,拿下大陸國家獎學金等殊榮。後來周再順利考上浙江大學計算機科學技術專業碩士,並於2020年時得到MIT計算機(電腦工程)系的入學通知。在浙江大學畢業後,周信靜順利就職於騰訊公司,工作之餘他從未放棄對自己熱愛的數據領域的研究,他參與的工作SpitFire發在SIGMOD2021上,而他同時也在2020年底成功申請到麻省理工學院(MIT)的電腦博士(CSPhD),並成為資料庫領域圖靈獎(ACM A.M. Turing Award)得主麥克(Mike Stonebraker)的學生。
AI當道衝擊各行業 業界紛連署警告「恐提高人類滅絕風險」
現在人工智慧(Artificialintelligence,AI)正大行其道,各行各業都因為AI技術興起,興起了生死存亡的問題,已經有業界、學界大腕級人物,包括連OpenAI、Google Deepmind、Anthropic等多家AI企業領袖與相關業界專家,紛紛連署警告, AI可能會提高人類滅絕風險,但也有科學家認為,這種說法有誇大之嫌,各界意見分歧。綜合CNN、路透社等外媒報導,於非營利組織「AI安全中心」(Center for AI Safety,CAIS)網站,最近發出一項引起外界議論的聲明,提到:「全球應把減輕AI造成人類滅絕風險的事項,拉高到與大流行疾病、核武戰爭等其他社會規模的風險,一起當作是全球優先處理事項」。包括OpenAI執行長奧特曼(Sam Altman)、Google Deepmind執行長哈薩比斯(Demis Hassabis)、Anthropic創辦人兼執行長阿莫戴(Dario Amodei)、研究AI先驅科學家辛頓(Geoffrey Hinton)、蒙特婁大學教授班吉歐(Yoshua Bengio)等人,都有參與連署。而幾年前以人工智慧深度學習(YoshuaBengio),獲得「電腦界諾貝爾」圖靈獎的3名學者就包括辛頓與班吉歐,與現在在Meta任職的勒昆等3人,被一起稱為是「AI教父」。辛頓日前就對外表示,AI對於人類構成的威脅「可能比氣候變遷還大」;但勒昆認為,這些把AI當作是世界末日一般的警告,是過於誇大其辭的。普林斯頓大學電腦科學家納拉亞南(ArvindNarayanan)也認為,目前AI的能耐,還不足以讓這些科學家與業界人士擔心的風險成真,過度提防AI為這個世界帶來的改變,反而會分散大家對於AI帶來威脅的注意力。
ChatGPT之父闢謠 GPT-5根本「不存在」
最近,OpenAI的執行長Sam Altman在一場公開訪談上為GPT-5闢謠。他聲稱OpenAI並沒有在訓練GPT-5,而是一直基於GPT-4做別的工作。前陣子圖靈獎得主Yoshua Bengio、蘋果創始人、馬斯克等全球科技業人士聯合起來,簽署了公開信,對GPT-5發出圍剿。現在,簽名人數已經突破了2.5萬。然而,Altman卻始終對此保持沉默,從未公開表露自己對於這封信的態度。Altman昨(14日)在麻省理工學院的一場活動中,對於此封暫停超強AI訓練的聯名信首次表態。他表示,十分贊同這個倡議的一部分,公司訓練完GPT-4以後,也是等了六個月才發布。並強調,OpenAI花了很長時間研究GPT-4的安全性,接受了外部審核,也進行了內部的檢視。不過,他也指出,這封公開信遺漏了最含技術性的一個細微之處——我們該在哪裡停止?對於該封聯名信最初版本聲稱OpenAI目前正在訓練GPT-5,Altman回應道:「我們並沒有這樣做,目前只是在GPT-4的基礎上進行更多的工作而已。我認為目前還各種各樣的安全問題需要解決,但這些問題在這封信上被完全忽略了。」就在活動的同一天,OpenAI的總裁兼聯合創始人Greg Brockman,也在推特發了一段長文強調,公司對模型的安全問題是非常重視的。有關AI發展速度的討論中,有一個底層的核心理念,那就是需要非常重視安全性問題,謹慎前行。這對於公司的目標來說十分重要。Brockman表示,從AI的長期發展歷史來看,專家們自信滿滿的預測往往並不準確。為了避免出現未注意到的預判錯誤,應該讓新技術以其當下的面貌時刻和現實世界碰撞,並在不斷碰撞的過程中發展、測試、投入使用,當然能力提升也是一定的。總而言之,Altman表示,隨著模型的能力越來越強,與之對應的安全措施確實需要增加。OpenAI已經盡最大努力去了解,這個模型究竟發生了什麼,而且讓整個過程謹慎再謹慎。他自豪地提及,自從發布GPT-4以後,一切都很不錯。GPT-4也許不是功能最強大的模型,但肯定是目前未知最安全、最齊全的模型。