“到 2050 年,要讓 AI 憑自己的科研成果拿下諾貝爾獎!”
索尼計算機科學實驗室首席執行官北野弘明博士,為了開發匹敵頂尖科學家頭腦的 AI,提出了諾貝爾圖靈挑戰計劃。
這是一次人工智能與自然科學領域的夢幻聯動。
人類的力量太有限了,那就創造出 AI 來替人類實現無限可能。
“當 AI 強大到能處理復雜現象時,就有機會探索人類科學家當下無法理解的事物。”
他們計劃,將 AI 的算力優勢應用于無窮的科學發現中,利用強大的信息處理能力,幫助人類進行科學發現,找到新的研究突破。
AI 的優勢在哪?
和人類相比,人工智能擁有的算力,可以實現對多領域、龐大信息量的快速處理,這遠遠超出人類對信息的處理能力。
而人類科學家常常會局限在個體的知識范圍內,所以在科學探索中,存在一定的劣勢。
科學探索就是不斷試錯的過程,一些突破性的重大發現,往往來源于“失誤”。
比如導電聚合物聚乙炔薄膜,它誕生于一次實驗失誤,合成過程中錯誤地使用了比正常濃度高一千倍的催化劑。

人類科學家不會去做這種超出常理的實驗,而這樣的設計卻可能被 AI 實現。
看似關系不大的領域,背后的聯系卻可以借助 AI 來抽絲剝繭,擴展更豐富的科學假設。
對這些假設的驗證篩選,同樣離不開機器學習訓練。
基于 AI 科學家的已有發現不斷探索假設空間,生成詳細的證明或論據,以評估新生成假設的有效性和重要性。在這樣的假設驗證過程中,AI 不斷進行著自我強化學習。

比如已經被成功應用到實際場景中的 AI 工具 Adam-Eve,就在酵母基因組學和藥物開發領域發揮了重要作用。
Adam 成功預測了酵母菌新功能,找到了芽殖酵母中的孤兒酶;Eve 則發現了三氯生成分可以靶向抑制 DHFR 酶來治療瘧疾。
科學家 AI 的發展
當然,現在 AI 科學家最受質疑的,就是其本身的“黑盒”特性。
為了讓科學 AI 系統建立并維持可信度,就要避免黑盒效應,消除數據偏見。
“要讓 AI 做出的科學發現被科學界接受,就必須擁有令人信服的證據,和背后邏輯清晰的推理。”
類似 Adam-Eve 這類閉環實驗室自動化系統,AI 能夠在人類具體的指令中,完成復雜的實驗,以高效的機器處理取代人類低效的實驗步驟。
例如,借助 AlphaFold 預測蛋白質結構,僅僅一周時間就預測出了 98.5% 的人類蛋白質。大大加速了蛋白質組學的研究進程。
而利物浦大學的“移動化學家”,則具備了自主發現高活性催化劑的能力。
北野弘明對 AI 科學家未來的發展方向做出大膽假設。隨著系統自主性的提高,人類的指令將變得抽象,AI 科學家對要測試的假設以及要執行實驗的優先級獨立決策。
理想中的 AI 科學系統,是一個結合了軟件工具、數據訪問和嵌入閉環實驗體系的多重多智能體系統,具有高度交互性、互用性和可擴展性。
構成它的多個 AI 系統專注于各自領域,能夠更廣泛地探索假設空間,將獨立領域互相結合起來。

關于 AI 科學家,另一個引起社會關注的話題,就是倫理問題。
整個發展階段中,AI 可以一直作為工具被人類應用。但是隨著 AI 自治程度的不斷提高,人類更多地充當起監督者的角色,以防止系統被濫用。當然也可以允許 AI 高度自治,以產生更有突破性的科學假設。
AI 參與到科學研究領域中,對于科研成果的歸屬界定,同樣也是需要嚴肅對待的社會問題。
DABUS“人工神經系統”的開發者曾為其申請專利權,歐英美專利機構均以“不是自然人”為由駁回申請。然而近期澳大利亞法院開創先例,做出裁決,承認了 DABUS 系統的專利發明人身份。
隨著人工智能的不斷發展,相應的社會規則也應當逐步完善,為 AI 科學家提供適宜的社會環境。不過,在對人類做出極大貢獻的科學研究面前,發明者是人類或是 AI,似乎都不是十分重要的事了。
特別提醒:本網信息來自于互聯網,目的在于傳遞更多信息,并不代表本網贊同其觀點。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,并請自行核實相關內容。本站不承擔此類作品侵權行為的直接責任及連帶責任。如若本網有任何內容侵犯您的權益,請及時聯系我們,本站將會在24小時內處理完畢。