王大鵬
經常跑高速的朋友大概都有這樣的體會,在急彎或者長下坡的路段,路旁一般會有“請試剎車”的警示語,甚至有些路段還有備用車道,目的就是降低駕駛過程中出現的風險,說白了就是在加油的同時不要忘記備剎車。
(資料圖片僅供參考)
最近,ChatGPT相關的討論一度成為熱議話題,很多人都躍躍欲試,向其提出各種問題,似乎它都能給出令人滿意的答案,甚至已經有人開始利用這個程序替自己完成部分工作,比如撰寫論文。
在前不久組織的一次科普座談會上,有專家表示以ChatGPT為代表的人工智能會給科普創作帶來一定的挑戰,因為隨著大規模語言模型的日趨成熟,普通讀者可能難以區分哪些作品是由人工智能生產出來的。當然,在科普作品的情感方面,也許人工智能還不能比肩人類這個物種,但是它給我們帶來的挑戰仍然不能忽視。實際上,隨著人工智能產品不斷融入甚至是侵入生活的各個角落,有關人工智能將給人類帶來哪些挑戰的討論也日漸多了起來,當然也有人會擔心它會讓很多人失業。
日前,包括圖靈獎得主約書亞·本吉奧、計算機科學家斯圖爾特·羅素以及特斯拉創始人馬斯克在內的千余名專家人士在宇宙學家泰格馬克等人創辦的未來生命研究所網站上發表了一封呼吁暫停訓練比GPT4更強大的AI系統的公開信。他們認為最近幾個月來人工智能領域已陷入一場幾近失控的競賽,我們到了給巨型AI研究按下暫停鍵的時候了。
在《2001太空漫游》中,作者寫過這樣一句話:“任何足夠先進的科技,都與魔法無異。”以ChatGPT為代表的人工智能應用就如魔法一般,你提出一個問題,它能在很短的時間完成任務,當然其中也有一本正經胡說八道的內容,但是對于不明就里的普通公眾而言,它確實就像變戲法,這也暗合了卡爾·薩根的那句話,“我們生活在一個完全依賴科學和技術的社會中,然而幾乎沒有人了解這些科學和技術”。
確實,人工智能便捷了我們的生活,比如在交通行業,人工智能助力自動駕駛汽車已經開始上路。借助人工智能技術,汽車可以處理大量復雜道路、行人和其他車輛的信息,并據此得出行駛路線的智能決策;在金融行業,人工智能技術可以生成金融分析模型,并且可以對歷史信息進行整合,以便在征信和風控領域進行輔助;在醫療行業,人工智能技術可以通過對海量歷史數據的挖掘,協助醫生完成診斷,還可以通過對醫療影像數據的分析計算初步得出病理分析……
但是,在我們享受人工智能這種便捷服務的同時,也不能忽視它可能給我們帶來的挑戰。比如前不久剛剛發生的AI一鍵脫衣功能給當事人帶來的傷害,這樣的例子可能還有不少。
從科技向善的角度來說,我們有必要關注和研究新技術應該保持在一個什么樣合理的范圍內,才更符合全體人類的發展利益,這其實是一種立場和價值導向的問題,當然這應該是全人類共同持有的一種警覺,但是從研發者的視角來說,至少應該把“科技向善”作為一個終極目標,在最大的范圍內尋求共識和解決方案,引導人工智能產品釋放最大的人性之善,實現社會的良性發展。也就是說,人工智能產品需要以為人服務為宗旨,不能脫離開人類社會的全面發展這個基本目標。
實際上,從阿西莫夫的機器人三定律開始,人工智能的倫理問題就一直得到了特別的關注,但是就目前的發展速度來看,隨著對人工智能投入和研發力度的不斷加大,也許人工智能產品通過圖靈測試只是時間問題,但是我們也應該從倫理道德、法律規章等較多做好相應的機制建設,讓人工智能產品在造福人類福祉的道路上正常行駛,甚至必要的時候我們需要有一個“剎車”,畢竟在低頭拉車的同時,我們也需要抬頭看路,想想為什么出發。
這也讓人想起了1975年在加利福尼亞阿西羅馬會議中心舉辦的最著名的阿西羅馬會議,其正式的名稱是重組DNA分子國際會議。會上有超過100位頂尖科學家——其中大部分都是生物學家,和眾多律師以及物理學家(以及報刊的成員)齊聚一堂共同提出對重組DNA技術(也被稱為基因修飾)進行自我約束的指南??梢哉J為,該會議起源于科學家自己對研究的關切,會議研究并公布了一系列原則,旨在處理與重組DNA技術相關的潛在危害。同時,該會議是科學家們的一種自我規制,同時也有助于建立公眾的信心,即在科學家采用的預防性措施方面,科學還是有用的。
想到日前發布的呼吁暫停訓練比GPT4更強大的AI系統的公開信,我們并不知道它是否會起到作用,但是至少我們需要去思考這樣一個問題,同時也應該考慮在加油的時候別忘了備剎車。
(作者系中國科普研究所副研究員、中國科普作家協會理事)
免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。