人工智能與關於參數的那些事

在電腦算則中利用參數來完成許多虛擬作為的技術,其實早已經在不計其數的現代科學運算、工程模擬、統計預測計算中,上天下地的滲透入我們如何認知物質宇宙世界,支撐著我們對於現代工程文明可靠性的信心,甚至引領我們去預測一些其實在我們認知能力之外的現象。

望在人造機器上發展出超越純運算層次的「人工智能」,是上世紀開始出現的概念,到五十年代也有了「人工智能」名詞。近百年來,這個領域確實發展出不同層次的所謂「智能」,一些已經用在不同的生活或技術領域,但是什麼樣水準的「人工智能」才達到仿人智力的能力,一直引起爭論。近期建立在大語言模型上的ChatGPT,由於能模仿人類對話,在多種不同形式溝通中展現某種「智能」,造成社會相當大的衝擊。

人工智能發展牽涉許多計算機運算,歷多年發展而累成,一般人自難窺其詳,簡單說來,就是以電子結構模仿人類腦神經結構,這些專家的思維,當下的人工智能系統類似於人腦中的結構,是由電子軟件的人造神經網絡建構起來。這些人工智能系統規模龐大,譬如二○二○年發表的GPT-3,電子神經網絡連結就用了一千七百五十億個參數,數以千計的特殊晶片,需要數週時間進行智能學習,仔細探究數以千億的字句內容,花費至少在四百六十萬美金之譜。

為了擴大學習內容,新人工智能系統發展的趨向,就是追求更大的規模,譬如今年三月發表的GPT-4,用的參數是GPT-3的六倍,大概有一兆個之多,GPT-4的開發公司聲稱花了一億美元。研究人工智能發展趨勢的公司估計,訓練最先進形式人工智能的運算能力,六到十個月就要加倍。如果按這個趨勢繼續發展新款人工智能,三年後用於訓練運算能力的費用將超過十億美元。

人工智能「大就是美」的發展方向,滿足的是對於炫奇智能效果的市場需索,與當下網路文化的盲目從眾大趨勢是一丘之貉,但學習過多所謂的「知識」內容,造就出功能價值失衡的人工智能,並不符合驅動人工智能發展背後的利益至上原則,因此當下人工智能開發者已經改弦更張,從過去追求愈大愈好,轉為更有效能,也就是使用更少參數,訓練智能具有更多的「知識」內容。二○二二年深度思考公司研究者,只利用七百億參數訓練一個大語言模型,認知了一兆四千億的語料庫,這個人工智能已超越利用一千七百五十億參數認知三千億語料庫的GPT-3。

當然目前不計其數的人工智能技術專家,都在絞盡腦汁想設計利用更少參數,認知更多「知識」內容的新型人工智能,其方法包括更好的運算結構,更簡易的電腦溝通咒語,甚至開發自我人工智能系統專用硬體晶片,這其中充滿無可預期的技術挑戰,同時也蘊藏無可衡量的市場價值,活端端就是新世代高科技資本主義市場的一棵新搖錢樹。

~以上為文章之部分節錄,僅供「非會員 」閱讀,全文及更多精彩內容請參閱《經典雜誌》~
線上會員籌備中 敬請期待

作者
江才健,資深科學文化工作者,曾任《知識通訊評論》發行人兼總編輯,帶給你每月一則富有人文的科學資訊。
本文出自

北海道

【本期封面】攝影/安藤誠
彷彿凝視著鏡頭的北海道赤狐,是北海道的代表動物之一,從下巴到腹部長著白色體毛,耳朵內側及腳踝為黑色體毛。鏡頭後的攝影師安藤誠,長居北海道東部的鶴居村,是「亞洲最佳自然攝影」大獎常勝軍,也是北海道政府認證的專業戶外嚮導,帶領旅人深入觀察生態樣貌,並且學習守護這些珍寶。