AI機器人Chat GPT爆紅 專家點出重大影響
OpenAI釋出的對話機器人Chat GPT引發熱議,或將成為相關領域的門檻。OpenAI
美國OpenAI公司11月30日釋出新版文字對話機器人Chat GPT,在網路上掀起熱烈討論。Tesla執行長Elon Musk認為該版本強得令人害怕,也有人警示可能助長論文抄襲歪風。台灣的AI專家和業者則認為,Chat GPT雖未臻完美,但料將為對話機器人領域帶來巨大影響,立下某種AI發展的「奇點」。
OpenAI釋出該工具時表示,其可記憶對話的脈絡,拒絕不恰當的提問,但對世界的認知僅止於2021年底前,且可能產生不正確、偏誤或有傷害性的內容。
本報記者實測詢問Chat GPT對俄烏戰爭的看法,觀察到其可於數秒內生成文字回應,只是對2022年才發生的時事確實不熟悉。網站截圖
OpenAI由Musk與Sam Altman等矽谷科技巨頭於2015年成立。已離開該團隊的Musk日前在推特上表示,「Chat GPT好得令人害怕,人類距離強大到危險程度的AI不遠了。」Altman則指出,使用人數已破百萬人次。
AI語音研究專家、台大電機系副教授李宏毅12月7日前發表一支影片,解釋Chat GPT可能的「社會化」過程。
他受訪時表示,Chat GPT是自監督式學習(Self-supervised Learning)的應用,雖未臻完美,但已更接近人類對AI的期待。Chat GPT是從GPT3.5模型優化而來,面對使用者提問,可參考大量網路資訊,並產生難以預測的回應。
其他現存對話機器人的回答通常是根據預設腳本回應,而Chat GPT輸出的回答每次皆有不同。因其偶爾會產生不得體的回答,OpenAI也設計了加註警示的功能。
李宏毅認為,接下來研究自然語言處理(Natural Language Processing;NLP)的人員可能都會被問到,其研究成果是否超越Chat GPT,也就是說,Chat GPT的成果將成為某種門檻。
至於有論者認為Chat GPT可能威脅Google搜尋引擎的地位,李宏毅表示, Chat GPT的訓練資料只到2021年底,與隨時更新的搜尋引擎結果並不同;再者,搜尋引擎會列出網站來源,Chat GPT則僅提供整合式回應,並無附上資料來源,兩者用途仍有差異。
李宏毅指出,「不可預測性」可說是Chat GPT的特點之一,但很難說其他科技公司無類似技術,畢竟可預測性就是為了安全考量而設計。
愛卡拉(iKala)共同創辦人暨執行長程世嘉表示,Google內部應有更先進的技術,用在搜尋引擎上,只是未選擇與OpenAI同樣的發布形式。電腦科學界長久存在的議題就是機器能否表現出與真人一樣的智慧水準,即所謂的「圖靈測試」。
他認為,Chat GPT回答已接近真人程度,其自動生成的回答甚至展現出某種「個性」,類似不主動認錯、過度自信的態度。其基本架構為發展已久的機器學習中的類神經網路,加入近年蓬勃發展的基於人類反饋的強化學習(Reinforcement Learning from Human Feedback)。
他也認同Musk所言,AI的安全議題須被重視或規範,因使用者可能相信Chat GPT指示而做出危險行為。雖然Chat GPT回覆爭議性提問時,通常提供較保守的答案,但百密總有一疏,總有方式可規避審查。
程世嘉表示,Chat GPT已超越現行對話機器人的制式回答,可說是代表「AI奇點」的到來,目前該模型仍為OpenAI所有,並非開放原始碼平台。未來若結合語音介面,影響力料將更強大,可取代許多現行AI語音助理的功能。對於人類來說,也須思考如何適應AI發展,選擇從事更有價值的工作。
他也提到,iKala的核心是數據分析和AI應用,已請所有員工多使用Chat GPT,並計劃將其整合至產品和工作流程,例如協助文案產生和行銷科技應用。