OpenAI執行長阿特曼(Sam Altman)。(圖/達志/美聯社)
OpenAI日前發表新一代GPT-4自然語言處理模型,在提高精準性及生成能力同時,支援圖像辨識和文本輸入,人工智慧(AI)真正「超越」人類的世界似乎即將到來。不過,OpenAI執行長阿特曼(Sam Altman)認為,當前的AI技術仍很大程度「受制於人」,但如果類似GPT模型的技術被錯誤的人使用,可能會世界帶來極大危害。
阿特曼日前接受《abc》專訪時自豪「這是人類迄今最偉大的技術」,這項技術將重塑人類對當前社會的認知,但也可能帶來真正的危險,未來人工智慧將深入生活與經濟,但擁有相同技術但具危險意圖的「其他人」,可能藉此對世界產生危害,例如大規模網路攻擊、散布假訊息。
阿特曼認為,要阻止這類情形發生,除了開發者要具備良知,也必須跟政府及監管機構定期溝通,避免人工智慧被用於錯誤的地方,這也是為何ChatGPT不會回答如何製作炸彈的原因。他坦言,自己曾因此擔心到徹夜難眠,與自嘲:「人們應該為我們對此感到害怕而放心。」
不過,阿特曼仍擔心這項「非常受人為控制的工具」,未來可能出現俄國總統普丁2017年向俄羅斯學生說的,「誰在人工智慧競賽中獲勝,就有可能統治世界」的情境,因為不是每個掌握類似技術的人都會自我限制。
阿特曼也呼籲人們不應過分信賴當前的AI模型,現有技術仍存在邏輯推演的「幻覺問題」,模型會過分自信陳述虛構的事實,但他相信推理引擎將突破這個問題,且雖然AI應用在人類世界已有數十年,但如果AI的進化間隔從數十年縮短成幾年,可能會帶來一些令人擔心、尤其是就業相關的問題。