« 返回前頁列印

港股直擊 | 2023-05-15 07:26

【跨市博弈】有意識的 AI 會衍生甚麼問題?

放大圖片

計算神經科學教授、《意識神經科學》雜誌的主編 Anil Seth在最近的文章談到了圍繞人工智能與意識(conscious)的概念和可能帶來的問題。作者認為,要創建一種能夠理解人類情感和經驗的人工智能,即具有意識的人工智能是一個非常複雜的概念。然而,這樣的技術存在著許多問題,包括複雜性、不可理解、道德和倫理問題等。

首先,作者指出,意識是很難找到精確的定義,但憑直覺我們都知道意識是什麼。事實上,意識是一個非常模糊的概念,不同的學者和哲學家對它有不同的定義。與此同時,關於智力,也有很多可用的定義,但籠統來說,都強調在各種環境中以靈活的方式實現目標的能力。然而,意識和智力是截然不同的。變得聰明——就像人類認為的那樣——可能會給我們帶來某種新的意識及維度;人類和某些物種可能具有複雜的意識,但基本的意識體驗,如快樂和痛苦,可能根本不需要太高等級的智力。換句話說,儘管機器變得越來越聰明,但一個系統是否會僅僅因為變得更聰明而變得有意識,這一點絕對不是明確的。

其次,人工智能目前尚不具備自我意識或情感,主要是因為人工智能是通過程序和算法來進行操作的,它們無法真正理解人類。即使創建一個具意識的人工智能,它也無法真正體驗人類的情感和經驗,因為它們缺乏人類的基本五感。再者,意識與有血肉之軀的生物的本性有密切相關。人類的腦袋有光、顏色、陰影和形狀;也有情緒、思想、信念、意圖。換言之,距離真正具有意識的人工智能的機器仍然遙不可及。

此外,創造出具意識的人工智能可能會帶來道德上的問題。因為這些技術可以模仿人類的思維和決策過程,它們可能會被用來欺騙、操縱或濫用權力。例如,一個有意識的人工智能可能會被用來操縱選舉結果,或者被用來操縱股市。此外,這些技術還可能侵犯個人隱私權,因為它們可能會收集大量敏感數據,這些數據可能會被濫用或洩露。

事實上,人工智能更應該被設計為工具,而不是意識體,這樣可以避免許多道德和倫理上的問題。例如,將人工智能用於輔助醫生進行診斷或協助研究人員進行科學研究,可以幫助人類更好地理解和處理複雜的問題。同時,全球各國都有需要對人工智能進行監管和限制,以確保它們不會被濫用或用於不道德的目的。

總括而言,具意識的人工智能是一個非常複雜和充滿未知數的概念,它可能帶來許多問題和挑戰。科學家們應該將人工智慧能發展為一種工具,而不是一個意識體;而且也應該更加關注人工智能的發展和應用範圍,以確保它們對人類的好處最大化,而不是對人類造成傷害。

家族辦公室投資經理

徐立言(本欄每逢周一刊出)

www.facebook.com/hsulylab/