人工智慧與任何一項科技創新史上的發明相同,都有被誤用的可能與風險。如果人工智慧應用沒有將「責任」納入考量,後果將由多數人買單——尤其是在一些高度機敏與以資安為先的領域,挑戰更為嚴峻。
人工智慧(Artificial Intelligence,AI)科技不僅影響深遠,且事關重大。根據調查,預計到2030年,人工智慧因提升人類生產力而創造的價值將高達16兆美元。人工智慧不但可以推動整體經濟和GDP成長,讓善用它的個人和組織取得前所未有的競爭優勢;還可以協助全人類應對和解決某些最為迫切與困難的挑戰,像是研發新藥、改善製造業與糧食生產效率,以及應對氣候變化等。
不過,人工智慧與任何一項科技創新史上的發明相同,都有被誤用的可能與風險。如果人工智慧應用沒有將「責任」納入考量,後果將由多數人買單——尤其是在一些高度機敏與以資安為先的領域,挑戰更為嚴峻。這是IBM在此刻敦促制定政策的政府與企業領袖,應當即刻著手制定明智監管政策的原因之一。良善的人工智慧監管應該基於三個核心原則:
1. AI應用的風險需要監管;高風險的AI應用必須受規範
由於人工智慧應用的風險等級各不相同,某些人工智慧應用可能會產生深遠的後果,例如宣導錯誤資訊、在放款條款中摻雜偏見,或是妨礙選舉的公正性等等。因此,監管必須考慮到人工智慧科技部署的場景,同時確保高風險的人工智慧應用必須受到更加嚴格的監管。
2. 讓開發或創新AI之人與應用AI之人共同當責
制訂人工智慧監管相關法規時,首先應該體認到人工智慧創新者與人工智慧應用者兩者的角色不同;然而,不論是開發階段或應用場景,兩造都應該承擔相應責任。例如,使用人工智慧制訂雇用決策的企業,不能要求豁免於雇用歧視的指責。同樣地,倘若某位軟體工程師開發了一項可能輔助欺詐行為的金融演算法,也應該對其可能造成的潛在損害負責任。
3. 支持開放式人工智慧創新
我們認為不應該給人工智慧設立授權制度,因為這將嚴重打擊開放式創新,並有可能左右監管;它可能在無意間增加成本、阻礙創新,擴大了少數人的市場影響力,使規模較小的組織與開源社區的開發者處於弱勢。人工智慧科技應該具備「平等性」— 由多數人而不是「由少數人、為少數人」而研發;一個充滿活力的開放式人工智慧生態系統,有利於良性競爭、創新、提升人員技能與安全,也確保人工智慧模型足以代表多元觀點,並具有包容性。
「水能載舟,亦能覆舟」,人工智慧技術亦然。如何在創新、企業責任與信任之間取得平衡是一大關鍵。我們敦促相關政府部門設計與落實具有一致性、公平且有效的監管,解決濫用的可能與風險,使企業與整個社會都從當前的AI浪潮之中受益。IBM深信負責任地管理創新與創新同等重要,如此才能構建讓人人都能信任的人工智慧未來。
<本文作者:李正屹現為台灣IBM公司總經理>