人工智慧(AI)具備預測和自動化功能,可實現運作最佳化、資源分配和個人化應用。然而,AI帶來的效益亦伴隨著人們對潛在濫用的擔憂。這個潛在風險必須加以解決,以保障公眾安全,同時提升大眾對這項革命性技術的信任。
人工智慧(AI)的飛速發展令人咋舌,在許多方面均取得重大突破,並為各行各業帶來巨大的經濟和社會效益。AI具備預測和自動化功能,可實現運作最佳化、資源分配和個人化應用。然而,AI帶來的效益亦伴隨著人們對潛在濫用的擔憂。這個潛在風險必須加以解決,以保障公眾安全,同時提升大眾對這項革命性技術的信任。為確保AI的開發與部署符合社會價值觀、安全準則及道德標準,相關法規的制定和完善顯得至關重要。
AI監管的考量
對於政府是否應涉入AI法規制定,一直存在著爭議。支持嚴格監管的人士指出,這是讓消費者能安心使用AI工具的關鍵。反對者則擔心,這些法規將對缺乏跨國科技巨頭資源的小公司造成不利影響。隨著技術快速創新,AI演算法不僅越來越複雜,也被嵌入到形形色色的產品中,這場爭論也愈演愈烈。在此情況下,監管機構很難找到一個可兼顧各方利益的框架,在不阻礙創新的情況下敦促負責任AI的發展。
社會考量
AI對就業、教育和社會平等具有重大影響。有鑑於此,相關法規應確保AI演算法能夠控制並減輕負面影響,例如因自動化導致的工作流失、推動技能再培訓計畫、確保AI技術的公平存取,最終在社會價值觀和人類決策方面促成公平性。
法規可在AI開發過程中強制落實道德標準,確保AI系統的設計具有公平性、可問責性和透明度,包括消除AI演算法的偏差、防止濫用,進一步確保AI尊重人權和價值觀。此外,我們還需要可監督或限制AI系統開發和部署的法規,因為這些系統可能造成危害,例如入侵式監控技術,或是可能破壞民主進程的工具。
資料隱私和安全考量
由於AI系統通常依賴內含個人資訊的大型資料集來維持運作,因此相關法規有助於保護個人資料和隱私。它們可強制落實資料保護標準、同意要求和資料使用限制,確保AI不會侵犯個人隱私權。
法規是確保AI系統安全性的一道重要防線,可針對AI穩健性和可靠性制定準則,以便將發生故障或意外後果的風險降到最低。在醫療保健、交通運輸(如自動駕駛汽車)以及金融等關鍵領域,這一點尤為重要,因為AI失靈可能導致嚴重後果。
創新與協作考量
AI是跨國界技術,而法規在促進國際合作和標準發展方面,發揮著關鍵作用。全球創新協作可克服AI安全性等全球性挑戰、確保AI系統的互通性,並且控管AI對全球勞動市場的影響。
法規還可實現公平的競爭環境,以鼓勵良性競爭和創新,同時增進公眾對AI技術的信任。藉由訂定明確的標準,法規可減少阻礙AI投資與發展的不確定性。信任是AI技術被廣泛採用的關鍵,而法規則是向使用者確保AI系統安全性和可靠性的基石。
新的全球AI監管標準蓄勢待發
2024年2月,歐盟(EU)27個成員國一致通過了《人工智慧法案》(AI Act),這是全球第一個完整的AI法案。《人工智慧法案》針對AI制定的廣泛定義,適用於各種實體,包括AI系統的供應商、部署者、進口商和經銷商。這項法案將採用基於風險的分類系統,讓法律能夠隨著AI技術的發展而不斷演進。大多數系統都歸類於低風險類別,但所有系統都須在使用過程中承擔重大的程序和透明度義務。
這項新法案還禁用被視為具有「不可接受風險」的AI系統,這些風險會對人類造成威脅,包括使用潛意識技術來影響行為,或針對特定群體的弱點進行攻擊。「高風險」類別適用於5%至15%的AI系統,其承擔《人工智慧法案》中大部分的義務,包括受歐盟安全法規監管的安全元件和產品,以及支援公共和民營機構應用的獨立AI系統,例如教育和招聘、生物識別、決定基本服務的存取,以及管理關鍵基礎設施和邊境安全。
《人工智慧法案》已於8月正式上路,將逐步在不同風險層級生效。某些特殊案例會在法案通過的早期階段開始執法,例如禁用風險最高的系統會在法案通過6個月後開始實施。通用型AI(GPAI)法規則將於12個月後開始實施。法案生效24個月後,該法案完全適用,但一些高風險AI系統的規則將在生效後36個月適用。
及早做好準備
歐盟希望《人工智慧法案》能夠成為人工智慧全球監管標準。對於準備實施其他不同法規的國家而言,它是個重要的試金石。科技公司應檢視其監管框架,確保它們符合歐盟制定的法規。這些法規將提高公眾對AI的信任度,確保社會和產業能夠持續享受AI技術創新帶來的革命性效益。
<本文作者:Jenn Mullen現為是德科技新興技術解決方案經理>