針對AI風險管理,DEKRA集團/安華聯網資深顧問周辰儒表示,各國陸續制定法規框架,如歐盟的AI法案強調高風險系統的合規性,要求對風險管理系統進行定期評估並遵循透明性及問責機制。美國則發布了AI安全發展行政命令,涵蓋隱私保護、公平性以及消費者權益等範疇。
在標準方面,幾乎所有的標準化組織都已經啟動了人工智慧相關的標準研究工作。周辰儒指出,ISO、IEC等國際組織針對AI的風險管理、數據品質等領域提出多項標準,如ISO 42001及ISO 5259,協助組織控制AI應用的風險,並為AI技術的開發提供合規性指導。未來,隨著AI技術的廣泛應用,各國將加強法規與標準制定,確保AI技術的應用安全、透明且符合道德規範。