人工智慧法律系列
已開課
2026-01-05
理律文教基金會
人工智慧自1950年代達特茅斯會議提出概念以來,歷經數次發展與寒冬,直到2000年後因網際網路普及、大量數位資料累積、演算法突破與GPU等硬體運算能力提升,迎來第三波以機器學習與深度學習為核心的AI浪潮。2016年AlphaGo擊敗南韓天才棋手李世石象徵重大轉折,近年生成式AI(如ChatGPT)的興起,更加速AI滲透至各專業領域,被視為未來人機互動的重要介面。
然而,人工智慧發展伴隨治理難題。首先是資料代表性與標註過程可能反映既存社會偏見,導致演算法歧視與不公平,例如:司法風險評估、求職篩選或圖像生成的性別與種族刻板印象等;其次是黑盒子問題,包括營業秘密造成的法律不透明、深度學習本質上的不可解釋性,以及決策者對AI運作機制不足的知識落差,均挑戰正當法律程序與責任歸屬。在治理的制度設計上,各國面臨軟法引導、硬法規範或司法事後審查等不同選擇,歐盟《人工智慧法》採風險分級模式,依應用風險高低設計義務強度,嘗試在創新與權利保障間取得平衡。本課程從人工智慧的技術發展歷程出發,闡釋其對法律、社會倫理與治理架構所帶來的衝擊,並聚焦於歐盟《人工智慧法》的制度設計,進一步與其他國家法制進行比較。
財團法人理律文教基金會著作權所有,非經同意不得翻印轉載或以任何方式重製.
© Lee and Li Foundation., All rights reserved.
Tel: +886- 2-2760-6111 / Fax: +886-2-2756-5111
E-mail: [email protected]
Tel: +886- 2-2760-6111 / Fax:
+886-2-2756-5111
E-mail:
[email protected]