當法律遇見人工智慧:生成式AI與其風險

人工智慧(Artificial Intelligence)係透過巨量資料與計算,讓電腦模擬人類完成任務;機器學習(Machine Learning)乃透過大量輸入與輸出資料讓機器自行學習規則;深度學習(Deep Learning)是利用神經網路進行更複雜的學習;而生成式AI位於更核心的位置,其訓練並非基於「理解」,而是透過機率模型預測最可能出現的結果。
傳統AI通常用於特定任務,例如:圖片分類或文件分類,屬於「弱人工智慧」;生成式AI輸入與輸出都更加多樣,能創作全新的文字、影像、聲音及影片,運用更加靈活,為「強人工智慧」,例如:一張圖片可以生成故事,也可以進行描述或分類。然而,生成式AI亦帶來許多風險和問題,像是著作權、資料來源不透明、資料偏差、深偽技術以及暴力或色情內容的生成等。本課程以清楚的架構與實例講解人工智慧的運作邏輯和模式,除了介紹大型語言模型與生成式AI的基本原理外,並省思如何建立治理與法律制度,以確保人工智慧在發展與應用受到妥適規範與管理。

講座影片:

當法律遇見人工智慧:生成式AI與其風險-(上)-帥宏翰教授
當法律遇見人工智慧:生成式AI與其風險-(下)-帥宏翰教授

1920年捷克劇作家Karel Čapek推出舞台劇Rossum’s Universal Robots,乃Robot得名之始。捷克文Robot是指僕役,劇中以人類形象塑造出機器人僕人,這是人期待機器人的角色。1961年第一部工業用機器人出現,其造型為模仿人類的機械手臂,隨著人工智慧AI快速發展,機器人融入人類生活,從工業用機械手臂到醫療型機器人及自動駕駛車輛等,用途廣泛,影響深遠。
機器人在產業自動化中居要角地位,然而囿於其智能與感測能力,目前許多靈活細緻的工作仍須以人力處理。人與機器人各盡其長,但機器人強壯而快速,人機協作在安全上存在相當的風險。隨著電腦自我學習的能力大幅提升,以AI作為決策核心的機器人勢必發展出學習與思考的能力。機器人擁有的自主性與可移動性,逐漸影響人類的各個層面,衍生機器人倫理如何實踐的問題,法律亦必須與時俱進。我們可以教唆機器人從事非法行為,同時要求它具有職業道德、保守主人秘密嗎?機器人有可能故意殺人嗎?機器人出事時的責任歸屬,到底是使用者、製造者、還是設計者該負責呢?
科幻作家Isaac Asimov提出「機器人三大法則」,不僅對科幻小說具有重要性,也影響著機器人工業的發展,其第一法則為:機器人不得傷害人類,或因不作為而使人類受到傷害。第二法則為:除非違背第一法則,機器人必須服從人類的命令。第三法則為:在不違背第一及第二法則的情況下,機器人必須保護自己。
人機協作越趨緊密,亟需一套維護人類安全的守則,且就機器人設計的倫理框架達成一致。本課程以工程專業生動地闡述機器人的定義及特性,並從科幻電影探討相關法律與倫理議題。

講座影片:

當AI機器人遇見法律(一) 楊谷洋教授
當AI機器人遇見法律(二) 楊谷洋教授
當AI機器人遇見法律(三) 楊谷洋教授