當代AI技術所引發之倫理議題眾多,以類型來說大致可以分為兩類:(一)使用AI技術所引發之倫理議題。(二)發展AI技術所引發之倫理議題。針對第一類議題,除了考量特定AI技術是否被許可用來取代人類之外,另一項重要議題是關於AI技術造成傷害時的責任分配問題:當AI造成傷害時,誰應該為此承擔責任?一旦AI的自動化程度越高,人類在整個事件中扮演的角色將越薄弱,這將可能造成某種責任鴻溝:傷害發生了,但卻沒有適當的對象可以承擔責任。另外,若AI真的成功發展出意識能力,我們應該如何評價AI的道德地位,以及如何與AI相處?接著,AI技術引發之第二類議題,關注AI發展需要遵循哪些倫理守則,(比方說,監控問題、信任問題、數據中立、資料收集與個人隱私保護、AI決策與判斷的透明性與可說明性等)以及這些倫理守則應該如何被實現。當然,這些倫理考量也同時會出現在AI技術的使用上。本課程將邀請同學探討前述各類相關議題。