幸福加馬
馬迎春暉
水YOUNG光影 點亮員山
徵馨求好才,厚植薪未來
從校園點亮淨零未來
元氣應援699
超寵粉3529

高哲翰講座教授點評AI無法取代人類倫理判斷與責任主體性
素有「警界孔子」之稱的前警專、中央警官學校、警察大學教授兼主任,曾任台視《臺灣變色龍》評論人、八大電視台《暗光鳥新聞》主持人,並歷任華夏科技大學、崇右影藝科技大學副校長,現任華夏科技大學講座教授的高哲翰指出,邏輯演繹的核心在於前提審查與因果推導。當人類進行推理時,會檢視證據來源、背景知識與推理一致性,並可在新證據出現時修正立場。
LLM 所展現的推理形式,則為語料中模式之再現與組合。即便生成結果正確,其推理過程並非真正的因果推導,而是統計近似。高哲翰講座教授強調,結論相同並不等於邏輯一致,此一差異在法律判決與醫療診斷等領域尤為關鍵。
人類道德判斷源於情感、文化經驗與社會規範內化,並伴隨對行動後果之責任承擔。倫理不僅是語言陳述,而是價值選擇與實踐行動。
LLM 僅能模仿道德語言之形式,卻無法真正理解情境或承擔後果。因此,在涉及公共政策、司法裁決與醫療建議時,AI 不應成為最終裁決者。高哲翰講座教授指出,倫理主體性仍屬於人類。
公共治理之制度邊界
在醫療、法律、警政與心理領域,判斷涉及風險權衡與責任歸屬。由於大型語言模型無法建立信念、修正信念或與現實進行驗證,若將其置於決策核心,將可能形成制度性風險。
因此,制度設計應明確界定:AI 為輔助工具,而非裁決主體。科技理性應在制度監督之下運作,以確保人類判斷力與責任承擔之核心地位。
人工智慧為強大的語言生成工具,但並非具身認知主體。語言流暢不等於理解,形式合理不等於洞見。若未辨識其認識論邊界,將可能在公共治理與倫理判斷上產生錯置風險。
高哲翰講座教授指出,科技可以擴展能力,但判斷仍屬於人類。未來發展方向應為界定能力邊界、強化邏輯思維教育,並促進科技理性與人文理性之整合,使人工智慧成為輔助人類智慧之工具,而非取代者。

分享

正視孕產婦憂鬱,守護母親的心理健康

水情吃緊高雄杉林區農民陳情後輪供水天數延長