第23章 ai出错的弊端三
-将ai系统分为“不可接受风险”
“高风险”
“有限风险”
“最小风险”
四类,实施差异化监管。
-要求高风险系统提供“可解释性报告”
与“人工监督机制”
。
-医疗ai必须通过fda认证。
-司法ai错误可提起集体诉讼。
-建立“国家ai伦理委员会”
。
-推动“人机协同”
模式,强调人类最终决策权。
-推广xai(可解释ai),要求关键系统提供决策依据。
-开发“文化敏感型”
ai,纳入方言、民俗、历史语境。
-设立“ai事故调查局”
,独立调查重大ai错误。
-推行“ai责任保险”
,为受害者提供赔偿。
-建立“公众ai监督平台”
,允许举报与申诉。
chapter_();
-将“ai识别与批判”
纳入中小学课程。
-开展“老年人数字扫盲”
计划。
-鼓励“人机对话”
而非“人机依赖”
。
-推动“口述史人工采集”
与“ai辅助”
并行。
-设立“国家记忆日”
,全民参与记忆保存。
-倡导“负责任的技术观”
:技术应服务于人,而非主宰人。
ai会出错,但人类不能失忆。
在杭州的某个傍晚,一位老人看着ai修复的照片,轻声说:
“这个人,是我爸……虽然脸不太像,但眼神对了。”
他顿了顿,又说:
那一刻,我们明白:
ai的错误,不是技术的终点,而是人类觉醒的起点。
本章未完,点击下一页继续阅读