首页>邓氏集团 > 第23章 ai出错的弊端三

第23章 ai出错的弊端三(第2页)

目录

-将ai系统分为“不可接受风险”

“高风险”

“有限风险”

“最小风险”

四类,实施差异化监管。

-要求高风险系统提供“可解释性报告”

与“人工监督机制”

-医疗ai必须通过fda认证。

-司法ai错误可提起集体诉讼。

-建立“国家ai伦理委员会”

-推动“人机协同”

模式,强调人类最终决策权。

-推广xai(可解释ai),要求关键系统提供决策依据。

-开发“文化敏感型”

ai,纳入方言、民俗、历史语境。

-设立“ai事故调查局”

,独立调查重大ai错误。

-推行“ai责任保险”

,为受害者提供赔偿。

-建立“公众ai监督平台”

,允许举报与申诉。

chapter_();

-将“ai识别与批判”

纳入中小学课程。

-开展“老年人数字扫盲”

计划。

-鼓励“人机对话”

而非“人机依赖”

-推动“口述史人工采集”

与“ai辅助”

并行。

-设立“国家记忆日”

,全民参与记忆保存。

-倡导“负责任的技术观”

:技术应服务于人,而非主宰人。

ai会出错,但人类不能失忆。

在杭州的某个傍晚,一位老人看着ai修复的照片,轻声说:

“这个人,是我爸……虽然脸不太像,但眼神对了。”

他顿了顿,又说:

那一刻,我们明白:

ai的错误,不是技术的终点,而是人类觉醒的起点。

本章未完,点击下一页继续阅读

返回顶部