浙教版信息技术高中选修4 人工智能初步5.2 人工智能伦理-表格式教案.docxVIP

浙教版信息技术高中选修4 人工智能初步5.2 人工智能伦理-表格式教案.docx

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

教学设计

课程基本信息

学科

高中信息技术

年级

高二

学期

春季

课题

人工智能伦理

教科书

书名:选择性必修四人工智智能初步

出版社:浙江教育出版社出版日期:2019年8月

教学目标

1.了解人工智能伦理的基本概念和范畴。

2.对涉及人工智能伦理的案例具有一定的辨析能力。

教学内容

教学重点:

1.合理评价人工智能带来的影响。

2.明确现阶段,社会、公众应承担人工智能健康发展的责任。

教学难点:

1.人工智能伦理及其必要性。

教学过程

教学过程

主要教学内容及步骤

设计意图

课前任务

【教师】布置课前任务,让学生通过网络或其他软件,阅读关于《人工智能发展中的伦理和法律问题》的相关资料。

目前尚处于弱人工智能时代,生产力、生产关系、生产方式开始面临解构和重塑;无论强人工智能、超人工智能时代是否真的到来,传统的生产方式、生活方式、社会秩序都可能受到撼动甚至颠覆。需要对潜在的风险进行预判和研究,用伦理和法律搭建起风险治理的框架,为人工智能持续健康安全发展提供保障。

提前上网观看相关资料,熟悉相关内容。

通过课前的预热,让学生了解所学课程的大概内容,激发学生的学习欲望

视频导入

观看视频2022年11月17日外交部发言人毛宁主持例行记者会《中方提交关于加强人工智能伦理治理的立场文件外交部介绍情况》

【教师】提问

什么是人工智能伦理?

为何要关注人工智能伦理?

【学生】思考、讨论发言

通过视频导入,引导学生思考,调动学生的主观能动性

传授新知

【教师】通过大家的发言,引入新的知识点,讲解人工智能发展中的典型伦理问题

一、“伦理困境”抉择问题

你正坐在无人驾驶汽车内享受着旅途的欢愉,突然,前方行驶的卡车上跌落一件巨大的货物,而你的汽车已无法及时刹停。因此它自动选择急转弯,转而冲向了街边露天的咖啡店,此时咖啡店的孩子们却浑然不知,与家里人惬意嬉闹,后果自然不敢想象。又或者,汽车能快速转向另一边,但撞向的却是孤身一人的摩托车车手。

试问,面对此情此境,你的无人驾驶汽车怎样抉择才是最优?二、算法偏见问题

1.肤色偏见

肤色偏见是指某些人工智能算法或产品对某种肤色具有偏见,导致处理结果存在不公平的现象。

典型案列:COMPAS是一种在美国广泛使用的算法,它通过预测罪犯再次犯罪的可能性指导判刑,而这个算法或许是最臭名昭著且最能凸显肤色偏见问题的算法。早期,美国一家获得普利策奖的非营利新闻机构曾在报道中指出,COMPAS算法存在明显的肤色偏见问题,该算法预测的黑人被告再次犯罪的风险要远远高于白人,甚至达到了后者的两倍。

2.性别偏见

在应用过程中就表现出了性别偏见问题,即通过该人工智能程序筛选出的简历中男性远多于女性。

典型案例:亚马逊曾开发过一套用于筛选简历的人工智能工具,在应用过程中就表现出了性别偏见问题,即通过该人工智能程序筛选出的简历中男性远多于女性。不仅如此,该人工智能程序还会降低包含女性字样的简历权重,甚至下调女子学院的毕业生评级。由于性别偏见问题的出现,亚马逊便决定停止使用该人工智能招聘工具。

3.过度依赖问题

服务型机器人的投入使用,便利了人们的生活,增进了人与机器人的情感联系,但过度沉溺人工智能将带来心理依赖、能力退化、情感异化等问题。

典型案例:陪伴教育机器人容易造成儿童过度依赖,导致儿童出现社交障碍、性格孤僻等问题;又如,若医疗人员过度依赖协助医疗的机器人,则会造成医疗人员医疗能力退化的局面;再如,情侣机器人容易使人们对机器人产生异样的情感,从而导致一部分人想要与机器人步入婚姻。

【学生】聆听、思考、理解、记忆

通过讲解举例等教学方式,让学生了解人工智能发展中的伦理问题

拓展提升

【教师】提问

应该如何制定人工智能伦理规范?

当前,人工智能已经展现出巨大的变革力量,只有建立完善的人工智能伦理规范,处理好机器与人之间的新关系,人们才能更多地获得人工智能红利,从而让技术造福人类。如何更好地解决人工智能的伦理问题,需要人们认真思考与提前布局。

针对人工智能存在的伦理问题,人们应从人工智能内部和外部两个方面建立合理的伦理约束机制。

(1)进行合乎道德伦理的算法设计,将国家的法律规范和人的道德情感规则嵌入人工智能系统设计。

(2)建立人工智能群体伦理决策框架,加强对内部算法的监管,规范人工智能产品的研发过程。

(3)设立人工智能事前监督和事后评估制度,制定产业研发人员伦理工作标准,强化专业责任意识。

(4)针对隐私权建立健全的法律规范体系,切实保护人工智能使用者的隐私。

【学生】思考、发言

【教师】举例:

机器人三定律,道德图灵测试

通过提问,让学生对人工智能的伦理规范产生兴趣,激发学生的求知欲

课堂小结

【教师】简要总结本节课的要点

本节课学习了人工智能发展

文档评论(0)

180****6794 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档