在道德教育学院为AI

任务

在ieaied将努力发展的框架和机制,以帮助确保整个教育中使用AI的设计和部署道德。实现我们通过与广泛的利益相关者进行接触,制定行为守则,保护弱势群体和弱势群体和整个社会最大化AI的好处ESTA。

介绍

为了最大限度地提高可能带来ai的受教育的好处,我们必须确保人工智能技术,做法和支持者对准随着的道德观念和道德原则“好社会人工智能”(弗洛里迪,2018)。道德必须“设计”,以AI的教育和培训从理念以来各个方面对人工智能的鳞甲通过产品或服务的艾在社会。教育机构和从业人员分别负责自己的学生,员工的教学,情感,道德和身体健康,而且这些责任的伦理背景对于快速逼近AI革命需要更加小心注意。


nginx

为什么研究所伦理ai的需要?

502 Bad Gateway

加注产生伦理问题关于上发生了什么数据,谁拥有它不断增长的数量和多样性的数据,使用世界卫生组织,为了什么目的,谁是STI解释和剥削负责。用户的自决,所有权和隐私随着身份和责任的权利通过任何可能影响这些权利是重要的考虑因素是具有普遍适用性,它为所有类型生成的数据。

需要比ESTA GDPR和隐私和数据保护其他形式的多。

这些考虑是特别的针对性使用到的AI在支撑教学和/或学习系统也就是说,因为经常这样系统旨在以实现对它们的用户,例如一个持久的变化通过,劝说或反馈,员工人与机器之间,例如使人产生关系的建议通过使用会话或启用情感剂,甚至制定依存度的(内在动机),例如通过奖励和游戏中的关卡。在教育开发的技术的情况下(包括ITSS,MOOCs,学习分析,社会认知干预),明确的目标是实现这一目标积极终身的变化是在行为,心理和越来越多的神经深层次衡量。然而,还没有作为,方法,技术和意识形态,巩固交互系统有数据没有受到足够的系统性和多学科审查的产生,分析和开发,以确保我们自己的潜在影响充分了解的用户,伦理相关风险,我们必须防范哪些问题。

数据是永远只是“原始”。收集数据的决定是基于一个判断上的动作数据是有价值的。数据是在自己的权利,并收集必须在健全的道德原则这基础决定一个价值驱动的实体。

AI在超越学术研究教育的世界里,要求并得到批准,是“狂野西部”,没有一致或有效治理审批必须是道德的。无论advertently不经意间商家的方式利用的人,他们正在建立,实施和推出AI。

我们需要警惕不适当或偏见的数据收集,分析和解释,例如在用户建模使用,可为系统互动能力的基础。通过有其本质的解释涉及到业主的理论思想信念或观点,例如当数据被转换成知识表示,而这些也都在自然免不了主观和有争议的。

缺乏投入,以艾为教育使用从那些了解教学的发展。

免受虚假承诺大型科技公司希望的用户限制其个人品牌的技术。

学者必须寻求和获得道德间隙为任何东西,一切他们做的,涉及的人:他们必须证明他们不会做伤害 - 必须扩展到ESTA任何人,每个人都从事教育工作的。

没有上下文数据不仅是毫无意义的,这是潜在的危险。这因此,我们将要求数据的解释只能用数据已经适当地contextualised进行。

报告

该ieaied将会见和研究的证据,将在2021年底产生一个报告。