跳到内容 跳到导航

Research & Ideas

站内搜索

一种新的算法的列车,以避免不良行为的AI

莫非方法ESTA帮助机器人,自动驾驶汽车和防止不受欢迎的结果类似种族和性别歧视等智能机的保障。

blue background with multicolored lines gathered closer on the right side

当一个社会的AI决策权的重要,我们如何尽量减少不良后果? |插图由萨拉·雷基

人工智能已经进入商业主流得益于机器学习算法,使得电脑那自己培养做这样的事情驱动车,机器人或自动监控决策的日益崛起。

但艾开始处理敏感的任务,如帮助选择哪个囚犯获得保释,决策者们坚持认为计算机科学家提供保证自动化系统已经被设计最小化,如果完全不回避,不想要这样的结果是过度的种族或风险和性别偏差。

在斯坦福和马萨诸塞州阿姆赫斯特大学研究人员领导的研究小组发表 一篇论文 十一月22 网赚 奥兹网赚博客 网赚 奥兹网赚博客

“我们要推进方面与值Ai它的人类用户,并证明在自治系统的信任,我们地方,”说 艾玛brunskill在手机赌博赌场计算机科学系的助理教授和论文的资深作者。

避免不当行为

工作的前提是概念,如果“不安全”或“不公平”的结果或行为可以被定义在数学上,那么它应该是可以创建的算法可以从如何避免不必要的这些结果与高置信度的数据中学习。研究人员还希望能够开发一套技术,会很容易让用户指定他们希望限制,使机器学习的设计师自信地预测系统中使用过去的数据来训练可以在当它被依靠什么样的不必要的行为在现实世界的情况下是适用。

“我们展示的机器学习算法的设计者如何能更容易为那些想要建立人民人工智能到他们的产品和服务来形容不必要的结果或行为,AI系统将避免与高概率”之称的菲利普·托马斯,助理在马萨诸塞大学阿姆赫斯特分校的计算机科学教授和论文的第一作者。

公平性和安全性

研究人员试图通过他们提高算法的公平性预测根据考试结果大学生的平均成绩那个测试的方法,一种普遍的做法可能导致性别这种偏见。利用实验数据集,他们给自己的数学算法操作,以避免开发高估的预测方法或系统地低估了,对于一个性别的GPA。随着这些指令,算法更好的方法来鉴定预测学生的GPA随着要比性别偏见现有的方法缺乏系统性。现有方法在有关ESTA无论是挣扎,因为他们没有内置过滤公平或算法开发实现,因为公平是范围太有限了。

该小组开发了另一种算法,并用它在自动胰岛素泵来平衡安全性和性能。这种泵一定要选择大或胰岛素的小剂量如何给一到用餐时间病人。理想情况下,泵提供刚好足够的胰岛素来维持血糖水平的稳定。太少的胰岛素血糖水平允许上升,导致短期的不适,如恶心,和长期并发症心血管疾病,包括风险升高。过多的血糖崩溃 - 一个潜在的致命结果。

网赚 奥兹网赚博客

在他们的科学论文,Brunskill和托马斯使用术语“seldonian算法”来定义他们的做法,并参考塞尔顿,由科幻小说作家艾萨克·阿西莫夫,世界卫生组织宣布11机器人三个定律发明了一种文字与禁令这起“到五月机器人不能伤害人类,或袖手旁观,允许一个人来的伤害。“

而令人费解的那场还是从保证三部法律至今,托马斯说ESTA seldonian框架将使它更容易为机器学习设计者建立行为避税说明中的所有成各种各样的算法,在某种程度上,可以使他们评估的概率这将系统功能适当的训练在现实世界中。

说ESTA Brunskill的建议框架建立在那些正在罢工创建强大的算法和开发方法之间的平衡许多计算机科学家的努力,以确保其可信度。

网赚 奥兹网赚博客

同样来自马萨诸塞州阿姆赫斯特大学和里奥格兰德联邦大学的论文合着者ADH do Sol的。

这项工作由Adobe公司,美国国家科学基金会和教育科学研究所的部分得到了支持。