早在2017年,就有新华网的一篇报道指出,因为伦理道德法律框架设计滞后和人工智能让人类尴尬等原因,以及科技巨头Google和美国军方关于将AI用于武器的时间也持续在网上发酵。
也正是因为这些报道的源头都指向了一个我们不可忽视的领域:人工智能与伦理道德,所以才有了后来的由Elon Mask等知名科学家、企业家组成的2000多人也在国际人工智能联合会(IJCAI)上共同签署了地址将AI武器化的宣言。
其实来说,人工智能研究的传统问题(或目标)包括推理、知识表示、规划、学习、自然语言处理、感知以及移动和操纵对象等对欧中能力。而且人工智能一般以统计方法、计算智能和传统的符号作为提升其智力是该领域的长期目标之一。
人工智能中使用了许多工具和借鉴多领域了计算机科学、信息工程、数学、心理学、语言学、哲学和许多其他领域;包括搜索和数学优化、人工神经网络以及基于统计、概率和经济学的方法。
说回到我们本文的重点,我们必须先了解AI系统所面临的道德困境,才能够构建具有伦理道德的AI系统之前,为了达到此目的,美国的科学家们设计了一个叫做GenEth的道德困境分析器。
设计目标就是要将伦理学考虑进去,与智能系统有关的道德伦理问题通常会超出系统设计者的掌控;提出了一系列的有关AI和道德的考虑内容:行为特征,责任,行为,样例,以及行为准则等等。
可以试想一下,当自动驾驶车突然失灵时,它应该如何选择?本文最开始的图便来自这个网站,美国MIT设计了一个叫做道德机器(Moral Machine)的网站。使用众包的方式收集用户对于自动假设车道德困境的选择。很明显,当我们在未来大量使用无人车时,这个问题就变得很重要了。
通过收集300万用户的反馈,道德机器网站发现,如果能拯救更多的人,人们更倾向于让自动驾驶车自毁;如果通过杀死车上的乘客能避免伤害更多的人,人们通常乐于接受这个特征,但是却希望自己的车上没有这个特征。
这方面的研究也刚刚兴起,我们期待更多更好的发现能够弥补现有研究的不足,我们基于研究的目的也是,了解的更多,才能做好翻倍,让人工智能为我们所用。但是,对于哪种才是最符合伦理道德的做法,还是莫衷一是。
版权声明:本文为Yun88网的原创文章,转载请附上原文出处链接及本声明。
更多产品了解
欢迎扫码加入云巴巴企业数字化交流服务群
产品交流、问题咨询、专业测评
都在这里!
1月16日,2025腾讯产业合作伙伴大会在三亚召开。云巴巴,荣膺“2024腾讯云卓越合作伙伴奖—星云奖”和“2024腾讯云AI产品突出贡献奖”双项大奖
Testin云测自动化测试解决方案,以零代码降低门槛、全栈兼容打破生态壁垒、云端集约提升资源效能,助力企业跨越测试鸿沟,赢在数智化时代。
如何构建安全合规、敏捷高效的研发管理体系,已成为金融业高质量发展的关键命题。
腾讯TAPD正在凭借着三大亮点帮助众多互联网企业打破传统管理模式的束缚,实现更加透明、高效的协作。
云巴巴基于多年行业深耕,为大家推荐洞隐科技的智能航运管理平台,为企业开启“智慧航海”新篇章——这不仅是技术的升级,更是一场管理模式的革新。