智能时代网

智能时代网 首页 智能头条 查看内容

人工智能开发的道德边界在哪里?

2019-10-24 11:40| 发布者: editor| |来自: 中国青年报

摘要: 一个机器人带着小狗外出,小狗进入草坪攻击小孩,草坪围栏上写着“禁止践踏”,这种情况下机器人是选择进入草坪制止小狗,还是遵守规则站在外面? ...

    一个机器人带着小狗外出,小狗进入草坪攻击小孩,草坪围栏上写着“禁止践踏”,这种情况下机器人是选择进入草坪制止小狗,还是遵守规则站在外面?

  在CNCC2019(中国计算机大会)的分论坛“人工智能开发的道德边界在哪里?”上,中科院自动化研究员曾毅举例让大家思考,人类到底该赋予机器何种智能?

  以“智能+引领社会发展”为主题的CNCC2019于10月17日至19日在苏州召开,这是一个已经延续16年的学术技术产业盛会。为期3天的大会包括3场大会主题论坛、79余场前沿技术论坛,15位国内外计算机领域专家、企业家作了大会特邀报告。与往年不同的是,除了丰富的技术内容,今年大会把人工智能伦理作为一个重要议题。大会指导委员会主席、中科院院士梅宏解释说,这是科技人员应该考虑的事情。

  近几年,人工智能发展迅速,很多应用改变着日常生活,推进了社会发展,但是也出现了诸如算法歧视、隐私侵犯等新问题。关于人工智能的法律、伦理、社会问题研究提上了很多部门和机构的议事日程。

  今年5月,曾毅所在的研究中心成立时,联合北京大学、清华大学、中国科学院自动化研究所等单位,共同发布了《人工智能北京共识》,提出人工智能的研发、使用、治理,应该遵循有益于人类命运共同体构建和社会发展的15条原则,例如“善用与慎用原则”等。

  6月,科技部对外公布了《新一代人工智能治理原则——发展负责任的人工智能》,提出了和谐友好、公平公正、包容共享等8项原则。

  今年4月,欧盟委员会也发布了人工智能伦理准则。据统计,目前各国政府、各类组织、研究机构和产业界颁布的有关人工智能伦理准则提案已有50多个。

  但是,曾毅发现,这些准则因为各自视角不同,所涉及的方面并不能相互覆盖。他认为,眼下急需的是对人工智能风险、伦理与治理进行战略研究,让一些思考模型化、算法化、系统化,确保人工智能向更可依赖和对社会有益的方向发展。

  复旦大学生命医学伦理研究中心、应用伦理学研究中心主任王国豫教授认为,人工智能伦理起源于人们对人工智能技术风险的恐惧和担忧,人工智能的伦理问题不是单个的技术问题,也不是算法问题,而是源于技术系统和人的社会生活系统的交互作用,人工智能伦理应该从可能性推测走向可行性探索。当然,这需要更多跨学科合作。

  北京大学长聘副教授吴天岳近几年关注人工智能、基因编辑等前沿科技带来的伦理挑战。他认为,没有现成的伦理规则用于人工智能,所以人类要有前瞻性。技术本身不是道德中立的,但是目标要有道德标准。所以人工智能开发者要有职业伦理意识,要让技术人员明确,人工智能是为人类核心价值服务,不是为资本和权力服务的。他提出,人与人工智能要建立新型互动关系。

  据介绍,2018年,中国科学院大学开设了《人工智能哲学与伦理》课程,北京大学、浙江大学、西安交通大学等高校也在陆续开设人工智能伦理相关课程。


路过

雷人

握手

鲜花

鸡蛋

最新评论

热门图片

智能时代  精品传媒荣誉出品 ( 京ICP备19056894号

GMT+8, 2024-12-22 11:48 , Processed in 0.040704 second(s), 20 queries .

返回顶部