--Start-- 科学家必须对人工智能武器表明立场_国外动态_机器人资讯_机器人之家
  • 您好!欢迎来到机器人之家
  • 升级网销通
  • 15900900380

    科学家必须对人工智能武器表明立场

    发布日期:2015-05-28  来源:科技日报  作者:机器人之家  浏览次数:433
    导读
    英国《自然》杂志28日公开一篇评论文章表示,人工智能(AI)和机器人领域的专家,必须要决定他们是支持还是反对致命自主武器系统(LAWS),就像当年物理学家对于核武器表态一样,因为“这块领域的风险很高”。
           据机器人之家新闻中心报道:英国《自然》杂志28日公开一篇评论文章表示,人工智能(AI)和机器人领域的专家,必须要决定他们是支持还是反对致命自主武器系统(LAWS),就像当年物理学家对于核武器表态一样,因为“这块领域的风险很高”。文章作者同时表示:“致命自主武器系统被描述为战争的第三次革命,而前两次是火药和核武器。”

    由美国加州大学伯克利分校的斯图尔特·罗素撰写的这篇评论,是《自然》杂志评论板块中一系列来自人工智能研究者评论文章之一。这些文章都与本期的《自然》专刊相关联,集中探索了机器学习和机器人技术方面振奋世人的最新进展,包括描述了在合适的监管框架下,让自主控制的无人机在民间广泛应用成为可能及其所需要的一些科学和技术元素。

      此次刊登的评论文章主题凸显了在人工智能领域正在出现的一些风险。斯图尔特·罗素认为,在未来几年之内,军方就可以组装带有武器的四轴飞行器和微型坦克,这些飞行器和坦克不需要人类干预,它们自己能决定“谁能活下来而谁又会死去”。但是,国际人道法律对于此类技术没有任何具体的规定,现在也还不清楚,国际社会是否会支持一个限制或禁止此类武器系统的条约。

      作者对人工智能的发展轨迹深表担心。他认为一种超过人类控制的系统即将建成,而这一点是不可避免的。当然,这些武器系统能涉及的范围和携带大型武器的能力,一定会受到物理定律的限制。但值得注意的是,它们的灵活性和杀伤力,却“将让人们毫无防御之力”,而这样的未来不会是人们想要的。

      罗素在文章中呼吁,人工智能和机器人领域的科学家和他们所在的专业组织应表明立场,正如物理学家当年对于核武器,抑或是生物学家对于在战争中使用病原体表明立场一样。文章最后警示称,“什么都不做,就等于是支持继续发展和使用。”



    编辑:张海云
     
     
    按分类浏览
    点击排行
    X

    X
    投稿
       
    姓名:
    联系方式:
      我们的工作人员会联系您(联系我们:kf@robot-family.com)
    标题:
    内容:  
     
    X
    注册用户
    企业用户
    个人用户
    用户名
    密码
    确认密码
    联系人
    手机号码
    邮箱
    企业名称
    公司类型
    所在地区
    X
    忘记密码?
     
    忘记密码邮件将发送到您的注册邮箱,
    打开邮件中的链接来重新设置密码。
    X
    注册用户
    企业用户
    个人用户
    用户名
    密码
    确认密码
    联系人
    手机号码
    邮箱
    X
    免费开店流程

    1、点击免费注册(选择企业用户)注意:只对企业用户开发

     

    2、填写企业注册用户资料(等待审核通过后会邮件方式通知您)

     

    3、免费注册成功,进入商务中心完善企业用户资料

     

    4、选择机器人商城管理点击发布产品,通过邮箱认证

     

    5、上传企业营业执照,等待通过审核

     

    6、恭喜你,免费开店成功

     

    服务热线:15900900380