设为首页 - 加入收藏 ASP站长网(Aspzz.Cn)- 科技、建站、经验、云计算、5G、大数据,站长网!
热搜: 重新 试卷 文件
当前位置: 首页 > 大数据 > 正文

「高度」《人工智能标准化白皮书(2018)》发布(完整版)(11)

发布时间:2018-04-01 19:05 所属栏目:125 来源:站长网
导读:从人工智能产业进程来看,技术突破是推动产业升级的核心驱动力。数据资 源、运算能力、核心算法共同发展,掀起人工智能第三次新浪潮。人工智能产业 正处于从感知智能向认知智能的进阶阶段,前者涉及的智能语音、计

从人工智能产业进程来看,技术突破是推动产业升级的核心驱动力。数据资 源、运算能力、核心算法共同发展,掀起人工智能第三次新浪潮。人工智能产业 正处于从感知智能向认知智能的进阶阶段,前者涉及的智能语音、计算机视觉及 自然语言处理等技术,已具有大规模应用基础,但后者要求的“机器要像人一样 去思考及主动行动”仍尚待突破,诸如无人驾驶、全自动智能机器人等仍处于开 发中,与大规模应用仍有一定距离。

(1)智能服务呈现线下和线上的无缝结合

分布式计算平台的广泛部署和应用,增大了线上服务的应用范围。同时人工 智能技术的发展和产品不断涌现,如智能家居、智能机器人、自动驾驶汽车等, 为智能服务带来新的渠道或新的传播模式,使得线上服务与线下服务的融合进程 加快,促进多产业升级。

(2)智能化应用场景从单一向多元发展

目前人工智能的应用领域还多处于专用阶段,如人脸识别、视频监控、语音 识别等都主要用于完成具体任务,覆盖范围有限,产业化程度有待提高。随着智 能家居、智慧物流等产品的推出,人工智能的应用终将进入面向复杂场景,处理 复杂问题,提高社会生产效率和生活质量的新阶段。

(3)人工智能和实体经济深度融合进程将进一步加快

党的十九大报告提出“推动互联网、大数据、人工智能和实体经济深度融合”, 一方面,随着制造强国建设的加快将促进人工智能等新一代信息技术产品发展和 应用,助推传统产业转型升级,推动战略性新兴产业实现整体性突破。另一方面, 随着人工智能底层技术的开源化,传统行业将有望加快掌握人工智能基础技术并依托其积累的行业数据资源实现人工智能与实体经济的深度融合创新。

  • 3.3 安全、伦理、隐私问题

历史经验表明新技术常常能够提高生产效率,促进社会进步。但与此同时, 由于人工智能尚处于初期发展阶段,该领域的安全、伦理、隐私的政策、法律和 标准问题值得关注。就人工智能技术而言,安全、伦理和隐私问题直接影响人们 与人工智能工具交互经验中对人工智能技术的信任。社会公众必须信任人工智能 技术能够给人类带来的安全利益远大于伤害,才有可能发展人工智能。要保障安 全,人工智能技术本身及在各个领域的应用应遵循人类社会所认同的伦理原则, 其中应特别关注的是隐私问题,因为人工智能的发展伴随着越来越多的个人数据 被记录和分析,而在这个过程中保障个人隐私则是社会信任能够增加的重要条件。 总之,建立一个令人工智能技术造福于社会、保护公众利益的政策、法律和标准 化环境,是人工智能技术持续、健康发展的重要前提。为此,本章集中讨论与人 工智能技术相关的安全、伦理、隐私的政策和法律问题。

3.3.1 人工智能的安全问题

人工智能最大的特征是能够实现无人类干预的,基于知识并能够自我修正地 自动化运行。在开启人工智能系统后,人工智能系统的决策不再需要操控者进一 步的指令,这种决策可能会产生人类预料不到的结果。设计者和生产者在开发人 工智能产品的过程中可能并不能准确预知某一产品会存在的可能风险。因此,对 于人工智能的安全问题不容忽视。

与传统的公共安全(例如核技术)需要强大的基础设施作为支撑不同,人工 智能以计算机和互联网为依托,无需昂贵的基础设施就能造成安全威胁。掌握相 关技术的人员可以在任何时间、地点且没有昂贵基础设施的情况下做出人工智能 产品。人工智能的程序运行并非公开可追踪,其扩散途径和速度也难以精确控制。 在无法利用已有传统管制技术的条件下,对人工智能技术的管制必须另辟蹊径。 换言之,管制者必须考虑更为深层的伦理问题,保证人工智能技术及其应用均应 符合伦理要求,才能真正实现保障公共安全的目的。

由于人工智能技术的目标实现受其初始设定的影响,必须能够保障人工智能设计的目标与大多数人类的利益和伦理道德一致,即使在决策过程中面对不同的 环境,人工智能也能做出相对安全的决定。从人工智能的技术应用方面看,要充 分考虑到人工智能开发和部署过程中的责任和过错问题,通过为人工智能技术开 发者、产品生产者或者服务提供者、最终使用者设定权利和义务的具体内容,来 达到落实安全保障要求的目的。

此外,考虑到目前世界各国关于人工智能管理的规定尚不统一,相关标准也 处于空白状态,同一人工智能技术的参与者可能来自不同国家,而这些国家尚未 签署针对人工智能的共有合约。为此,我国应加强国际合作,推动制定一套世界 通用的管制原则和标准来保障人工智能技术的安全性。

3.3.2 人工智能的伦理问题

人工智能是人类智能的延伸,也是人类价值系统的延伸。在其发展的过程中, 应当包含对人类伦理价值的正确考量。设定人工智能技术的伦理要求,要依托于 社会和公众对人工智能伦理的深入思考和广泛共识,并遵循一些共识原则:

一是人类利益原则,即人工智能应以实现人类利益为终极目标。这一原则体 现对人权的尊重、对人类和自然环境利益最大化以及降低技术风险和对社会的负 面影响。在此原则下,政策和法律应致力于人工智能发展的外部社会环境的构建, 推动对社会个体的人工智能伦理和安全意识教育,让社会警惕人工智能技术被滥 用的风险。此外,还应该警惕人工智能系统作出与伦理道德偏差的决策。例如, 大学利用机器学习算法来评估入学申请,假如用于训练算法的历史入学数据(有 意或无意)反映出之前的录取程序的某些偏差(如性别歧视),那么机器学习可 能会在重复累计的运算过程中恶化这些偏差,造成恶性循环。如果没有纠正,偏 差会以这种方式在社会中永久存在。

二是责任原则,即在技术开发和应用两方面都建立明确的责任体系,以便在 技术层面可以对人工智能技术开发人员或部门问责,在应用层面可以建立合理的 责任和赔偿体系。在责任原则下,在技术开发方面应遵循透明度原则;在技术应 用方面则应当遵循权责一致原则。

其中,透明度原则要求了解系统的工作原理从而预测未来发展,即人类应当 知道人工智能如何以及为何做出特定决定,这对于责任分配至关重要。例如,在神经网络这个人工智能的重要议题中,人们需要知道为什么会产生特定的输出结 果。另外,数据来源透明度也同样非常重要。即便是在处理没有问题的数据集时, 也有可能面临数据中隐含的偏见问题。透明度原则还要求开发技术时注意多个人 工智能系统协作产生的危害。

(编辑:ASP站长网)

网友评论
推荐文章
    热点阅读