欢迎访问本站!

首页科技正文

鲸鱼算力(www.ipfs8.vip):数据越多,AI越智能?我们一直以来都想固然了

admin2021-06-0571

机械之心报道

编辑:小舟、力元

当提供更多数据时,人们不会做出更好的决议,那么为什么假设 AI 会呢?

随着人工智能手艺的兴起,AI 中存在的问题也被逐步露出出来。AI 做出的决议与人类最佳决议仍然存在差异,而且往往包罗一些私见。那么问题出在那里呢?克日在一篇文章中,作者 Marianne Bellotti 说明晰相关缘故原由,并提出了自己对 AI 设计原则的看法。我们来看一下文章的详细内容。

越来越多的数据

据专家指出,数据科学家破费约莫 80%的时间来洗濯数据,实现由人工智能驱动的集中式决议的要害是打破各项事情之间的壁垒,并为人工智能模子确立可互操作的流程。在现在的 AI 领域,纵然破费大量的时间和经济成本,也仍然无法实现像人类大脑一样,更靠近全局水平的态势感知。随着数据科学和人工智能的生长,构建 AI 模子所需的数据量也在增添。

自动驾驶公司投资上百亿美元仍然没有实现完全的自动驾驶,社交媒体公司投入数十亿美元试图行使 AI 整理不良信息,却仍然严重依赖人工整理平台。

AI 现在尚没有做出最佳决议的能力。此外,人们在构建 AI 模子时并没有完全消除人为私见,而是试图从越来越多的数据中构建「完善」的 AI 模子,但这些数据乱七八糟。

决议与数据的相关性

当试图找到一个难题的解决方案时,首先应该将事情剖析开来:在做哪些假设?这些假设若何构建需要解决的问题?若是这些假设差异,会解决差其余问题吗?想要解决的问题和方案效果有什么关联?对于 AI 来说,显然将更好的决议作为效果是异常主要的。假设接见更多数据是决议者做出更好决议的要害,而更好的决议意味着更少的负面影响,那么整体态势感知也异常主要。

在现实生涯中,决议者往往为了节约成本而举行优化决议。但决议事实是凭证效果来判断利害的,在准确剖析的基础上还需要一点运气。在效果出来之前,纵然是在绝佳数据支持下最仔细、最彻底构建的战略也无法保证决议的绝对准确。

因此,做决议的历程不应该是对数据的客观剖析,而是利益相关者之间针对风险和优先级的容忍度做出的起劲协商。数据没有用于提供洞察力,而是用作了珍爱利益相关者免受影响的盾牌,完善的信息往往是通过增添噪声水平而降低了决议质量。

这似乎令人难以置信,完善的信息不是应该自动改善决议历程吗?现实上,更多的信息可能会改变决议背后的组织战略。人工智能可以准确识别内容,但基于该内容做出的决议会在很洪水平上受到用户和组织的规范及期望的影响。

改善团队决议的最佳途径不是获取更多数据,而是改善利益相关者之间的相同。然则人们真的需要破费数十亿美元来洗濯数据或增添数据量才气从人工智能中获益吗?

设计不佳的 AI 可能导致伟大的平安风险

当前,人们评价数据质量的方式具有误导性。「清洁(clean)」的数据似乎就是一种准确、无私见、可复用的数据。但现实上,清洁与准确差异,准确与可操作差异。数据存在这三个方面的问题就可能严重影响人工智能模子的性能,滋扰其效果的质量。数据中可能存在的问题有许多种,有些对照显著,例如数据不准确、已损坏或数据花样不尺度。有些问题则加倍玄妙,例如数据是在特定环境下获取的,然后被不适当地复用;对于模子来说数据处于错误的粒度级别;数据没有尺度化,导致相同的事实以差其余方式示意或形貌。

使用单一数据源解决上述任何一个问题都市异常难题,若是程序攻击者试图向大型系统中注入不良数据以损坏模子,那么要解决上述所有问题现实上是不能能的。人们无法忽视的一点是:AI 在缔造新时机的同时也带来了新的懦弱性。人工智能带来了新的攻击与被攻击方式。AI 可能会发生新一代攻击工具,例如卫星数据滋扰诱骗(location spoofing)。通过损坏数据来蒙蔽或误导 AI 系统的手艺和 AI 手艺正在一起被开发。

当前的 AI 系统完全依赖数据的质量,因此 AI 存在缺陷不是由于手艺不成熟,而是由于 AI 最初就被设计为这种容易受到攻击的形式。因此在这种情形下,人工智能系统必须被设计成能够天真应对不良数据的模子。那么若是改变这种设计以降低 AI 的被攻击风险呢?这就需要让 AI「反懦弱」。

什么是反懦弱 AI?

「反懦弱」是指 AI 系统不仅可以在遭遇故障后恢复,而且在履历过故障后会变得更壮大、更有用。基于现实改善决议的因素构建 AI 系统将为反懦弱人工智能缔造时机。现有的认知科学研究解释:优越的决议是自动说明假设、构建假设磨练以验证假设、以及在利益相关者之间确立清晰的相同渠道的产物。

,

欧博开户

欢迎进入欧博开户(www.aLLbetgame.us),欧博官网是欧博集团的官方网站。欧博官网开放Allbet注册、Allbe代理、Allbet电脑客户端、Allbet手机版下载等业务。

,

许多引发「人为错误」的认知误差都是上述三方面泛起问题的效果:当人们没有清晰地说明假设时就会使用在现实条件下并不合适的解决方案;当人们不磨练假设时,他们就无法凭证不停转变的条件调整准确的决议;当操作职员之间无法有用地共享信息时,就会失去发现不停转变的条件和挑战假设的时机,对每小我私人都晦气。

AI 很容易受到不良数据的影响,由于现在的研究太过强调了它在分类和识别方面的应用,低估了它在建媾和情境化方面的应用。但 AI 所做的决议是很容易被损坏的。

设计反懦弱型 AI 很难,由于将算法剖析的输出作为结论与将其视为建议或提醒之间存在着很大的差异。决议者可能会为了节约成本而将人工智能的输出作为结论。这是现在在应用人工智能时已经存在的灾难性错误。

与此同时,医学领域的 AI 系统之以是能够提高决议质量,是由于许多诊断并没有单一的准确谜底。在医学诊断中,任何一组症状都有一系列差异概率的可能病因。临床医生会在他的头脑中确立一个决议树,其中包罗他能想到的所有可能病因,并设想清扫某些可能病因的磨练测试。医学诊断是一个「界说假设、磨练测试、进一步缩小可能病因集」的循环历程,直到找到解决方案。

只管数据不佳,但通过提醒医生以添加其他可能病因的方式能够加速诊断历程。在这种情形下,AI 能够改善医疗专业职员之间的相同和知识共享,并在要害时刻获取患者的相关信息。相反,试图通过人工智能手艺来区分肿瘤的良性和恶性,以逾越医生的 AI 产物则一直受到不良数据问题的困扰。

不良数据下的壮大 AI

在行使人工智能这种前沿手艺之前,研究者和开发者们首先应该思索若何界说要解决的问题。若是 AI 被用于改善决议,那么 AI 就应该指导决议者举行假设磨练,而不是试图逾越专家。若是让 AI 试图逾越专家,那么它将变得完全依赖于数据的质量,从而发生一组程序攻击者能够轻松行使的破绽。

当 AI 不是被训练成专家,而是改善和支持人类的决议,那么 AI 就将对不良数据具有弹性并能够变得反懦弱。在这种情形下 AI 不做决议,相反,它辅助人们说明决议背后的假设,将这些假设转达给人们,并在与这些假设相关的现实条件发生重大转变时提醒决议者。人工智能可以辅助决议者弄清晰什么状态是可能的,或者在什么条件下一些状态是可能的。这样的解决方案可以通过解决现有弱点来增强决议团队的整体能力,而不是因不良数据发生一些新的弱点。

人工智能尚未「智能」

这篇文章宣布后,许多网友示意赞许作者的看法。

有网友示意:「这是我近年来读过 AI 主题最明智的文章之一,将让一些相关领域的事情者受益。」

有人则提出了与作者类似的看法:「人们对人工智能在自动化人类事情方面云云着迷,以至于遗忘了 AI 在辅助人类方面具有更大的潜力。」

另有网友以为人工智能乐成的要害并不是大量的数据,而是应该依赖从乐成履历中获取的少量数据:

此外,有网友示意:「人工智能与人类的『智能』无关,它现实上只是盘算机化的信息,仍然需要人们对其举行剖析。」

看来人工智能与真正的完全自治化另有很大的距离。对此,你有什么看法?

CVPR 2021 线下论文分享会

时间:6 月 12 日 9:00-18:00

地址:北京市望京凯悦旅店

Max pool

Max pool网(www.ipfs8.vip)是FiLecoin致力服务于使用FiLecoin存储和检索数据的官方权威平台。IPFS网实时更新FiLecoin(FIL)行情、当前FiLecoin(FIL)矿池、FiLecoin(FIL)收益数据、各类FiLecoin(FIL)矿机出售信息。并开放FiLecoin(FIL)交易所、IPFS云矿机、IPFS矿机出售、租用、招商等业务。

网友评论