服务热线:020-2810 1017
快速注册|English
人工智能AI的未来与可以改变世界的7种方法
2020-03-3065

在靠近芝加哥市中心的一幢不起眼的建筑中,马克·京约西(Marc Gyongyosi)和IFM / Onetrack.AI不断壮大的一小撮人有一条规则统治着所有人:简单思考。这些单词以简单字体写在一张简单的纸上,粘在他们工业两层工作区的楼上后壁上。但是,他们在这里用人工智能做的事情并不简单。


Gyongyosi坐在他凌乱的办公桌旁,桌子旁边是一个经常使用的乒乓球台,他的大学时代的无人机原型悬挂在头顶,他在笔记本电脑上打一些键,拔出叉车司机在仓库里操作车辆的颗粒状录像。它是从Onetrack.AI“叉车视觉系统”的架空礼貌中捕获的。


一、人工智能的未来

人工智能正在影响几乎每个行业和每个人的未来。人工智能已成为大数据,机器人技术和物联网等新兴技术的主要驱动力,在可预见的未来,人工智能将继续充当技术创新者的角色。


鞋盒大小的设备利用机器学习和计算机视觉来检测和分类各种“安全事件”,虽然看不见所有东西,但可以看到很多东西。像驾驶员操作车辆时所看的方向,行驶的速度,行驶的地点,周围的人的位置以及其他叉车操作员如何操纵车辆。IFM的软件会自动检测安全违规行为(例如,使用手机),并通知仓库经理,以便他们可以立即采取行动。主要目标是预防事故并提高效率。Gyongyosi声称,仅IFM设备之一正在观看的知识就产生了“巨大影响”。


人工智能的未来Marc Gyongyosi ifm首席执行官Marc Gyongyosi | 图片来源:IFM / OneTrack.AI


人工智能未来ifm芝加哥办事处IFM的较低级别旨在模仿仓库环境,以便可以在现场对产品进行有效测试。| 图片来源:IFM / OneTrack.AI


他说:“如果考虑使用摄像头,它确实是当今我们可以使用的最丰富的传感器,价格非常有趣。” “由于智能手机,照相机和图像传感器的价格变得非常便宜,但我们却捕获了很多信息。从一个图像中,我们今天也许可以推断出25个信号,但是从现在起六个月后,我们将能够从同一幅图像中推断出100或150个信号。唯一的区别是查看图像的软件。这就是为什么如此引人注目的原因,因为我们今天可以提供非常重要的核心功能集,但是随着时间的流逝,我们所有的系统都在相互学习。每个客户都能从我们带来的每个其他客户中受益,因为我们的系统开始看到和学习更多的流程,并发现更多重要且相关的事物。”

 

二、人工智能的演变

IFM只是这个领域比以往任何时候都变得越来越热并且越来越多的AI创新者之一。这是一个很好的指标:在2018年IBM发明者获得的9,100项专利中,有1,600项(约占18%)与AI有关。这是另一回事:特斯拉创始人兼技术巨头埃隆·马斯克(Elon Musk)最近捐赠了1000万美元,用于资助非营利研究公司OpenAI的正在进行的研究-如果他在2015年10亿美元的共同承诺有任何预兆,那简直是九牛一毛。2017年,俄罗斯总统弗拉基米尔·普京(Vladimir Putin)对学童说:“无论谁成为这个领域的领导者,[AI]都将成为世界的统治者。” 然后,他把头向后扔,疯狂地笑了。


好,那最后一件事是假的。但是,事实并非如此:在经历了七十多年的hoopla和零星的休眠期之后,该浪潮始于所谓的“知识工程”,经历了多波演变,后来发展为基于模型和算法的机器学习,并且越来越受到关注在感知,推理和概括性方面,人工智能已重新成为前所未有的中心舞台。而且它不会在任何时候放弃聚光灯。

 

google ceo sundar pichai ai的未来Google首席执行官Sundar Pichai将于2018年登台。Google正在研究一款AI助手,该助手可以发出类似于人的呼叫进行约会。| 照片来源:Alive Coverage未来就在眼前:人工智能的影响无处不在


几乎没有主要的行业现代AI(更具体地说是“狭窄的AI”)已经受到影响,该“狭窄的AI”使用数据训练的模型执行目标功能,并且通常属于深度学习或机器学习类别。在过去的几年中尤其如此,由于强大的物联网连接,互联设备的普及和计算机处理的不断加快,数据收集和分析已大大增加。


一些行业正处于AI之旅的开始,其他行业则是资深旅行者。两者都有很长的路要走。无论如何,人工智能对我们当今生活的影响是不容忽视的:


交通运输:虽然可能需要十年或更长时间才能完善它们,但无人驾驶汽车总有一天会把我们运送到各地。

制造:人工智能驱动的机器人与人类一起工作以执行有限的任务,例如组装和堆叠,并且预测分析传感器使设备保持平稳运行。

医疗保健:在AI刚刚起步的医疗保健领域中,可以更快,更准确地诊断疾病,加快并简化药物开发过程,虚拟护理助手监视患者,大数据分析有助于创造更加个性化的患者体验。

教育:借助AI将教科书数字化,早期的虚拟辅导员协助人类讲师,面部分析评估学生的情绪,帮助他们确定谁在苦苦挣扎或无聊,并根据他们的个人需求更好地调整体验。

媒体:新闻业也在利用AI,并将继续从中受益。彭博社使用Cyborg技术帮助快速理解复杂的财务报告。美联社利用Automated Insights的自然语言能力,每年制作3700个收益报告故事,几乎是最近的四倍。

客户服务:最后但并非最不重要的一点是,Google正在研究一个AI助手,该助手可以拨打类似于人的电话,以便在您附近的发廊预约。除了单词之外,系统还可以理解上下文和细微差别。

但是,这些进步(以及其他许多进步,包括这一系列新的进步)仅仅是开始。将会有更多的事情发生-比任何人,甚至最有先见之明的预言家,都能够理解的更多。

客户关系管理公司4Degrees的首席技术官兼联合创始人David Vandegrift说:“我认为有人在某个时候对智能软件的功能进行了假设是错误的。”


随着公司每年在AI产品和服务上花费近200亿美元的集体资金,谷歌,苹果,微软和亚马逊等科技巨头花费数十亿美元来开发这些产品和服务,大学使AI成为各自课程中更重要的部分(仅MIT就是在下降斥资10亿美元建立一所专门致力于计算的新学院,并专注于AI),美国国防部提升其AI游戏水平,必将发生大事。其中一些发展正在充分实现的道路上。有些仅仅是理论上的,可能还会保持下去。所有这些都具有破坏性,可能会变得更好,甚至可能变得更糟,并且看不到任何衰退。


谷歌前负责人,百度首席科学家安德鲁·伍(Andrew Ng)去年年底对ZDNet表示:“许多行业经历了这种冬天,冬天,然后是永恒的春天的模式。” “我们可能处于AI永恒的春天。”

 

AI专家李开复博士于2018年与《 60分钟》记者Scott Pelley进行了交谈人工智能对社会的影响“您的工作有多么日常?”:狭窄的人工智能对劳动力的影响 


去年秋天在西北大学的一次演讲中,人工智能大师李开复(Kai-Fu Lee)倡导了人工智能技术及其即将产生的影响,同时还指出了其副作用和局限性。在前者中,他警告说:

“在工作或收入方面,世界上收入最低的90%,尤其是收入最低的50%的人,将因工作流离失所而受到严重伤害……简单的问题是,'工作的日常程度如何?' 这就是AI取代工作的可能性,因为AI可以在日常任务中学习自我优化。而且数量越多,工作的目标就越客观-将事物分成垃圾箱,洗碗,采摘水果并接听客户服务电话-这些实际上是重复性和例行性的脚本化任务。在5年,10年或15年的时间内,他们将被AI取代。”


在拥有100,000多个机器人的在线巨头和AI巨头亚马逊的仓库中,拣配和打包功能仍由人来执行-但这将改变。


Lee的观点最近得到了Infosys总裁Mohit Joshi的回响,他在今年的达沃斯聚会上对《纽约时报》表示:“人们希望取得很大的成就。早些时候,他们在裁员方面有5%至10%的增量目标。现在他们在说,'为什么我们不能对我们拥有的1%的人做到这一点?'”

 

人工智能未来机器人工厂机器人在工作在汽车工厂焊接。专家相信,人工智能将取代许多重复性和单任务导向的工作。| 图片来源:Shutterstock培训和教育:减轻AI驱动的劳动力的痛苦


Lee更乐观地强调,当今的AI在两个重要方面无用:它没有创造力,没有同情心或爱心。相反,它是“增强人类创造力的工具”。他的解决方案?那些从事涉及重复性或例行任务的工作的人必须学习新技能,以免被遗弃。亚马逊甚至为员工提供培训其他公司的工作机会的资金。


“在许多领域要取得成功,AI的绝对先决条件之一就是我们在教育方面进行了大量投资,以重新培训人们从事新工作,”伊利诺伊大学香槟分校伊利诺伊大学计算机系教授Klara Nahrstedt说。学校的协调科学实验室。


她担心这种情况发生得不够广泛或不够频繁。IFM的Gyongyosi更为具体。

他说:“人们需要像学习新语言一样学习编程。他们必须尽早这样做,因为这确实是未来。将来,如果您不懂编码,也不懂编程,只会变得更加困难。”


三、随时了解最新的AI趋势


Vandegrift说,尽管许多因技术被迫失业的人会找到新工作,但这不会在一夜之间发生。与工业革命期间美国从农业向工业经济的转变(在导致大萧条中发挥了重要作用)一样,人们最终也重新站起来。但是,短期影响是巨大的。


Vandegrift说:“工作消失与新工作之间的过渡并不一定像人们想的那样痛苦。”  

“将来,如果您不了解编码,就不会编程,只会变得更加困难。”


NVIDIA的“学习经历设计师” Mike Mendelson与Nahrstedt是另一种教育家。他与希望了解更多有关AI并将其应用于他们的业务的开发人员一起工作。

他说:“如果他们了解技术的能力,并且对领域非常了解,他们就会开始建立联系并说,'也许这是一个AI问题,也许那是一个AI问题。' “这种情况比'我有一个我想解决的具体问题更常见。'”

 

四、奖励与惩罚:AI的近期后果

在孟德尔森看来,将在不久的将来产生影响的一些最引人入胜的人工智能研究和实验发生在两个领域:“强化”学习,它处理奖励和惩罚而不是标记数据。以及生成对抗网络(简称GAN),该网络允许计算机算法创建而不是仅仅通过将两个网络相互对接来进行评估。前者以Google DeepMind的Alpha Go Zero的播放能力为例,后者以原始图像或音频生成为基础,该原始图像或音频生成基于对名人或特定类型音乐等特定主题的学习。


在更大的范围内,人工智能有望对可持续性,气候变化和环境问题产生重大影响。理想地(部分地,通过使用先进的传感器),城市将变得更少拥堵,污染更少并且总体上更宜居。已经在取得进展。


“一旦您有所预测,就可以制定某些政策和规则,” Nahrstedt说。例如,发送有关交通状况数据的汽车上的传感器可以预测潜在问题并优化汽车流量。她说:“这还没有得到任何完善。” “这还处于婴儿期。但是未来几年,它将扮演非常重要的角色。”

 

人工智能未来司法系统活动家于2015年在多伦多举行的“工作,正义与气候”集会上游行。隐私组织担心,人工智能工具中对大数据的无节制使用可能会导致许多权利受到侵犯,包括获得公正审判的权利。| 图片来源:Shutterstock人工智能与隐私与人权的未来

当然,已经有很多事实表明,人工智能对大数据的依赖已经在很大程度上影响隐私。就像剑桥分析公司的Facebook恶作剧或亚马逊的Alexa 窃听一样,在众多技术实例中有两个疯了。评论家认为,如果没有适当的规定和自我施加的限制,情况将变得更加糟糕。在2015年,苹果公司首席执行官蒂姆·库克(Tim Cook)在贪婪驱动的数据挖掘中击败了竞争对手谷歌(Google)和Facebook(惊讶!)。


他在2015年的演讲中说:“他们正在吞噬他们所能了解到的一切,并试图从中获利。” “我们认为那是错误的。”

去年秋天,在比利时布鲁塞尔的一次谈话中,库克阐述了他的关切。


他说:“通过收集庞大的个人资料来推进AI是懒惰,而不是效率。要使人工智能真正成为智能,它必须尊重人类价值,包括隐私。如果我们弄错了,则危险是巨大的。”


“如果负责任地实施,人工智能可以使社会受益。但是,与大多数新兴技术一样,存在商业和国家使用对人权有不利影响的实际风险。”


很多其他人都同意。在英国人权和隐私组织第19条和国际隐私组织最近发表的一篇论文中,人们对AI的焦虑只是因为它的日常功能,而不是像机器人霸主的出现那样的灾难性转变。


作者写道:“如果负责任地实施,人工智能可以使社会受益。” “但是,就像大多数新兴技术一样,存在商业和国家使用对人权有不利影响的真实风险。特别是,这些技术的应用经常依赖于有关个人和集体行为的大量数据的生成,收集,处理和共享。此数据可用于描述个人资料并预测未来的行为。尽管其中一些用途(例如垃圾邮件过滤器或建议用于在线购物的物品)看起来是无害的,但其他用途可能会产生更严重的影响,甚至可能对隐私权以及言论和信息自由权构成前所未有的威胁(“表达')。使用AI也可能影响其他多项权利的行使,为人工智能的未来做准备有用的或杀人的:人工智能的奇妙可能性。


国际知名的AI专家Stuart Russell在2018年11月下旬在伦敦的威斯敏斯特大教堂发表讲话时说(或不说)他与记者的正式协议,除非他们同意不在文章中放置终结者机器人,否则我不会与他们交谈。 ” 他的讽刺意味深深地鄙视好莱坞对遥远未来AI的表现,这种倾向倾向于过度扭曲和世界末日。罗素所谓的“人类级人工智能”,也称为人工通用智能,长期以来一直是幻想的产物。但是,它很快或完全实现的可能性很小。几乎可以肯定,在任何读过这个故事的人的一生中,机器不会上升(对不起,拉塞尔博士)。

人工智能未来终结者好莱坞对未来人工智能的表述倾向于过度扭曲和世界末日,许多专家视其为幻想。人工人工智能将需要重大突破,何时/如果发生这种情况,正面和负面的影响将比科幻电影中呈现的复杂得多。| 图片来源:Shutterstock


拉塞尔解释说:“在我们达到类似于人类水平的AI之前,仍然有重大突破。” “一个例子是真正理解语言内容的能力,因此我们可以使用机器在语言之间进行翻译……当人们进行机器翻译时,他们会理解内容并进行表达。现在,机器不是很擅长理解语言的内容。如果达到了这个目标,我们将拥有可以读取和理解人类曾经写过的一切的系统,而这是人类无法做到的。一旦有了这种能力,您就可以查询所有知识,并且能够综合,整合和回答人类无法回答的问题,因为他们没有满嘴 和一个充满思想。在这个问题上,模拟人脑非常困难,这也是AGI仍然假想未来的另一个原因。密歇根州立大学工程与计算机科学系教授约翰·莱尔德(John Laird)在该领域进行了数十年的研究。


“谈到建立在很大程度上受人类心理学启发的作品时,他说:“目标一直是尝试建立我们所谓的认知体系,这是我们认为是智能系统所固有的。” “例如,我们所知道的一件事就是人脑实际上并不只是一组同质的神经元。就各个组成部分而言,存在一个真实的结构,其中一些与有关如何在世界上做事的知识有关。”


人工智能未来亚伦·明格机器人手臂


密歇根大学计算机科学与工程系的研究生Aaron Mininger用自然语言向机器人教授任务,以传达指令。| 图片来源:密歇根大学/约翰·莱尔德


那就是程序记忆。然后是基于一般事实(即语义记忆)的知识,以及有关先前经历(或个人事实)的知识,称为情节记忆。莱尔德实验室的一个项目涉及使用自然语言指令来教机器人简单的游戏,例如井字游戏和拼图游戏。这些说明通常涉及目标的描述,法律行动的失败和失败的情况。机器人将这些指令内部化,并使用它们来计划其动作。但是,与以往一样,突破的步伐仍然很慢-无论如何,其速度都比莱尔德和他的研究人员所希望的慢。

他说:“每当我们取得进步时,我们都会对自己的努力有新的认识。”

 

AI首席研究员Max Tegmark在2018年发表TED演讲AGI真的是对人类的生存威胁吗?

超过几个领先的AI人物(比其他人大为夸张)赞同一场噩梦,其中涉及所谓的“奇异性”,即超级智能机器通过奴役或根除来接管并永久改变人类的生存。


已故的理论物理学家史蒂芬·霍金(Stephen Hawking)著名地提出,如果AI本身开始设计比人类程序员更好的AI,其结果可能是“智能超过我们的机器超过蜗牛的机器”。埃隆·马斯克(Elon Musk)相信并警告说,多年来AGI是人类最大的生存威胁。他说,实现这一目标的努力就像“召唤恶魔”。他甚至对自己的朋友,谷歌联合创始人兼Alphabet首席执行官拉里·佩奇(Larry Page)表示担忧,尽管他怀有最良好的意愿,但还是有可能使某些“邪恶”变成现实。例如,说“一群能够摧毁人类的人工智能增强型机器人”。(您可能会知道,麝香具有戏剧性。)即使是IFM的Gyongyosi,对于AI预测也没有戒备,也不排除任何可能。在某个时候,他说,人类将不再需要训练系统;他们将自己学习和发展。


他说:“我认为我们目前在这些领域使用的方法不会导致机器决定杀死我们。” “我认为大概从现在起的五到十年后,我将不得不重新评估该声明,因为我们将有不同的可用方法以及处理这些问题的不同方法。”


尽管谋杀性机器很可能仍然是虚构的东西,但许多人认为它们会以各种方式取代人类。

去年春天,牛津大学人类未来研究所发布了一项AI 调查的结果。AI何时会超越人类的表现?来自AI专家的证据,其中包含352位机器学习研究人员对未来几年AI演变的估计。这个小组有很多乐观主义者。到2026年,中位数的受访者表示,机器将能够编写学校论文。到2027年,自动驾驶卡车将使驾驶员不必要;到2031年,人工智能将在零售领域超越人类。到2049年,人工智能可能成为下一个史蒂芬·金,而到2053年则可能成为下一个查理·蒂。稍微有些刺耳的封盖器:到2137年,所有人类工作都将被自动化。但是人类自己呢?毫无疑问,饮机器人提供的雨伞饮料。


西北大学的教授,该校分析科学硕士课程的创始主任迭戈·卡拉宾(Diego Klabjan)自称是AGI怀疑论者。

他解释说:“目前,计算机可以处理10,000多个单词。” 因此,数百万个神经元。但是人的大脑有数十亿个神经元,它们以非常有趣和复杂的方式连接,并且当前的最新技术只是按照非常简单的模式进行的直接连接。因此,使用当前的硬件和软件技术,从数百万个神经元发展到数十亿个神经元-我看不到这种情况。”

 

人工智能未来战争机器人一些专家认为,人工智能的真正威胁不是恶意,而是邪恶的人类对机器施加错误的激励。换句话说,如果机器人入侵,很可能是因为有人指示他们进入,而不是因为他们认为这是个好主意。| 图片来源:Shutterstock战争机器人与邪恶动机:人类如何使用AGI是真正的威胁


Klabjan在极端情况下也很少投入库存,这种情况涉及例如使地球变成闷热的地狱的谋杀性机器人。他更关心的是机器(例如,战争机器人)受到邪恶的人的错误“激励”。正如麻省理工学院物理学教授和顶尖的人工智能研究人员马克斯·泰格马克(Max Tegmark)在2018年的TED演讲中所说:“人工智能的真正威胁不是像愚蠢的好莱坞电影那样是恶意的,而是能力–人工智能实现的目标与我们的目标不符。 ” 这也是莱尔德的看法。


他说:“我绝对看不到有什么事情醒来并决定要占领整个世界的情况。” “我认为那是科幻小说,而不是它的播放方式。”

Laird最担心的不是本质上的邪恶AI,而是“邪恶的人将AI用作一种虚假的乘数”,用于抢劫银行和信用卡欺诈等犯罪活动。因此,尽管他经常对进步的速度感到沮丧,但AI的缓慢燃烧实际上可能是一种祝福。


莱尔德说:“是时候了解我们正在创造的东西以及如何将其融入社会了,这可能正是我们所需要的。”


拉塞尔在威斯敏斯特会议上说:“有几项重大突破,而且很快就会实现。” 他补充说,1917年英国物理学家欧内斯特·卢瑟福(Ernest Rutherford)对核裂变(原子分裂)产生了迅速的转化作用,他说:“很难预测何时会发生这些概念性突破。”


但是,只要他们这样做,他就会强调准备的重要性。这意味着开始或继续讨论AGI的道德使用方式以及是否应对其进行监管。这意味着要消除数据偏差,这种偏差会对算法造成破坏性影响,并且目前在AI软膏中是个大问题。这意味着要努力发明和增强能够控制技术的安全措施。这意味着要谦虚地意识到,仅仅因为我们可以做,并不意味着我们应该做。


泰格马克在他的TED演讲中说:“我们在技术方面的情况很复杂,但是总体情况却很简单。” “大多数AGI研究人员都希望在几十年内获得AGI,如果我们不了解这一事实,那可能是人类历史上最大的错误。它可以使残酷的全球独裁政权遭受前所未有的不平等,监视,痛苦甚至人类灭绝。但是,如果我们谨慎行事,我们将有一个美好的未来,每个人的境况都将变得更好—穷人变得更富裕,富人变得更富裕,每个人都健康而自由地实现自己的梦想。”


版权所有:本文整理与网络,版权归作者所有

文章转摘只为学术传播,如涉及侵权问题,请联系我们,我们将及时修改或删除


分享:
打开微信扫一扫
收藏0
点赞0
  • 扫码关注AI Scholar小程序

  • 扫码进艾思学术直播交流群

    备注“进群”

  • 扫码关注艾思学术公众号