你觉得你会为机器而工作吗ai机器时代正颠覆你的想象,ai机器
导语:
AI技术在职场上的应用越来越广,但缺乏同理心、透明度等人机互动的「副作用」却依旧悬而未解,在迈入人机共事的时代前,我们要走的路或许还很漫长。
人工智能赋予机器更多自主判断能力,也造成人和机器互动关系的巨大变化,我们该如何面对人机共事的新时代?有一天,我们或许要听从AI算法的指示来完成人力工作;其实,这看似科幻小说的场景,已经是正在发生的进行式。
机器彷佛是我们最忠实的员工,一年365天从不抱怨;只要按下一个按键,工作就会自动完成。但你是否曾经想过:有一天,你可能会为机器工作?
想象有一天,我们听从AI算法或机器的指示,来完成人力工作;而这看似科幻小说的场景,其实已经在世界上的许多角落开始发生了。
场景1──用算法管理员工(Algorithmic Management)
越来越多的公司开始使用算法来管理员工(Algorithmic Management)。像是Uber或Lyft这样的分享经济公司,已经率先开发出许多自动工具,来管理远程工作人员;包括用户评分系统,以及自动向驾驶提醒或建议下一步动作的系统等等。
在物流业中,UPS和Amazon等公司正在使用自动化系统追踪员工、并且优化货物处理量;这些算法收集工作人员的数据,并做出(半)自动化的决策来提供实时激励,以达到更高的产出。
有一些新创公司,也开始提供监视员工、或是管理驾驶行为的AI解决方案。与人工监督相比,这些自动化技术更容易扩展到更多营运据点,因此也被越来越多的公司采用。
场景2──为AI算法工作的蓝领劳工
关注AI的朋友都知道,机器学习(ML)主要有三种类型,包括:
· 监督学习(Supervised Learning)
· 无监督学习(Unsupervised Learning)
· 强化学习(Reinforcement Learning)
直到今天,仍有超过90%使用中的ML算法是以「监督学习」为基础。
换句话说,多数AI算法需要从标记好的训练数据中学习。为了提供标记过的训练数据,有一个高成长的行业应运而生:由人工标记影像或声音数据,以便机器能够消化和学习。
「Scale AI」是众多与卷标工作者合作,对数据进行分类,以用于训练AI模型的新创公司之一;该公司成立仅有三年,却在最近融资获得高达1亿美元的资金。
Scale与大约三万名散布世界各地(大多在工资较低的国家)的契约工作者合作,为自动驾驶汽车和其他AI公司(包括Waymo、Airbnb和Lyft等)提供标记训练数据的服务。
场景3──远程控制和模仿学习(Imitation Learning)
美国新创公司Cobalt的保全机器人。Cobalt Robotics
在使用大量数据进行训练时,深度学习的效果优于传统机器学习;然而,获取高质量的训练数据通常很困难、而且成本相当高昂。
解决数据效率问题的方法之一,是使用模仿学习(Imitation Learning),也就是「让机器从专家的示范中学习」。
FortressIQ是应用模仿学习技术,为顾客自动化公司流程的美国新创企业之一;他们的系统可以分析人类和软件的互动,以便之后将这些流程自动化。
另一方面,美国新创公司Cobalt提供利用机器学习来执行巡逻工作的保全机器人(上图)。这种机器人可以识别异常情况,也能让工作人员远程监控、并在必要时接管控制权。
AI让机器变得越来越聪明,不再需要人类的一个口令一个动作;在某些领域中,甚至能够自动下指令给人类,而这些新型态的人机互动,正在真实上演之中。
所以, 你的AI同事会到来,这是必然的。根据行业特点的不同,时间或早或晚。从理论上来说,AI是不会犯错的,因为它们都是严格执行被写入的程序。如果出现了错误,那么只能说是程序写错,或是网络波动等异常因素造成。
AI由于没有感情也没有思想,但是同时它们的智能程度极高,所以会在公司中扮演着一个比较独特的地位。AI会尽可能的给其他员工创造出一个更好的工作环境,并且完成所有琐碎的任务,它们更像是一个查漏补缺者。但是,我们也开始看到这些新形态人机互动所带来的「副作用」:
算法缺乏透明度和同理心研究者Lior Zalmanson和Robert W. Gregory在最近的一项研究中发现,Uber出租车司机都认为,算法非常了解他们,但他们对算法的原理和决策依据却知之甚少。
此外,司机们也感觉到算法的决策有些不人性的地方;他们质疑这个系统的公平性,尤其在他们没有得到明确解释、却遭到处罚的情况下特别明显。
有许多其他劳工也觉得自己被算法监视。他们不知道这些监控数据会用在什么地方,也不知道工作分配、评分或报酬是否公平;如果不公平,他们也不知道有没有什么途径可以提出抱怨。别的不说,像老邪做自媒体,对头条和百度的推荐算法,都有很大的抱怨,有时候你确实感觉到不公平,还申述无门。
「缺乏透明度」一直是AI的主要问题之一。
另外,人类跟机器的最大区别,就是人拥有感情。感情在很多时候,可以影响人的决定。而AI机器没有情感,也没有同理心,所以跟这样的同事一起合作、或是被这样的AI领导、监督的时候,你会感到很沮丧。
用这些自动化工具来管理员工,或许确实更有效率及扩充性;但生产力不应该是唯一的目标,必须也考虑到信息的透明、以及对员工的同理心。
人与机器的角色责任分配不明确以保全机器人为例,在机器人无法处理的情况下,人类的介入可能会有关键作用;但随着机器人变得越来越聪明,机器可能会得出与人类不同的结论。
人类永远能够做出比机器人更好的决定吗?谁有最终决定权?
另一个备受关注的例子:无人驾驶车。谁应该在自主的无人车中做决定?是车子本身、备用安全驾驶员、远程监控的工作人员、还是乘客本身?
在什么情况下、什么时候介入?如果你只有一瞬间的反应时间,答案会有所不同吗?谁应该对任何后果负责?科技公司?安全驾驶?还是设计算法的工程师?诸如此类的困扰还有许多。当然了,正是这些问题的存在,才会促使我们更深入的思考,从而推动社会的进步。
结语
虽然研究人员正在研究转移学习(Transfer Learning)和元学习(Meta Learning),以设计能够「学习如何学习」的AI模型;但老实说,我们离完全自主的人工智能还很远。
在可预见的将来,我们仍然需要标记数据,让机器变得更加自主。我们需要调整自己,与时俱进,我们需要学习与AI机器一起共存的最佳方式。我们准备好迎接如此剧烈的社会变革了吗?我们可以做些什么来创造我们想要的未来?
随便看看:
- [未解之谜]碟中谍内容介绍(碟中谍幕后冷知识解说)
- [未解之谜]神秘的遗迹,世界神秘历史遗迹
- [未解之谜]中国的四座古城「1943年江苏挖出神秘古城究竟是中国城还是外
- [未解之谜]连央视都被忽悠中国最毁三观的顶流凭啥吊打同行40年
- [未解之谜]火星上的4个未解之谜你知道几个字,火星上的秘密有什么
- [未解之谜]为什么468「哎呀468真的在加速了网友我就不信这一片起不来
- [未解之谜]权利游戏的殉道者15世纪伦敦塔中人间蒸发的两个小王子
- [未解之谜]宇航员为什么上太空要带枪,宇航员因何需带枪上太空
- [未解之谜]刺激战场玩家在沙漠遇会吃人的窗户网友这是墓地细思极恐
- [未解之谜]黄河小浪底钓鱼攻略,三伏天夜钓鲫鱼
网友评论:
推荐使用友言、多说、畅言(需备案后使用)等社会化评论插件