机构入驻 - 联系我们
您的当前位置: 首页 > 天下奇闻 > 未解之谜 正文

你觉得你会为机器而工作吗ai机器时代正颠覆你的想象,ai机器

作者:eric 时间:2023-09-11
导读:导语:AI技术在职场上的应用越来越广,但缺乏同理心、透明度等人机互动的「副作用」却依旧悬而未解,在迈入人机共事的时代前,我们要走的路或许还很漫长。人工智能赋予机器更多自

导语:

AI技术在职场上的应用越来越广,但缺乏同理心、透明度等人机互动的「副作用」却依旧悬而未解,在迈入人机共事的时代前,我们要走的路或许还很漫长。

人工智能赋予机器更多自主判断能力,也造成人和机器互动关系的巨大变化,我们该如何面对人机共事的新时代?有一天,我们或许要听从AI算法的指示来完成人力工作;其实,这看似科幻小说的场景,已经是正在发生的进行式。

机器彷佛是我们最忠实的员工,一年365天从不抱怨;只要按下一个按键,工作就会自动完成。但你是否曾经想过:有一天,你可能会为机器工作?

想象有一天,我们听从AI算法或机器的指示,来完成人力工作;而这看似科幻小说的场景,其实已经在世界上的许多角落开始发生了。

场景1──用算法管理员工(Algorithmic Management)

越来越多的公司开始使用算法来管理员工(Algorithmic Management)。像是Uber或Lyft这样的分享经济公司,已经率先开发出许多自动工具,来管理远程工作人员;包括用户评分系统,以及自动向驾驶提醒或建议下一步动作的系统等等。

在物流业中,UPS和Amazon等公司正在使用自动化系统追踪员工、并且优化货物处理量;这些算法收集工作人员的数据,并做出(半)自动化的决策来提供实时激励,以达到更高的产出。

有一些新创公司,也开始提供监视员工、或是管理驾驶行为的AI解决方案。与人工监积分落户上海 undefined督相比,这些自动化技术更容易扩展到更多营运据点,因此也被越来越多的公司采用。

场景2──为AI算法工作的蓝领劳工

关注AI的朋友都知道,机器学习(ML)主要有三种类型,包括:

· 监督学习(Supervised Learning)

· 无监督学习(Unsupervised Learning)

· 强化学习(Reinforcement Learning)

直到今天,仍有超过90%使用中的ML算法是以「监督学习」为基础。

换句话说,多数AI算法需要从标记好的训练数据中学习。为了提供标记过的训练数据,有一个高成长的行业应运而生:由人工标记影像或声音数据,以便机器能够消化和学习。

「Scale AI」是众多与卷标工作者合作,对数据进行undefined分类,以用于训练AI模型的新创公司之一;该公司成立仅有三年,却在最近融资获得高达1亿美元的资金。

Scale与大约三万名散布世界各地(大多在工资较低的国家)的契约工作者合作,为自动驾驶汽车和其他AI公司(包括Waymo、Airbnb和Lyft等)提供标记训练数据的服务。

场景3──远程控制和模仿学习(Imitation Learning)

美国新创公司Cobalt的保全机器人。Cobalt Robotics

在使用大量数据进行训练时,深度学习的效果优于传统机器学习;然而,获取高质量的训练数据通常很困难、而且成本相当高昂。

解决数据效率问题的方法之一,是使用模仿学习(Imitation Learning),也就是「让机器从专家的示范中学习」。

FortressIQ是应用模仿学习技术,为顾客自动化公司流程的美国新创企业之一;他们的系统可以分析人类和软件的互动,以便之后将这些流程自动化。

另一方面,美国新创公司Cobalt提供利用机器学习来执行巡逻工作的保全机器人(上图)。这种机器人可以识别异常情况,也能让工作人员远程监控、并在必要时接管控制权。

AI让机器变得越来越聪明,不再需要人类的一个口令一个动作;在某些领域中,甚至能够自动下指令给人类,而这些新型态的人机互动,正在真实上演之中。

所以, 你的AI同事会到来,这是必然的。根据行业特点的不同,时间或早或晚。从理论上来说,AI是不会犯错的,因为它们都是严格执行被写入的程序。如果出现了错误,那么只能说是程序写错,或是网络波动等异常因素造成。

AI由于没有感情也没有思想,但是同时它们的智能程度极高,所以会在公司中扮演着一个比较独特的地位。AI会尽可能的给其他员工创造出一个更好的工作环境,并且完成所有琐碎的任务,它们更像是一个查漏补缺者。但是,我们也开始看到这些新形态人机互动所带来的「副作用」:

算法缺乏透明度和同理心

研究者Lior Zalmanson和Robert W. Gregory在最近的一项研究中发现,Uber出租车司机都认为,算法非常了解他们,但他们对算法的原理和决策依据却知之甚少。

此外,司机们也感觉到算法的决策有些不人性的地方;他们质疑这个系统的公平性,尤其在他们没有得到明确解释、却遭到处罚的情况下特别明显。

有许多其他劳工也觉得自己被算法监视。他们不知道这些监控数据会用在什么地方,也不知道工作分配、评分或报酬是否公平;如果不公平,他们也不知道有没有什么途径可以提出抱怨。别的不说,像老邪做自媒体,对头条和百度的推荐算法,都有很大的抱怨,有时候你确实感觉到不公平,还申述无门。

「缺乏透明度」一直是AI的主要问题之一。

另外,人类跟机器的最大区别,就是人拥有感情。感情在很多时候,可以影响人的决定。而AI机器没有情感,也没有同理心,所以跟这样的同事一起合作、或是被这样的AI领导、监督的时候,你会感到很沮丧。

用这些自动化工具来管理员工,或许确实更有效率及扩充性;但生产力不应该是唯一的目标,必须也考虑到信息的透明、以及对员工的同理心。

人与机器的角色责任分配不明确

以保全机器人为例,在机器人无法处理的情况下,人类的介入可能会有关键作用;但随着机器人变得越来越聪明,机器可能会得出与人类不同的结论。

人类永远能够做出比机器人更好的决定吗?谁有最终决定权?

另一个备受关注的例子:无人驾驶车。谁应该在自主的无人车中做决定?是车子本身、备用安全驾驶员、远程监控的工作人员、还是乘客本身?

在什么情况下、什么时候介入?如果你只有一瞬间的反应时间,答案会有所不同吗?谁应该对任何后果负责?科技公司?安全驾驶?还是设计算法的工程师?诸如此类的困扰还有许多。当然了,正是这些问题的存在,才会促使我们更深入的思考,从而推动社会的进步。

结语

虽然研究人员正在研究转移学习(Transfer Learning)和元学习(Meta Learning),以设计能够「学习如何学习」的AI模型;但老实说,我们离完全自主的人工智能还很远。

在可预见的将来,我们仍然需要标记数据,让机器变得更加自主。我们需要调整自己,与时俱进,我们需要学习与AI机器一起共存的最佳方式。我们准备好迎接如此剧烈的社会变革了吗?我们可以做些什么来创造我们想要的未来?

打赏

取消

感谢您的支持,我会继续努力的!

扫码支持
扫码打赏,你说多少就多少

打开支付宝扫一扫,即可进行扫码打赏哦

网友评论:

推荐使用友言、多说、畅言(需备案后使用)等社会化评论插件

Copyright © 2024 上海落户 版权所有 地址:上海市天钥桥路518号 电话:13370044850
沪ICP备2021003381号
Top