学习创新总监,Huthwaite International |高级顾问,Learnworks Ltd
专栏作家
分享此内容
数据
savushkin / iStock
标签:

人工智能会把我们推向“学习木兰花”吗?

通过
2017年2月8日
学习创新总监,Huthwaite International |高级顾问,Learnworks Ltd
专栏作家
分享此内容

在上周的学习技术会议和展览上,关于人工智能(AI)有很多激动人心的讨论。我怀疑,许多与会者对人工智能有模糊的认识,但对其他的知之甚少。

什么真的人工智能吗?

如果你不完全确定,人工智能是指计算机“学习”如何做事的能力。

这种机器学习需要两件事 - 大量的数据和算法。

数据被分割,使用算法进行推断——本质上是一套关于什么是重要的,什么是不重要的规则。

从这些由强大的计算机以超高速处理的规则和数据中,我们有了“学习”。

在最复杂的情况下,人工智能程序可以击败国际象棋大师和经验丰富的围棋高手。

AI还可以提出建议 - 通过自动完成我们的Google搜索条款来帮助我们,或者将我们指导我们可能想要阅读或下一个框集,我们可能希望狂欢观看。

£1.4M系统更换34名保险索赔工人

作为一群日本保险工人最近发现,AI的3月也具有业务影响。一组34个保险索赔工人将是下个月取代了1.4米的AI系统。

该系统的支出旨在在一年多一点的时间内实现投资回报。

现在,我不是所有的数字,但这似乎意味着这些工人不是低工资的人从事重复的头脑麻木的工作。

140万英镑加上运营成本除以34份薪水,平均年薪约为47000英镑。

从低技能、低工资的工作向基于判断的角色的转变

到目前为止,关于人工智能系统对就业的影响的讨论主要集中在低技能、低工资的工作上。

一般假设一直是建立替代工人,以高度常规的果树在做就业机会将是事物的自然进展。

一个旨在协助法官制定量刑政策的人工智能系统给白人男性的量刑建议明显低于非裔美国人

但正如Fukoko Mutual life Insurance公司员工的经验所显示的,对AI来说,薪酬合理、基于判断的职位在财务上最具吸引力。

简单地说,除非你要替代的工作是非常昂贵的工作,否则人工智能是不可行的。

未来裁员不会在那些在大规模的工厂生产线的工作但在cognitive-intensive任务——这些角色要求人们理解信息,合成数据和知识和经验,确定最佳下一步或一系列选项。

你可能想想你的角色有多少符合这个描述!

特朗普和他的美国工厂推动…

常规工厂工作已经自动化。

尽管唐纳德•特朗普(Donald Trump)承诺将美国的工作岗位从海外带回美国,但现实是,美国工厂的工作岗位已经自动化消失了三倍已经转移到墨西哥、中国或其他低工资经济体。

算法倾向于平均。只有当你拥有大量数据时,细微差别才有可能实现,即使如此,它也不是那么复杂。

在学习中,AI可能能够从学习者或从事我们希望学习者做的工作的人收集数据。使用算法,然后可以准确地预测可能需要哪些学习,并在员工知道他们需要之前服务于适当的内容。

我们现在所做的很多工作都涉及到与机器的交互,这意味着收集的数据不仅仅来自LMS或类似的设备,还包括关于我们与各种连接组件交互效率的粒度性能数据。

如果这一切听起来有点老大哥的味道,情况可能会变得更糟。

处理大量数据的能力是最近才获得的,所以我们不太确定我们已经得到了什么,也不确定我们可以使用什么。

在L&D中,我们在过去的重视方面非常好,我们可以轻松测量而不是测量真正重要的东西。

如果我们慌慌张张地处理我们能得到的任何数字,我们就冒着放大这种倾向的风险——重视那些可以计算的东西,而不是那些更难量化的东西。

小数据的不恰当使用

然而,我认为还有另一个令人担忧的选择。我预计,各组织将尝试在小数据集上实施大数据行动。

想象一下,如果你愿意,一个普通的员工每月与学习管理系统或虚拟学习环境互动一次。

生成的数据量不太可能是大量的。

当我们成为渴求的消费者时,无休止的目标定位就起作用了。在我看来,这并不是关于人工智能在学习中的作用的建议。

微小的变化——可能是由于某个人非常热衷于和大量使用你公司的在线课程图书馆,或者整个部门因为技术黑洞而无法访问——极大地扭曲了有限的数据。

谈到数据时,我们可以对吗?

算法倾向于平均。只有当你拥有大量数据时,细微差别才有可能实现,即使如此,它也不是那么复杂。它根据过去的选择,使您想要的想法做出假设。

所以,如果你曾经买了一本关于维多利亚时代的书来帮助你的孩子完成学校的一个项目,亚马逊会认为你是一个近乎痴迷于19世纪的终身兴趣爱好。

如果你曾经和来访的侄女一起看了一部关于骑马的电视节目,那么你的数字电视供应商就会认为你马上就要去买马鞍和马裤了。

这些人工智能系统了解我们,预测我们的每一个需求,从而赢得我们的品牌忠诚度,它们所提出的建议往往是非常愚蠢的。

但他们要处理的个人数据比一般的L&D团队多几百倍。人工智能在零售给了我们20世纪末思想家和哲学家,the Jam的Paul Weller所预言的结果:“公众想要公众得到的”。

恳求消费者vs组织学习者

当我们成为渴求的消费者时,无休止的目标定位就起作用了。在我看来,这并不是关于人工智能在学习中的作用的建议。

AI还用于预测我们可能想要的愿望和设计。

因此,Netflix委托制作的新节目完全由个人最常观看的节目决定。我个人等不及看《烘焙比赛》和《呼叫助产士》的数字衍生版——《英国宝贝诞生》——或者《权力的游戏》和《纸牌屋》的新迷你剧《唐纳德当总统》。

也许将有第二个最佳万寿菊酒店和伤亡的组合?

一个由著名演员扮演年迈的英国侨民在印度使用医院服务的故事?哦,等一下——ITV星期天晚上播出。

ai的中性?

关于AI还有另一个非常令人不安的想法。在2016年他的学习直播会议中,这是由Euan Semple非常雄辩的表现。

另一个挑战是,算法可能会被欺骗。

他说:“算法不是中立的”。当然,他是对的。他们是否以故意的偏见和信仰取决于或仅找到新的方式来提供意外后果,我们需要谨慎态度。必威提现安全吗

微软的人工智能推特机器人的故事

微软在所有技术方面都很聪明。

然而,当他们在2016年3月推出一个人工智能推特机器人时,他们希望它能在推特上与16 - 25岁的年轻人积极交流,并向他们学习。

他们的想法是,这个实验性的人工智能程序将很快与这一人群进行如此自然的交流,以至于用户甚至不会意识到Tay(他们给自己的创作起的名字)只是一个计算机程序。也许他们应该读读玛丽·雪莱的《弗兰肯斯坦》?

在24小时内,Tay从天真地向它的追随者们宣称“你好,世界”到表达了犹太人应该对9/11事件负责的观点,希特勒没有做错任何事!24小时!你可以创造一个反犹太的AI不到一天!神奇。

大数据学习的意外后果

机器学习中还出现过其他一些不可靠的观点。

在美国,一个旨在协助法官制定量刑政策的人工智能系统,在审查类似罪行时,白人男性给出的量刑建议明显低于非洲裔美国男性或女性。

通过基于过去的判决实践来基于其算法,司法机构成员的无意识偏见成为该计划的永久特征。

你能骗过智能系统吗?

另一个挑战是,算法可能会被欺骗。我们知道这一点。搜索引擎优化(SEO)是确保产品网站游戏Google算法的艺术和科学。

如果你有资源去推动一个特定的产品必威 体育或政治信仰,你就可以让它看起来比实际上更主流、更受欢迎或更令人满意。

如果这可以发生在拥有大量数据的谷歌上,那么想想如何在使用较少数据的环境中对其进行操作——比如L&D部门所依赖的数据。

使用算法来预测人们想要或需要什么实际上减少了而不是扩大了选择。

我们会迎战“学习玉兰?”

使用算法来预测人们想要或需要什么实际上减少了而不是扩大了选择。

AI在学习中可能会减少可用的选项范围,推动每个人的学习玉兰 - 一个安全,平淡的替代方案,限制了我们的经验而不是扩大视野。

从真正意义上说,这是开车时只看后视镜。如果你在过去做过某事,那么你将来很可能想做类似的事情。难道我们没有超越这种机械的分类吗?

在这个世界上,我们越来越质疑个人简单的分类——从它学习方式——在我看来是极度悲伤,我们更换一套盒和标签的危险与一组额外的人格类型由最情商的人类,西海岸极客。

这种对过去数据的使用忽略了学习中最重要的部分:学习是具有变革性的。

在我参与的学习活动中,我已经有了不可言喻的改变。我希望我帮助改变了那些经历过学习活动的人的生活或职业生涯,我也参与其中。

我足够谦虚地知道,我从一些学习经历中出现了作为来自那个人的不同人。良好的学习经历改变了我们。

尽管对增长变化和发展抱有这种希望,但认为我们将永远由一组关于我们过去所做事情的数字和数据点来定义的想法,是非常令人沮丧的。这并不是一个巨大的飞跃。

必须抵制它。

标签:

回复(0)

登录或者注册参加讨论。

目前尚无回复,请先发布回复。