公告: 极客数据面向大数据行业从业人员及爱好者分享行业最新资讯以及各种工具使用教程,行业资深大佬可移步至行业专业交流社区 “穹顶喵”!

机器学习对于企业的意义

3889


虽然机器学习正在推动技术,可以帮助工人或为企业开辟新的可能性,但商业领袖应该了解机器学习及其局限性的几件事。可解释性一个值得关注的领域是一些专家所说的可解释性,或者明确机器学习模型正在做什么以及它们如何做出决策的能力。

Madry 说:“理解一个模型为什么会做它所做的事情实际上是一个非常困难的问题,你总是要问自己这个问题。” “你永远不应该把它当作一个黑匣子,它只是一个预言机......是的,你应该使用它,但然后试着去感受一下它提出的经验法则是什么?然后验证它们。”这一点尤其重要,因为系统可能会被愚弄和破坏,或者只是在某些任务上失败,即使是那些人类也可以轻松执行。

例如,调整图像中的元数据可能会使计算机感到困惑——只要稍作调整,机器就能将狗的图片识别为鸵鸟。Madry 指出了另一个例子,其中检查 X 射线的机器学习算法似乎优于医生。

但事实证明,该算法将结果与拍摄图像的机器相关联,而不一定是图像本身。结核病在发展中国家更为常见,因为这些国家的机器往往较旧。机器学习程序了解到,如果在较旧的机器上拍摄 X 光片,患者更有可能患有肺结核。它完成了任务,但不是以程序员预期或认为有用的方式。舒尔曼说,解释模型如何工作及其准确性的重要性可能因使用方式而异。

他说,虽然大多数良性问题都可以通过机器学习解决,但人们现在应该假设这些模型只能达到人类准确率的 95% 左右。如果推荐电影的算法有 95% 的准确率,程序员和观众可能没问题,但对于自动驾驶汽车或旨在发现机械严重缺陷的程序而言,这种准确度水平是不够的。

偏见和意外结果机器由人类训练,人类的偏见可以纳入算法——如果有偏见的信息或反映现有不平等的数据被输入机器学习程序,该程序将学会复制它并使歧视形式永久化。

例如,接受过人们如何在 Twitter 上交谈的聊天机器人可以识别攻击性和种族主义语言。在某些情况下,机器学习模型会产生或加剧社会问题。例如,Facebook 使用机器学习作为一种工具,向用户展示他们感兴趣并吸引他们的广告和内容——这导致模型向人们展示极端内容,当人们被展示为煽动性、党派偏见时,会导致两极分化和阴谋论的传播,或不准确的内容。

与机器学习中的偏见作斗争的方法包括仔细审查训练数据和为合乎道德的人工智能工作提供组织支持,例如确保您的组织采用以人为中心的人工智能,从不同背景、经验和生活方式的人那里寻求输入的做法设计人工智能系统。致力于解决这个问题的倡议包括算法正义联盟和 道德机器项目。

让机器学习发挥作用舒尔曼说,高管们往往难以理解机器学习实际上可以为公司增加价值的地方。一家公司的噱头是另一家公司的核心,企业应该避免趋势并找到适合他们的业务用例。

Shulman 说,机器学习在亚马逊上的工作方式可能不会在汽车公司中发挥作用——虽然亚马逊在语音助手和声控扬声器方面取得了成功,但这并不意味着汽车公司应该优先为汽车添加扬声器。他说,更有可能的是,汽车公司可能会找到一种在工厂生产线上使用机器学习的方法,从而节省或赚取大量资金。

这个领域发展得如此之快,这很棒,但高管们很难做出决定,也很难决定投入多少资源,”舒尔曼说。舒尔曼说,最好避免将机器学习视为寻找问题的解决方案。一些公司最终可能会尝试将机器学习移植到商业用途中。企业不应从关注技术开始,而应从关注可以通过机器学习来满足的业务问题或客户需求开始。

LaRovere 说,对机器学习的基本了解很重要,但找到正确的机器学习用途最终取决于具有不同专业知识的人一起工作。“我不是数据科学家。我不是在做实际的数据工程工作——所有的数据采集、处理和争论以启用机器学习应用程序——但我非常了解它能够与这些团队合作以获得我们需要的答案并产生影响我们需要,”她说。“你真的必须在一个团队中工作。”