胡小花 2022-04-26发布 阅读:664次 ⋅ 人工智能  麻省理工学院  算法   ⋅

近期,美国国防部任命克雷格·马泰尔 (Craig Martell)成为美军首席数字和人工智能官(CDAO,Chief Digital and AI Officer)。克雷格学习了逻辑、哲学、政治学和政治理论之后,完成了博士学位。在计算机科学领域,并找到了通往机器学习的道路。

毫无疑问,了解美军人工智能最高官员的看法,对数字孪生战场实验室开展研究工作有较大帮助。本文编译自克雷格接受《麻省理工科技评论》(MIT Technology Review)采访的实录,供读者参考。

随着组织更多地依赖技术驱动的方案来解决业务问题,算法被纳入整体工程和产品开发路线图。克雷格分享了他对这种转变对组织中的学术教育和跨职能合作意味着什么的看法,主持人挑选了他关于如何对抗无意识偏见的想法。

主持人:算法变得不那么重要了吗?随着算法变得商品化,它可能不再关注算法,而更多地关注应用程序。我们与 Lyft 机器学习主管克雷格·马泰尔讨论 Lyft 如何使用人工智能来改善其业务。

今天我们正在与克雷格·马泰尔交谈。克雷格是 Lyft 的机器学习负责人。感谢您今天参加今天的活动。

克雷格·马泰尔:谢谢。很高兴来到这里。这些都是非常令人兴奋的话题。

主持人:那么,Lyft 机器学习负责人 Craig ——这到底意味着什么,你是怎么做到的?

克雷格·马泰尔:首先让我说我很确定我在生活中中了彩票,原因如下:我开始在学术上做政治理论,我度过了这个被浪费的青春,一路上我收集了一系列硕士学位弄清楚我想做什么。所以我学了哲学、政治学、政治理论、逻辑学……最后我拿到了博士学位。宾夕法尼亚大学计算机科学专业。我以为我要做可测试的哲学。最接近的是做人工智能,所以我只是出于爱才去做。我只是觉得整个过程,目标和技术,绝对令人着迷。

主持人:你的总体规划的所有部分都结合在一起了。

克雷格·马泰尔:一点也不;我掉进去了。

主持人:那你后来是怎么来到 Lyft 的?

克雷格·马泰尔:我在 LinkedIn 工作了大约六年。然后我的妻子在亚马逊得到了这份了不起的工作,我跟着她去了西雅图。我在 Dropbox 工作了一年,然后 Lyft 联系了我。我基本上抓住了这个机会,因为这个机会太有趣了。我一般都喜欢汽车,这意味着我一般都喜欢交通。改变我们运输方式的想法只是一个迷人的空间。然后,在我以前的生活中,我是一名终身计算机科学教授,这仍然是我的最爱,所以我是东北大学的兼职教授,只是为了确保我保持我的教学技能。

主持人:克雷格,你在哲学、政治学方面的深厚人文背景,你提到了逻辑——所有这些——在你的整个旅程中对你有什么影响?

克雷格·马泰尔:这真的很有趣。当我想到 AI 是什么时,我发现算法在数学上令人着迷,但我发现算法的使用更令人着迷。因为,从技术角度来看,我们正在寻找极高维非线性空间中的相关性。这是某种意义上的大规模统计,对吧?我们正在发现 A 和 B 之间的这些相关性。这些算法真的很有趣,我现在还在教这些,它们很有趣。但对我来说更有趣的是,这些相关性对人们意味着什么?我认为推出的每一个 AI 模型都是一次认知科学测试。我们正在尝试模拟人类的行为方式。现在,对于自动驾驶,我们正在模拟汽车在某种意义上的行为方式,但考虑到其他由人类驾驶的汽车,我们实际上是在模拟正确的人类行为。

主持人:你能多谈谈 Lyft 如何组织 AI 和 ML 团队吗?

克雷格·马泰尔:在 Lyft,我们整个公司都有模型构建者——我们有一个非常大的科学组织。我们还有所谓的 ML SWE——ML 软件工程师。我管理着一个名为 Lyft ML 的团队,它由两个主要团队组成。一种是应用机器学习,我们利用专业知识和机器学习来解决一些非常棘手的问题;还有 ML 平台,它让我对获得 ML 的卓越运营产生了浓厚的兴趣,以确保它有效地达到业务指标。

主持人:你认为你的学生应该问他们什么不是?或者,换一种说法,当他们进入劳动力市场并在现实世界中真正做人工智能时,他们最惊讶的是什么?

克雷格·马泰尔:算法本身变得不那么重要了。我对使用商品化这个词犹豫不决,但在某种程度上,它们正在被商品化,对吧?您可以从五个中选择一个,从七个中选择一个,您可以全部尝试——模型系列,针对特定问题。但真正发生的事情,或者我认为正在发生的令人兴奋的事情是,这些模型如何融入更大的工程管道,使您能够衡量并保证您有效地实现了业务目标。这与数据的清洁度有关,确保数据及时存在……经典的工程问题,例如,您是否以正确的延迟返回您的功能?因此,实际模型本身已经从问题的 85% 缩小到问题的 15%。现在 85% 的问题在于工程和围绕它的卓越运营。我认为我们正处于拐点。

主持人:您是否相信,随着 AutoML 和这些软件包工具的出现,以及您的观点,随着时间的推移,算法不再是算法,而是数据以及您如何使用它……你认为 10 年后数据科学家的课程和培训以及整体定位会发生巨大的不同吗?我们应该教他们不同的东西,不同的技能吗?因为它曾经是,很多人都专注于创建算法,尝试不同的事情,我认为你正在强调这是一个平稳的点。这对未来的劳动力意味着什么?

克雷格·马泰尔:是的,我认为这很棒。在这里我要说一些有争议的事情,希望不要得罪任何人。

主持人:这就是我问的原因,所以我希望你会问。

克雷格·马泰尔:所以如果你看看 5 年或 10 年前,为了提供科技公司想要提供的那种价值,你需要一支博士队伍,对吗?构建这些算法的技术能力非常重要。我认为拐点可能是 TensorFlow,2013 年的版本,它没有被商品化——你仍然需要非常努力地考虑算法——但实际让算法走出门外变得很多更轻松。现在,有很多框架可以做到这一点。

我想知道——这是一个真正的奇迹:我想知道学位,我们未来需要多少专门的机器学习/人工智能数据科学培训。我认为计算机科学本科生,或一般的工程本科生,都将通过两门或三门 AI 课程毕业。而那两个或三个 AI 类,在公司拥有正确的基础设施,收集特征的正确方法,指定标记数据的正确方法……如果我们有那个 ML 平台,拥有两三个强类的人就会去能够交付公司可能需要的 70% 的模型。现在,[对于]这 30%,我认为你仍然需要专家一段时间。我只是不认为你需要它,就像以前需要它一样,几乎每个专家都必须拥有博士学位。

以一种有趣的方式,它证实了我们一直在说什么才能真正产生大规模影响,这是技术性的东西只能让你到目前为止,但最终,你必须改变它的消费方式,并且你必须改变人们的工作方式以及人与人工智能之间的不同交互模式。我想这是很多人文科学、哲学和政治科学以及人类如何工作的——比算法所做的更重要。

主持人:嗯,这也是一个很好的重定向,因为如果我们不小心,那么这个对话就会让我们进入更多 DevOps 课程,所以 Shervin 指出的是,也许这当然也是一个组成部分,但是有流程变化和更多,比方说,面向业务的举措。

你还想教别人什么其他的东西?或者,您认为高管还应该知道哪些其他类型的事情?......每个人都不必知道一切;这会有点压倒性的。如果每个人都知道一切,这也许是理想的选择,但不同级别的经理究竟需要知道什么?

克雷格·马泰尔:我认为最高决策者需要了解模型出错的危险,他们需要了解整个过程——你真的需要标记数据。这里没有魔法。他们必须明白没有魔法。所以他们必须明白标记数据是昂贵的,正确的标记和正确采样你想要的世界分布是非常重要的。我相信他们还必须了解一般的生命周期,这与我们要关闭这些 Jira 票的两周冲刺不同;数据收集非常重要,可能需要一到两个季度。而且你发布的第一个模型可能不会很好,因为它来自一个小的标记数据集,现在你正在野外收集数据。所以他们需要理解一个生命周期部分,不幸的是,他们需要理解这一点,在很多方面——也许不是为了汽车驾驶,而是为了推荐——你交付的第一对会变得更好。我认为这对高层非常重要。

我认为对于几个级别,他们需要了解精确度/召回率的权衡:您的模型可能犯的错误种类。您的模型可能会出现假阴性错误或假阳性错误,我认为作为产品人员,您拥有该选择非常重要。因此,如果我们进行文档搜索,我认为您更关心误报;你更关心精度。您希望最重要的事情是相关的。对于大多数搜索问题,您不必获取所有相关的东西;您只需要获得足够的相关内容即可。所以如果一些相关的事情被称为不相关的,你可以接受,对吧?但对于其他问题,你需要得到一切。

主持人:文档搜索,这很好。但是,Lyft 也是如此。......把它放在其中一家公司的背景下,你已经在精确度和召回率之间进行了权衡——假阳性,假阴性。

克雷格·马泰尔:幸运的是,在 Lyft,我们有很好的逃生舱口,我认为这非常重要。理想情况下,所有这些建议都应该有一个逃生舱口。所以如果我为你推荐一个目的地,而那个目的地是错误的。

主持人:没关系。

克雷格·马泰尔:没有伤害,没有犯规——你只需输入目的地。所以对于 Lyft 作为产品,我认为我们非常幸运,因为我们的大多数建议——试图降低摩擦让你搭便车——如果我们没有让它们完全正确,那也没关系。那里没有真正的危险。自动驾驶汽车,这很难,因为你想同时拥有它们。您想知道那是行人,并且您还想确保您不会错过任何行人。

主持人:让人类参与其中的想法比仅仅说:“好吧,这里有一些目的地;你喜欢哪个?”

克雷格·马泰尔:对。

主持人:克雷格,你之前谈到现实生活中的人工智能是一堆认知科学实验。

克雷格·马泰尔:至少对我来说。

主持人:是的。它提出了无意识偏见的想法。因此,作为人类,我们已经更加意识到我们对所有事物的无意识偏见,对吧?因为,它们已经通过几代人和刻板印象等根深蒂固。

克雷格·马泰尔:只是我们过去的经历,对吧?就像,一个有偏见的世界会创造一种有偏见的体验,即使你有最好的意图。

主持人:完全正确——对吧?所以我想我的问题是,显然人工智能中存在意想不到的偏见——[那里]必须存在。你认为我们现在需要考虑什么,以便在 10 年、20 年后,这种偏见不会在人工智能的工作方式中变得如此根深蒂固,以至于很难纠正方向?

克雷格·马泰尔:已经有了。所以问题是,我们如何进行课程修正?首先让我说,我参加了东北大学关于这部电影 [称为]Coded Bias的小组讨论。如果你还没有看过电影Coded Bias,你绝对应该看到它。这是关于这位麻省理工学院媒体实验室本科生的黑人女性,她试图做一个没有成功的项目,因为面部识别对黑人女性根本不起作用。这是一项绝对引人入胜的社会研究。用于训练机器学习的数据集——面部识别算法——是当时的研究人员收集的,当时的研究人员是一群白人男性。这是一个已知问题,对吧?收集数据集的方式存在偏差。看,所有心理学研究都存在类似的偏差。心理学研究不适用于我——我 56 岁。心理学研究适用于大学生,因为这是现成的科目。

因此,由于存在偏见,这些人都是现成的人,这就是数据集的产生方式。所以即使没有恶意,世界是扭曲的,世界是有偏见的,数据是有偏见的;它对很多人都不起作用。训练集中的女性并不多。然后你的皮肤越黑,它变得越糟糕。并且有各种各样的技术原因:较深的皮肤对比度较低,等等,等等,等等。但这不是问题。问题是,我们应该以这种方式收集数据吗?数据集的目标是什么?我们的客户是谁?我们想为谁服务?让我们以服务客户的方式对数据进行采样。

我们之前谈到了本科生。我认为这真的很重要。摆脱这种情况的一种方法是工作场所的多样性。我非常相信这一点。你要求每个人,所有这些不同的群体,测试这个系统,看看这个系统是否适合他们。当我们在 Dropbox 进行图像搜索时,我们询问了所有员工研究小组,“请搜索过去对你有问题的东西,看看我们是否正确。” 如果我们发现一些错误,我们会返回并重新收集数据以缓解这些问题。所以看:你的系统会因收集到的数据而产生偏差——事实。只是一个事实,它会受到它收集的数据的偏见。您想尽最大努力正确收集它。你可能不会正确收集,因为你有自己的无意识偏见,正如你所指出的。因此,您必须要求所有将成为您的客户的人尝试它,全力以赴,以确保它在做正确的事情,如果不是,请返回并收集修复它所需的数据。所以我认为简短的回答是工作场所的多样性。

主持人:克雷格,感谢您今天抽出时间与我们交谈。

克雷格·马泰尔:是的,我很高兴,这些对话真的很有趣。我对此非常讨厌,所以我非常喜欢它。



评论

您不能发表评论,可能是以下原因
1、登录后才能评论
2、作者关闭了评论