人借助机器学习并不一定能做出更好的决策?

H

uman centric AI里很重要的一个话题就是探索人与机器的协作关系。其中人在机器学习的帮助或影响下的决策过程更是研究的重点。虽然很多论文展示出机器学习能够帮助人更好地做决策,但是也有不同的声音认为因为很多因素,一个好的机器学习模型并不一定能显著帮助人们改善他们的决策水平。Michelle Vaccaro和Jim Waldo就在The effects of mixing machine learning and human judgement一文中对这个问题进行了探讨。本文旨在总结这篇论文的知识点并说说自己的一些看法。

北美博士生生存法则:听不懂,也不会说

近跟一个新来的博士学妹聊天,跟我抱怨跟不上课程,特别是听说能力有点不够,所以慌了神。作为一个外来物种,怎样正确面对自己读写能力不够强的初级阶段呢?

第一期:能够检测经血的卫生巾???

U

bicomp 2019,谷歌的隐私编码算法, 以及关于开题报告的无尽挑战。...

黑盒模型的解释算法在高风险决策中也许并不恰当

是一篇Cythia Rudin写的论文'Please Stop Explaining Black Box Models for High-Stakes Decisions'的笔记摘要。这篇文章主要分析和归纳了那些用来解释黑盒模型的算法在高风险决策中的各种问题,在Deep learning占据主流的AI市场,算法的偏见,不公正和不透明性已经成为不可忽视的问题。在一些高风险决策中,这种不透明性可以是致命的,而任何解释黑盒模型的算法都有着自己的缺陷。