【资料图】
科技日报记者 张梦然
《自然》发表的一篇评论文章指出,研究人员必须建立一门科学来研究人类—算法行为的集体模式,以便更好地监管适应性算法,并确保它们对社会发挥安全有益的作用。
自适应算法是能根据人类集体行为不断变化的算法,比如能根据多个变化因素(包括宣传、反宣传以及共同利益)为社交媒体推送筛选个性化内容的算法。这些算法已被发现与产生广泛影响有关,包括社会运动和股市闪电崩盘。在美国最高法院今年晚些时候将审理的一起案件中,优兔(YouTube)的母公司谷歌被起诉,因为其视频的适应性算法推送使恐怖分子变得激进的内容,而谷歌对此负有责任。无论最终结果如何,这起案件将迫使人们思考如何监管会根据人类行为发生改变的算法。
美国康奈尔大学科学家纳森·马提亚斯在文中表示:“随着AI系统的应用日渐广泛,人类的生活与适应性算法将紧密交织。”人类与适应性算法之间的相互影响会形成一个复杂系统,在这个系统中,任何部分的微小变化,如算法调整,都会导致非预期的后果。
马提亚斯提出了完善人类—算法集体行为这门科学的4个步骤,包括对行为模式的分类和预测,以及避免产生危害的有效干预。由于算法的影响通常由民众和记者最早察觉,作者因而认为这些群体应被纳入这类研究中。
文章还指出,适应性算法或对社会产生深远的益处,这些算法的潜在危害也将变得可控。不过,“这里的前提是必须用可靠的研究对算法进行设计和监管”。