
2022年3月1日,《互联网信息服务算法推荐管理规定》(以下简称为《规定》)由州互联网信息办公室,工业和信息技术部,公共安全部,公共安全部和国家法规的州政府联合发行。在大数据经济时代,算法是个人信息处理器收集和处理数据,推动信息和分配资源的核心力量。一旦该算法脱节,它将对国家利益,社会公共利益以及公民的合法权利和利益构成严重威胁。因此,实施《规定》具有不同的当代意义和实际需求。
算法是计算机的核心操作逻辑,是基于设计目的的一组数据处理指令的总和,反映了底部的专业技术的特征。算法也是一种授权技术。应用程序方案是授权领域。当将算法应用于特定的业务模型时,将出现面向应用程序的风险。算法关系是这种“方式”和“域”之间的叠加或组合关系。因此,不能忽略算法规范。算法的设计,测试和评估是科学和技术活动。 “算法黑匣子”和“算法霸权”部分是由科学和技术活动本身的不规则性引起的。算法规范不仅要谈论“ METHMS”,因为它是算法的无尽应用程序场景,允许算法实际影响我们的权利和利益并影响人们的自由发展。《规定》完全掌握了算法的内源性风险和面向应用的风险,并以目标方式设计了预防风险预防规则。
首先,控制算法的内源性风险的重点是算法的设计和操作阶段。非专业人士无法对算法进行设计,测试和评估。这种“排他性”表明算法活动是一项专业技术。慢性疾病(例如黑匣子和算法歧视)的出现也源于科学和技术活动本身的复杂性。因此,科学和技术活动的规范需要从科学和技术风险预防的角度设计特殊规则。《规定》鼓励使用算法来传播正能量,抵抗非法和不良信息,并且不建立诱导用户沉迷,过度消费等的算法模型,以促进算法是向上和良好的。它表明,作为科学和技术活动的算法研发不仅具有工具理性,而且必须具有价值理性。
在特定规则级别上,《规定》还专注于从技术角度直接标准化算法设计和操作。例如,第9条,第1段要求算法建议服务提供商来建立和改进功能数据库,以识别非法和不良信息,并改善数据库输入标准,规则和程序;第10条要求算法推荐服务提供商来加强用户模型和用户标签管理;第12条鼓励算法建议服务提供商全面使用内容删除和分散干预等策略,并优化规则的透明度和解释性,例如检索,分类,选择,推动和显示等。
尤其值得注意的是,第《规定》条第24条规定了算法归档系统,并要求算法建议服务提供商提供算法类型,算法自我评估报告等信息,并提出了拟议的公共披露内容。科学和技术活动的风险控制是第一个建议的风险评估和实验数据记录。如果算法活动缺乏风险评估,则无法从来源控制风险。如果算法设计和检查缺乏记录,则调节器将无法有效评估,跟踪和验证复杂算法。从某种意义上说,归档系统迫使建议服务提供商积极进行风险评估并记录整个过程,这不仅敦促操作员在整个算法活动阶段考虑算法合规性问题,还可以帮助执法机构来监督算法活动。
其次,算法基于应用程序的风险的治理涵盖了算法操作的整个生命周期。算法既是科学和技术,又是授权方法。除了具有科学和技术的固有风险外,它们还不断影响源自工业时代的立法模型和治理模型,从而导致许多治理疼痛点。在申请过程中,我们还必须实施程序控制。但是,算法应用具有与算法研究和开发不同的特殊特征:算法应用直接对算法对应作用。算法的应用将影响算法对应物的合法权利和利益。 ——算法根据算法对应物的需求做出决定。为了解决面向应用程序的风险,《规定》为未成年人,老年人,工人和大数据杀害老客户配置相应的行为规则(第19至21条)。为了实现自下而上的算法治理,《规定》还授予个人通过权利道路对抗算法决策的权利。
第17条第1款规定:“算法建议服务提供商应为用户提供不针对其个人特征的选项,或为用户提供方便的选项,以关闭算法推荐服务。如果用户选择关闭算法推荐服务,则算法推荐服务提供商应立即停止提供相关服务。”与第24条第2款的第《规定》款的规定相比,本条进一步规定了拒绝算法申请的权利。
此外,第17条第2款规定:“算术建议服务提供商应为用户提供选择或删除用户标签的功能,以供其在算法推荐服务中使用的个人特征。”本文是我国家的第一篇文章,可以更全面地保护算法对应物的利益。算法对方可能不需要算法用户停止推荐服务,而是禁止推定特定类型的服务。通过赋予算法对应物删除标签的权利,可以更全面地满足用户的要求。
同时,第17条第《个人信息保护法》款也规定:“如果算法建议服务提供商使用算法对用户权利和利益产生重大影响,则应根据法律解释并承担相应的责任。”例如,在动态定价中,如果向用户推荐的价格太高,则可能会对用户权利和利益产生重大影响。用户可以要求算法推荐服务提供商提供说明。如果构成侵犯民权和利益的侵犯,则算法建议服务提供商应承担相应的责任。
算法风险的完整程序治理是在“风险调节”框架下找到新的平衡点和组合方法。算法本质上是处理数据并是应用科学技术的代码。但是技术不是中立的,尤其是当算法没有处理“事物”而是“个人信息”时,算法活动既具有社交活动属性,伦理的内涵和社会风险。因此,算法规范问题部分源自技术的专业精神和工具,部分源自应用程序方案的价值复杂性。《规定》关于科学和技术风险和应用风险的设计规则,在“风险调节”的框架下,已经制定了一种用于算法规范的中国解决方案。
(作者:Zhejiang University广告法学院讲师Lin Huanmin,工业与信息技术法治研究所的研究员)