华亭煤业集团两项目加快延伸煤化工产业链
另一方面,在倒逼被许可人尽快实施行政许可过程中,也一并推动了普遍服务义务的履行,广泛增进了社会公共福利。
作者简介:刘艳红(1970-),女,湖北武汉人,法学博士,东南大学法学院教授,东南大学人权研究院暨人民法院司法大数据研究基地教授,博士生导师,研究方向:刑法学、数据法学。[32]Dumsday, Travis, Group privacy and government surveillance of religious services, Monist ,2008,p.171. [33]参见王利明:《论个人信息权的法律保护——以个人信息权与隐私权的界分为中心》,载《现代法学》2013年第4期。
虽然连续性视频监控可能侵犯个人隐私,但通过对监控信息的使用和传播进行技术控制,亦能够有效地降低个人隐私泄露的风险,这同时意味着,安全与隐私之间并不存在实质冲突,隐私保护也没有必要让步于安全保障。这体现了,在风险社会背景下,兼顾安全保障与隐私保护应成为法理共识,且个人信息保护的立场应从信息主体自主支配转向有序共享。在第二种情况下,监控者虽然不能直接获得私人领域的信息,但通过监控信息确定何人在何时进入了该私人领域,并结合被监控者在公共空间的活动情况,亦构成对个人信息权乃至隐私权的侵犯。结语 面向风险社会,对公共空间大规模监控合理与否问题的阐释不能仅从保障安全的视角切入,还应当意识到这一举措暗含的隐私保护理念。总之,作为应对社会风险的技术手段,在公共空间运用大规模监控必须基于安全保障与隐私保护并重的法理共识。
《个人信息保护法(草案)》第5条后半段规定:收集不需识别信息主体的个人信息,应当消除该信息的识别力,并不得恢复,即在非必要的情况下,禁止收集具有可识别性的个人信息。对有序共享的理解,应当分为两个方面:一是共享性,即个人信息不再专属于个人的人格或财产利益,而是具有社会属性或使用价值的重要资源,在信息时代,信息作为战略性资源,其自由流动具有重要的基础性意义。在冈萨雷斯诉谷歌案中,法院就认为谷歌公司为了增强引擎搜索能力,获得更多的利润,不愿意及时删除一些明显过时的数据。
法官路易斯布兰迪斯指出,阳光被认为是最好的消毒剂,电灯是效率最高的警察。(17)奥巴马政府曾建议监管机构应扩大其技术专长,以便能够识别对受保护群体具有歧视性影响的大数据分析,并制定调查和解决该等歧视行为的计划。⑩这种通过属性关联方式发生的歧视在外观上看来是客观中立的,因此具有很强的隐蔽性,难以为人们所辨识。在新药许可审批过程中,它强调药物必须通过有关安全性和有效性的售前试验以后,才能进入市场。
美国联邦贸易委员会从数据隐私和个人信息保护角度对算法歧视行为进行了规制。(56)在实践中,法院主要是从特定受保护群体受到算法决策影响角度来展开的,即只有某一算法决策对特定受保护群体构成了不利影响,才可能认定该算法决策存在歧视。
(63)因为算法自动化决策所引发的歧视问题是多维度、多层面和多领域的,算法歧视的形式也更为隐蔽。2.特定性规制 特定性规制指向算法歧视的具体问题。(54)See Griggs v.Duke Power Co.,401 U.S.424,432(1971). (55)Id. (56)See Jennifer L.Peresie,Toward a Coherent Test for Disparate Impact Discrimination,84 Ind.L.J.773,774(2009). (57)See Maayan Perel Niva Elkin-Koren,Black Box Tinkering:Beyond Disclosure in Algorithmic Enforcement,69 Fla.L.Rev.181,184(2017). (58)See Robert L.Bevan,Remarks,2 Ann.Rev.Banking L.123,127(1983). (59)See John Frank Weaver,Artificial Intelligence and Governing the Life Cycle of Personal Data,24 Rich.J.L. Tech.2,9(2018). (60)See Lepri et al.,supra note 1,at 611-618. (61)解释权的内涵应从以下方面理解:(1)算法解释权的基本构造。(52) (二)差异性影响审查模式 差异性影响审查模式,又称无过错算法歧视审查模式。
(24)从审查与评估的方法上看,它主要采取的是排除敏感属性的做法。该原则强调算法的设计者与使用者应当按照法律和政策的要求来设计算法,并对算法产生的结果负责(37)。当原告成功地证明了算法决策对其造成了不成比例的不利影响以后,被告就需要对原告提出的差异性影响及其证据进行反驳或者证明其使用这种决策是基于商业必要性理由。(30)公司利用这些数据进行算法决策极有可能给用户带来歧视风险。
它是指受算法决策影响的人认为算法决策机制存在歧视性影响时,向法院提起诉讼,要求算法作出者改变决策,并承担损失的机制。美国平等就业机会委员会就一直非常积极地对劳工招聘中使用了算法的案件进行审查。
解释权权利主体为受到自动化决策不利决策的相对人,解释权义务主体为自动化决策的使用者(首要解释者)、开发者(最终解释者)。它们愈来愈意识到仅靠行为自律难以确保算法自动化决策的规范运行,还需要建立他律性规制措施。
计算机凭借深度学习能力,形成可用信息,并智能化地针对不同群体乃至具体个人进行推送或定价。在差异性影响审查模式中,法院就强调商业必要性可以成为算法歧视免除责任的一项理由。五是系统性监督大型公共场所的算法。第四,对高风险算法进行特定性规制。例如,美国联邦贸易委员会技术研究和调查办公室对算法的透明度问题进行了独立研究,并向FTC消费者保护调查员和律师提供有关算法透明度的培训和技术专业知识。无论算法的逻辑构架多么复杂,都必须由算法使用者作出正常人能够理解的说明。
2019年4月17日,欧洲议会批准《关于提高在线平台交易的公平性和透明度规则》,并充分发挥欧盟委员会在算法歧视方面的规制作用。在具体的判决过程中,法院主要采用了分层审查,重点审查算法行为是否尊重了公民的平等权。
(28)2017年,英国发布的《数据保护法案(草案)》更是强化了知情-同意制度,并对个人同意增加了许多新条件。人们在线上交易过程中往往会形成浏览、收藏、下单、评价等记录。
如果算法决策给决策对象产生了差异性影响,法院就认定为算法决策者构成了算法歧视。它遵循的是实害救济的矫正主义逻辑。
2.事后性规制 事后性规制模式,是指算法决策存在歧视并给当事人造成不利后果后,对算法决策者或使用者追究相应责任。例如,在员工管理过程中,很多企业就利用互联网上的数据来判断妇女是否符合工作需要,这给妇女造成了歧视。因此,这些系统的设计者以及经常监督或控制系统设计的非技术利益相关者必须首先考虑到算法的监督和审查机制。欧盟证券和市场管理局则从数据存储和算法备案的角度来防止算法出现歧视。
五是算法数据可靠性原则。(62)Patel v.Zillow,Inc.,915 F.3d 446(7th Cir.2019). 进入专题: 大数据 算法歧视 。
这给公众和社会造成了巨大的损失。(58)美国联邦贸易委员会也认为:信息掌握在消费者手中,能够提高其合理购买的决策能力,这是我们经济体系的基本原则,对于经济的有效运作来说,绝对必要。
在司法审查层面,不同待遇审查和差异性影响审查是两种基本模式。See Tim Brennan et al.,Evaluating the Predictive Validity of the COMPAS Risk and Needs Assessment System,36 Crim.Just. Behav.21,21-40(2009). ④See Lepri et al.,supra note 1,at 611-618. ⑤See Ric Simmons,Big Data and Procedural Justice:Legitimizing Algorithms in the Criminal Justice System,15 Ohio St.J.Crim.L.573,581(2018). ⑥See Peggy Bruner,A Case against Bad Math,22 J.Tech.L. Pol y 1,4(2018). ⑦See Sandra G.Mayson,Bias in,Bias Out,128 Yale L.J.2218,2223(2019). ⑧See Talia B.Gillis Jann L.Spiess,Big Data and Discrimination,86 U.Chi.L.Rev.459,467(2019). ⑨See Aziz Z.Huq,Racial Equity in Algorithmic Criminal Justice,68 Duke L.J.1043,1068(2019). ⑩See Solon Barocas Andrew D.Selbst,Big Datas Disparate Impact,104 Cal.L.Rev.671,691(2016). (11)See Mayson,supra note 7,at 2218-2223. (12)See Daniel R.Shulman,Whats the Problem with Google? 15 Sedona Conf.J.17,18(2014). (13)See Richard A.Primus,Equal Protection and Disparate Impact:Round Three,117 Harv.L.Rev.494,504(2003). (14)See Pauline T.Kim,Data-Driven Discrimination at Work,58 Wm. Mary L.Rev.857(2017). (15)See B.Lepri,J.Staiano D.Sangokoya,The Tyranny of Data? The Bright and Dark Sides of Data-Driven Decision-Making for Social Good,Transparent Data Mining for Big and Small Data 3,24 (Springer International Publishing 2017). (16)See Mark MacCarthy,Standards of Fairness for Disparate Impact Assessment of Big Data Algorithms,48 Cumb.L.Rev.67,77(2018). (17)See Press Release,Fed.Trade Comm n,Spokeo to Pay 800,000 to Settle FTC Charges Company Allegedly Marketed Information to Employers and Recruiters in Violation of FCRA (June 12,2012). (18)See MacCarthy,supra note 16,at 78-79. (19)Id.at 67-79. (20)See Bruner,supra note 6,at 18. (21)San Francisco votes to ban government use of facial recognition technology,2019 WL 2149247. (22)See Lepri et al.,supra note 1,at 611-618. (23)Id. (24)See Bart Custers,Data Dilemmas in the Information Society:Introduction and Overview,in Discrimination Privacy in the Information Society 3,7 (Springer-Verlag Berlin Heidelberg 2013). (25)See K.A.Taipale,Data Mining and Domestic Security:Connecting the Dots to Make Sense of Data,5 Colum.Sci. Tech.L.Rev.2,184(2003). (26)See Melissa Hamilton,The Biased Algorithm:Evidence of Disparate Impact on Hispanics,56 Am.Crim.L.Rev.1553,1553(2019). (27)See Michele Willson,Algorithms (and the) Everyday,20(1) Information Communication Society 137,150(2017). (28)See Ira S.Rubinstein,Privacy and Regulatory Innovation:Moving beyond Voluntary Codes,6 J.L. Pol y Info.Soc y 356,357(2011). (29)See Philip Hacker Bilyana Petkova,Reining in the Big Promise of Big Data:Transparency,Inequality,and New Regulatory Frontiers,15 Nw.J.Tech. Intell.Prop.1,12(2017). (30)Id.at 20. (31)Id.at 16. (32)Pregnancy Discrimination Act,42 USC § 2000e (k)(2012). (33)Age Discrimination in Employment Act,42 USC §§ 621-634(2012). (34)The Genetic Information Nondiscrimination Act,42 USC § 2000ff-1 (a)(1)-(2). (35)See T.Kim,supra note 14,at 902-903. (36)See MacCarthy,supra note 16,at 67-77. (37)See Joshua A.Kroll et al.,Accountable Algorithms,165 U.Pa.L.Rev.164,165(2017). (38)计算机科学家一般使用两种测试方法评估算法程序:(1)静态方法,在不运行程序的情况下查看源代码。
①这种算法决策在招聘、警务、教育、信贷、刑事司法、股票交易等领域得到广泛运用。为了对算法歧视行为进行规制,它在强化告知且同意的隐私权保护框架的前提下,构建了数据隐私侵权的事后审查制度,并首次提出了隐私设计的概念,要求企业将隐私保护纳入其日常业务实践。大量的数据流与日益提升的算法分析和技术能力相结合,使人们能够利用基于机器学习的算法来解决复杂的问题。它能够确保个人在接受服务后仍有权要求抹除数据。
(21)爱尔兰和德国提出,明确提醒用户并征得同意是使用面部识别算法的前提。(47)倘若原告能够证明雇主在算法中存在歧视的主观意图或固有的刻板印象,雇主就应当承担算法歧视的责任。
需要强调的是,我们不能将敏感属性仅仅理解为明确包含类似种族、性别这样的字眼,而是要审查是否隐含这类歧视的敏感信息。在具体操作过程中,它们主要存在如下区别:(1)责任主体的主观意图不同。
它要求医院不得仅仅通过某项算法决策就来预测患者病情并决定如何用药。在不同待遇审查模式中,算法使用者不会因为算法决策中的目标变量的选择与使用同其追求的合法的商业目标之间存在着直接相关性而免除法律责任。
扫一扫关注我们
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件至 5MoBan@YunYunAn.Com举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容【后台-全局配置-定制标签-内容页声明修改】。
标签: 西部航空发放开学季学生专享机票红包 隐患排查|和田机场机务工程部开展新设备风险研判 西北空管局空管中心终端管制室组织开展月度应急培训考核 北京市企业补充医疗保险暂行办法 东航江西分公司开展“童心向党 喜迎二十大”亲子诵读活动 “五险合一”系统使保险缴费更便捷 同心同向同行,共建共享共赢——测绘公司组织徒步走活动 保险中介改变保险市场格局 投保合适的保险 才能获得全面的保障 购买“春运保障险” 保前要看清免责条例 乌鲁木齐国际机场分公司“疫”线先锋 共产党员树先锋 上海保交所获批进入筹建阶段 航油天津分公司持续推进综合技能竞赛备赛工作 新海航借力民航局综合安全审计,安全管理必将再上新台阶 云南空管分局技术保障部团总支举办焊接技能竞赛 景德镇机场分公司党委部署迎二十大安全工作 巨灾保险制度设计:核心在于提高灾害救助效率 保险业投资迎来强管理 需端正正确发展方向 如何购买宜昌汽车保险 开展消防器材使用演练 筑牢消防安全防线
相关文章
热点文章
专盯工地挖机,红安一“油耗子”落网
美国航空公司投诉量与2019年相比增加270%
坚定不移贯彻落实总体国家安全观 为构建新安全格局贡献吉林力量
台风“马鞍”来袭,深圳空管站气象台多措并举做好保障
确保开机看直播
民航海南空管分局组织分享会丰富隔离值守人员生活